Quantcast
Channel: TechNet Blogs
Viewing all 34890 articles
Browse latest View live

Sunday Surprise: How to bring consistency in your writing with Time management?

$
0
0

Hello all!

Good morning!!!

Before we start the discussion of our Sunday surprise, I would like to share a small experience with you.

A few days back I was thinking about what to write as my next post and I decided to share my own experience. I hope this would be helpful for all of us who want to write good articles but due to their schedule find it bit difficult to manage time. So, here in lies our surprise - today, I am going to share couple of tips from my own experience about how I usually manage my time for writing various things with time available.

Here are the few questions or challenges or reasons we give ourselves to spare time from writing:

  1. I am a full time employee so, how I can spare time (working from 10 AM to 7 PM)
  2. Why should I spend my weekends to write for something that would not give me money?
  3. Oh God! Why a day has only 24hrs? I need 28hrs in a day. So that I can spend time to write something.
  4. I am a speaker and travel a lot - I can't write as I don't have time. Although I have every intention to write.

There might be more points in addition to points shared above. However all points speak out loud for themselves and that is - How to manage your schedule?

I am not an expert who can solve these problems or can provide the solution for these challenges/issues. But, I can definitely share tips about how I am managing these in my personal and professional life.

Let me share one short story that taught me a lot: when I was a kid - I was famous as a late comer (a person who does not finish tasks on time). This problem was growing as time passed. Whenever my mother asked me - why it was happening this way? I always gave lot of excuses so as to save myself from any punishment. But the problem was getting compounded with each day and I would get late for schools and I was punished as well. Then my mother stepped in and prepared a Time- table for me (a daily work schedule, what was to be done and at what time?). She instructed me that I should follow it strictly. And you can imagine, that day was a game changer for my life. It transformed my life entirely. Now, I was a disciplined boy who completed tasks on time and who knew how to manage his schedule.

I am not going to suggest you that you go and prepare a proper time-table for yourself but, I want to share these points instead with you:

  1. Most important part of managing your day/schedule is - how you divide your tasks? In my view - divide your tasks in order of hardest towards simplest. Hardest task should be the one that need your full energy, complete focus and skill-set. So, choose your hardest tasks once you're in full energy (the best time for this task is start of the day). For simpler tasks (I am not defining it here as definition of simple task may differ from person to person) - the best time when you are wrapping up your day and want to conclude something.
  2. Another important point is - do a task at a time - do not try to do multi-tasking. When you try to do multiple tasks at the same time - you are distracting youself from concentrating on a particular task. For an example- if you are writing a technical article - you should not be active on your social media account and/or your phone. I suggest, switch-off your phone or just take important calls, close all your social media applications.
  3. Setting up a duration of time is one of the best things you can do to manage your time/schedules. I suggest, first set a target time duration to complete a particular task (hardest or simplest doesn't matter) and then set a break time (I usually take breaks after every 30-minutes while performing any task). If you did not set up goal, try to set a goal according to your priority of tasks.
  4. Another important thing is preparing a ToDo list. Try to write down all of the tasks you are working on and the tasks you are willing to start and then priortize all these tasks. Set a scheudle for each task and try to complete the same. Do visit your ToDo list on timely basis to manage the priority order or to know - how many tasks are remaining.
  5. Select your favorite day - This one I love the most. Select your favorite day and on this day do whatever you want to do. It might be related to your professional work or related to your personal commitments.

 

All the suggestions above are from my own experience - I am not saying that you should follow these but I would like you to try these at least once. I am sure that you will get benefits from these.

Best of luck and have a great writing.

 

Ninja Gaurav Arora

- Ninja Gaurav


9月25日(月)夜、米国 Microsoft Ignite イベントの日本語解説付きライブ配信!【9/24 更新】

$
0
0

Microsoft Ignite は、IT リーダーとIT プロフェッショナルが、ビジネスを推進するために役立つ最新のマイクロソフトテクノロジーを学ぶための5 日間のカンファレンスで、今年は9月25日~29日(現地時間)にフロリダ オーランドで開催されます。

このMicrosoft Igniteの基調講演を、日本マイクロソフトのエバンジェリストやMVPの皆様による日本語の解説付きでライブ中継いたします。ぜひこのイベントにご参加ください。

 

・日時
9月25日(月) 22:00~25:00

・キャスト
井上 大輔(日本マイクロソフト㈱ デベロッパー エバンジェリズム統括本部 テクニカルエバンジェリスト)
佐藤 直生(日本マイクロソフト㈱ パートナー技術統括本部 テクニカルエバンジェリスト)
春日井 良隆(日本マイクロソフト㈱ Windows & デバイス ビジネス本部)
冨永 晶子(日本マイクロソフト㈱ クラウド&エンタープライズビジネス本部)
安東 沙織(MVP for Azure)
鈴木 可奈(MVP for Azure)
松本 典子(MVP for Azure)

*キャストにつきましては、予告なく変更となる場合があります。ご了承ください。

 

Top Contributors Awards! September’2017 Week 3

$
0
0

Welcome back for another analysis of contributions to TechNet Wiki over the last week.

First up, the weekly leader board snapshot...

 

As always, here are the results of another weekly crawl over the updated articles feed.

 

Ninja Award Most Revisions Award
Who has made the most individual revisions

 

#1 M.Vignesh with 177 revisions.

 

#2 Kapil.Kumawat with 150 revisions.

 

#3 Anthony Duguid with 81 revisions.

 

Just behind the winners but also worth a mention are:

 

#4 Maruthachalam with 57 revisions.

 

#5 Sabah Shariq with 55 revisions.

 

#6 Richard Mueller with 53 revisions.

 

#7 Ken Cenerelli with 29 revisions.

 

#8 Burak Ugur with 19 revisions.

 

#9 NTRao with 16 revisions.

 

#10 Peter Geelen with 14 revisions.

 

 

Ninja Award Most Articles Updated Award
Who has updated the most articles

 

#1 M.Vignesh with 84 articles.

 

#2 Kapil.Kumawat with 60 articles.

 

#3 Richard Mueller with 21 articles.

 

Just behind the winners but also worth a mention are:

 

#4 Ken Cenerelli with 8 articles.

 

#5 Arleta Wanat with 6 articles.

 

#6 Burak Ugur with 4 articles.

 

#7 Maruthachalam with 4 articles.

 

#8 Anthony Duguid with 3 articles.

 

#9 Peter Geelen with 3 articles.

 

#10 RajeeshMenoth with 3 articles.

 

 

Ninja Award Most Updated Article Award
Largest amount of updated content in a single article

 

The article to have the most change this week was SQL Server: Execute At LinkedServer, by Prashanth Jayaram

This week's revisers were Peter Geelen & Ken Cenerelli

Do you want to learn how to use "Execute AT LinkedServer" clause, check this article. Good article Prashanth 🙂

 

Ninja Award Longest Article Award
Biggest article updated this week

 

This week's largest document to get some attention is Beginners Guide to implement AJAX CRUD Operations using JQuery DataTables in ASP.NET MVC 5, by Ehsan Sajjad

This week's reviser was Ehsan Sajjad

How to implement CRUD operations for a particular entity, check this article. Nice article Ehsan 🙂

 

Ninja Award Most Revised Article Award
Article with the most revisions in a week

 

This week's most fiddled with article is SharePoint Online Modern Team Sites, by Maruthachalam. It was revised 32 times last week.

This week's revisers were Maruthachalam, M.Vignesh, Kapil.Kumawat & Sabah Shariq

Do you know what is SharePoint Online Modern Team Sites ? No, then please check article. Very informative and useful. Good job Maruthachalam 🙂

 

Ninja Award Most Popular Article Award
Collaboration is the name of the game!

 

The article to be updated by the most people this week is SharePoint Upgrade from 2010 to 2013, by Manish Misra

Do you want to Upgrade SharePoint from 2010 to 2013, check this article.

This week's revisers were M.Vignesh, NTRao, Kapil.Kumawat, Ken Cenerelli, Richard Mueller & Manish Misra

 

Ninja Award Ninja Edit Award
A ninja needs lightning fast reactions!

 

Below is a list of this week's fastest ninja edits. That's an edit to an article after another person

 

Ninja Award Winner Summary
Let's celebrate our winners!

 

Below are a few statistics on this week's award winners.

Most Revisions Award Winner
The reviser is the winner of this category.

M.Vignesh

M.Vignesh has won 21 previous Top Contributor Awards. Most recent five shown below:

M.Vignesh has not yet had any interviews, featured articles or TechNet Guru medals (see below)

M.Vignesh's profile page

Most Articles Award Winner
The reviser is the winner of this category.

M.Vignesh

M.Vignesh is mentioned above.

Most Updated Article Award Winner
The author is the winner, as it is their article that has had the changes.

Prashanth Jayaram

Prashanth Jayaram has been interviewed on TechNet Wiki!

Prashanth Jayaram has won 5 previous Top Contributor Awards:

Prashanth Jayaram has TechNet Guru medals, for the following articles:

Prashanth Jayaram has not yet had any featured articles (see below)

Prashanth Jayaram's profile page

Longest Article Award Winner
The author is the winner, as it is their article that is so long!

Ehsan Sajjad

Ehsan Sajjad has won 4 previous Top Contributor Awards:

Ehsan Sajjad has TechNet Guru medals, for the following articles:

Ehsan Sajjad has not yet had any interviews or featured articles (see below)

Ehsan Sajjad's profile page

Most Revised Article Winner
The author is the winner, as it is their article that has ben changed the most

Maruthachalam

Maruthachalam K has won 4 previous Top Contributor Awards:

Maruthachalam K has TechNet Guru medals, for the following articles:

Maruthachalam K has not yet had any interviews or featured articles (see below)

Maruthachalam K's profile page

Most Popular Article Winner
The author is the winner, as it is their article that has had the most attention.

Manish Misra

This is the first Top Contributors award for Manish Misra on TechNet Wiki! Congratulations Manish Misra!

Manish Misra has not yet had any interviews, featured articles or TechNet Guru medals (see below)

Manish Misra's profile page

Ninja Edit Award Winner
The author is the reviser, for it is their hand that is quickest!

Richard Mueller

Richard Mueller has been interviewed on TechNet Wiki!

Richard Mueller has featured articles on TechNet Wiki!

Richard Mueller has won 193 previous Top Contributor Awards. Most recent five shown below:

Richard Mueller has TechNet Guru medals, for the following articles:

Richard Mueller's profile page

 

Another great week from all in our community! Thank you all for so much great literature for us to read this week!
Please keep reading and contributing!

 

Best regards,
— Ninja [Kamlesh Kumar]

 

SharePoint: All about non-imported user profiles

$
0
0

I find there is much confusion around this topic, so I’ll try to clear it up here.

First off, non-imported profiles are well… not imported.  They were not created by Profile Sync / AD Import / Sync with External Identity Manager.  We also refer to these as "unmanaged", or “stub” profiles because they typically only contain the minimum amount of user data - usually just the users account name.

Note: in this article, I will use the terms profile import / profile sync interchangeably.  For our purposes here, it does not matter whether AD Import or FIM Sync is used to get profiles into SharePoint.

Where do they come from?

There are a few ways to create user profiles outside of profile import / sync.  I will list them here from most common to least:
1. Users just browsing to their profile page or mysite.  If a user tries to access any user profile-related pages, and they don’t already have a user profile, one will be created for them automatically.  This will be a “stub” profile with a limited set of data for the user.
2. Created programmatically.  You can use PowerShell or object model code to create user profiles.  Unless you are also filling in additional data at creation time, these will be “stub”-looking profiles as well.
3. By a 3rd party.  This is really just a variation of #2, but 3rd party solutions (Newsgator comes to mind in particular) can create profiles programmatically.

What’s the harm?

There’s not much really.  The main ticket generator that we see is that someone will notice that a certain users profile shows up in people search results, or in the organization chart, or somewhere else unexpectedly.  They may be considered “unexpected” for one of several reasons:
  • They are not in an OU selected for import / sync.
  • They are deleted or disabled in Active Directory.
  • They should be subject to an import / sync connection filter.

What to do?

Depends on what your goal is for these profiles.  You’re typically going to have one of these objectives:

Turn them into managed profiles so profile sync can update and maintain them.

If you intended these user profiles to be imported, but they weren’t (and therefore were created as "stub" profiles) then you need to start by determining why they were not imported  We also refer to this condition as being "out of scope" for the import.  There are only a few reasons:
  • They are in an OU that is not included in the import connection.  No really, go double-check the distinguished name of the user in question, and compare against the OUs selected in your import connection. -- I've seen too many assumptions on where the user currently exists in AD and what the connection should be importing.
  • They are subject to an import connection filter.  This is one place where there is a significant difference between FIM Sync and AD import.  The filtering is done entirely differently.  AD Import uses a standard LDAP filter, so you can use tools like LDP.exe or LDAP Explorer to verify whether or not the filter in place should return the user.  With FIM Sync, exclusion filters are used, so it’s a matter of understanding the filters and checking against the AD attribute values for the user.
  • This is rare, but there is a known issue where if the LastKnownParent attribute is set on the user in Active Directory, it could result in the user not being imported.  Read more here:
    https://support.microsoft.com/en-us/help/313301
Note: you do not have to delete these “stub” profiles first.  If a profile was first created as a “stub” / non-imported profile, but then later profile import / sync imports that user, the existing profile will be updated by the sync, and will become a managed profile from that point forward.

Remove them.

If you don’t want these profiles around, then you need to take some action to get rid of them.

Number one, you should not be looking to profile import / sync to fix this for you.  Remember, these profiles were not imported, so the profile sync process does not manage them at all.  In general, if profile sync did not create the profile, it can’t delete it either.

Get a list of non-imported profiles.
This is rather easy.  Just run PowerShell like this:

$upa = Get-spserviceapplication | ?{$_.typename -match "profile"}
Set-SPProfileServiceApplication $upa -GetNonImportedObjects $true | out-file c:tempNonImportedProfiles.txt
Then go have a look at the NonImportedProfiles.txt file.
If the contents of NonImportedProfiles.txt looks like the list of user profiles you’d like to remove, then you can run this:
$upa = Get-spserviceapplication | ?{$_.typename -match "profile"}
Set-SPProfileServiceApplication $upa -PurgeNonImportedObjects $true

Please note that this is all or nothing.  The PurgeNonImportedObjects command will mark all of the profiles for deletion that GetNonImportedObjects returned.  If there are legitimate user profiles returned by GetNonImportedObjects, then you should see the “Turn them into managed profiles…” section above for ideas on how to get them imported.

PurgeNonImportedObjects does not immediately delete the non-imported profiles.  It just marks them for deletion (bdeleted = 1 in the UserProfile_Full table of the Profile database).  Once they have been marked for deletion, it is the responsibility of the “My Site Cleanup Job” timer job to remove them, which is no different for "managed" profiles that have been marked for deletion by profile import / sync.

Domingo Surpresa – Evento Gratuito: SQLSaturday 676 – São Paulo

$
0
0

Olá leitores do blog Wiki Ninjas Brasil!

Sejam muito bem-vindos a mais um Domingo Surpresa.

No dia 30/09 (próximo sábado) acontecerá em São Paulo-SP o SQLSaturday 676, um sábado todo com apresentações focando no SQL Server, Microsoft Azure, Business Intelligence e diversos outros temas relacionados a tecnologias de banco de dados.

O SQLSaturday é um evento gratuito organizado pelo PASS (comunidade global que reúne profissionais que atuam com as plataformas de dados Microsoft), acontecendo em diversas cidades ao redor do mundo todos os anos.

Interessados em saber mais a respeito e participar? Acessem então o link a seguir para obter maiores informações e se inscrever:

http://www.sqlsaturday.com/676/EventHome.aspx

E por hoje é isso… Até a próxima!

   

Wiki Ninja Renato Groffe (MVP, Wiki, Facebook, LinkedIn, MSDN)

In-Place Upgrade avec une WIM customisé ?

$
0
0

Un des scénarios de passage à Windows 10 est l'In-Place Upgrade. Ce processus de mise à niveau sur place est conçu pour être extrêmement fiable, et offre la possibilité de revenir automatiquement au système d’exploitation précédent en cas de problème lors du processus de déploiement. Ce scénario peut être utilisé pour le passage de Windows 7, 8, 8.1 à Windows 10 et aussi pour le passage d'une build a une autre (Ex : 1607 à 1703).

Faire un In-Place Upgrade avec une image WIM customisée (Sysprep et Capture) n'est pas supporté, mais on peut faire quelques ajustements à l'image WIM de l'ISO (Install.wim) afin d'ajouter une mise à jour, un pack de langue ou pour supprimer des applications built-in par exemple.

En ce qui concerne le passage d'une build à une autre de Windows 10 on peut utiliser un .ESD, ce fichier est une version compressée de l’Install.wim disponible sur WSUS, Windows Update et Windows Update for Business. Actuellement il n’est pas possible de déployer le .ESD dans une séquence de tâches (MDT, ConfigMgr, …), il est de même possible d’automatiser son installation avec les mêmes lignes de commande du setup.exe. Je reviendrais sur un autre article pour expliquer comment le faire.

Dans les étapes suivantes je vais expliquer comment monter l'image WIM de l'ISO, ajouter le dernier Cumulative Update puis supprimer quelques applications built-in.

Pour cela je vais utiliser à la fois du :

CMD : Invite de commande avec privilèges d'administrateur
PS : PowerShell avec privilèges d'administrateur

Article TechNet sur DISM - Deployment Image Servicing and Management :
https://docs.microsoft.com/en-us/windows-hardware/manufacture/desktop/dism---deployment-image-servicing-and-management-technical-reference-for-windows

Les mêmes commandes en PowerShell :
https://docs.microsoft.com/en-us/powershell/module/dism/?view=win10-ps

Monter l'image WIM

CMD : Dism /Mount-Image /ImageFile:"C:Temp1703sourcesinstall.wim" /Index:1 /MountDir:C:TempMount
PS : Mount-WindowsImage -ImagePath "C:Temp1703sourcesinstall.wim" -Index 1 -Path "C:TempMount"

Ajouter le dernier Cumulative Update de votre version de Windows 10. La liste de ces mises à jour est disponible dans l'article suivant : https://technet.microsoft.com/fr-fr/windows/mt679505.aspx

Avec l’option/Add-Package on peut ajouter des fichiers .msu ou des .cab (Pack de langue, .NET 3.5... disponible dans l'ISO Features On Demand 'FoD' disponible dans le VLSC)

CMD : Dism /Add-Package /Image:C:TempMount /PackagePath:C:TempKBwindows10.0-kb4034674-x64_cae3409b2e93b492093c43a18aa81f66cc70cdad.msu
PS : Add-WindowsPackage –Path "C:TempMount" –PackagePath "C:TempKBwindows10.0-kb4034674-x64_cae3409b2e93b492093c43a18aa81f66cc70cdad.msu"

Suppression des applications Built-In

Lister les applications :

CMD : DISM /Get-ProvisionedAppxPackages /Image:C:TempMount
PS : Get-AppxProvisionedPackage -Path C:TempMount

Supprimer une application :

CMD : DISM /Image:C:TempMount /Remove-ProvisionedAppxPackage /PackageName:Microsoft.BingWeather_4.18.56.0_neutral_~_8wekyb3d8bbwe
PS : Remove-AppxProvisionedPackage -Path C:TempMount -PackageName Microsoft.BingWeather_4.18.56.0_neutral_~_8wekyb3d8bbwe

Le script PS suivant permet de supprimer une liste d'application

# Liste des applications Modern à désinstaller
$AppNameArray = @(
"Microsoft.WindowsFeedbackHub",
"Microsoft.XboxApp",
"Microsoft.XboxGameOverlay",
"Microsoft.XboxIdentityProvider",
"Microsoft.XboxSpeechToTextOverlay",
"Microsoft.ZuneMusic",
"Microsoft.ZuneVideo"
)
foreach ($AppName in $AppNameArray) {
Get-AppxProvisionedPackage -Path C:TempMount | Where-Object { $_.DisplayName -like $AppName } | %{Remove-AppxProvisionedPackage -PackageName $_.PackageName -Path C:TempMount -ErrorAction Ignore}
}

Il est aussi possible de supprimer l'application « Obtenir de l'aide » avec :

CMD : DISM /Image:C:TempMount /Remove-Capability /CapabilityName:App.Support.ContactSupport~~~~0.0.1.0
PS : Remove-WindowsCapability -Path C:TempMount -Name App.Support.ContactSupport~~~~0.0.1.0

Plus d'info dans l'article suivant : https://blogs.technet.microsoft.com/mniehaus/2017/03/22/removing-contact-support-app/

Démonter et sauvegarder le WIM

CMD : Dism /Unmount-Image /MountDir:C:TempMount /Commit
PS : Dismount-WindowsImage -Path C:TempMount -Save
Le résultat peut être utilisé pour installer Windows sur une nouvelle machine ou pour faire un upgrade.

PowerShell [DateTime] throws the error “String was not recognized as a valid DateTime.”

$
0
0

In some of my scripts, such as Get-AutoDiscoverRecords.ps1, I convert the string output of another command (such as an LDAP query) into a Date and Time variable by using the type cast [DateTime]. For example the following will turn the string "06/16/2016 3:14:03 PM" into a PowerShell DateTime object for June 16th 2016 at 3:14PM:

[code language="powershell"]
$DateTime = [DateTime]"06/16/2016 3:14:03 PM"
[/code]

This works great in US based script executions because the DateTime type cast expects the format in the MM/dd/yyyy format, but other parts of the world uses the dd/MM/yyyy format. For those other areas, the DateTime type cast with modified string with throw the following error:

Cannot convert value "16/06/2016 15:14:03" to type "System.DateTime". Error: "String was not recognized as a valid DateTime.

Not only does this date and time format cause the DateTime type cast to fail, what's worse is that the string "02/06/2016 15:14:03" could be considered February 6th and not June 2nd.  Beyond the flipping of the date and month, there are also cultural subtleties around the world (such as including AM/PM or not) that require special format handling to ensure a proper DateTime type case conversion.

To address those various issues, we can tell the DateTime type cast how to handle the string output by another command through parsing according to the local cultural settings with the following code:

[code language="powershell"]
# Extract the default Date/Time formatting from the local computer's "Culture" settings, and then create the format to use when parsing the date/time information pull from AD.
$CultureDateTimeFormat = (Get-Culture).DateTimeFormat
$DateFormat = $CultureDateTimeFormat.ShortDatePattern
$TimeFormat = $CultureDateTimeFormat.LongTimePattern
$DateTimeFormat = "$DateFormat $TimeFormat"
$DateTime = [DateTime]::ParseExact("06/16/2016 3:14:03 PM",$DateTimeFormat,[System.Globalization.DateTimeFormatInfo]::InvariantInfo,[System.Globalization.DateTimeStyles]::None)
[/code]

This code tells PowerShell to get the current Date and Time format (according to the language/cultural settings chosen by the currently logged in user), extract those Date and Time formats, and then build the Date and Time format string to use in parsing. The last line actually performs the parsing of the string "16/06/2016 15:14:03" according to the cultural Date and Time formatting:

I have had colleagues in multiple countries test this code and it appears to prevent DateTime type cast from throwing an error or incorrectly interpreting the date and time output from another command. One colleague had to reboot their computer after changing their language settings to match the local language settings,  because they had temporarily changed theirs to the US settings, but that was the only issue  I have run into with this code.

So there you have it, if you ever need to convert a data and time string retrieved from another command via the DateTime type case, you can use this code to ensure that the parsing is handled correctly no matter what the regional (cultural) standards for date and time formatting are.

Thanks!

Dan Sheehan

Using Microsoft Flow to Curate Social Media Data

$
0
0

With all the buzz surrounding the Microsoft Ignite conference I wanted to make sure I am able to stay up to date with the announcements that are released throughout the week. I'm most passionate about the collaboration space, so there are a few technologies where I am interested in consuming just about anything that is written or discussed about them. I typically check Twitter throughout the day for the latest updates.

It can be a challenge at times to sift through all of my tweets to find the most relevant information when I need it most. This sounded like a problem I could solve with Microsoft Flow. Microsoft Flow is a cloud-based service that makes it practical and simple to build workflows that automate time-consuming business tasks and processes across applications and services.

Here is a quick walkthrough of how I used Flow to find tweets, based on specific search criteria, and have them emailed to me for review at my leisure. Flow is collecting the data and storing it in the location of my choice (in this case, a sub-folder of my Outlook Inbox).

The simplest way for me to get started was to search for a template that fit my scenario. Flow connects to over 100 different services such as Office 365, Twitter, Facebook, SQL Server, and more. I was able to find the Email yourself new Tweets about a certain keyword template after a quick search for Twitter in the Social Media category. Flow needs to connect to Twitter and Outlook.com Services as the source and destination of data within the flow.

The template contains the basic building blocks of a flow. Each flow contains a combination of triggers, actions, conditions, and loops.

  • Triggers are events that start a flow.
  • Actions are tasks accomplished by the flow.
  • Conditions allow for branching if/then logic in a flow.
  • Loops are for iterating over actions more than once.

Every flow starts with a trigger. In this scenario, the trigger is any tweet that contains specific keywords.

Once the tweets have been collected, I want to gather some information about the Twitter users. I used an action to get the usernames and follower counts. Then I added a condition to cull my results to only users that have greater than 500 followers.

Next I added another action to send an email to my email address.

The nice thing about the Send Email action is that the criteria for the email body and subject are predefined. The only required change was to add my email address in the To field. I also added "#twt" to the Subject field. This gave me a unique identifier I could use in my Outlook rule to automatically move these emails to a specific folder.

I added one additional action: a push notification. This allows me to get a notification on my phone each time this flow delivers an email to my mailbox. You must have the Flow app* installed on your mobile device for the push notifications to work. In addition to providing push notifications, the Flow app has much of the same functionality as the web portal.

This scenario demonstrates "the art of the possible" with Microsoft Flow. As an IT professional, I am using it as a tool to enable me to remain current with the latest industry news. However, this only scratches the surface of how you can use Flow to automate business processes - approval workflows, dissemination of sales leads, collection of data to be stored in the cloud or on-premises, and much more.

Microsoft Flow is part of a powerful and adaptable business application platform that includes PowerApps, the Common Data Service, Dynamics 365, and Office 365. You can check out the Guided Learning section of the Flow site to gain a deeper understanding of its capabilities or you can sign-up for free plan to begin building flows.

*The Flow app is available for Android, iOS, and Windows Phone.


次世代の CMO が果たすべき 5 つの重要な役割【9/25 更新】

$
0
0

(この記事は 2017 年 8 月 8 日にMicrosoft Partner Network blog に掲載された記事  5 Key Roles for the CMO of Tomorrow の翻訳です。最新情報についてはリンク元のページをご参照ください。)

 

現在、マーケティングの分野では劇的な変化が起こっています。顧客の影響力がこれまで以上に強大になり、従来のマーケティング手法に頼っても顧客にリーチできなくなったことを各ブランドが認識しつつあるのです。

こうした変化のなか、企業の CMO は自社のマーケティング チームを統率し、この新たな未知の領域を切り拓いていくという、とてつもない重責を担っています。Deloitte の調査 (英語) によれば、CMO の 80% が要求の高まりを感じており、82% が個人的に新しいスキルを習得する必要があると考えています。

こうした背景を踏まえ、ノースウェスタン大学ケロッグ経営大学院でマーケティング学のクリニカル プロフェッサーを務める Mohanbir Sawhney 教授は、マーケティングの展望に関する最新のホワイトペーパー (英語) の中で、これからの CMO が果たすべき新しい役割について説明しています。

Sawhney 教授によると、このマーケティングの変革の時代を生き抜くためには、CMO が次の 5 つの重要な役割を習得する必要があります。

 

1. カスタマー エクスペリエンスの主導

驚くべきことに、企業の 89% (英語) が現在の主な競争要因はカスタマー エクスペリエンスだと回答しています。その一方で、Harvard Business Review Analytic Services が行った最新の調査 (英語) によれば、この重要な職務を担当する専任の経営幹部の役職を設けている企業は現時点では半数にも達しません。

この穴を埋めるうえで最適なのが CMO です。今日のマーケティング部門のリーダーは、カスタマー エクスペリエンスの実施状況を会社全体で測定・監視し、改善するためのプログラムを作り上げる必要があります。

Sawhney 教授は次のように述べます。「CMO がカスタマー エクスペリエンスを全面的に引き受けることにより、営業、研究、コマース、カスタマー ケアなど、顧客と直接やり取りする機会のある社内の各部門の連携を強化できます」

 

2. インサイトの創出

CMO はカスタマー エクスペリエンスを主導するうえで、顧客とのさまざまなタッチポイントから収集した豊富なデータにアクセスできます。CMO はこうしたデータをマイニングして、顧客のニーズや行動に関するインサイトを引き出し、イノベーションを促進する必要があります。

たとえば、ある製品について多数の顧客が肯定的なツイートをしていれば、CMO は適切なチームにその情報を伝え、十分な供給を確保することで、需要の拡大に対応できます。あるいは、特定の地域で店内サービスに対して苦情が増えていることに気付いたら、CMO はこの情報を活用して、店舗の運営の改善を図ることができます。

Sawhney 教授によれば、「こうしたインサイトを他の部門に提供することで、顧客からのフィードバックによって製品の大幅な改良、有望な潜在顧客の増加、広告費の支出先の絞り込み、カスタマー サービスのレベルアップを見込むことができます」

 

3. 成長の推進

賢明な CMO は優れたアイデアを見つけ出すだけでなく、そのアイデアを取り入れ、それに基づいてアクションを起こします。

これを見事に実践した例が、外食チェーンのマクドナルドです。同社はソーシャル リスニングを活用し、顧客が朝食メニューのサンドイッチを一日中販売してほしいと思っていることを把握しました。その後、マーケティング担当者はサプライ チェーンと協力して終日注文可能な朝食メニューを開発し、14 四半期連続で減少していた収益の急回復に成功したのです。

同様の成功を推進するためには、マーケティング部門のリーダーがチーム間の壁を取り払い、ソーシャル データを収集するチームと顧客に対応するチームがリアルタイムで情報を交換して協力できる体制を確立する必要があります。

 

4. ブランドの保護

世間の批判やオンラインでの否定的な評価によって、ダメージを受けない企業などありません。そのため、CMO はブランド アドボケイト (支持者) を見つけ、肯定的なエクスペリエンスを広めてもらうように働きかけることが大切です。アドボケイトを増やすことで、新規顧客やロイヤルティの高い顧客が積極的に関与するコミュニティを形成できます。

Sawhney 教授は言います。「CMO がブランドを保護し、一般消費者であるアドボケイトに働きかけることにより、ブランドを中傷から守るだけでなく、ブランド アフィニティを構築・維持することができます」

 

5. 人材の育成

デジタル変革の影響を受けるのは CMO だけではありません。ここで紹介した新たな責務を CMO が果たすためには、コンテンツ ディレクターやデータ サイエンティスト、各部門のマネージャーのトレーニングのほか、場合によっては新たな人材の獲得が必要になります。

マーケティング部門のリーダーには、現在のチーム構成を綿密に検討し、デジタルおよび技術関連の専門知識の強化を図ることが求められます。現在の従業員に適任者がいなければ、適切なスキル セットを備えた候補者を採用する必要があります。次世代の CMO が成功を収めるためには、次世代のチームが必要なのです。

 

カスタマーファーストの CMO の特徴

マーケティングのルールは様変わりしました。それに伴い、CMO の役割にも変化が求められています。

IBM の CMO を務める Michelle Peluso 氏は、前述のホワイトペーパー (英語) の中でこう述べています。「20 年前、CMO の主な役割は企業の広報活動でした。広告や PR 活動を通じて企業メッセージを配信することが仕事でしたが、今ではその役割はすっかり変化しています」

昨今の新たなマーケティングの世界に企業が自信を持って足を踏み入れられるかどうかは、CMO にかかっています。その出発点となるのが、今回取り上げた 5 つの能力を習得することです。それは単に CMO の役職を維持するためだけでなく、企業が生き抜くうえでも不可欠だと言えます。

 

皆様は、どのようにブランドのカスタマー エクスペリエンスの向上に取り組んでいますか。マイクロソフト パートナー コミュニティ (英語) で皆様のベスト プラクティスについてお聞かせください。

 

 

 

 

MS クラウド ニュースまとめ (2017/08/09)

$
0
0

このポストは、8 9 日に投稿された Cloud Platform Release Announcements for August 9, 2017 の翻訳です。

 

この記事では、クラウド プラットフォーム チームが進める一連の新しい更新をまとめてご紹介します。

マイクロソフトでは、ユーザーの皆様によるクラウドの利用をサポートする取り組みを日々行っています。私たちは幅広い製品ポートフォリオを通じてマイクロソフトならではの最新技術、総合的なモバイル ソリューション、開発ツールを提供しており、ユーザーの皆様にはこれらをご活用いただくことで皆様が本来持つ力を余すところなく発揮していただきたいと考えております。今回お届けする最新リリース情報は以下のとおりです。

  • Azure Batch Rendering のプレビュー
  • Operations Management Suite の Log Analytics のアップグレード
  • Azure SQL Database 推奨開発環境 – データベース スコープの一時テーブルのプレビュー
  • Azure SQL Database 推奨開発環境 – 再開可能なオンライン インデックス再構築のプレビュー
  • Azure SQL Database のデータ保護機能 – SQL ツール向け多要素認証の一般提供
  • Azure Content Delivery Network の動的サイト高速化の一般提供
  • Azure AD の新しいサインイン ユーザー インターフェイスのプレビュー
  • Intune パートナー製品の統合機能の一般提供
  • Microsoft Cloud App Security の調査機能の強化
  • System Center Configuration Manager の新機能と機能強化

Azure Batch Rendering のプレビュー

SIGGRAPH 2017 (開催期間: 2017 年 7 月 30 日~ 8 月 3 日) にて発表

Azure Batch Rendering のプレビューを開始

Batch Rendering の Web ページ (英語) | 料金

Azure Batch Rendering は大規模なレンダリング ジョブを高速化し、迅速に結果を出力します。これにより、Maya や 3ds Max などのクライアント アプリケーションや Azure SDK でのレンダリング ジョブをシームレスに送信できます。

Azure Batch Rendering は限定プレビュー (英語) からパブリック プレビューに移行されました。

Azure チームは、日常的なレンダリング ワークロードを Azure 上でシームレスに実行することを目指して Autodesk、Chaos Group、その他多くのパートナー様との連携を強化しています。クライアント プラグインなどの各種ツールにより、アプリケーションからのジョブ送信に加えて、容易なスケーリング、監視、資産管理を実行できるリッチな統合エクスペリエンスが実現します。また、多言語の Azure SDK を使用した既存環境とのカスタム統合も可能になります。さらに、デスクトップ管理ツールの Batch Labs (英語) のプレビュー版では、対象のアプリケーション向けのジョブ送信機能などを提供します。

詳細については、Azure Batch Rendering の Web ページ (英語) をご覧ください。

Operations Management Suite の Log Analytics のアップグレード

強化された Azure Log Analytics でさらに詳しいインサイトを取得

Azure の監視サービスの Azure Log Analytics 機能では、複数のソースからデータを収集して関連付け、運用中の IT 環境に関する実用的なインサイトを提供します。このインサイトを利用して問題解決にかかる時間を短縮することで、将来の重要なイノベーションに尽力できるようになります。

強力な検索、スマートな分析、さらに詳しいインサイトなどが利用できる Azure Log Analytics サービスのアップグレード版は、現在既存のお客様に向けて順次提供を開始しています。また、Azure Application Insights のような拡張性に優れたデータ ストアを基盤にインタラクティブなクエリ言語と高度な分析ポータルを利用できるため、運用担当者や開発担当者は一貫性のある監視エクスペリエンスを構築することができます。

クエリ言語には柔軟な検索機能と機械学習モデルを採用しており、データから詳しいインサイトを取得できます。たとえば、autocluster 演算子を使用すると、データ内の個々の属性に共通のパターンを見つけて、例外やクラッシュなどのエラーを分析できます。分析ポータルでは、クエリの複数行編集やこれまでにない視覚化がサポートされているほか、機械学習をベースとしたクリック診断機能などの高度な診断が行えます。

初期リリースでは、Log Analytics ワークスペースがアップグレード可能になると、バナーが表示されます。これをクリックしてアップグレードすると、新機能を使えるようになります。アップグレード以前に使用していたソリューションやビューは引き続き使用可能です。Log Analytics を初めて使用する場合、初期リリースで無料アカウントをアクティブ化して利用を開始してから、新しい機能へアップグレードしてください。すべての Azure リージョンでのリリースが完了した後は、アップグレード不要で新しい機能を使用することができます。

詳細やその他のリソースについては、Azure Log Analytics のドキュメント ページブログ記事 (英語) をご覧ください。

Azure SQL Database 推奨開発環境 – データベース スコープの一時テーブルのプレビュー

Azure SQL Database でデータベース スコープのグローバル一時テーブルのプレビューを開始

Azure SQL Database のデータベース スコープのグローバル一時テーブル機能を使用すると、特定のデータベース範囲内で一時テーブルを使用できるようになります (テーブル名の先頭に「##」を付記)。また、同一データベースの全ユーザー セッションでこの一時テーブルを共有できます。新機能の詳細については、Azure のブログ記事 (英語) をご覧ください。

Azure SQL Database 推奨開発環境 – 再開可能なオンライン インデックス再構築のプレビュー

Azure SQL Database で再開可能なオンライン インデックス再構築機能のプレビューを開始

再開可能なオンライン インデックス再構築の機能を使用すると、オンライン インデックスの再構築操作を一時停止した場合に、一時停止または失敗した時点から操作を再開することができ、操作を最初からやり直す必要がなくなります。また、この機能を使用したインデックス再構築はログ領域をほとんど使用しません。この機能の詳細については、Azure のブログ記事 (英語) をご覧ください。

Azure SQL Database のデータ保護機能 – SQL ツール向け多要素認証の一般提供

多要素認証を使用したユニバーサル認証を SQL Server Management Studio でサポート

SQL Server Management Studio の最新リリースでは、ユニバーサル認証の接続メカニズムであるトークン ベースの認証機能が拡張されています。ユニバーサル認証では、Azure Active Directory (AD) のネイティブおよびゲストのユーザー アカウントで多要素認証を使用することができます。SQL Server Management Studio の Azure AD 関連の最新機能については、ドキュメント ページの「Azure SQL Database および SQL Data Warehouse 向けツールでの Azure AD 認証の拡張 (英語)」をご覧ください。

Azure Content Delivery Network の動的サイト高速化の一般提供

料金 | Azure Content Delivery Network のドキュメント

Azure Content Delivery Network Web ページの読み込み速度を瞬時にアップする動的サイト高速化機能

ユーザーが求めるのは、ブラウザー、場所、デバイス、ネットワークに関係なく、反応が早く信頼性の高いパーソナライズされた Web エクスペリエンスです。しかし、魅力的なエクスペリエンスを備えたイノベーションやアプリケーション (リッチなインタラクティブ コンテンツ) ほど、ページの読み込みには時間がかかってしまいます。

Azure Content Delivery Network の動的サイト高速化は、動的コンテンツを含む Web ページの読み込み時間を短縮して、コンシューマー エクスペリエンスの品質を高めます。この機能は、主にユーザー資格情報や個人情報などのキャッシュ不可能な Web コンテンツを対象としています。静的オブジェクトの配信では、キャッシュによるスピード アップが基本ですが、動的サイトでは要求者とコンテンツ配信元の間のルーティングとネットワークの最適化によって高速化します。

動的サイト高速化の料金は、月額の使用量 (TB) に応じて複数設定されています。詳細については、Azure Content Delivery Network の Web ページをご覧ください。

Azure AD の新しいサインイン ユーザー インターフェイスのプレビュー

Azure AD および Office 365 の新しいサインイン エクスペリエンスのプレビュー

マイクロソフトでは、Azure AD と Microsoft アカウントの ID システムの統合を進めています。この取り組みの 1 つとして、サインイン ユーザー インターフェイスを刷新し、両システムのデザインに統一感を持たせました。この新しいデザインは現在 Azure AD でプレビューとして提供されており、今後 Office 365、Azure、その他のマイクロソフト クラウド サービスのサインイン ページでもお試しいただけるようになります。

変更内容

Azure AD および Microsoft アカウントのサインイン エクスペリエンスの刷新

Azure AD と Microsoft アカウントのサインイン ページのデザインと操作性が統一され、2 つのアカウントを切り替える際のエクスペリエンスの違いがなくなります。

Azure AD サインイン ページのレイアウト

サインイン時に、ユーザー名とパスワードを同じ画面上で入力するのではなく、ユーザー名を入力してから、次の画面で資格情報または証明 (一般的にパスワード) を入力するようになります。これにより、ユーザー エクスペリエンスが向上し、スマートフォンからのサインイン (英語) や証明書ベースの認証などの新しい認証方式が可能になります。

Azure AD のサインイン ページに、新しいエクスペリエンスを有効化するバナーが表示され、組織内のオートメーションやカスタムのブランディング ページのサインインに機能するかどうかを試すことができます。新しいインターフェイスは 2017 年 9 月末に既定の設定となる予定です。詳細についてはブログ記事 (英語) をご覧ください。

Intune パートナー製品の統合機能の一般提供

Intune の新たなパートナー、Check Point Saaswedo の統合機能の一般提供を開始

Check Point SandBlast Mobile (モバイル向け脅威対策)

Check Point と Microsoft Enterprise Mobility + Security を統合することで、高度なサイバー攻撃からモバイル デバイスを保護し、企業のリソースへのアクセスをコンプライアンスに準拠したデバイスのみに制限できるようになります。Check Point SandBlast Mobile は、包括的な統合セキュリティ ソリューションの提供により、巧妙化するモバイル デバイスへのサイバー攻撃を防ぐと同時に従業員のプライバシーを確保します。SandBlast Mobile は、感染したアプリを介したマルウェア攻撃、侵害された Wi-Fi ネットワークやホットスポットでの中間者攻撃、オペレーティング システムの悪用によるルーティングやジェイルブレイク、SMS メッセージ上の悪意のあるリンクといったさまざまな攻撃から従業員のデバイスを保護します。この統合により、SandBlast Mobile で得られた脅威インテリジェンスを容易に Intune のデバイス コンプライアンス設定に適用できるようになります。脅威が検出されると、SandBlast Mobile は直ちにデバイスの保護機能を適用し、デバイスのステータス変更と条件付きアクセス制御が強制実行されることを Intune に通知します。これにより、問題が解決するまでデータは確実に保護されるようになります。Check Point のサービスの詳細については、製品ページをご覧ください。

Saaswedo Datalert (通信費管理)

Saaswedo と Microsoft Enterprise Mobility + Security の統合では、データ量やローミング コストのより細かい管理が可能になります。Datalert のリアルタイムのモバイル データ使用量管理機能と Microsoft Intune のモバイル デバイス管理機能を組み合わせることで、スマートフォンやタブレットのデータ使用量をリアルタイムに監視、管理できるようになります。ユーザー デバイスへの Datalert アプリのデプロイが効率化されるほか、Datalert のデータを Intune で利用して、使用量がしきい値を超過した場合にデータやローミングをブロックすることができます。これにより、IT 部門はデータ超過を自動的に防ぐことができます。Datalert の詳細については、製品ページ (英語) をご覧ください。

Check Point および Saaswedo 製品のライセンスは、EMS または Intune とは別に購入する必要があります。

Microsoft Cloud App Security の調査機能の強化

Microsoft Cloud App Security の調査機能を強化

Microsoft Cloud App Security の調査機能がさらに強化されました。

  • カスタム ログ形式での自動ログ アップロード – ログ コレクターや自動ログ アップロードにカスタム ログ形式を導入しました。これにより、セキュリティ情報イベント管理 (SIEM) システムなどのカスタム ログ形式を自動ログ アップロードでさらに簡単に使用できるようになります。
  • IP に関する詳細なインサイト – 調査のうえで非常に重要な情報となる IP アドレスに関するインサイト取得機能を強化し、IP アドレスの詳細な情報をアクティビティ ドロワーで確認できるようになりました。特定のアクティビティ内で [IP アドレス] タブをクリックすると、その IP アドレスで発生中のアラート、最近のアクティビティの傾向グラフ、場所のマップなど、さまざまなデータをまとめて表示できます。
    • また、IP アドレス ドロワーからアクションを直接実行して、ポリシー作成や調査のための IP アドレスのタグ付けやフィルタリングを有効化できます。
  • Salesforce Event Monitoring の可視性の向上 – Salesforce Event Monitoring が有効な場合の Salesforce オブジェクトに関するアクティビティの可視性を強化しました。監視できるオブジェクトは、リード、取引先、キャンペーン、商談、プロファイル、ケースなどです。たとえば、取引先ページの表示回数が異常に多い場合などにアラートを発行するように構成できます。
  • 調査ページでの詳細なフィルタリング – 調査ページでアクティビティを右クリックすると新しいフィルターが表示さます。これにより、高度な調査やフィルタリングが可能になります。新しいフィルターには、関連アクティビティの表示、関連するガバナンスの表示、関連するアラートの表示、所有されているファイルの表示、このユーザーと共有されているファイルの表示などが含まれます。

System Center Configuration Manager の新機能と機能強化

System Center Configuration Manager の Current Branch 向けに新機能と強化機能がリリースされました。マイクロソフトでは、次のようなテーマに焦点を当てて Configuration Manager の開発を進めています。

  • Windows 10 や Office 365 の導入やデプロイを簡素化する
  • Windows 10 のセキュリティ設定を管理して、ユーザー データと企業データを保護する
  • お客様が Windows 最新の方式で管理 (英語) できるようにし、管理を簡素化する
  • インフラストラクチャの効率化によってシンプルさと使いやすさを向上させ、お客様の総保有コストを削減する
  • Microsoft Intune (英語) Configuration Manager を使用しているお客様に継続的に価値を繰り返し提供する
  • カスタマー フィードバックに基づく継続的な改善により、お客様に満足してもらえるよう取り組む

詳細については、Enterprise Mobility + Security ブログの記事「System Center Configuration Manager をバージョン 1706 にアップデート (英語)」をご覧ください。

企業のブロックチェーン ネットワークを実現する Coco Framework を発表

$
0
0

執筆者: Mark Russinovich (CTO, Microsoft Azure)

このポストは、8 月 10 日に投稿された Announcing the Coco Framework for enterprise blockchain networks の翻訳です。

 

ブロックチェーンは、企業のデジタル改革の枠を超えて、サプライヤー、顧客、パートナーとの新たな共通プロセスを構築する革新的なテクノロジです。従来の業界や企業という境界線を越えてデジタルに資産を追跡し、共通のプロセスの中で安全かつ透過的にビジネスを行うことができます。ブロックチェーンを導入する企業は増加しており、新たな企業間のコラボレーションの機会や独創的な新しいビジネス モデルも続々と生まれています。

マイクロソフトは、お客様、パートナー様、ブロックチェーンのコミュニティと協力して、企業での活用に向け、ブロックチェーンのエンタープライズ対応を継続的に推進しています。マイクロソフトの使命は、この新しい秘密計算 (Secure Multi-party Computation) 技術にかかわる企業の成功を支援することです。そのために、台帳技術のスタートアップ、小売業者、医療機関、グローバル金融機関など、あらゆる企業が優れた共有ビジネス プロセスを構築できる、オープンでスケーラブルなプラットフォームとサービスを提供します。

各企業がビジネス ニーズに適したブロックチェーン テクノロジを模索する中、既存ブロックチェーン プロトコルの多くが、パフォーマンス、機密性、ガバナンス、処理能力といった重要なエンタープライズ要件を十分に満たせていないことが明らかになっています。これは、不特定多数の信頼度の低いアクターが参加できる制限の少ないパブリック型シナリオで、コンセンサスを得て機能するように設計されていることが原因です。だれでもトランザクションを監視できるよう暗号化を行わず、ネットワーク上の全ノードで全トランザクションを実行するしくみになっており、さらに、計算負荷の高いコンセンサス アルゴリズムを必要とします。このような保護対策では、パブリック ブロックチェーン ネットワークの整合性を維持することは可能ですが、スケーラビリティや機密性といった重要なエンタープライズ要件を犠牲にしなければなりません。

また、機密性を重視したパブリック ブロックチェーン プロトコルを採用したり、新たなプロトコルを構築したりする場合、システムの複雑化やパフォーマンスの低下など、その他のエンタープライズ要件を妥協せざるを得ません。

企業のブロックチェーン導入を促進

今回、機密性の高い大規模ブロックチェーン ネットワークを実現するオープンソース システム Coco Framework をご紹介します。主なエンタープライズ要件を満たすこのシステムは、企業の運用環境におけるブロックチェーン テクノロジ導入を促進できます。

機密コンソーシアム専用に設計されている Coco は、ノードとアクターが明示的に宣言および制御されます。また、すべてのエンタープライズ要件を踏襲した設計により、従来型の台帳構築に代わる新しいアプローチとして、安全性や不変性を犠牲にすることなく、企業が求めるスケーラビリティ、分散ガバナンス、高い機密性を実現します。

既存のブロックチェーン プロトコル、Intel SGX や Windows Virtual Secure Mode (VSM) といった Trusted Execution Environment (TEE)、分散システム、暗号化を活用することで、以下のような特性を持つエンタープライズ対応ブロックチェーン ネットワークを実現します。

  • データベースの速度に迫るスループットとレイテンシ
  • リッチで柔軟性に優れたビジネス固有の機密性モデル
  • 分散ガバナンスによるネットワーク ポリシー管理
  • 非決定性トランザクションのサポート

これらの機能を備えた信頼性の高い基盤に、既存のブロックチェーン プロトコルを統合することで、エンタープライズ対応の包括的な台帳ソリューションを構築できます。これにより、さまざまな業界における広範かつ拡張性の高いシナリオの実現や、ブロックチェーンを活用した企業のデジタル改革を可能にします。

既に、小売、サプライ チェーン、金融サービスなど、多様な業界が Coco の可能性を探っています。

「既存のサプライ チェーンの Dapp コードを Coco Framework でさらに高速に処理できるため、パフォーマンスが大きく改善されます。これなら、ブロックチェーンのエンタープライズ対応に対する小売業界のお客様の懸念を払拭できます。パフォーマンスを犠牲にすることなく、さらにデータ機密性を確保すれば、当社が思い描くスマート サプライ チェーンによるデジタル改革を実現できるでしょう」

- Mojix、グローバル リテール事業開発担当バイス プレジデント、Tom Racette 氏

エンドツーエンドの貿易金融ソリューションの設計、ブロックチェーンを使用したエッジ セキュリティの確保、Enterprise Smart Contracts を活用したバック オフィスの効率化など、Coco はあらゆるお客様のエンタープライズ要件を満たすことができます。マイクロソフトは、オンプレミスとハイパースケールのパブリック クラウドにおける一貫性、機能豊富な Azure エコシステム、共有データ層のブロックチェーン上に構築される幅広いアプリケーション、これらすべてを提供できる唯一のクラウド プロバイダーです。

オープンな取り組み

Coco は、オープン性とあらゆるブロックチェーン プロトコルとの互換性を前提として設計されています。マイクロソフトでは既に Coco と Ethereum の統合を開始しています。さらに J.P. Morgan Chase の Quorum、Intel の Hyperledger Sawtooth、R3 の Corda といったエンタープライズ台帳も、各社で Coco との統合に向けた取り組みが進められています。これを足掛かりに、今後さまざまな台帳との統合を検討する予定です。

「マイクロソフトの Coco Framework は、Ethereum などのスケーラブルで機密性の高い許可型のブロックチェーン ネットワークを実現できる画期的なフレームワークであり、多様なブロックチェーン システムが相互接続された新しい世界で重要な役割を担うでしょう」

- ConsenSys、創業者、Joseph Lubin 氏

Coco の発展には、ブロックチェーンのイノベーションに貢献している、多様で才能あふれるオープンソース コミュニティの協力が不可欠です。Coco は Azure と Microsoft Research の共同プロジェクトとして開始しましたが、多くのお客様やパートナー様からいただいたフィードバックを反映して成長を遂げています。Coco をオープンソース化すれば、当初の開発グループの範疇や想像力をはるかに超える発展が望めると考え、マイクロソフトは 2018 年初めにコミュニティへのソース コードの公開を決定いたしました。

Coco は、あらゆる台帳プロトコルとの互換性を前提に設計されており、クラウドかオンプレミスかを問わず、互換性のある TEE に対応したオペレーティング システムやハイパーバイザー上での動作が可能です。今までにない画期的なエンタープライズ シナリオに適応させるため、コミュニティで Coco にプロトコルをさらに統合して異なるハードウェアで試していただけるよう、柔軟性を重視しています。

業界内のブロックチェーンへの関心は高まる一方です。完全にエンタープライズ対応するまでには時間がかかりますが、マイクロソフトは今後もコミュニティと協力して、ブロックチェーンの開発と企業での導入促進に真摯に取り組んでまいります。

Coco の詳細については、テクニカル ホワイトペーパー (英語) および Microsoft Cloud の YouTube ページのデモ (英語) をご覧ください。GitHub の [Star] ボタンでプロジェクトをブックマークすることもできます。また、[Watch] ボタンを押すと、作業グループの動向や開発状況に関する最新情報の通知を受け取ることができます。

マイクロソフトと RedHat が企業の迅速なコンテナー導入を後押し

$
0
0

執筆者: John Gossman (Architect, Azure)

このポストは、8 月 22 日に投稿された Microsoft and Red Hat Help Accelerate Enterprise Container Adoption の翻訳です。

このたび、マイクロソフトは Red Hat と共にコンテナーのサポートに関する新たな発表を行いました。新たに OpenShift での Windows のサポート、OpenShift Dedicated on Azure、OpenShift と Red Hat Linux での SQL Server のサポートが共通のロードマップに追加されるほか、両社のパートナーシップの象徴となっている共同の統合サポートが拡張されます。今回のプレスリリースの全文は、こちら (英語) でお読みいただけます。

特に意義深いのは、Red Hat とマイクロソフトが協力して継続的にクラウドに影響を及ぼしているという事実です。少し前まで、両社が協力するということは到底考えられないことでした。しかし、皆様の想像に反することが現実になったのです。

両社共通の認識として、お客様は Red Hat とマイクロソフトのいずれかを選ぶのではなく、既に両社のテクノロジを使用することを選んでいます。世界中の企業のお客様が Windows と Red Hat Enterprise Linux、Java と .NET を併用しており、マイクロソフトと Red Hat が協力することで、このようなお客様に向けて、それぞれが単独でサービスを提供するよりも高品質なサービスを提供できます。

そのため、マイクロソフトは 2015 年後半に Red Hat とのパートナーシップを発表しました。まず取り組んだのが、Red Hat のソリューションを Microsoft Azure のお客様がネイティブに使用できるようにすること、ハイブリッド環境で企業向けの統合サポートを提供すること、.NET の共同プロジェクトによって新世代のアプリケーション開発を可能にすることなどです。そして昨年、Red Hat Enterprise Linux を含む Linux で SQL Server の実行が可能になることを発表しました。それ以来、両社はこれらをはじめとするソリューションについて共同で作業を進め、他に類を見ない豊富な選択肢と柔軟性をお客様に提供しています。この方針に沿って今回、OpenShift を実行しているお客様は Azure または自社データセンターにおいて、同一クラスターでの Linux コンテナーと Windows コンテナーを併用できるようになるほか、OpenShift 上のコンテナーで .NET Core 2.0 を使用し、それぞれの OS と OpenShift で SQL Server を実行できるようになることが発表されました。これにより、ジョブに合わせて適切なテクノロジを使用し、連携させることができます。最近まで想像もできなかったようなことが実現されるのです。

今回の発表に関連して、Kubernetes についても言及します。先月、マイクロソフトが携わっているアップストリームの CNCF プロジェクト (英語) についてお伝えしました。それ以来、マイクロソフトの従業員が主要な貢献者となっている Kubernetes Service Catalog、アップストリームのマネージド/専用 BLOB ディスク プロジェクトへの協力 (英語)、Open Service Broker API など、コミュニティのアップストリームに継続的に関与しています。コミュニティと協力してアップストリームに貢献することは、Red Hat との関係において引き続き重要な部分を占めています。

マイクロソフトとのパートナーシップについて、Red Hat のスタッフの皆様に感謝の意をお伝えします。多くの時間を共にして、すばらしい成果を挙げていることを嬉しく思います。マイクロソフト一同より感謝申し上げると共に、今後も協力して共通のお客様の問題を解決できることを楽しみにしています。

Microsoft Azure で使用できる Red Hat ソリューションや、ご利用の開始方法については、https://azure.microsoft.com/ja-jp/campaigns/redhat/ をご覧ください。

MS クラウド ニュースまとめ (2017/08/23)

$
0
0

このポストは、8 月 23 日に投稿された Cloud Platform Release Announcements for August 23, 2017 の翻訳です。

 

この記事では、クラウド プラットフォーム チームが進める一連の新しい更新をまとめてご紹介します。

マイクロソフトでは、ユーザーの皆様によるクラウドの利用をサポートする取り組みを日々行っています。私たちは幅広い製品ポートフォリオを通じてマイクロソフトならではの最新技術、総合的なモバイル ソリューション、開発ツールを提供しており、ユーザーの皆様にはこれらをご活用いただくことで皆様が本来持つ力を余すところなく発揮していただきたいと考えております。今回お届けする最新リリース情報は以下のとおりです。

  • Azure Event Grid のプレビュー
  • Archive Blob Storage のプレビュー
  • Azure のセキュリティと運用を管理する監視機能の更新
  • Azure Cosmos DB の一般提供
  • Power BI Desktop の新機能の一般提供
  • Power BI サービスの新機能の一般提供
  • Azure SQL Database 推奨開発環境 – カタログ照合順序を設定した SQL Database 作成のプレビュー
  • .NET Core 2.0 のリリース
  • Visual Studio 2017 の更新
  • Visual Studio for Mac の更新
  • Azure Active Directory の条件付きアクセス – MacOS のサポートのプレビュー

Azure Event Grid のプレビュー

Azure Event Grid のプレビューが発表 (英語) されました。

Azure Event Grid は完全に管理されたイベント ルーティング サービスで、ユーザーは Azure 内部のあらゆる場所で発生したイベントを容易にリッスンして対応したり、自社アプリケーション内のカスタム イベントをルーティングしたりできます。イベントが大規模かつ低レイテンシで安定してルーティングされるため、継続的にポーリングする必要がなくなります。Azure Event Grid によってリアクティブ型のイベント モデルが広くカバーされるため、最新のサーバーレス アーキテクチャで大いに活用することができます。詳細については、Event Grid のページをご覧ください。

Azure のサーバーレス アプリケーション プラットフォーム全般については、サーバーレス コンピューティングのページを参照してください。

Archive Blob Storage のプレビュー

Azure Archive Blob Storage のプレビューと Blob レベルでの管理機能を発表

Azure Archive Blob Storage のプレビューが発表されました。Azure Archive Blob Storage は、めったにアクセスしないデータのストレージ コストを削減したいお客様に最適なコールド ストレージ オプションです。Archive Blob Storage はホット ストレージ層とクール ストレージ層と併存し、格納中のアーカイブ データには 256 ビットの AES 暗号化が適用されます。アクセスするには、Blob Storage アカウントの UI、REST API、または各種言語の SDK を使用します。また、Blob レベルでの管理が可能となり、ホット、クール、アーカイブの各ストレージ層の間でオブジェクトを簡単に移行できるようになりました。プレビューは、米国東部 2 リージョンでのみ提供されます。料金は、0.15 セント/GB からになります。Archive Blob Storage のプレビュー (英語) にサインアップしてぜひご利用ください。料金の詳細については、料金ページをご覧ください。

Azure のセキュリティと運用を管理する監視機能の更新

Azure リソース全体でのコンテナーの監視とインサイトの一元化

インフラストラクチャやアプリケーションに関するニーズに併せて、コンテナーの監視や管理に対するニーズも高まっています。マイクロソフトでは Azure における統一的な監視手法を拡張し、Azure Log Analytics を基盤としたコンテナー監視ソリューションの一般提供を開始しました。このソリューションでは、Linux および Windows Server のコンテナーなど、お客様が運用している IT 環境の全体像を把握できます。ビジネスに影響が発生する前に問題を察知することは、あらゆる IT 企業にとって重要なことです。Azure Monitor を使用すると、ログとメトリックを柔軟に組み合わせて、異なるインスタンスのストレージ アカウント、Event Hubs、Log Analytics のワークスペースにルーティングできます。このため、異なるサブスクリプションにまたがるリポジトリを一元的にメンテナンスできます。また、Web アプリケーションのパフォーマンス監視サービスである Application Insights に、ユーザーのアプリ操作パターンを分析する機能が追加されました (プレビュー)。これにより、アプリケーションのユーザー離れを見極め、投資の優先順位を決められるようになります。利用可能な機能の詳細については、コンテナーの監視Azure MonitorApplication Insights の各ドキュメントを参照してください。

Azure Cosmos DB の一般提供

Azure Cosmos DB Change Feed プロセッサ ライブラリを使用したイベント駆動型アーキテクチャ

Azure Cosmos DB Change Feed を使用すると、イベント駆動型アーキテクチャを構築して、データベース更新のリアルタイム ストリームを受信することができます。IoT のテレメトリや e コマースの注文システムなどのリアクティブ プログラミング モデルが容易に実現できます。複数のパーティションにまたがる Change Feed を読み込むには、Change Feed プロセッサ ライブラリを使用すると簡単です。このライブラリは、.NET 開発者に向けて Nuget パッケージ (英語) が公開されており、複数ユーザー間で Change Feed イベント処理を分散する場合に役に立ちます。スレッドセーフでマルチプロセスの安全なランタイム環境を提供し、さらに大規模な分散型イベント処理アプリケーションに対応したチェックポイント処理とパーティション リースの管理機能を備えています。

Power BI Desktop の新機能の一般提供

ご要望の多かった Power BI Desktop の新機能がビジネス アナリストの皆様に向けてリリースされました。Power BI サービスへのライブ接続を可能にする Power BI サービス コネクタの一般提供が開始されました。この機能は、Power BI サービス内のあらゆるデータセットに接続する場合に便利です。これにより、1 度作成したモデルを多数のレポートで簡単に再利用できます。新しい分析機能では、“what if” パラメーターを使用してレポート内のコントロールを操作することでデータ内の変数を変更したり、散布図内に対称な陰影と比率線を描画したり、重み付き平均をすばやく計算したりできます。新しいカスタム ビジュアルとして、MAQ Software によるドット プロット、Power KPI、ファンネル プロット、Beyondsoft Calendar が追加されました。最新の Power BI Desktop をダウンロードして今すぐ新機能をお試しください。今回ご紹介した新機能やその他の機能の詳細については、Power BI ブログ (英語) をお読みください。

Power BI サービスの新機能の一般提供

ご要望の多かった Power BI サービスの新機能が、エンド ユーザーやビジネス アナリストの皆様に向けてリリースされました。ダッシュボード パフォーマンス インスペクターを使用すると、ダッシュボードのパフォーマンスの検査や診断を行ったり、潜在的な問題を特定したり、修正箇所のヒントを得たりすることができます。iOS の新しい Q&A エクスペリエンス (プレビュー) では、質問への回答を受け取れるだけでなく、自然言語を使用して特定範囲についてのインサイトを得ることができます。質問内容があいまいな場合でも、Q&A エクスペリエンスはデータに関連するインサイトを積極的に提示します。質問に対して一連の高度な分析ソリューションが実行され、その結果に応じてインサイトが提示されます。Azure Activity Log Analytics 用ソリューション テンプレートを使用すると、Azure ポータルで Activity Log に基づいた分析を実行できます。これにより、サブスクリプション内のさまざまなリソースやユーザーによって実行されたアクティビティを詳細に把握できます。https://powerbi.microsoft.com/ja-jp/ からサインインして、これらの新機能を今すぐお試しください。今回ご紹介した新機能やその他の機能の詳細については、Power BI ブログ (英語) をお読みください。

Azure SQL Database 推奨開発環境 – カタログ照合順序を設定した SQL Database 作成のプレビュー

Azure SQL Database 作成中のカタログ照合順序の設定

Azure SQL Database でデータベース作成中にメタデータ カタログの照合順序を選択できるようになりました。現在はプレビュー期間中です。この新しい “Catalog_Collation” オプションでは、メタデータ カタログの既定の照合順序を指定します。また “Database_Default” オプションでは、データベースの既定の照合順序との一致を確認する際にシステム ビューやシステム テーブルで使用するメタデータの照合順序を指定できます。この機能は、Azure SQL Database でのみ使用できます。詳細については、データベース作成 (Azure SQL Database) に関するドキュメント (英語) を参照してください。

.NET Core 2.0 のリリース

.NET Core 2.0 の一般提供が開始されました。.NET Core はクロス プラットフォームでオープン ソースのモジュール型 .NET 環境で、あらゆるプラットフォームで実行可能な最新の Web アプリやマイクロサービス、ライブラリ、コンソール アプリケーションを作成できます。今回のリリースでは、主にパフォーマンスの向上と対応 API セットの拡張を目的としており、.NET Core のランタイムとライブラリのほか、.NET Core アプリケーションの構築、デバッグ、実行に便利なツールが含まれています。ツールには、新しいコマンド ライン ツールや、Visual Studio と Visual Studio Code の拡張機能が含まれており、.NET Core プロジェクトと連携させて開発することができます。

.NET Core 2.0 に実装されている .NET Standard 2.0 では、.NET Core、.NET Framework、Mono/Xamarin などの .NET ランタイムで共通の API セットが指定されています。.NET Standard をターゲットとする場合、再コンパイルすることなくどのプラットフォームでもライブラリを実行できます。現在、NuGet パッケージの 70% (35,000 以上のメンバー、2,500 以上の種類が含まれる) が .NET Standard 2.0 との互換性を持ちます。ASP.NET Core Web フレームワークでは、サーバー ベースのコードを Web ページに組み込む場合に使用できる軽量構文の Razor Pages が新たにサポートされました。このほか、簡素化された移植可能なプロジェクト ファイルなど、.NET Core 2.0 アプリケーションで使用できる Visual Studio のツールが新たに多数追加されました。これにより、プロジェクト ファイルを Visual Studio、Visual Studio Code、Visual Studio for Mac の間で容易に移植できるようになります。また、コード ナビゲーションの改良、多数のリファクタリング コマンドやクイック修正コマンドの新規追加、コード スタイルの強制適用、ライブ ユニット テストの導入なども含まれます。ぜひお試しください (英語)

Visual Studio 2017 の更新

Visual Studio 2017 の最新バージョンの提供が開始されました。主な変更点はリリースをお知らせした記事 (英語) で紹介しています。また、詳細についてはリリース ノートでご確認ください。Visual Studio 2017 の最新バージョンを今すぐご利用ください。

Visual Studio for Mac の更新

Visual Studio for Mac の最新バージョンの提供が開始され、コンソール アプリ、Web アプリ、Web サービスで .NET Core 2.0 がサポートされるようになりました。また、ライブラリ プロジェクトで .NET Standard 2.0 を作成し、プロジェクト間でコードを共有できるようになりました。詳細については、リリース ノートを参照してください。Visual Studio for Mac の更新プログラムをダウンロードするか visualstudio.com にアクセスして、最新バージョンをお試しください。

Azure Active Directory の条件付きアクセス – MacOS のサポートのプレビュー

Azure Active Directory の条件付きアクセスでの MacOS サポートのパブリック プレビューを開始

Enterprise Mobility + Security の条件付きアクセスを使用すると、アプリケーションの機密度、場所、リスク レベル、デバイスのプラットフォームに応じてすべてのアプリケーションへのアクセスを制御し、安全性を確保することができます。この条件付きアクセスに、MacOS デバイス プラットフォームのサポートがプレビューとして追加されました。

このプレビューの第一歩として、7 月後半に Intune の MacOS 用コンプライアンス設定がプレビューとしてリリースされました。Intune の MacOS 用コンプライアンス設定では、MacOS デバイスの正常性、プロパティ、システム セキュリティに関するコンプライアンス ポリシーを設定できます。Azure Active Directory からの条件付きアクセスで MacOS がサポートされたことにより、MacOS デバイスを対象とするポリシーを作成できるようになったため、Office 365 や SharePoint Online などのあらゆる SaaS またはオンプレミス アプリケーションから企業リソースへのアクセスを管理して、コンプライアンスを確保することができます。

Intune のコンプライアンス設定と Azure Active Directory の条件付きアクセスでの MacOS のサポートは、現在いずれもプレビュー期間中で、Azure の新しい管理エクスペリエンスとして提供されます。

詳細については、条件付きアクセスのドキュメントを参照してください。

Azure Stack のセキュリティとコンプライアンス

$
0
0

執筆者: Filippo Seracini (Program Manager)

このポストは、8 月 23 日に投稿された Security and Compliance in Azure Stack の翻訳です。

 

Azure Stack のセキュリティ ポスチャとコンプライアンス検証のロードマップ

プライベート クラウドやハイブリッド クラウドでインフラストラクチャを管理しながら、IaaS や PaaS によるアプリケーションの刷新を進めようとする場合、セキュリティの考慮事項やコンプライアンス規定が重要になります。Azure Stack はこのようなシナリオ向けに、セキュリティとコンプライアンスを重視して設計されています。

Azure Stack の実装を開始する前に、マイクロソフトはソリューションのセキュリティに関して期待することをお客様に伺いました。予想どおり、ほとんどのお客様が、認証済みの独自のセキュリティ機能が既定で強化されているソリューションを求めていることが明らかになりました。また、コンプライアンス関連の面倒な事務処理に関する悩みも寄せられました。

このようなご意見を参考に Azure Stack を実装しました。

この記事では、Azure Stack インフラストラクチャのセキュリティ ポスチャの概要と、フィードバックへの対応内容をご紹介します。また、コンプライアンス認定プロセスの迅速化や事務手続きの簡略化に対する取り組みについてもお伝えします。

セキュリティ ポスチャ

Azure Stack のセキュリティ ポスチャは、以下の 2 つの原則に基づいています。

  1. 侵害を想定した対応
  2. 既定での強化

侵害を想定した対応 (英語) は最新のセキュリティ アプローチで、侵入の防止だけでなく、侵入時の検出と拡散阻止にも重点を置いています。つまり、未然に防ぐというアプローチだけでなく、堅牢な検出機能の実装に積極的に取り組むということです。これにより、一部のコンポーネントが侵害を受けた場合でも、システム全体に直接的な影響が及ぶことはありません。

攻撃を受ける頻度が最も高いのは、さまざまな特権アクセスが関連付けられた管理者ロールです。マイクロソフトは、侵害想定の原則に基づいて、定義済みの制限付き管理者エクスペリエンスを作成しました。これにより、管理者の資格情報が侵害を受けた場合に、攻撃者がインフラストラクチャ内のすべてのコンポーネントに無制限にアクセスすることを防ぎ、システムで設定した以外の操作を行えないようにします。また、同じ原則に基づいて、Azure Stack ではユーザーがアクセスできるドメイン管理者アカウントを廃止しました。管理者ロールをさらに細分化したい場合は、非常にきめ細かなロール ベースのアクセス制御 (RBAC) を利用して、各ロールの機能を完全に制御することができます。

Azure Stack インフラストラクチャは、アクセス許可 (ログイン可能なアカウントを完全に排除1) とネットワークの 2 つの観点で完全に保護されており、認証を受けていないユーザーが侵入するのは非常に困難です。インフラストラクチャでは複数のレベルでネットワーク アクセス制御リスト (ACL) が適用されており、不審な受信トラフィックやインフラストラクチャ コンポーネント間の不要な通信はすべて遮断されます。ACL のポリシーはきわめてシンプルで、必要でないものはすべて遮断するように定められています。

検出機能を大幅に強化するために、各インフラストラクチャ コンポーネントのセキュリティおよび監査ログは、ストレージ アカウントで一元的に保管されます。このログは、インフラストラクチャの状態を詳細に把握したり、(セキュリティ情報/イベント管理などの) 各種セキュリティ ソリューションで監視したりする際に活用されます。

Azure Stack のハードウェアとソフトウェアの構成の定義については、既定での強化という原則に従い、ハードウェアは設計時点で既に強化されています。Microsoft SDL (英語) と同じく業界のベスト プラクティスに準拠しているほか、Azure Stack ではインフラストラクチャとテナント データの両方が格納時にも暗号化され、インフラストラクチャ ネットワークの通信中の暗号化には TLS 1.2 が適用されます。さらに、Kerberos に基づくインフラストラクチャ コンポーネント認証、軍用レベルの OS セキュリティ基準 (DISA STIG に準拠)、内部シークレットの自動ローテーション、古いプロトコル (NTLM や SMBv1 など) の無効化、セキュア ブート、UEFI、TPM 2.0 などにも対応しています。このほか、Credential Guard (Pass-the-Hash 攻撃からの資格情報の保護) やデバイス ガード (ソフトウェアのホワイトリスト)、Windows Defender (マルウェア対策) などの Windows Server 2016 のセキュリティ機能も有効化されています。

セキュリティ ポスチャには、堅牢で継続的なサービス プロセスが不可欠です。そのため、Azure Stack では、インフラストラクチャ全体にシームレスに修正プログラムや更新プログラムを適用する、オーケストレーション エンジンを重視した設計となっています。

OEM パートナーとの緊密な連携により、Azure Stack と同じセキュリティ ポスチャが、Hardware Lifecycle Host などの OEM 独自のコンポーネントとソフトウェアにも適用されます。このため、Azure Stack では、一貫した堅牢なセキュリティ ポスチャが適用されたインフラストラクチャ上で、アプリケーションを安全に構築して運用できます。

さらに安全性を高めるために、2 社の外部ベンダーによる OEM 独自のコンポーネントを含む統合システム全体の広範な侵入テストを実施しています。

Azure Stack のデプロイにおいては、サードパーティのセキュリティ ソフトウェアによる保護の強化も可能です。主要なセキュリティ企業と連携して、各社のソフトウェアが相互運用できることを確認しています。Azure Stack と連携したいソフトウェアがありましたら、こちらのアンケート (英語) でお知らせください。

規制遵守

コンプライアンス関連の事務処理が非常に面倒であるというご意見を多くお寄せいただきました。この問題の解決に向けて、Azure Stack は第三者評価機関による正式な評価を進めています。この結果は、Azure Stack のインフラストラクチャが主要コンプライアンス標準に準拠していることを証明するドキュメントとして、認定手続きの迅速な処理に活用できるようになります。現在 PCI-DSS (英語)CSA Cloud Control Matrix (英語) の評価が進められています。PCI-DSS はクレジット カード業界のセキュリティ基準で、CSA-CCM はさまざまな標準を包括的にマッピングするものです。

さらに、Azure Stack の Common Criteria (英語) 認定の手続きも開始しました。手続きには少々時間がかかりますが、来年上旬に完了する予定です。

Azure Stack に関して、マイクロソフトが認定を受ける標準は Common Criteria のみとなります。理由としては、このような標準はユーザーやプロセスに関する内容を含んでおり、お客様が個別に対応する必要があるためです。現在、Azure Stack が適切な基準を満たしているか、正式な検証を実施しています。第三者評価機関による検証結果は、準拠を証明するコンパイル済みのドキュメントとしてマイクロソフトが公開します。

今後数か月間で、Azure Stack は検証する標準の範囲を拡大していきます。検証実施の順序はお客様のご要望に応じて決定されます。優先度に関するご要望がありましたら、こちらのアンケート (英語) でお知らせください。

参照情報

フロリダ州オーランドで開催される Microsoft Ignite 2017 に参加予定のお客様は、チーフ アーキテクトの Jeffrey Snover と筆者が担当する Azure Stack のセキュリティとコンプライアンスに関するセッションにぜひご参加ください。

Azure Stack チームは、お客様の声を重視しており、新しいお客様との出会いの場を大切にしています。ハイブリッド クラウドに強い関心をお持ちでしたら、ぜひ Ignite にご参加いただき、Azure Stack の構築に関してチームと直接意見を交わしてください。こちらから登録 (英語) していただけます。


1PowerShell JEA エンドポイントからの一部の定義済みアクセス許可による操作を除く

MS クラウド ニュースまとめ – App Service on Linux GA、他(2017/09/06)

$
0
0

このポストは、9 6 日に投稿された Cloud Platform Release Announcements for September 6, 2017 の翻訳です。

 

この記事では、クラウド プラットフォーム チームが進める一連の新しい更新をまとめてご紹介します。

マイクロソフトでは、ユーザーの皆様によるクラウドの利用をサポートする取り組みを日々行っています。私たちは幅広い製品ポートフォリオを通じてマイクロソフトならではの最新技術、総合的なモバイル ソリューション、開発ツールを提供しており、ユーザーの皆様にはこれらをご活用いただくことで皆様が本来持つ力を余すところなく発揮していただきたいと考えております。今回お届けする最新リリース情報は以下のとおりです。

  • Linux での Azure App Service の一般提供
  • Azure Analysis Services に新たに Web デザイナーが登場
  • Azure SQL Database のデータの保護とセキュリティ透過的データ暗号化機能で Bring Your Own Key (BYOK) をサポート
  • Azure SQL DB のスケールアップ – 新しいパフォーマンス レベルとストレージ アドオンのパブリック プレビュー
  • Azure API Management のサービス更新
  • Team Foundation Server 2018 の注目機能
  • Visual Studio Team Services の機能の一般提供
  • Azure Active Directory – Azure Government Cloud でのパブリック プレビュー

Linux での Azure App Service の一般提供

Azure App Service の一般提供が、Web App for Containers (英語) 機能も含め、Linux で開始されました。Linux 上の ASP.NET Core、Node.js、PHP、Ruby 向けのイメージが組み込みでサポートされているほか、Java、Python、Go に対応した開発者独自の Docker 形式のコンテナー イメージも使用できます。詳細については、発表時のブログ記事 (英語) を参照してください。10 月の Web キャストではコンテナー化されたアプリケーションを特集していますので、サインアップ (英語) してご視聴ください。サービスの試用はこちらから、簡単なチュートリアルが掲載されたドキュメントはこちら (英語) からアクセスしてください。

Open Source Summit 開催 – 2017 9 11 14

2017 年は、LinuxCon、ContainerCon、CloudOpen と新イベント Open Community Conference が、Open Source Summit という名で統合されて開催されます。Open Source Summit では、2,000 人のエンジニアやコミュニティ メンバーと共に幅広いトピックについて共同で取り組んだり、情報を共有したり、学習したりすることができます。詳細については、こちらのサイト (英語) をご覧ください。

Azure Analysis Services に新たに Web デザイナーが登場

2017 年 7 月、Azure Analysis Services Web ベースのモデル デザイナー (英語) がリリースされました。新しいブラウザー ベースのエクスペリエンスでは、Azure Analysis Services のセマンティック モデルの作成や管理をすばやく簡単に開始できます。また、このエクスペリエンスでは既存のデータ モデルを Power BI Desktop ファイルのデータから Azure Analysis Services インスタンスに直接インポートできるため、Power BI モデルを速やかに構築、拡大することができます。2017 年 8 月には、この新しい Web ベースのモデル エディター内で Azure Analysis Services モデルを視覚的に編集 (英語) できる機能など、さまざまな新機能 (英語) がモデリング ツールに追加されました。ユーザーが使いやすいデータ モデルを開発する際には現在でも SQL Server Data Tools や SQL Server Management Studio が主に使用されていますが、この新しいエクスペリエンスは迅速かつ容易にモデリングできるようにすることを目的としているため、モデルの新規開発に取り掛かる場合などに便利です。

Azure Analysis Services は Microsoft SQL Server Analysis Services で採用されている分析エンジンを基盤としており、セマンティック データ モデルをクラウドでホストできるため、分析担当者が Excel や Power BI などのツールでデータ モデルに接続し、レポートを作成したりアドホック分析を柔軟に実行したりできます。詳細については、Azure ブログの記事 (英語) をご覧ください。サービスの詳細については Azure Analysis Services の Web ページをご覧ください。

Azure SQL Database のデータの保護とセキュリティ – 透過的データ暗号化機能で Bring Your Own Key (BYOK) をサポート

SQL の透過的データ暗号化機能に Key Vault が統合されたことにより、Azure SQL Database と SQL Data Warehouse の暗号化で Bring Your Own Key (BYOK) がプレビューとしてサポートされるようになりました。これにより、Key Vault に保存したキーを使用して格納中のデータ暗号化を保護できるようになるため、キーの管理性が向上すると共に、データにアクセスするユーザーとそのタイミングを制御できるようになります。この機能の詳細については、Azure ブログの記事 (英語) を参照してください。

Azure SQL DB のスケールアップ – 新しいパフォーマンス レベルとストレージ アドオンのパブリック プレビュー

Azure SQL Database の新しいパフォーマンス レベルとストレージ アドオンのプレビューを開始
Standard レベルに S4、S6、S7、S9、S12 の各パフォーマンス レベルが新たに追加されました。これらは、CPU への負荷が高いものの Premium レベルほどの IO パフォーマンスを必要としないワークロードに最適です。新しいストレージ アドオンを利用すると、DTU や eDTU を増やすことなくストレージを追加購入できます。追加ストレージは、S3 ~ S12、P1 ~ P6、PRS1 ~ PRS6 の各データベースでは最大 1 TB まで、Standard エラスティック プールでは最大 4 TB まで、Premium エラスティック プールの eDTU が小規模なデータベースでは最大 1 TB まで購入できます。新しいパフォーマンス レベルとストレージ アドオン オプションの詳細については、Azure ブログの記事 (英語) を参照してください。

Azure API Management のサービス更新

料金ページ | API Management の Web ページ

Azure API Management に、API のライフサイクルを管理する機能やビジネス アプリケーションを拡張するための機能など、さまざまな新機能が追加されました。8 月にリリースされた注目の機能を以下にご紹介します。

  • API の改訂機能とバージョン管理機能 (プレビュー) では、API 発行者が自らの管理下で安全に API を変更できます。API 発行者は、改訂機能を使用すると、API 利用者に影響を与えずに API を変更できます。バージョン管理機能では大幅な変更をカプセル化したり、バージョン文字列でバージョンを識別したりできます。また、バージョン管理用スキーム パス、クエリ文字列、ヘッダーのいずれかを使用できます。
  • Azure の API 定義を Microsoft Flow や Microsoft PowerApps の環境にエクスポートできます。エクスポートした API は Flow や PowerApps でカスタム API として登録され、ユーザーが容易に Azure API を使用できるようになります。
  • Azure Resource Manager テンプレートを使用して Azure Key Vault から証明書をインポートできます。

詳細については、リリース ノート (英語) を参照してください。

Team Foundation Server 2018 の注目機能

Team Foundation Server は、既存の IDE (Eclipse、IntelliJ、Visual Studio など) やエディター (Visual Studio Code など) を統合する、一連のオンプレミスの共同ソフトウェア開発ツールを提供します。部門の枠を越えて連携するチームが、あらゆる規模、あらゆるプラットフォーム、あらゆる言語やフレームワークのソフトウェア プロジェクトを効果的に進行することができます。Team Foundation Server の主な機能としては、Git のバージョン管理やアジャイル開発用ツール (かんばんボード、ビルド、CI/CD パイプライン、テスト機能など) があります。

Team Foundation Server 2018 は、一般提供版として最初のバージョンがリリースされました。このバージョンには新機能が多数追加されています。そのうちの主なものを以下にご紹介します。

  • Web アクセス時のプロジェクト作成ウィザードとプロセス テンプレート マネージャーを改良
  • モバイル デバイス向け作業項目フォームを最適化
  • Git フォークをサポート
  • Git タグの表示、絞り込み、削除、セキュリティ設定が可能に
  • プル リクエストに関して多くの機能強化を実施
  • Wiki エクスペリエンスを刷新
  • Maven パッケージをサポート
  • ビルド定義のインポート/エクスポートが可能に
  • 新しいリリース定義エディターを既定でオプト イン
  • 仮想マシン環境へのデプロイが可能に
  • 探索的テストの追跡性を強化

Team Foundation Server 2018 では、上記以外にも多数の機能が追加されています。詳細はリリース ノートを参照してください。

Visual Studio Team Services の機能の一般提供

カスタマイズ可能な作業項目ルール – Visual Studio Team Services の更新

先日、Visual Studio Team Services が更新されました。このリリースでは、カスタマイズ可能な作業項目ルールの一般提供が開始され、作業項目の動作を自動化できるようになりました。この機能は、継承プロセス モデルのシンプルさを活用するうえで鍵となります。カスタマイズ可能な作業項目ルールの詳細については、こちらの記事 (英語) をご覧ください。

その他の主な機能は次のとおりです。

このリリースの詳細については、リリース ノート (英語) をご覧ください。

Azure Active Directory – Azure Government Cloud でのパブリック プレビュー

Azure Government Cloud で Azure Active Directory Premium (AADP) のプレビューが開始されました。このプレビューの目的は、政府機関ユーザーの方に AADP を早めに提供し、Azure Government Cloud で実際にお試しいただくことです。それによって貴重なフィードバックを皆様にお寄せいただき、一般提供に向けてエンジニアリング チームと共有することは、何よりも重要であると考えています。

今回のプレビューは、FedRAMP や DoD などの特定のコンプライアンス要件に従う必要があるお客様を対象としています。プレビュー期間中はそれらの証明書は発行されませんが、一般提供開始時には発行される予定です。このプレビューは、既存の Office 365 U.S. Government GCC High および DoD のお客様にご利用いただけます。ぜひご参加ください。

プレビューへの参加をご希望の場合は、参加者向けアンケート (英語) にご回答ください。皆様に関する貴重な情報は、エンジニアリング チームが皆様のニーズに応えるための参考とさせていただきます。お申し込みいただくと、お客様の担当プログラム マネージャーが参加へのお礼とプレビューの開始手順の詳細を記載したメールをお送りいたします。


Azure Confidential Computing のご紹介

$
0
0

執筆者: Mark Russinovich (CTO, Microsoft Azure)

このポストは、9 月 14 日に投稿された Introducing Azure confidential computing の翻訳です。

 

マイクロソフトでは、サイバー セキュリティの分野に年間 100 万ドルを投資し、Microsoft Azure にクラウド プラットフォーム最高クラスの信頼性を実装しています。Azure には、物理データ センターの厳格なセキュリティからデータのプライバシーの保護、保存中および通信中のデータの暗号化、機械学習を活用した脅威の検出、運用ソフトウェアの開発ライフサイクルの厳重な管理まで、クラウドにおける最先端のセキュリティやプライバシー保護が実装されています。

このたび、Microsoft Azure にクラウド初となるデータ セキュリティ機能、Azure Confidential Computing を導入いたします。これは、複数の機能やサービスの集合体で、これまでのパブリック クラウドでは考えられなかった、使用中のデータの暗号化を実現するものです。これにより、クラウドでのデータ処理をユーザーが自由に制御できるようになります。Azure チームは、Microsoft Research、Intel、Windows、開発者用ツールなどのチームと協力し、4 年以上かけて Confidential Computing のソフトウェアとハードウェアのテクノロジの開発に取り組んできました。この記事の最後に、Confidential Computing に関する Microsoft Research の論文のリストを掲載しています。今回から、この最新技術を早期利用プログラムを通じてご利用いただけるようになります。

毎日さまざまな場所でデータ侵害が発生し、個人情報 (PII)、金融データ、企業の知的財産などへのアクセス権が攻撃者に狙われています。データ侵害の原因の多くはアクセス制御の構成不備ですが、管理者アカウントを通じてまたは暗号化データにアクセスするキーの漏えいにより、使用中のデータにアクセスされるケースがほとんどです。サイバー攻撃に対する高度な制御機能や軽減策を備えていても、使用中のデータに対する攻撃のリスクを考慮して機密データのクラウド移行を躊躇するお客様もいらっしゃいます。Confidential Computing ならば、保存しているデータのみならず使用中のデータも以下のような脅威から保護されるため、安心して Azure にデータを移行していただけます。

  • 管理者権限を保有する悪意のある内部ユーザー、またはデータを処理しているハードウェアへの直接的なアクセス
  • オペレーティング システムやアプリケーション、ハイパーバイザーの不具合を悪用するハッカーやマルウェア
  • 同意なくデータにアクセスする第三者

Confidential Computing では、効率的に処理を実行するために「暗号化していない」データを、Trusted Execution Environment (TEE – エンクレーブ) 内で確実に保護します。下の図はそのしくみを示したものです。TEE で保護されている場合、たとえデバッガーを使用しても、外部から TTE 内部のデータを閲覧または操作することは不可能です。さらに、承認されたコード以外のデータへのアクセスは禁止されています。コードが改変または改ざんされている場合、操作は拒否され、環境が無効化されます。TEE では、内部で実行されるコードに対してこのような保護を強制的に適用します。

Azure confidential computing

Azure Confidential Computing では、開発者の皆様がコードを変更することなくさまざまな TEE を利用できるプラットフォームの開発を進めています。今回のリリースでは、Virtual Secure Mode と Intel SGX の 2 つの TEE がサポートされます。Virtual Secure Mode (VSM) は、Windows 10 と Windows Server 2016 の Hyper-V に実装されるソフトウェア ベースの TEE です。Hyper-V が、コンピューターやサーバー上での管理者コードの実行、およびローカル管理者やクラウド サービス管理者による VSM のエンクレーブ内のコンテンツの閲覧や実行プログラムの改変を防止します。ハードウェア ベースの Intel SGX は、パブリック クラウドとしては初の SGX 対応サーバーであり、Azure やマイクロソフト製品を一切使用しない信頼モデルにご利用いただけます。現在、Intel をはじめとするハードウェアおよびソフトウェア パートナーと共にさらなる TEE の開発を進めており、提供準備が整いしだいサポートを開始します。

マイクロソフトでは、ブロックチェーンによる財務運用、SQL Server の保存データ、Azure の自社インフラストラクチャなどの保護にエンクレーブを使用しています。以前、Coco Framework (英語) と呼ばれるブロックチェーンの Confidential Computing の取り組みで採用されている、使用中のデータを暗号化する機能をご紹介しましたが、これと同じテクノロジが Azure SQL Database と SQL Server に実装されます。これは Always Encrypted 機能が強化されたもので、SQL クエリの機能を阻害することなく SQL データベース内の機密データを常時暗号化することができます。Always Encrypted では、安全に暗号化を解除し処理することが可能なエンクレーブに機密データの演算を委任しています。今後もマイクロソフトの製品やサービスへのエンクレーブの実装を進め、どのような場所でも使用中のデータの安全を確保しながら機密情報を処理できるように取り組んでまいります。

SQL Server での利用に加えて、Azure Confidential Computing は金融、医療、AI など多数の業界で活用できます。たとえば、金融の分野では、個人の資産データや資産管理戦略をの閲覧を TEE に制限することができます。医療機関では、他の組織にデータが流出するリスクを負うことなく、ゲノム配列などの患者の個人データを共有して共同で作業し、機械学習で複数のデータ セットを利用して、より詳細な情報を得ることができます。石油・ガスや IoT の分野では、企業の重要な知的財産である繊細な地震データを、暗号化により保護しながらクラウドで処理することができます。

Azure Confidential Computing は早期利用プログラムを通じてご利用いただけます。各種ツール、SDK、Windows と Linux のサポートに加え、Azure VSM、SGX が有効化された仮想マシンを使用して、クラウド内のあらゆるアプリケーションで使用中のデータを暗号化することができます。

早期利用プログラム (英語) にサインアップして Azure Confidential Computing をお試しください

近日開催される Ignite (英語) にて、Azure でエンクレーブのデモを披露します。Azure クラウドや Intel 製ハードウェアをマイクロソフトのテクノロジ、サービス、製品と組み合わせることで、より広い範囲の安全を確保できるようになります。

今回の発表は、安全なコンピューティング新時代の幕開けとも言えます。そして、Azure はさらに発展を続けてまいります。

- Mark Russinovich

 

Confidential Computing に関する Microsoft Research の論文

Microsoft Story Labs の「安全なクラウド環境 (英語)」特集では、マイクロソフトの広範なクラウド セキュリティ戦略に適した Confidential Computing のしくみを説明しています。ぜひご覧ください。

臺北益教網 X 台灣微軟 106 學年 微軟名師堂 MVP 系列課程

$
0
0

微軟名師堂 MVP 系列課程招兵買馬

 

親愛的老師您好:

新的學年開始,台北市政府教育局所屬教師專業知識社群平台 臺北益教網攜手台灣微軟,即將辦理一系列資訊科技融入教學的微軟名師堂 MVP 系列課程,期許協助台灣教育者當面對資訊科技發展的浪潮,以及 12 年國教新課綱的來到時,自身在專業發展上培養科技技能與素養、結合國際教育界發展方向,引導學生在這一波數位轉型的浪潮下展翅高飛。

本系列課程歡迎資訊與非資訊教師參與,內容呼應 12 年國教新課綱所訂定的資訊科技學習表現:資訊科技與溝通表達、合作共創、使用態度以及運算思維與問題解決。參與老師將有機會上榜微軟名師堂 MVP 計畫,取得更多微軟專業發展資源以及參與微軟國際教師交流會的限量機會。

 

時間:2017 年 9 月 27 日 11 月 24 日

地點:臺北市立大學 (台北市中正區愛國西路一號)

報名網址:http://insc.tp.edu.tw/

 

課程安排:

2017/9/27 (三)

非資訊教師

資訊科技與溝通表達 - Microsoft Teams 與 Skype

內容:

1. 雲端校務專案與課堂小組協作平台 Microsoft Teams

2. 跨越國界之國際交流 Skype in the Classroom

*研習字號:北市研習字第 1060921061 

2017/10/6 (五)

資訊教師

資訊科技與溝通表達 - Microsoft Teams 與 Skype

1. 雲端校務專案與課堂小組協作平台 Microsoft Teams

2. 跨越國界之國際交流 Skype in the Classroom

2017/10/18 (三)

非資訊教師

資訊科技與合作共創 - OneNote 與 Class Notebook

1. 課堂與校務資訊管理 數位筆記本 OneNote

2.即時檢視與回饋學習歷程 - OneNote 課堂筆記本OneNote Class Notebook

2017/10/27 (五)

資訊教師

運算思維與問題解決

STEAM 人氣程式學習平台:Minecraft 教育版

2017/11/8 (三)

非資訊教師

運算思維與問題解決

STEAM 人氣程式學習平台:Minecraft 教育版

2017/11/10 (二) 運算思維與問題解決

Minecraft 教育版與 micro:bit 物聯網結合

2017/11/22 (三) 菁英培訓小組工作坊

1. 課堂與校務資訊管理 數位筆記本 OneNote

2. 雲端校務專案與課堂小組協作平台 Microsoft Teams

2017/11/24 (五) 菁英培訓小組工作坊

最佳案例於校務行政與課堂教學分享

 

台灣微軟教育團隊 敬上

 

Calls to Action

Preparation

1. 註冊微軟教育家社群
說明
2. 申請 Office 365 教育版帳號
教師個人申請
資訊組全校申請
申請說明

CONTACT US

台灣微軟
a-mawang@microsoft.com

FOLLOW US

益教網 Facebook 社團
台灣微軟創新菁英教師 Facebook 社團

SAP HANA on Azure への移行

$
0
0

執筆者:  Michiel van Otegem

このポストは、7 月 1 日に投稿された Migrating to SAP HANA on Azure の翻訳です。

 

SAP HANA DBMS 上の S/4HANA プラットフォームは、SAP Business Suite 7 の多くの機能を強化し、ビジネス プロセスに付加価値を与えるものになっています。このため、お客様に基盤の DBMS として SAP HANA を使用する SAP S/4HANA に移行することを説得力を持ってお勧めできるようになりました。また、S/4 HANA への移行をお勧めするもう 1 つの理由は、SAP ノート #1648480 – 「SAP Business Suite 7 ソフトウェアのメンテナンスで詳しく説明されているように、ABAP スタックを基盤とするすべての SAP Business Suite 7 アプリケーションのサポートが 2025 年まで継続される点です。上記の SAP ノートには、すべての SAP Business Suite 7 アプリケーションのサポートと SAP Java スタックの各バージョンのサポート期限が記載されているのでご確認ください。

注: リンク先の SAP ドキュメントを参照するには、SAP のアカウントでログインが必要な場合があります。

HANA への移行戦略

SAP HANA は SAP が販売する高性能インメモリ データベースで、SAP ERP や SAP BW などの既存の SAP NetWeaver を基盤とするアプリケーションのほとんどを実行できます。SAP をサポートしている他の DBMS (SQL Server、Oracle、DB2 など) でこれらの NetWeaver アプリケーションを実行する場合と、機能的にほとんど違いはありません。詳細については、SAP 製品のリリース一覧 (英語) を参照してください。

次世代の SAP プラットフォームである S/4HANA および BW/4HANA は、HANA に特化した設計となっており、SAP HANA DBMS の能力を最大限に活用できます。S/4HANA への移行戦略としては、次の 2 つをお勧めします。

HANA への移行については、どちらの戦略を採用するかがカギとなります。各戦略の影響とメリットは、SAP、ユーザー、Azure の観点から大きく異なります。2 の移行戦略の最初のステップは、技術的な移行のみで、ビジネス プロセスの観点からはわずかなメリットしかありません。一方、S/4HANA への移行 (1 の直接移行、2 の 2 つ目のステップ) は機能的な移行となります。機能的な移行は業務やビジネス プロセスに与える影響が大きく、移行に必要な手間も増えます。通常、SAP S/4HANA への移行には、ビジネス プロセスのマッピングの大幅な変更が伴います。このため、マイクロソフトのグローバル システム インテグレーターが関与する S/4HANA プロジェクトの多くでは、各種 SAP 製品や LOB 製品へのビジネス プロセスのマッピングや SaaS サービスの使用方法の完全な見直しが必要となっています。

HANA とクラウド

S/4HANA を基盤にビジネス プロセスのマッピングの再構築と統合を行う以外にも、S/4HANA と SAP HANA DBMS の両方またはいずれかを使用する場合には、SAP のワークロードを Microsoft Azure などのパブリック クラウドに移行することを検討する余地があります。多くの場合、Azure を使用すると、移行コストを最小限に抑えながら SAP 環境の柔軟性を向上させることができます。SAP HANA ではほとんどのデータをメモリ上に保持する必要があるため、それまで使用されていたサーバー ハードウェアと比較するとサーバー インフラストラクチャのコストが上昇する傾向があります。

一方、Azure は TCO が低く、SAP HANA を基盤とするワークロードをホストするパブリック クラウドとしては理想的です。また、リソースを柔軟に取得したり解放したりできるため、コスト削減にも効果があります。たとえば、SAP のような階層化環境では、ワークロードに応じて SAP システム内の SAP アプリケーション インスタンスの数を増減させることができます。また、最新の発表で、SAP HANA に特化した Microsoft Azure パブリック クラウドで最大規模のサーバー SKU が提供されることがアナウンスされました。

現在の Azure SAP HANA の機能

下の図は、SAP HANA を実行する Azure 認定を示しています。

HANA の大規模インスタンスは、大規模な HANA ワークロードを実行するベア メタル ソリューションとして使用できます。HANA 環境では、HANA の大規模インスタンスを複数ユニット使用すると、RAM のスケールアップは最大 20 TB まで、スケールアウトは 60 TB まで可能です。HANA の大規模インスタンスは、インスタンスのサイズに応じて 1 年または 3 年の契約で購入できます。3 年契約の場合は大幅な割引が適用され、非常に手頃な価格で高い性能が得られます。HANA の大規模インスタンスはベア メタル ソリューションであるため、注文プロセスは Azure 仮想マシン (VM) の注文やデプロイによって異なります。VM は Azure ポータルから作成可能で、数分ほどで使用準備を整えることができます。HANA の大規模インスタンス ユニットは、発注してから数日以内で使用を開始できます。HANA の大規模インスタンスの詳細については、「SAP HANA on Azure (L インスタンス) の概要とアーキテクチャ」ドキュメントを参照してください。

HANA の大規模インスタンスを発注する際には、SAP HANA on Azure に関する情報のリクエストへのご回答をお願いします。

上の図を見るとわかるとおり、一部の Azure SKU ではすべての SAP ワークロードを実行することが認められておらず、HANA ワークロードは大規模な VM SKU でのみ実行できることが示されています。開発/テスト用ワークロードでは、DS13v2 や DS14v2 などの比較的小規模な VM サイズを使用できます。既存の SAP 環境を HANA on Azure に移行する場合、メモリ負荷が非常に高いため、HANA の大規模インスタンスが必要になります。

先日 Jason Zander のブログ記事で新しいサイズの Azure VM が発表されましたが、この新しいサイズと共に既存の VM サイズの一部を認定することが Azure のロードマップの中で予定されています。新しい VM サイズが導入されたことにより、SAP HANA や S/4HANA、BW/4HANA のインスタンスを Azure に移行する場合により柔軟な選択が可能になります。認定に関する最新情報については、SAP HANA on Azure のページを参照してください。

複数のデータベースを単一の大規模インスタンスに統合

Azure は、SAP システムや SAP HANA システムを実行するプラットフォームとして非常に優れています。Azure を使用すると、オンプレミスやホスト型のソリューションよりもコストを削減できるうえ、高い柔軟性や堅牢な災害復旧機能が得られます。大規模な HANA データベースのメリットについては既に説明しましたが、比較的小規模な HANA データベースの場合はどうでしょうか?

中堅中小企業や部署単位のシステムでよく使用される比較的小規模な HANA データベースは、1 つのインスタンスに統合すると、低コストで高性能を得られるという大規模インスタンスのメリットを享受できます。SAP HANA では以下の 2 つのオプションを選択できます。

  • MCOS – 複数のコンポーネントを 1 つのシステムで運用
  • MDC – 階層化データベース コンテナー

この 2 つの違いの詳細については、SAP Web サイトのマルチテナントに関する記事 (英語) を参照してください。マルチテナント オプションのさらに詳しい情報については、SAP ノートの #1681092 (英語)#1826100 (英語)#2096000 (英語) を参照してください。

MCOS は、単一ユーザー向けのオプションです。SAP ホスティング パートナーが HANA の大規模インスタンスを複数の顧客で共有する場合は、MDC を使用します。

SAP Business Suite (OLTP) を SAP HANA で実行したい場合は、SAP HANA を HANA の大規模インスタンスの一部としてホストできます。SAP アプリケーション階層はネイティブな Azure VM でホストされるため、その柔軟性を活用できます。M シリーズ VM の提供開始後は、より高い柔軟性を持つ VM で SAP HANA をホストできます。

SAP ワークロードを Azure に移行する動き

Azure は、さまざまな業界のお客様の間で、SAP ワークロードを実行するプラットフォームとして大きな注目を集めています。Azure は SAP HANA のプラットフォームとして理想的ですが、お客様の多くは SAP NetWeaver システムを Azure に移行するところから始めています。Oracle、SQL Server、DB2、SAP ASE を実行する環境をクラウドに移行する場合だけでなく、UNIX を基盤とする専用のオンプレミス システムを、Azure でホストされる Windows/SQL Server、Windows/Oracle、Linux/DB2 の SAP システムに移行したお客様もいます。

マイクロソフトが共同で作業しているシステム インテグレーターの多くは、このようなお客様が増えていることを実感しています。ほとんどのお客様は、SAP Business Suite 7 アプリケーションの SAP HANA への移行を省略し、S/4HANA への移行に集中して長期的に行うという戦略を取っています。簡単に説明すると、この戦略は以下のようになります。

  1. 短期: SAP 環境を Azure の業界標準の OS プラットフォームに移行することに集中し、コストを削減する
  2. 短~中期: テストおよび開発用の S/4HANA を Azure に実装し、ハードウェアを調達することなく Azure の柔軟性を利用して迅速に概念実証環境や開発環境の作成 (および削除) を行う
  3. 中~長期: Azure に S/4HANA を基盤とする SAP アプリケーションの運用環境をデプロイする

【客戶成功案例】富邦人壽用雲端打造壽險服務新典範

$
0
0

以Microsoft Office 365強化個人與團隊合作,倍增效率與服務品質、 融合數位生活與工作

面對顧客的多元需求,富邦人壽挑戰的是更細緻、更創新的服務定位,以「作業零錯誤、流程零耽擱、文件零照會、 溝通零距離、客戶零抱怨」為目標的五零專案,在地深耕全台鄉鎮並在短短兩年內新增近百個通訊分處的大無疆計畫, 可說是最佳的體現。

富邦人壽陳俊伴總經理表示:「要讓多達兩萬人的業務團隊走向雲端是件大工程,Microsoft Office 365的功能完整性、服務體系、品牌知名度和信任度,以及對企業管理和資安隱私的支援,都很符合我們對雲端服務方案的需求。新功能、新工具的引進,也讓我們更快速地朝目標邁進。」

【因應數位趨勢,改造作業環境】

過去五年以來,智慧型手機和平板電腦造成巨大改變,整個社會在網路的行為隨之而變,這不僅是作業媒介的改變,也帶動全新的數位生活和網路生活。

陳俊伴總經理指出,因應社會實務的進步,作業環境的雲端化、行動化勢在必行;要解決與顧客接觸的問題,也必須走向雲端化、網路化的作業。這不只是用網路賣保險或讓客戶在平板電腦簽署要保書的表象行為,而是運用科技來改造作業體系,降低人為或流程的障礙,讓服務能量真正聚焦在顧客身上。

【引進雲端功能,落實五零目標】

富邦人壽每年新進業務員達四千名,年資在一年以內的業務員佔整體業務團隊的二十五%,他們絕大多數都是三十歲以下的數位原住民,擁有大量的數位生活;此外,富邦人壽旗下約有二百五十個通訊處,透過大無疆計畫的推動,光是二 ○ 一五年就新增四十多個分處,預計二○ 一六年還會增加 五十個分處,每個分處平均都有四、五十個人,如同散佈四處的多支小團隊。

因此,提供能結合數位生活和公司作業的套裝解決方案,並能兼顧個人及團隊的工作需求,就成為首要之務。陳俊伴總經理強調:「我們選擇採用雲端功能,希望可以為我們二萬名業務員和全台分處提供協助,這對區域服務體系發展非常重要。」

驅使富邦人壽走向雲端的原因,除了對社會脈動的掌握度, 還有二○一五年開始推動的五零專案。「零」既是目標, 也是未來藍圖,但「作業零錯誤、流程零耽擱、文件零照會、 溝通零距離、客戶零抱怨」不可能一次到位,必須先從降低做起。

不過,由於原有環境尚未雲端化及行動化,降低的幅度和成效都極為有限,富邦人壽以內部開發的形式推出多支 APP, 同時尋求外部解決方案來滿足需求及目標。

舉例來說,「作業零錯誤」要改善的是常見的輸入錯誤問題,最能降低錯誤率的作法就是當面輸入及確認,這就必須仰賴雲端作業;至於「溝通零距離」,則是結合社群軟體的應用,來解決實體客服中心難以預估人力配置和尖離峰需求的挑戰。

目前,富邦人壽是國內使用 Office 365 服務平台規模最大的壽險公司,應用的範圍愈多愈廣,就愈能倍增綜效。陳俊伴總經理說:「保險不是主動行為,顧客的需求是被發掘出來的,必須仰賴業務員提供服務,也正因為如此,走向雲端化,先蒙其利的就是業務員。」

【擴增功能應用 消弭城鄉距離】

富邦人壽首先推動以雲端硬碟存放照會文件,取代電子郵件成為檔案往返的平台,減輕業務員信箱爆量的壓力,也避免信件被誤刪或遺漏。業務員不需要再帶著沈重的 DM 和文件東奔西跑,也不用擔心臨時找不到或搞丟,還能結合便利商店的雲端列印,立即印出客戶需要的文件。

對於文件量驚人的保險公司而言,光是以雲端硬碟落實文件的傳遞、交換與追蹤,就能帶來莫大效益;接下來,各種雲端工具的結合應用與再整合,將是富邦人壽的應用重點;此外,富邦人壽大力推動通訊處的社群應用,希望今年有三分 之一的通訊處都能開始經營自己的內部社群。

除了五零專案,Microsoft Office 365的雲端功能也為大無疆計畫帶來很大的幫助,即使遠在後山,也能取得和總部完全相同的資源,透過雲端和總部無縫接軌,解決資訊延遲或 落差的問題。像是透過運行在雲端平台的「富邦新視界」, 進行自主性的課程學習與教育訓練。

陳俊伴總經理表示:「企業有管理稽核的需求,也有資安隱私的考量,必須仰賴企業版的雲端服務方案才能達成,這正是 Microsoft Office 365的重要價值。配合五零專案和大無疆計畫的推行,現在正是推動雲端應用的大好時機,我們將在今年擴大部署規模,以實質效益而非強制使用來吸引更多業務員的跟進採用,往科技前進的同時也兼顧到人性需求。」

毋懼Ransomware!Microsoft Azure助學校增強數碼安全

$
0
0

何為Microsoft Azure

Microsoft Azure是Microsoft的雲端服務平台,由Microsoft投資150億美元建成、佈滿全球的數據中心所運行,在140個國家和地區提供雲端服務。作為財富(Fortune)前500大公司有九成都信任的雲端服務,Microsoft Cloud值得您的信賴。

 

安全、可靠、值得信賴的雲

資料的安全性是學校選擇雲端服務時的重要考慮因素。當學校要選用雲端服務,必須能夠信任您的資料是安全的,您的資料的隱私權是受到保護的,並且您可以保留對於資料的擁有權和控制權。Microsoft Azure已獲美國政府機構認可為最受信任的雲端服務,獲得的安全及合規性認證多於其他任何雲端服務供應商。

安全性和隱私權已內建於Azure的開發過程中。相比起學校一次性購買的server,Azure會持續獲得最新的安全性更新。Microsoft Antimalware、入侵偵測、阻斷服務(DDoS)攻擊預防、定期滲透測試、強大的資料分析和machine learning等工具,都能協助Azure抵禦網絡上的威脅。以下是我們對客戶的承諾:

  • 安全性:安全登入、資料傳輸加密、入侵偵測等
  • 隱私權:採用ISO/IEC 27018守則,資料絕不用於行銷及廣告用途
  • 透明化:保證客戶了解資料如何儲存和存取
  • 合規性:符合多項國際及業界標準,嚴格的第三方稽核

 

 

 

 

 

Microsoft Azure的強勁功能

Microsoft Azure擁有豐富的產品組合和服務種類,滿足學校不同的需要和要求。以下是個別精選服務:

伺服器(server)雲端備份

保障學校伺服器重要資料的安全,讓學校毋懼Ransomware威脅

虛擬機器(VM

只需要數秒鐘,就能完成Windows與Linux虛擬機器的佈建

學生大量資料及數據分析

運用大數據分析學生學習趨勢,為學校管理和教學提供有效資訊

人工智能(AI)、機器學習及辨識服務(Cognitive Services)

輕鬆建立智慧機器人(Bot),運用人工智能發展STEM

 

 

立即聯絡:hkedu@microsoft.com

Viewing all 34890 articles
Browse latest View live


<script src="https://jsc.adskeeper.com/r/s/rssing.com.1596347.js" async> </script>