Quantcast
Channel: TechNet Blogs
Viewing all 34890 articles
Browse latest View live

Power Query で Excel マクロから卒業?! - 列のピボット と ピボット解除 –

$
0
0

この記事は、2016 年 8 月 1 日 に Data Platform Tech Sales Team Blog にて公開された内容です。

 

Microsoft Japan Data Platform Tech Sales Team 伊藤

Power Query をご存知ですか?Excel 2010/2013 のアドインとして提供していた機能ですが、Excel 2016 では [データ] メニューの [取得と変換] として標準機能となりました。

image

Excel だとエディションだのバージョンだのが引っかかるという場合には、Power BI Desktop にも同じ機能があり [ホーム] メニューの [データを取得] あるいは [クエリを編集] というボタンから使用できます。

image

Power BI Desktop や Excel 2016、Power Query アドインのクエリ エディタ (Query Editor) を使用すると、データの取り込みと変換を GUI で定義でき、その後繰り返し必要となるであろうデータ取り込みを 1 クリックで行えます。あまりに便利で、手作業でデータをコピペしたりマクロを駆使したりしてレポートを作りこんでいたのは何だったのか…という気分になります。今回はデータ加工に苦労されている方にぜひお試しいただきたい機能の一つである [列のピボット解除] と [列のピボット] について、Power BI Desktop (2016年6月バージョン) を使ってご紹介します。

例えばこのようなデータ (1行目は列名) の場合 (データソース:Wikipedia 「都道府県の人口一覧」)

image
「マトリックス」で都道府県別に年別の人口を表示するべく [行] に「都道府県」を、[値] に「2010年」「2005年」…を配置すると、次のように表示されます。

clip_image002

 

行と列 (縦横) を入れ替えるために [列] に「都道府県」を配置すると次のようになり、意図した表示になりません (「2010年」とか、行見出しとして表示してほしい)。

clip_image003

 

このようなデータで行と列の入れ替えを実現するには、[クエリを編集] して「2010年」「2005年」…という各列を 「月」列と「人口」列に変換 する必要があります。 ここで活躍するのが [列のピボット解除] です。

 

目的の表現 (行と列を入れ替え)

clip_image004


[列のピボット解除] の使い方

  1. [ホーム] メニューの [クエリを編集] をクリック
    image
  2. 分解したい列 (ここでは各年) を選択し (Ctrl キーを押しながらクリックすることで複数選択が可能) 、[変換] メニューから [列のピボット解除] をクリック
    clip_image005
    ※ そのまま残す列 (ここでは「都道府県」) を選択した状態で [その他の列のピボット解除] とすることも可能です。
  3. 「属性」と「値」という2つの列に変換されます。それぞれの列を適当な名前に変更します。(属性→月、値→人口)clip_image006
  4. [ホーム] メニューの [閉じて適用] をクリックし、 Query Editor を閉じますclip_image007
  5. [視覚化] から「マトリックス」を選択し、[行] に「年」、[列] に「都道府県」、[値] に「人口」を配置しますclip_image004[1]

以上で目的の表現に変更できました。

[列のピボット解除] については、こちらの YouTube 動画 で Excel 2013 の Power Query での使い方を紹介しています。

 

ここまでは「列のピボット解除」を行いましたが、逆に列を分解したい場合もあると思います。同じデータを使用して、今度は「都道府県」列の値、つまり都道府県名を列名とする列を作ります。


[列のピボット] の使い方

  1. [クエリを編集] をクリック
  2. 分解したい列 (ここでは「都道府県」列) を選択し、[変換] メニューの [列のピボット] をクリック
    image
  3. 以下のようなダイアログが表示されるので、[値列] に値が格納されている列 (ここでは「人口」列) を選択し、[詳細設定オプション] を開いて集計方法を設定します
    image
  4. 以下のように変換されたことが確認できますimage
  5. 最後に [ホーム] メニューの [閉じて適用] をお忘れなく

 

使用した Power BI Desktop ファイルはこちらからダウンロードいただけます。

今回ご紹介した [列のピボット解除] や [列のピボット] のように、名前だけでは何ができるのか分からないものもありますが、少しずつこちらのブログで紹介していきますのでぜひご活用ください!(ちなみに、コーディングスキルがあるとさらに便利に使えたりしますが、それはゆくゆく…)


Migration from SQL Server to Azure SQL Database Managed Instance

$
0
0

Today we'll review how you can migrate databases, running on SQL Server, to a new Azure SQL Database Managed Instance.

Azure SQL Database Managed Instance (aka "SQL MI") is a new deployment model of Azure SQL Database, providing near 100% compatibility with SQL Server database engine with benefits of PaaS. So if you think about migrating your SQL Server databases to the public cloud - you definitely should consider SQL MI as the first option. Especially if you still use SQL Server 2008, which will reach end of support in less than a year.

SQL MI is a special version of SQL Server, deployed on Azure infrastructure and managed by Microsoft. But since SQL Server instance is dedicated for your needs and not shared with any other customers, the list of differences between SQL MI and regular SQL Server that you use is way shorter comparing to other Database-as-a-Service offerings, available on the market today.

Today you'll see how you can migrate your workload from existing SQL Server to SQL MI with minimal changes on the workload level.

Preparation

Migration of SQL Server databases to Azure SQL Database Managed Instance consists of the following steps:

  1. Perform an assessment using Data Migration Assistant (DMA). DMA is a light-weight tool that you can run inside your environment to analyze if your current SQL Server databases are compatible with SQL MI.
  2. Decide how your app will connect to SQL MI after the migration. Keeping front end much closer to back end as possible is a best practice, so if you migrate the database from on-prem SQL Server to SQL MI, consider also migrating front end server to Azure VM or Azure App Service. For example, you can migrate front end server and on-prem SQL Server to Azure together using Azure Migrate or another lift&shift tool, and then migrate databases from SQL Server inside Azure VM to SQL MI.
  3. Create new SQL MI through Azure Portal. Deployment of the first SQL MI instance takes up to 6 hours, so consider doing this first. Don’t worry, deployments of additional instances take less than an hour.
  4. Create new Azure Database Migration (DMS) instance. DMS is a free service that supports migrations of different databases to Azure database offerings. It can migrate MySQL, PostgreSQL, MariaDB databases to Azure Database for MySQL/PostgreSQL/MariaDB, and it also supports SQL Server migrations, including SQL MI.
  5. Connect DMS to the source SQL Server and to target SQL MI.
  6. Perform the migration (online or offline).
  7. Change the connection string in the app to direct it to SQL MI host name.

Important aspects of SQL MI:

  1. SQL MI is based on SQL Server 2017 Enterprise Edition, which has backwards compatibility with SQL Server 2008 and newer. But what's very important - you need to know what is the latest supported compatibility level of the app that is using SQL Server - a number from 80 to 150. Each version of SQL Server introduces a new set of features and changes, and to ensure that app is using T-SQL queries with the right syntax and invoked stored procedures in the right way, there is a concept of compatibility levels. SQL Server 2000 has default compatibility level 80, and each next version of SQL Server has +10 compatibility by default (up to 150 for SQL Server 2019). For backwards compatibility each new SQL Server supports compatibility levels of older SQL Server versions. SQL Server 2017 supports compatibility levels from 100 (default for SQL Server 2008) to 140 (default for SQL Server 2017). So if you app requires compatibility level 100 (default for SQL Server 2008), and you use SQL Server 2014 - you can safely move to SQL MI. But if you use an app with compatibility level 80, running on SQL Server 2008 (which supported that compatibility level, which is default for SQL Server 2000), you won't be able to move it to SQL MI since it supports compatibility levels 100 and newer. You may face such situation if you have very old workloads, which were created a decade ago and hasn't been updated since then. You can an upgrade from compatibility level 90 to 100 though using in-place upgrade, but ensure to check the differences between compatibility level 90 and 100 to ensure that it won't break the app.
  2. SQL MI is a SQL Server database engine. While it includes SQL Server Agent, it doesn't include other components of SQL Server product like:
    1. SQL Server Reporting Services (SSRS) - there is no alternative to traditional SSRS paginated reports in Azure except running SQL Server inside a VM. But if you've already switched from paginated reports to PowerBI-format reports, it won’t be a problem for you to move those reports to PowerBI.
    2. SQL Server Analysis Services (SSAS) - Azure provides PaaS solution based on SSAS - Azure Analysis Services. You can use it as an alternative to existing SSAS. SSAS has its own compatibility levels, and Azure Analysis Services supports 1200 and newer (SQL Server 2016+)
    3. SQL Server Integration Services (SSIS) - if your app relies on SSIS, you can deploy it in Azure Data Factory.
  3. Check this article for connectivity options between your app and SQL MI. Important to remember:
    1. SQL MI requires a new subnet inside new or existing vNet that conforms to specific requirements. If you'll decide to create a new vNet during SQL MI deployment on Azure Portal, it will create a new vNet with 10.0.0.0/16 address space and 10.0.0.0/24 subnet. SQL MI default cluster IP is 10.0.0.254. If your existing SQL Server environments is in 192.168.x.x address space or any other outside 10.x.x.x range, then you can leave it as is. But you already use 10.x.x.x address space, you won't be able to tie existing network with SQL MI vNet due to conflicting address spaces. In this case you should consider creating a new vNet with all required rules applied using the following script.
    2. SQL MI can't be published to the Internet and it can't be accessed by IP directly. It has a private IP assigned (10.0.0.254 by default) inside Azure vNet and has a publicly resolvable host name in a form <mi-name>.<unique-id>.database.windows.net. But private IP doesn’t belong to SQL MI - it belongs to internal load balancer that directs traffic to the Managed Instance Gateway (GW). As multiple Managed Instances can run inside the same cluster on the same IP, GW uses Managed Instance host name (<mi-name>.<unique-id>.database.windows.net) to redirect traffic to the correct SQL Engine service. Check here for more details. For you it means that app should connect to SQL MI using a specific host name. If you'll try to connect directly using private IP, GW won't accept the connection since it won't know to which instance do you want to connect.
    3. Comment above means that you will need to change the connection string on the app level and switch your app from existing SQL Server IP/FQDN to SQL MI hostname. Trick with modifying hosts file won't work, since you can't access SQL MI directly by IP. Adding an ability to connect to SQL MI through DNS CNAME (and leaving the connection string as-is) is in the roadmap for future SQL MI versions.
    4. SQL MI doesn't support connectivity through Named Pipes. So if you app connects to SQL Server using Named Pipes, you need to switch it to TCP/IP sockets.
    5. SQL MI currently supports only SQL Server logins. Azure AD logins will be added in next versions. Windows logins are not supported. So if your app connects to SQL Server using Windows Authentication, then you need to switch to SQL Authentication. Or you can wait for the release of Azure AD logins support in SQL MI and then convert existing Windows logins to Azure AD logins.
  4. I recommend to use SQL Server Management Studio (SSMS) 18 since I've faced some issues with SSMS 17.9 related to SQL MI management. E.g. SSMS 17.9 throwed an error when I tried to create a new DB through UI, most probably because SQL MI uses different syntax for CREATE DATABASE command. Running a command using a query went fine. That bug was fixed in SSMS 18.

Important aspects of DMS related to SQL MI migrations:

  1. Azure Database Migration Service has two pricing tiers - General Purpose and Business Critical. For General Purpose you can select the instance size - 1 vCore, 2 vCore or 4 vCore. Business Critical is available only in 4 vCore size. Larger instance means more computation power to perform data replication and transformation from source to the target. It allows to perform the migration quicker. Since DMS is free of charge until December 31st, 2018 anyway, I recommend to use Business Critical tier for DMS to reduce the downtime period.
  2. DMS can perform offline and online migrations to SQL MI. Online mode is available only for Business Critical tier DMS instances.
    1. In offline migration mode DMS performs full backup of the source database, copies the backup from local network share to Azure Storage blob and then restores it on SQL MI. You should stop all write transactions on the source database before initiating last full backup through DMS. So your database won't be available for writes for the time of making full backup, uploading it to Azure blob and then restoring on MI, which takes time depending on the database size - from minutes for small databases to hours for large ones. It also copies SQL Server logins with current passwords from source SQL Server to SQL MI. Offline migration mode should be used in all migration scenarios where putting the database to read-only mode is a possible option.
    2. In online migration mode you need to perform full backup and incremental transaction log backups, then DMS will take these files from local share, upload it to Azure Storage account, and then restore the database on SQL MI - starting from the last full backup, and then applying all incremental transaction log backups. So just before the migration you put the database to read-only mode and perform the last transaction log backup, and then DMS automatically uploads it and applies to the current database copy on SQL MI. As soon as it is done, you perform the failover in DMS and SQL MI database becomes available for read-write. Downtime time in this case is significantly shorter since you don't need to wait until the full backup is completed and uploaded to Azure blob - minutes even for large databases. But there are some disadvantages of DMS online migration mode for SQL Server:
      1. It can migrate up to 4 databases per activity, up to 2 activities per DMS instance. So you can perform up to 8 database migrations and cutovers at the same time.
      2. It requires to use Business Critical tier for DMS instance, which potentially means more migration costs after DMS promotion period.
      3. You need to migrate SQL Server logins manually
      4. It won't work for databases in Simple recovery model.
  3. Current experience for offline and online mode differs, but DMS team is working on building a unified UI.
  4. DMS requires to perform checksums for database backups. If you didn't enable that setting for existing backups - you will need to do backups again.
  5. SQL Server logins are migrated only in offline mode. Windows logins can't be migrated since SQL MI doesn't support them. An ability to convert Windows logins to Azure AD logins will be added in next versions of DMS.
  6. SQL Server Agent jobs are not migrated through DMS UI, but you can migrate them through PowerShell. Migration of jobs through DMS UI will be added in next versions.
  7. If migration takes too long or fails - try using a larger DMS instance (4 vCore) or switching to Business Critical tier.

OK, now let's start.

Source environment

Our source environment will be represented by a solution that you may already forgot about - Windows Azure Pack (WAP). While WAP migration to Azure doesn’t have practical sense, it shows the value of SQL MI in DMS. WAP relies on several interconnected databases, including management databases and databases belonging to different tenants. WAP supports SQL Server authentication and it doesn't require any other components of SQL Server beyond database engine. Perfect candidate to demonstrate how real-world workloads can be moved from on-prem SQL Server to SQL MI.

Source environment consist of two VMs:

  1. Front-end - all Windows Azure Pack components (tenant portal, admin portal, resource providers). Windows Server 2012. Private IP 10.0.1.4 + public IP for Internet access.
  2. Back-end - SQL Server 2012 on Windows Server 2012. Hosting 7 management databases of Windows Azure Pack and one tenant DB (db01). Private IP 10.0.1.5, no public IP.

VMs are connected with each other through vNet called SQLMigrationRG-vnet.

Our goal is to migrate all databases from Back-end VM to SQL MI, change Windows Azure Pack connection string on Front-end VM and decommission Back-end VM. The whole process is identical for Windows Server 2008 and SQL Server 2008, so you can use this guidance for end-of-support activities.

 

Step 1: Assessment using DMA

Download SQL Server Database Migration Assistant to check that your databases are compatible with SQL MI. Just run the software on any Windows machine that has network access to your SQL Server, or on SQL Server itself. The process is straightforward - choose Assessment, Source Server type - SQL Server, Target server type - Azure SQL Database Managed Instance.

Then provide server IP/FQDN, specify credentials of a user with sysadmin role.

Select databases that you want to assess.

Wait for few minutes and check the results. Ensure that you don't have any blocking issues and read all warnings. In our case everything is OK.

Step 2: Create SQL MI Instance

Go to Azure Portal and click Create a resource -> Databases -> Azure SQL Database Managed Instance.

Specify managed instance name, admin login credentials and select if you want wizard to create a new vNet for you of select a qualifying subnet (if you've created in manually before).

If you select Create new virtual network, then a new vNet with standard name and address space 10.0.0.0/16 will be created.

Wait for several hours until deployment is complete.

Step 3: Create DMS Instance

Go to Azure Portal and click Create a Resource, search for Database Migration Service and click Create.

Specify DMS instance name, select virtual network where your source SQL Server resides and select tier. I will use Business Critical tier since we plan to use online database migration mode.

Wait for an hour until DMS instance is created.

Step 4: Connect source SQL Server, SQL MI and DMS

In order to use DMS for migration, it should be able to connect to source SQL Server and to destination SQL MI using the network. In our case we will use vNet peering since source and destination servers reside in two different vNets inside the same Azure region.

Since vNet where source SQL Server resides has address space 10.0.1.0/24, is conflict with SQL MI vNet with address space 10.0.0.0/16. To resolve that, we'll just reduce the address space in SQL MI vNet to 10.0.0.0/24. Now we have two vNets with two address spaces - 10.0.0.0/24 (SQL MI vNet) and 10.0.1.0/24 (vNet with source SQL Server VM).

Go to first vNet settings, select Peerings and create a peering request from SQL MI vNet to another vNet. Then do the same on another vNet side and create a peering request to SQL MI vNet.

After creating requests from both sides, peering should turn into Connected state.

Now we should be able to connect to SQL MI from any VM in the same vNet where source SQL Server resides using SQL Server Management Studio.

As you see, SQL MI supports databases with compatibility level starting from 100 (SQL Server 2008) up to 140 (SQL Server 2017).

Windows authentication is greyed out in New Login menu since SQL MI doesn't support Windows authentication logins.

Step 5: Configure DMS

Go to Azure Portal, click All services and search for Azure Database Migration Service. Click New migration project. Give it a name and select Online data migration (see the difference between online and offline mode in the beginning of this article).

Specify FQDN or IP of the source SQL Server and sysadmin user credentials. Most probably you will need to select Trust server certificate, otherwise DMS connection attempt will fail.

If connection is successful, on the next step you will see all databases running on that server. Select all DBs.

Specify FQDN of SQL MI and user credentials of SQL MI.

Click Save to save this migration project.

Step 6a: Migrate databases using online mode

In order to use online mode of DMS, you need to create app registration in your Azure Active Directory. For that go to your Azure AD settings -> App Registrations -> Create. Specify any name and any resolvable sign-on URL (e.g. https://portal.azure.com).

Then go to Keys and create a new key. Key value will become visible when you click Save. Store that key and application ID, we'll need it later.

Then go to Azure subscription settings and assign Owner permissions to this app.

If you don't have backups for DBs that you want to migrate, do them know. Don’t forget to enable Perform checksum before writing to media - that's a requirement on DMS side for SQL Server backups. But I assume you already have full backups and transaction log backups for DBs that you plan to migrate.

Share the folder where backups are stored. If should be accessible by SQL Server service user using UNC path. Or you share it with Everyone just to be sure.

Now all backups are stored in the same folder and accessible by SQL Server service.

Return to DMS page and create New Activity -> Online data migration.

Select source SQL Server again, and on target page specify Application ID and Key that you've obtained a minute before.

Select up to 4 databases to migrate (current limit for a single activity for DMS in online mode).

Specify path to file share where DB backups are stored. Source SQL Server should be able to access that share. Specify user credentials for uploading backups to Azure Storage account (I will use local admin credentials for source SQL Server VM) and select Azure Storage account where DB backups will be copied.

Wait for some time until all backups are uploaded to Azure Storage account and applied to database replica in SQL MI. As soon as it is done, select database and click Complete cutover.

Then you should stop all incoming transactions to that DB, perform the final transaction log backup and wait until it is applied to replica. Pending log backups should become 0.

Click Confirm and Apply. After some time cutover status will be completed. Repeat the same process for remaining databases.

Step 6b: Migrate databases using offline mode

We'll migrate 4 remaining databases using DMS offline mode to show you how alternative process looks like.

UI for offline mode is slightly different then for online mode. You don't need to create app registration in Azure AD, but you need to download Azure Storage Explorer, login to Azure subscription, create new container in new or existing Azure Storage account and click Get Shared Access Signature.

Select Read, Write, Delete and List permissions. Save SAS URI for the future use.

Return to Azure Portal, open DMS page and click New Activity -> Offline data migration.

Select source SQL Server and target SQL MI in the same way as we showed it for online mode.

Select databases that you want to migrate. Then select logins that should be migrated to SQL MI (note: login migration is currently available only in offline mode). You can select only SQL Server logins since Windows authentication logins are not supported by SQL MI.

Select if you want DMS to perform full DB backups for you or reuse existing full backups. Specify network share where backups should be stored (or where they are stored already). Specify user credentials for uploading backups to Azure Storage account (I will use local admin credentials for source SQL Server VM) and provide SAS URI for storage container that you've obtained earlier.

On the last step select Validate my databases by running test queries after migration is complete.

Track the progress of database and logins migration from source SQL Server to SQL MI. Required time depends on the total size of database backups. Status will change from Restoring to Completed.

Now both migration activities should show status Completed since all 8 database in the scope are migrated to SQL MI. You can connect to SQL MI using SQL Server Management Studio and check that all databases and SQL Server logins are present and there are no errors.

Step 7: Redirect the app to SQL MI

The final step is to change the connection string in the app to SQL MI hostname. You don't need to change any other settings in the connection string, including login and password of the user. You just need to replace old server FQDN or IP with SQL MI hostname, and then restart the app. In our case we need to update the connection string for all Windows Azure Pack website.

That's all. Our Windows Azure Pack test environment is now switched to 8 interconnected databases, running on SQL MI. And the only change that was required on the app level is just one small tweak in connection strings.

The described process may look complicated, but you will get used to it after the first migration. Benefits of SQL MI worth it - spend some time to migrate DBs once, and then never worry about installing OS patches, resizing VMs or updating to a newer version of the SQL Server.

Kalenderwoche 44/2018 für IT-Experten im Rückblick: Microsoft Azure, SQL Server 2014 SP3, Microsoft 365 und mehr

$
0
0

配信の最適化について #2 グループポリシー篇

$
0
0

みなさま、こんにちは。WSUS サポート チームです。

ちょっと期間が空いてしまいましたが、今回は第 1 回は「概要篇」に引き続き、配信の最適化のグループ ポリシーについて紹介をいたします。グループ ポリシーの一覧や各設定を行った場合の詳細については、以下の公開情報にて紹介していますので、今回はポイントを絞ってよくご利用いただくグループ ポリシーについて案内していきます。

Windows 10 更新プログラムの配信の最適化の構成
https://docs.microsoft.com/ja-jp/windows/deployment/update/waas-delivery-optimization

 

ダウンロード モードの設定


配信の最適化の機能を利用する上で、一番重要なグループ ポリシーが以下のダウンロードの設定です。この設定で配信の最適化でピアとしてクライアントが選択される範囲を指定することが出来ます。

- [コンピューターの構成] -> [管理用テンプレート] -> [Windows コンポーネント] -> [配信の最適化]
-> [ダウンロード モード]

配信の最適化を有効に活用して、クライアント同士で P2P の通信を行いたい場合には、以下の 3 つの内いずれかを選択します。これらについては図も含めて後ほど詳細を紹介します。

  • LAN (1 - 既定) : 同じパブリック IP アドレスを使用してインターネットに接続するクライアント同士
  • グループ (2) : 同じドメインや同じ Active Directory サイトのクライアント同士、または同じグループ ID のクライアント同士
  • インターネット (3) : インターネット上のクライアントも含めたクライアント同士

また、逆に P2P での通信を行いたくない場合には、以下の 3 つの内いずれかを選択します。いずれも P2P の通信は行いませんが、以下の表に示す通り、細かな動作の違いがあります。

設定 ダウンロード時に利用するサービス クラウド サービスへの接続
HTTP のみ (0) Delivery Optimization あり
簡易 (99)
Delivery Optimization なし
バイパス (100) Background Intelligent Transfer Service
(BITS)
なし

※ 注意 : ダウンロード モードのグループ ポリシーを "無効" に設定しても、P2P の通信は無効に出来ません。"無効" の場合は、既定の設定が利用されます。

クラウド サービスの接続も含めて無効化する場合には、「簡易 (99)」もしくは「バイパス (100)」を選択しましょう。また、このブログでも紹介している通り BranchCache や、このブログの C として紹介している BITS の帯域制限等、以前の OS から利用出来た BITS に関連する機能を利用したい場合には、「バイパス」を選択していただく必要があるので注意が必要です。

さて、それではさらに LAN (1 - 既定)、グループ (2)、インターネット (3) を選択した場合の動作について詳しく説明していきます。

 

LAN (1 - 既定) を選択した場合の動作

LAN を選択した場合には、以下のように同じパブリック IP アドレスを使用してインターネットに接続するクライアント同士でピアリングが行われます。各拠点で利用しているパブリック IP アドレスが異なるようなネットワーク構成では、本設定が有効です。

逆に複数の拠点で、共通した 1 つのパブリック IP アドレスを利用しているようなネットワーク構成の場合には、本モードを選択すると拠点を跨いだ P2P の通信が発生してしまう可能性があるため、注意してください。

 

グループ (2) を選択した場合の動作

グループ (2) を選択した場合には、以下のように同じドメインや同じ Active Directory サイトのクライアント同士でピアリングが行われます。

また、グループを選択した場合には、以下のグループ ポリシーと組み合わせて設定をすることで、同一のグループ ID を設定したクライアント内でピアリングを行よう範囲をカスタマイズすることが出来ます。グループ ID と指定する ID は一意の GUID であれば、なんでも問題ありませんので、公開情報に記載の通り Powershell で [guid]::NewGuid() を実行し、ID を生成し設定してください。

- [コンピューターの構成] -> [管理用テンプレート] -> [Windows コンポーネント] -> [配信の最適化]
-> [グループ ID]

- 補足 :同じサブネット内のクライアントでピアリングが行われるよう制限を掛けたい場合
バージョン 1803 のクライアントからは、同じサブネット内のクライアントでピアリングが行われるよう制限を掛けたい場合に、併せて以下のグループ ポリシーを設定することで、要望を実現することが可能となりましたので、こちらの設定についても併せてご検討ください。

- [コンピューターの構成] -> [管理用テンプレート] -> [Windows コンポーネント] -> [配信の最適化]
-> [ピアの選択を制限する方法を選択します] を "有効" に設定し、オプションにて "サブネット" を選択

 

インターネット (3) を選択した場合の動作

インターネット (3) を選択した場合には、インターネット越しのクライアントも含めてピアリングが行われる動作となります。インターネット経由でのピアリングも行われる可能性がある設定となり、一般的にエンタープライズ環境で利用していただくことはあまりありません。

 

エンタープライズの環境でよくご利用いただく設定


その他の設定も含め、配信の最適化による P2P を動作させるために、エンタープライズ環境でよくご利用いただく設定値について、参考としてご案内します。

なお、以前のブログでも紹介した通り、配信の最適化では端末同士のピアリングを Delivery Optimization のクラウド サービス上で行っており、これらの値を設定した場合でもダウンロードするファイルの 100% をピアからファイルを取ってくるような動作になりませんので、ご注意ください。

ポリシー名 設定値 設定の意図
ダウンロード モード "1" もしくは "2" NW 構成に合わせて、ピアが自動的に選定されるようにするため
最小ピア キャッシュ コンテンツ ファイル サイズ (MB) 10 MB
(100 台以上の場合は 1 MB)
より多くのファイルが P2P されるようにするため
最大キャッシュ時間 (秒) 7 ~ 30 日間 より長い期間、コンテンツがキャッシュされるようにするため
http からのバックグラウンド ダウンロードを延期 (秒)
http からのフォアグラウンド ダウンロードを延期 (秒)
1 時間
1 分
時間を要しても可能な限りピアからダウンロードさせるため
※ 設定するとピアが見つかるまで設定時間の間、待機する動作になります
最大ダウンロード帯域幅 (KB/秒)
バックグラウンド ダウンロード帯域幅を制限する営業時間を設定します
フォアグラウンド ダウンロード帯域幅を制限する 営業時間を設定します
NW 構成に合わせて設定 NW 構成に合わせた帯域制御の設定を行うため

※ これらのポリシーはバージョン 1803 より利用できます。

「グループポリシー篇」は以上です。さて次回は実際の効果を測定する「効果測定篇」となります。お楽しみに!

 

(免責事項)
本情報の内容
 (添付文書、リンク先などを含むは、作成日時点でのものであり、予告なく変更される場合があります。

【お客様事例】大変な賑わいをみせた「ゴジラ・ナイト」の舞台裏。 エンタテインメント・コンテンツとリテール、 デジタルを融合した「新たな消費体験」をめざす、 東宝の挑戦。【11/3更新】

$
0
0

アニメ、映画、演劇といったエンタテインメントは、従来、劇場や自宅など限られた場所で鑑賞するものでした。その制約を突破し、まったくあたらしい消費体験の創出に取り組んでいるのが、東宝です。「ゴジラ」など世界的知名度を誇るコンテンツを有する同社は、2018 年、「HIBIYA 2018」 と銘打った期間限定のプロジェクトをスタートしました。マイクロソフトの AI、MR(Mixed Reality : 複合現実) 技術を駆使することで、「エンタテインメント」と「リテール」を組み合わせた近未来の消費体験が生まれつつあります。

続きはこちら

 

 

 

Microsoft Teams を使用した Bot を作成する上での注意点

$
0
0

この記事は、2018 年 5 月 15 日 に Data Platform Tech Sales Team Blog にて公開された内容です。

 

Microsoft Japan Data Platform Tech Sales Team

大塚

Microsoft Teams(以下Teams) は企業やその他組織内外のコラボレーションを行う上で非常に強力なツールです。また、最近では AI 領域の市場活性化や「働き方改革」により、人とシステムのやりとりを自動化する ”ボット” の活用も進んできております。

Microsoft Teams 製品ページ

今回はこの Teams 上でボット(以下 Bot in Teams)を活用する方法と、その際の注意点をお伝えしたいと思います。

1、ボットを Teams で利用するには

Bot を Teams で利用するには、作成した Bot Service 内の「チャネル」で「Teams」を選択する必要があります(以下図を参照)。

imageimage

上記図で保存後、先ほどの図で「ボットの埋め込みコードを取得」をクリックします。

image

このリンクを自社の Web ページ上に配置して展開することも可能ですし、a タグ内のアドレスを周知することも可能です。「Microsoft Teams」と書かれたテキストをクリックすると Teams に切り替えるメッセージが表示されるので、「OK 」をクリックします。

Teams が表示されて、チャットページに対象のボットが表示されるようになります。

image

 

2、Bot in Teams が出力するログ

ボットを Web Chat だけで運用している場合にも該当する内容ですが、Bot Service と App Service / Functions 間のエラーは以下の「チャネル」画面内の「メッセージ」をクリックすることで表示可能です(正常時にはクリックできませんのでご注意ください)。

imageimage

Bot in Teams の場合、このログにこの後ご紹介するカードのエラーも表示されますので、ちょっと動きがおかしいな?と思った時にはこのログをご確認頂くことをお勧めいたします。

 

3、コード内でクライアントが「Teams」かどうかを判断するには

この後に記載する Tips のいくつかは、Bot クライアントが「Teams」かどうかの判断が必要になります。そういった場合には以下のようなコードで判別を行うことが可能です(ここでは C# の例です)。

<Activity Object>.ChannelId == "msteams"

この ChannelId は「Microsoft.Bot.Connector.Activity Class」に属する Property です。詳細は以下の URL をご覧ください。

Microsoft.Bot.Connector.Activity Class Reference

 

4、Bot in Teamsでカードを利用する際の注意

Bot in Teams でカード(クレジットカードではありません!)を使用すると、複数の結果や選択肢をユーザーに提示する際に UX を向上させることが可能です。

利用するカードによっても使用できる手法や、記述方法が変わるため、詳細や最新の情報は以下の URL をご参照ください。

Cards Reference

 

a, 利用可能なカード

カードにもいくつか種類がありますが、いくつかのカードについては Teams 上でサポートされていないため注意が必要です。例えば OSS で広く利用されている「Adaptive Card」については、現時点ではサポートされておりません。

 

b, カードに記載可能なデータ量

カードは情報のエンリッチメントという観点からも色々と記載したくなると思いますが、Teams では1枚のカードに記載可能なデータ量に制限があります(具体的な数値は公開されておりませんので、エラー発生時には上記 Teams のログをご確認ください)。記載する予定のデータ量が変動する場合や増加する可能性がある際には、事前の調査が必要です。

また Carousel カード(Card Collection)に表示可能なカードは10枚までとなっています。カード枚数が10枚を超えることが想定される場合には、10枚ずつ発行するように調整が必要です。

 

c, カード上のテキストの整形について

カードのテキストはいくつかの方法で整形可能ですが、Teams で使用可能な一般的なカードでの整形は、現時点では「XML」形式のみがサポートされています。また Web Chat などでは「Markdown」形式のみがサポートされているため、上述のクライアントの判別方法を組み込み、処理を分ける必要があります。

 

d, Bot in TeamsでのCard Actionについて

カードではカード上のコンテンツに対して特定のアクションが実行可能なのですが、Teams では一部挙動が異なることがあるため、予めテストを重ねて挙動の確認を行うことをお勧めいたします。例えば postBack を割り当てたボタンが返す属性が、Teams では Title で、それ以外では Valueの値を返すことがあります。

カードのアクションについては、外部のリンクではありますが、MVP の方が書かれている以下の URL をご覧ください。

Action types of Adaptive Cards (in Microsoft Bot Framework WebChat)

 

5、Bot in Teamsにおける認証

Bot in Teams 上で認証?と思われるかもしれませんが、Teams そのものは Office 365(Azure AD) で認証を受けておりますが、Teams 内の Bot の画面までには認証範囲は及んでいないため、Bot は Bot でしっかりとセキュアな環境にする必要があります(外部公開用の Bot はもちろん不要です)。

このテーマはちゃんとお伝えしようとするとそれだけで1記事になってしまうので、かいつまんでご説明すると、

  • App Service 内での認証設定
  • Teams のコード変更

が必要になります。詳細は次回の投稿でお伝えしたいと思いますが、気になる方は、Teams についてのドキュメントと、外部サイトとなりますが以下の URL を参考に実装して頂ければと思います。

Microsoft Teams authentication flow for bots

Bot に Azure AD 認証/認可を組み込む

マイクロソフト データプラットフォームにおける Tableau の利用

$
0
0

この記事は、2016 年 6 月 9 日 に Data Platform Tech Sales Team Blog にて公開された内容です。

 

Microsoft Japan Data Platform Tech Sales Team

土井

お客様とのコミュニケーションの中で、 “Tableau と Power BI の違いを教えてください” というご質問をよく頂きます。

Power BI をご利用いただくメリットとしては、エンドユーザの Excel スキルをそのまま生かせる点や、Power BI は Azure Active Directory を認証基盤としているため、既に Office 365 等のマイクロソフトのクラウドサービスをご利用いただいている場合はスピーディに導入頂けること等さまざまなものが挙げられます。

クライアントツールとしては、 Tableau Desktop と Power BI Desktop は製品レイヤーが被るものではありますが、どちらも非常に優れたツールであり、「エンドユーザの好みに合わせて使い分けていただくのが一番よいのではないでしょうか」 と回答することがほとんどです。というのも、マイクロソフトは Power BI に最適なデータ活用基盤として SQL Server を提供していますが、同時に 3rd Party の BI ツールからも接続可能なオープンな基盤であるからです。

 

また、世間一般的には競合会社と思われがちな両社ですが、グローバルではテクノロジーパートナーシップを結んでおります。

[Tableau 社のテクノロジーパートナー一覧]

http://www.tableau.com/ja-jp/partners/technology&page=2

 

■マイクロソフト データプラットフォーム領域における Tableau 製品の活用例

MicrosoftLovesLinux

Microsoft CEO の Satya Nadella が Microsoft ♡ Linux という言葉を発したように、マイクロソフトが様々な変革を進めているのは、他社製品や OSS との連携が充実してきていることからも少しずつ実感を頂けているのではないでしょうか。

同様に、我々のチームが扱うメインプロダクトである SQL Server や Azure も Tableau 製品と一緒にご利用いただけるようになっております。

 

・Tableau Desktop with SQL Server / Azure SQL Data Warehouse

Tableau Desktop から接続可能なデータソースの一覧は下記から確認が可能です。

http://www.tableau.com/ja-jp/products/techspecs

本記事公開時点において、マイクロソフト製品は下記に挙げたものがサポートされています。(最新の対応状況については Tableau 社にご確認ください)

  • Microsoft Access 2003 以降 (Windows のみ)
  • Microsoft Excel 2007 以降
  • Microsoft PowerPivot 2008 以降 (Windows のみ)
  • Microsoft SQL Server 2005 以降 (Kerberos サポートを含む)
  • Microsoft SQL Server Analysis Services 2005 以降 (Windows のみ) (Kerberos サポートを含む)
  • Microsoft SQL Server PDW V2 以降
  • Microsoft Azure Marketplace DataMarket
  • Microsoft Azure SQL Data Warehouse
  • Microsoft Azure HDInsight Spark

ここでは、上記で太字にしたものについて簡単に触れていきます。

まず、Tableau と SQL Server を組み合わせて利用した際のメリットや事例については Tableau 社ウェブサイトをご覧ください。

https://www.tableau.com/ja-jp/stories/topic/sql-server

 

また、少し古い事例にはなりますが、米国 Yahoo! Inc では 24 TB もの大量データを SQL Server Analysis Services で集計し、 Tableau Desktop から可視化を実現しています。

[Tableau Desktop with SQL Server 事例資料 米国 Yahoo! Inc ]

https://customers.microsoft.com/Pages/Download.aspx?id=14763

SQL Server Analysis Services と組み合わせてご利用いただくことで、データに対するアクセス制御をデータベース側で一元管理ができるのと、大量データの集計を高速に行えるといった利点があります。

SQL Server Analysis Services は Excel や Power BI Desktop 等からも接続可能なので、Tableau のライセンスをお持ちでないユーザには Excel や Power BI から接続いただく、といった使い分けもできます。

 

さらに、ペタバイト級のデータを扱うためのクラウド データウェアハウス サービスである Azure SQL Data Warehouse のパートナー一覧については以下ドキュメントに記載があり、当然 Tableau をサポートしています。

SQL Data Warehouse ソリューション パートナー

https://azure.microsoft.com/ja-jp/documentation/articles/sql-data-warehouse-integrate-solution-partners/

Tableau のセルフ サービス分析では、フラット ファイルからデータベースに至るまで、さまざまな種類のデータをだれでもが視覚化して理解できるようにします。Tableau には、Microsoft Azure SQL Data Warehouse への、最適化されたネイティブのコネクタが備わっており、ライブ データ分析とメモリ内分析の両方がサポートされます。

 

Microsoft Azure HDInsight Spark は、現在バージョン Spark 1.6.1 での提供となっており、前述の Tableau Desktop から接続可能なデータソースの一覧 に記載の

・Spark SQL には Apache Spark 1.2.1 以降が必要

を満たすため、サポートされたデータソースとして活用いただけます。下記ドキュメントも合わせて参照ください。

[概要: HDInsight (Linux) での Apache Spark (プレビュー)]

https://azure.microsoft.com/ja-jp/documentation/articles/hdinsight-apache-spark-overview/

 

・Tableau Server on Azure

[Tableau Server Now Supported in Microsoft Azure]

http://www.tableau.com/ja-jp/about/blog/2015/12/tableau-server-now-supported-microsoft-azure-46593

2015 年 12月 から Tableau Server を Microsoft Azure 上の仮想マシンで稼働させることがサポートされています。

インストール要件や推奨される仮想マシンのインスタンスサイズ等は Tableau 社のナレッジベースにまとまっています。

[Running Tableau Server on Windows Azure]

http://kb.tableau.com/articles/knowledgebase/running-tableau-server-on-windows-azure?lang=ja-jp

 

また、2016 年 4月には事前インストール済テンプレートが Azure Marketplace で公開されました。

[Tableau Server in the Azure Marketplace]

https://azure.microsoft.com/ja-jp/blog/tableau-server-in-the-azure-marketplace/

こちらのイメージを使うことで、サーバ構築にかかる工数を最小に抑えることが可能になります。

オンプレの本番環境とは別に開発・検証環境としてもう一環境あったらなあ・・・といった場合に最適です。

image

 

まとめ

本記事では Tableau 社と Microsoft 社におけるパートナーシップとデータプラットフォーム領域における協業例をお伝えいたしました。

SQL Server / Azure は言わずもがな弊社の Power BI と組み合わせてオススメできる統合データプラットフォームですが、同時に、エンドユーザの希望に応じて Excel や Power BI そして Tableau 等の3rd Party 製品の中から、最適なフロントツールが選択できるオープンなデータ活用基盤であるということを是非ご理解いただければ幸いです。

image

 

Appendix

Youtube に公開されている Tableau with Microsoft Products の動画をいくつか紹介します。

[Connect Tableau to MS SQL Server]

https://youtu.be/zwmcf_hYzbc

[Connect Tableau to Analysis Services]

https://youtu.be/hBX43ucl-yA

[Custom Tableau Workshops - Microsoft SQL]

https://youtu.be/21rQvr8POC4

[Data Analysis with Tableau and Spark on Azure HDInsight]
https://www.youtube.com/watch?v=Kn_QuhQx-kQ

 

Top Contributors Awards! BizTalk Maps Migrating to Azure Logic Apps Shortcomings & Solutions and many more!

$
0
0

Welcome back for another analysis of contributions to TechNet Wiki over the last week.

First up, the weekly leader board snapshot...

 

As always, here are the results of another weekly crawl over the updated articles feed.

 

Ninja Award Most Revisions Award
Who has made the most individual revisions

 

#1 Peter Geelen with 120 revisions.

 

#2 Dave Rendón with 64 revisions.

 

#3 George Chrysovaladis Grammatikos with 49 revisions.

 

Just behind the winners but also worth a mention are:

 

#4 .paul. _ with 32 revisions.

 

#5 S.Sengupta with 27 revisions.

 

#6 RajeeshMenoth with 16 revisions.

 

#7 Richard Mueller with 13 revisions.

 

#8 Kareninstructor with 12 revisions.

 

#9 Stephan Bren with 11 revisions.

 

#10 Somdip Dey - MSP Alumnus with 9 revisions.

 

 

Ninja Award Most Articles Updated Award
Who has updated the most articles

 

#1 Peter Geelen with 61 articles.

 

#2 Dave Rendón with 23 articles.

 

#3 .paul. _ with 22 articles.

 

Just behind the winners but also worth a mention are:

 

#4 RajeeshMenoth with 11 articles.

 

#5 Somdip Dey - MSP Alumnus with 8 articles.

 

#6 George Chrysovaladis Grammatikos with 7 articles.

 

#7 Richard Mueller with 4 articles.

 

#8 Karina Sirota [MSFT] with 3 articles.

 

#9 Rafael Galante Gutiérrez with 3 articles.

 

#10 Kareninstructor with 2 articles.

 

 

Ninja Award Most Updated Article Award
Largest amount of updated content in a single article

 

The article to have the most change this week was BizTalk Maps: Migrating to Azure Logic Apps: Shortcomings & Solutions (part 1), by DBS14

This week's reviser was Peter Geelen

 

Ninja Award Longest Article Award
Biggest article updated this week

 

This week's largest document to get some attention is Excel operations with Open XML, Automation and OleDb, by Kareninstructor

This week's reviser was Peter Geelen

 

Ninja Award Most Revised Article Award
Article with the most revisions in a week

 

This week's most fiddled with article is Microsoft 365 Training and Certification, by Cian Allner. It was revised 14 times last week.

This week's revisers were RajeeshMenoth, Dave Rendón, Cian Allner & George Chrysovaladis Grammatikos

 

Ninja Award Most Popular Article Award
Collaboration is the name of the game!

 

The article to be updated by the most people this week is SCOM: Basic Service Monitor Vs Windows Service Template, by Sameer Mhaisekar

This week's revisers were Peter Geelen, RajeeshMenoth, Dave Rendón & Sameer Mhaisekar

 

Ninja Award Ninja Edit Award
A ninja needs lightning fast reactions!

 

Below is a list of this week's fastest ninja edits. That's an edit to an article after another person

 

Ninja Award Winner Summary
Let's celebrate our winners!

 

Below are a few statistics on this week's award winners.

Most Revisions Award Winner
The reviser is the winner of this category.

Peter Geelen

Peter Geelen has been interviewed on TechNet Wiki!

Peter Geelen has featured articles on TechNet Wiki!

Peter Geelen has won 244 previous Top Contributor Awards. Most recent five shown below:

Peter Geelen has TechNet Guru medals, for the following articles:

Peter Geelen's profile page

Most Articles Award Winner
The reviser is the winner of this category.

Peter Geelen

Peter Geelen is mentioned above.

Most Updated Article Award Winner
The author is the winner, as it is their article that has had the changes.

DBS14

DBS14 has won 7 previous Top Contributor Awards. Most recent five shown below:

DBS14 has TechNet Guru medals, for the following articles:

DBS14 has not yet had any interviews or featured articles (see below)

DBS14's profile page

Longest Article Award Winner
The author is the winner, as it is their article that is so long!

Kareninstructor

Kareninstructor has been interviewed on TechNet Wiki!

Kareninstructor has won 12 previous Top Contributor Awards. Most recent five shown below:

Kareninstructor has TechNet Guru medals, for the following articles:

Kareninstructor has not yet had any featured articles (see below)

Kareninstructor's profile page

Most Revised Article Winner
The author is the winner, as it is their article that has ben changed the most

Cian Allner

Cian Allner has won 3 previous Top Contributor Awards:

Cian Allner has not yet had any interviews, featured articles or TechNet Guru medals (see below)

Cian Allner's profile page

Most Popular Article Winner
The author is the winner, as it is their article that has had the most attention.

Sameer Mhaisekar

This is the first Top Contributors award for Sameer Mhaisekar on TechNet Wiki! Congratulations Sameer Mhaisekar!

Sameer Mhaisekar has not yet had any interviews, featured articles or TechNet Guru medals (see below)

Sameer Mhaisekar's profile page

Ninja Edit Award Winner
The author is the reviser, for it is their hand that is quickest!

Dave Rendón

Dave Rendón has been interviewed on TechNet Wiki!

Dave Rendón has won 68 previous Top Contributor Awards. Most recent five shown below:

Dave Rendón has TechNet Guru medals, for the following articles:

Dave Rendón has not yet had any featured articles (see below)

Dave Rendón's profile page

 

 Says: Another great week from all in our community! Thank you all for so much great literature for us to read this week!

Please keep reading and contributing, because Sharing is caring..!!

 

Best regards,


移行事例から見るSQL Serverバージョンアップのススメ [ウェビナー]【11/4更新】

$
0
0
2018年11月9日(金) 12:00-13:00
<概要>
SQL Server バージョンアップ時には、製品の機能変更等による影響が少なからず発生します。
本セミナーでは弊社の実際の移行事例を基に、バージョンアップ時に検討を実施する機能や、運用上検討しなければいけない内容についてお話しした上で、どのように対処したかをご紹介します。
<アジェンダ>
・はじめに(10分)
-SQL Serverバージョンアップに関して
-機能面での検討事項
-運用面での検討事項
・事例紹介①(15分)
-事例内容
-問題点/対処(1~3つ程度)
・事例紹介②(15分)
-事例内容
-問題点/対処(1~3つ程度)
・弊社サービス紹介(10分)
・QA(10分)

お申込みはこちら

 

 

Make the most of the new Dynamics 365 App for Outlook

$
0
0

Everybody loves Outlook. Most of our daily communication and planning takes place in Outlook. Some argue that Outlook is the first thing you open when the day begins, and the last thing you close when the day ends.

Many of us also work with business relations (customers, prospects, contacts, accounts, etc) on a daily basis. Track the emails we receive/send to our business relations, create and update leads, opportunities, cases and so on.

It has always been very attactive to Microsoft users that you can work with Dynamics 365 (CRM) directly in Outlook. Afterall its where many spend most of the day. You dont have to switch apps to accomplish what you need to do. App switching is time consuming.

In many years this capability was handled by a COM Add-In - in the recent years our recommendation has been to leverage the zero footprint Dynamics 365 for Tablets and Phones app, now called the Dynamics 365 App for Outlook.

With the introduction of the new unified User Interface (UI) in Dynamics 365 (CRM) the user experience has become even better. The new UI is highly performing, responsive and very userfriendly.

The Dynamics 365 App for Outlook leverages the new UI. You can literally work with the best of Dynamics 365 (CRM) without leaving Outlook. The best of both worlds.

As an example I can click a mail I just received in Outlook, and then click the Dynamics 365 icon in the ribbon (1) to open the Dynamics 365 App for Outlook.

The Dynamics 365 App for Outlook opens in a task pane to the right (you can change the widht of this task pane, and the UI will adopt beautifully to the new width).

In this example I see the mail is tracked to an an opportunity "Social Engagement" (1), I see the contact information for the sender (2), the account information (3) - and much much more if I scroll down or click the records in the app. I can create, read, update, and delete records and activities right there in Outlook.

If I click the sitemap icon (4)....

... I'm presented with the Out-of-the-Box (OOB) sitemap for the app. I can navigate to see Dashboards (1). Thats it for the OOB sitemap.

Probably you will want more options for the sitemap as you start working with the app - eg the ability to easily navigate to the Accounts, Contacts, and Opportunities lists.

Luckily its pretty straight forward to edit the sitemap of any Dynamics 365 app with the new PowerApps app. In the rest of this blog post I'll show you how.

Open Dynamics 365 in a browser, click the Application Navigator in the upper left (1) and then click PowerApps (2)

In PowerApps click Apps (1), click the (...) menu in the Dynamics 365 App for Outlook (2) and then Edit (3) to open the App Designer

In the App Designer click the Edit icon (1) in the Site Map to open the Sitemap Designer

In the Sitemap Designer click Home (1), click Components (2), and then drag a Group (3) onto the canvas (4)

Name the Group, eg "Sales" and then drag three subareas (2) on to the canvas (3).

For each subarea specify Type=Entity and point out the desired entities (eg Accounts, Contacts, and Opportunities)

After I Save and Publish Customizations, I head back over to Outlook and open the Dynamics 365 App for Outlook again.

I now have the new group "Sales" in the sitemap (1). The app now suits my daily work tasks even better.

I can easily navigate to eg the My Active Accounts list (displayed in a grid)

If I decrease the width of the Dynamics 365 App for Outlook task pane the responsive UI adapts beautifully to display each record in a card.

I hope this fantastic app will add value to your daily work in Outlook.

See also

連載 : DAX 入門 [Power BI][SSAS][PowerPivot]

2019 年 7 月 SQL Server 2008 の延長サポートが終了します

$
0
0

この記事は、2018 年 2 月 27 日 に Data Platform Tech Sales Team Blog にて公開された内容です。

 

Microsoft Japan Data Platform Tech Sales Team

大林裕明

ご存じの方も多いと思いますが、SQL Server 2008 の延長サポートが 2019年7月9日で終了します。

サポート期間が終了した製品はマイクロソフトによる修正プログラムの提供が受けられなくなります。

すでにバージョンアップの計画を立てて、実施されている方もいらっしゃると思います。

バージョンアップに最新の SQL Server 2017 を選択していただければ、メインストリームサポートは2022年10月、延長サポートは2027年10月までになります。

折角最新の SQL Server 2017 にするのであれば、パフォーマンスやセキュリティ、高度な分析などの新機能を利用することを検討いただければと思います。

Microsoft SQL Server バージョンの比較

https://www.microsoft.com/ja-jp/sql-server/sql-server-2017-comparison

また、この機会にオンプレミスではなくクラウドに構築することを検討される方もいらっしゃるかと思います。

クラウドへの移行は、クラウド上の 仮想マシン(IaaS)に インストールされた SQL Server をご利用する方法と Azure 上のフルマネージドサービス(PaaS)の Azure SQL Database を利用する方法があります。

Windows Server も含めた既存環境に近い環境でクラウドに移行した場合は IaaS を、OS の運用管理をなくしてデータベース運用も容易にし、アプリケーション開発に集中したい場合は PaaS の Azure SQL Database を選択されるのかと思います。

SQL Server のバージョンアップの際に新しいバージョンの SQL Server や Azure SQL Database とデータベース機能の互換性の問題を検出する Data Migration Assistant(DMA) というツールがあります。

Create an assessment

現在の環境の分析を行い、移行に伴い変更がある機能や新しい環境で使用が推奨される機能が提示されます。

こちらのツールは次のシナリオで使用することができます。

■ SQL Server から SQL Server (異なるバージョン or Azure VM) へのアセスメントと移行

Select an assessment report type for SQL Server target

  • SQL Server から SQL Server の移行には、データベースのバックアップ → リストアにより実施されます。

■ SQL Server から Azure SQL Database への移行のアセスメントと移行

Select assessment report type for SQL Database target

  • DMA v3.2 から、Azure SQL Database のアセスメントだけでなく移行にも対応しました。
  • Azure SQL Database への移行は、スクリプトによるスキーマの移行と、一括挿入によるデータの移行により実施される

Overview of Data Migration Assistant(英語)

https://docs.microsoft.com/en-us/sql/dma/dma-overview

ダウンロード(Microsoft® Data Migration Assistant v3.4 )(英語)

https://www.microsoft.com/en-us/download/details.aspx?id=53595

SQL Server 2008 のサポート終了まであと 10 か月です。

アップグレードの計画がまだの方は早急にご検討いただければと思います。

Microsoft Azure Blockchain を通じて Nasdaq Financial Framework にデジタル台帳の相互運用性をもたらす

$
0
0

執筆者: Matthew Kerner (General Manager, Microsoft Azure)

このポストは、2018 10 30 日に投稿された Bringing digital ledger interoperability to Nasdaq Financial Framework through Microsoft Azure Blockchain の翻訳です。

 

Nasdaq は、1971 年に大勢の個人投資家に向けて世界初の電子証券取引所を開設し、金融市場に革命を起こしました。以来、その革新の精神は資本市場におけるテクノロジ発展の最前線で脈々と受け継がれ、Nasdaq ブランドは大手テクノロジ プロバイダーへと変身を遂げています。

Nasdaq の商用テクノロジの武器である Market Technology (英語) は、50 か国の 100 以上の取引所、手形交換所、中央証券預託機関 (英語) で使用され、ミッション クリティカルな資本市場の基盤を支えています。

世界中の顧客により良いサービスを提供するために、Nasdaq はエンタープライズ サービスを再設計し、2016 年に Nasdaq Financial Framework (NFF) をリリースしました。このフレームワークのモジュール設計は単一の運用コアを採用しており、ビジネス アプリケーションやサービスの膨大なポートフォリオが取引ライフサイクル全体にわたってサポートされます。これにより、顧客はモノリシック インフラストラクチャ システムにつきもののコストと複雑さを排除して、ミッションクリティカルなテクノロジ スタックを簡単に追加、削除、改善できるようになっています。

また、NFF は最新テクノロジのメリットを活用して、顧客の主な戦略的強みを引き出せるよう設計されています。

Nasdaq のマーケット テクノロジ ビジネス担当シニア バイス プレジデントである Magnus Haglind 氏はこう述べています。
「私たち (資本市場) を取り巻く業界は、クラウド、ブロックチェーン、人工知能などの台頭と発展によって、かつてないほど急速に発展しています。業界の主要企業はそうしたテクノロジに注目し、どうすればより効果的かつ効率的なサービスを提供できるのか、どうすれば競争力を高められるのかを探っています」。

業界でのニーズの高まりに合わせてブロックチェーン機能を強化するために、Nasdaq NFF Microsoft Azure Blockchain と統合し、多様な台帳をサポートする、台帳に依存しないブロックチェーン機能の構築を進めています。

Nasdaq

Azure は、一連の革新的なブロックチェーン マイクロサービスを通じて取引や契約を実行し、NFF のコア インフラストラクチャ、エコシステム ミドルウェア、顧客のテクノロジの間に安全性の高い相互運用性と通信を確保します。

これにより、安全かつスケーラブルに多様なテクノロジを連携させられる高度なブロックチェーン システムが実現し、Nasdaq はさまざまなプロジェクトにおいて顧客の要件を満たせるようになります。

多数の取引が支払メカニズムの異なる複数のブロックチェーンに存在していますが、Nasdaq は、そうした取引の交付、支払、決済をブロックチェーンで管理できるようになる日も近いと見ています。Nasdaq のエンタープライズ アーキテクチャ担当シニア バイス プレジデント Tom Fay 氏は、次のように語っています。「さまざまな業界で複数のブロックチェーンが使用されていますが、NFF とマイクロソフトのブロックチェーン技術を組み合わせることで、この分野のプロジェクトの複雑さをある程度まで解消できると確信しています。また、マーケット テクノロジやそのしくみに関心を寄せる業界が増えてくれば、買い手と売り手を安全、スムーズ、瞬時にマッチングさせる場面において、ブロックチェーンの価値を発揮できる機会も増えることでしょう」。

こうした機能によって、資本市場で取引している企業は、台帳に関連するスキルや知識がなくても、ブロックチェーン技術を組み込んだ NFF ベース アプリケーションを活用できるようになります。これは、分散型台帳テクノロジの新しいユース ケースを探究するうえで重要なことです。

Tom Fay 氏はこうも話しています。「Azure はブロックチェーンの力を解き放ちつつ、複雑さを大きく緩和してくれています。NFF とマイクロソフトのブロックチェーン サービスの統合によって抽象化レイヤーが生まれ、当社のサービスは台帳に依存しない、安全で拡張性の高いものになりました。おかげで、ブロックチェーンのユース ケース拡大をさらに続けていくことができます。マイクロソフトにお任せしたことで、エンタープライズ クラスのパートナーとブロックチェーン分野のリーダーが最高のかたちで提携することになり、台帳通信、セキュリティ、デプロイメント、オーケストレーションにまつわるすべてを意味のうえから捉えられるようになりました。その結果、当社の主要ビジネスから外れているコンポーネントの構築にリソースを割くのではなく、顧客の課題と大規模なソリューションに専念できています」。

マイクロソフトは、Nasdaq と提携し、革新的マーケット テクノロジの発展に携われることをたいへん光栄に思っています。エンタープライズ プラットフォームのリーディング カンパニーとして、マイクロソフトはお客様の成功を根幹からお支えします。このパートナーシップを通じて、Nasdaq が深く理解している業界の問題にクラウドとブロックチェーンの技術を応用できるよう、そして同社がさらに成功し続けられるようお手伝いしていきたいと考えています。

 

Microsoft Azure でのドローンの責任ある利用と開発のためのエコシステムを強化

$
0
0

執筆者: Sam George (Director, Azure Internet of Things)

このポストは、2018 10 30 日に投稿された Building an ecosystem for responsible drone use and development on Microsoft Azure の翻訳です。

 

次の新たなコンピューティングの波が押し寄せつつあります。IoT を活用することによって、企業はビジネスのあらゆる側面をリアルタイムに認識できるようになり、IoT デバイスで実行されるクラウド ワークロードを適切な情報に基づいて操作できるようになりました。これにより、クラウドに「常持接続」しなくても、コンテキストに沿ってリアルタイムに意思決定を下すことが可能になっています。これがイノベーションの新たな波と言われる「インテリジェント エッジ」です。企業だけでなく、世界中の最優先課題にどう対処するかということにも関連するテクノロジです。

無人航空機システム (UAS)、いわゆるドローンは、インテリジェント エッジ デバイスの代表的な装置です。今日では、捜索や救助、自然災害の復旧といった活動から、「精密農業」による世界の食料供給増加の取り組みに至る幅広い課題への対応に活用されています。この AI の力をエッジで活用すれば、ドローンを通じてビジネスの変革や社会の発展に大きく寄与することができます。また、危険地帯で活動する人々を安全かつ効率的に支援することも可能になります。

こうした先進機能を利用するにあたっては、大きな責任も伴います。たとえば、ドローンは、一般空域での利用や環境を監視するアプリの搭載について規定している法律に従う必要があります。マイクロソフトは、クラウドでもインテリジェント エッジでも、そこにあるデータを保護することが重要だと考えています。

イノベーションのためのプラットフォームを構築する他にも、重要なのは、企業やパートナーへの投資を通じて、ドローンや関連データを責任ある状態で使用できるようにすることです。そこで本日マイクロソフトは、Microsoft Azure で商用 IoT エッジ デバイスとして実行されるドローンをより責任のある状態で使用可能にすることに関連する 2 つの発表をさせていただきます。

AirMap Microsoft Azure を採用

本日マイクロソフトは、AirMap が同社のドローン トラフィック管理プラットフォームと開発エコシステム用のクラウド コンピューティング プラットフォームとして、Microsoft Azure を採用 (英語) したことを発表します。

ドローンの使用は、輸送、公共事業、農業、公共安全、緊急対応といったさまざまな分野で急速に拡大し、既存のビジネス プロセスの効率化やパフォーマンス向上に役立てられています。ドローンで生成されたデータにインテリジェンスが吹き込まれることで、企業や公共機関が顧客や地域社会にもたらす価値が生まれることになります。しかし、コンプライアンス、プライバシー、データ保護に関連するさまざまな懸念から、ドローン技術の大規模な導入が見送られるケースも少なくありません。

AirMap は、民間航空局、航空ナビゲーション サービス プロバイダー、地方自治体と協力して空域管理システムを構築し、ドローンでの低空域への安全かつ責任あるアクセスを支援しています。

AirMap の空域管理プラットフォームは Microsoft Azure で運用されています。州および地方当局はこのプラットフォームを使用して、ドローン飛行の承認や、飛行方法や時間に関する地域の規制適用を行っています。これらのソリューションでは、コンプライアンスとセキュリティがエンタープライズ ワークフローの中心にあり、そこにドローンが組み込まれています。

AirMap Microsoft Azure を採用したのは、Azure がミッション クリティカルな空域サービスの運用と世界各地でのドローン飛行の計画に欠かせないクラウド コンピューティング インフラストラクチャ、セキュリティ、信頼性を備えているためです。

今年初めに、スイスの国営郵便事業会社である Swiss Post は、ドローン メーカーの Matternet と、スイスの医療システム大手の Insel Group と提携し、ベルン市の Tiefanau 病院と University Hospital Insel 間で緊急を要する実験サンプルのドローン輸送を始めました。これは、地上輸送に替わる手段であり、交通渋滞による遅れが命にかかわる事態を解消するための動きです。運用はスイスのドローン向け空域管理システムにサポートされ、AirMap Microsoft Azure がこのシステムの安全性と効率性を支えています。

アプリ開発用 DJI Windows SDK がパブリック プレビューに

マイクロソフトは今年 5 月に開催された開発者向けカンファレンス Build で、民生用ドローンと空撮テクノロジで世界をリードする DJI とのパートナーシップ (英語) を発表しました。この提携を通じて、AI および機械学習の高度な機能を DJI ドローンに提供し、企業が商用ドローン テクノロジとエッジ クラウド コンピューティングを活用できるよう支援しています。

本日マイクロソフトは、DJI AirWorks カンファレンスにおいて Windows SDK のパブリック プレビューを発表します。この SDK は、Windows 10 PC 向けの DJI ドローンを制御するアプリケーションを開発するためのものです。Windows 開発者コミュニティのメンバーはこの SDK を使用することで、マルチスペクトル センサーのようなサードパーティ製ペイロードや、カスタム アクチュエータのようなロボティクス コンポーネントなどを統合、管理できるようになります。これにより、企業によるドローン活用の幅は飛躍的に広がります。

この SDK により、次の 3 つの手法を使って Azure AI サービスでドローンの画像と動画をリアルタイムに操作できます。

  1. Azure に直接ドローン画像を送信し、AI ワークロードで処理する
  2. AI ワークロードを搭載した Azure IoT Edge を実行している Windows でドローン画像を処理する
  3. AI ワークロードを搭載した Azure IoT Edge を実行しているドローンで直接ドローン画像を処理する

マイクロソフトでは、クラウドからドローンなどのエッジ デバイスに至るあらゆるデータのセキュリティを重視しています。Azure IoT Edge にはセキュリティ マネージャーと呼ばれる重要なサブシステムが含まれています。これが、安全なシリコン ハードウェアを抽象化することで、IoT Edge デバイスとそのコンポーネントすべてを保護する中心的な役割を果たします。これはセキュリティ強化の重要なポイントであり、IoT デバイス メーカーにとっては、ハードウェア セキュリティ モジュール (HSM) の選択に応じてデバイスを堅牢化することができます。現在、Azure Certified for IoT プログラムでのみ、厳しいセキュリティ要件を満たすサードパーティ製 Azure IoT Edge ハードウェアの認定を行っています。

マイクロソフトにとってたいへん励みになっているのは、業界を問わずクリエイティブなドローン アプリケーションが Azure から生まれていることです。その一部を以下にご紹介します。

  • SlantRange: 同社は空中リモート センシングとデータ分析を手掛け、地球科学、防衛、インテリジェンス分野のアプリケーションで 20 年以上にわたり培ってきた経験を活かして、農業業界が必要とする情報を提供しています。農作物の空撮検査に関する基礎技術の特許を持ち、革新的な分析手法を導入することで、貴重な作物データを提供しています。データ収集にかかる時間は数分で、世界中のどこででも利用でき、低消費電力エッジ コンピューティング デバイスを強みとしています。これらのテクノロジが SlantRange の成長を後押し、数シーズン前にネブラスカ州の数軒のトウモロコシ農家や大豆農家から始めたビジネスは、今では 40 か国に広がり、さまざまな作物に対応できるようになりました。世界有数の農産物サプライヤーや農業生産業者とも契約を結んでいます。
  • Clobotics: 同社は風力タービンのブレードの不具合を自動的に点検、撮影、報告するドローンを開発し、風力エネルギー企業の生産性向上を支援しています。この数か月に点検したタービンは世界中で 1,000 基以上に上ります。コンピューター ビジョン、機械学習、データ分析のソフトウェアに商用ドローンとセンサーを組み合わせた同社のエンドツーエンド ソリューションは、風力業界における点検サービスの自動化を支えています。Clobotics Wind Turbine Data Platform は、そのコンピューター ビジョンを活用したエッジ コンピューティング サービスと共に、世界初の風力タービン ブレードのライフサイクル管理サービスを実現しています。Clobotics はマイクロソフトのグローバル Azure パートナーとして、Microsoft Azure IoT プラットフォームを緊密に連携させ、非常に革新的で信頼性の高いサービスをエンタープライズ企業に提供しています。
  • eSmart Systems: 同社は20 年以上にわたってグローバルに展開してきたインテリジェンスを活かし、エネルギー業界、サービス プロバイダー、スマート シティ向けにソフトウェア ソリューションを提供しています。Azure IoT Edge のエッジに AI を組み込むことで、送電網の点検業務に革命を起こしています。同社の Connected Drone ソリューションは、20 万枚の画像を 1 時間もかからずに分析する機能を備えています。20 万枚とは、人が行う場合その分野のエキスパートでも 1 年以上はかかる量です。その結果、運用コストの削減、グリッドの状況についての優れたインサイトの獲得を実現し、停電が発生する回数も削減されました。

マイクロソフトは今年初めに、IoT とインテリジェント エッジ分野のイノベーション、戦略的パートナーシップ、その他さまざまな取り組みを継続的に促進するために、50 億ドルの投資 (英語) を行うことを発表しました。AirMap DJI のような戦略的パートナーとの新たな取り組みを通じて、今後も私たちの限界を広げてまいります。お客様がどのようなソリューションを構築されるのか楽しみにしています。

 

Microsoft 365 ブログまとめ (2018 年 11月)【11/5 更新】

$
0
0

Microsoft 365 は、Office 365、Windows 10、Enterprise Mobility + Security を組み合わせたインテリジェントなソリューションです。 安全に仕事できる環境を作り、働く人すべての力となります。

Office ブログはMicrosoft 365 ブログに進化しました。英語版の Microsoft 365 ブログ (英語)、一部が翻訳された日本語版 Microsoft 365 ブログとともに、元の Office Blogs  もしばらく運用されていきます。製品の更新情報は今後、主に Microsoft 365 ブログに投稿されます。ぜひブックマークして定期的にご参照ください!

 

≪最近の更新≫

2018/10/31: Microsoft 365 の 10 月の最新情報まとめ – インパクトのあるコンテンツ作成とクラウドへの移行を支援するツール  (英語)

2018/10/02: 10 月に予定されている Windows と Office の更新 (英語)

Windows 10 2018 年 10 月の更新、Office 365 / To-Do / Outlook.com の更新

 

Microsoft 365 は、Office 365 のアプリとサービスを含み、Enterprise Mobility + Security および Windows 10 Pro を備えた総合的かつインテリジェントなソリューションです。Microsoft 365 の各製品については、Office 365 | Windows 10 | Enterprise Mobility + Security を参照してください。Office 365 サブスクリプションをお持ちの方を対象とした今月の新機能の詳細については、Windows デスクトップ版 Office の新機能 | Office for Mac の新機能 | Office Mobile for Windows の新機能 | Office for iPhone および Office for iPad の新機能 | Office for Android の新機能を参照してください。月次チャネルと半期チャネルの法人契約の皆様は、対象指定リリース (クライアントサービス) を通じて完全にサポートされたビルドを早期に利用できます。今回ご紹介した機能の入手時期の詳細については、「Office の最新機能を入手できる時期」を参照してください。

最近は、月末にその月の主な新機能のまとめが出ていますので、簡単に概要を把握するのに便利です。

 

また、英語になりますが、更新に関するビデオドキュメントが出ていますので、こちらもご覧ください。(米国時間毎月8日頃にアップデートされます)

 

過去のまとめを見るには、Office Blogs タグを参照してください。

製品についての最新情報まとめを見るには最新アップデートタグを参照してください。

 

 


Why do some of the lists and libraries I create only work in classic experience in SharePoint Online?

$
0
0

You've surely been there:

In your SharePoint Online environment, you have set-up the modern experience to apply to all the sites and lists.

You create a document library and, naturally expect to see the new experience applied. Still you will be redirected to the classic experience.

Why?

The answer is here :Differences between the new and classic experiences for lists and libraries

Still going through the document, you cannot find a specific reason so, here's how to read this:

Point 1: Features available only in the classic experience : This basically means that if you expect one of the listed features in Modern Experience, you will simply NOT have them (for example, location based views will NOT work in Modern).

Point 2: Features available only in the classic experience : Customizations

List templates other than

  • Document Library,
  • Custom List,
  • Announcements List,
  • Links List,
  • Picture Library,
  • Asset Library,
  • Promoted Links,
  • Form Library,
  • Wiki Page Library,
  • Asset Library,
  • Promoted Links,
  • Wiki Page Library (Site Pages/Pages).

Which basically reads : List templates other than ... Are available only in classic experience (or the other way around, the list templates other than... do not support modern experience)

Now what happens if I do have one of the features named in the first part of the article ?

The answer reads : you will be automatically redirected to the list's classic experience (described in part 2).

Point 1:Features that cause the new experience to automatically switch to the classic experience

Example, you add one publishing column to your custom list, you get the classic experience , even if before you had your list working fine in modern.

Point 2:Features that cause the new experience to automatically switch to the classic experience : Customizations

List templates other than ...(the list above)

Which reads: if you create a list different than the supported template(above), you will get redirected to the classic experience.

Sure, you can specify in the document library setting under Advanced->Experience to have the lists that do not support the modern experience to always use the new experience.

But this at the same time will mean that the list will render as a simple list and the items will be simple list items.

Let's take for example a task list.

By default you will get in the tasks list default view a view of the entries, and a view on the timeline of the tasks.

Set the list to new experience and the list will render as a simple list.

Click any on the items in the list and the items will be downloaded instead of opening in the custom edit form associated with the list.

Conclusion:

Forcing the modern experience on a list that does not support it is ... well... not supported.

Use the lists as they are. Modern in modern and classic in classic.

 

 

 

把握最後機會! Microsoft 年度教育活動Skype-a-Thon即將開跑

$
0
0


我們誠摯地邀請貴校參與微軟年度盛事-全球48小時Skype-a-Thon,今年活動主題為Open Hearts,Open Minds。

什麼是Skype-a-Thon?
Microsoft與非營利組織WE合作的國際學習活動。本年度將於11月13日至14日進行,參與老師會引領同學於這48小時在課室使用Skype,並與來自100多個國家的100萬名學生進行交流或進行線上旅行。每達400虛擬公里旅程,Microsoft便會對WE學校進行贊助,支援聯合國永續發展 #4 - 教育品質。

為什麼要參加Skype-a-Thon?
是次活動能讓校方和家長明白“Skype In Classroom” 對孩子學習的好處。相信各位老師也希望學生能夠愉快學習,藉本活學生能夠:
- 學習調查技巧
- 學習小組合作
- 學習書本以外課題, 如:地理知識
- 加深對世界的了解
- 進行文化交流
- 與不同國籍同學討論熱門學術主題,如:STEM丶動物丶歷史
- 提升溝通技巧
- 學習分享,如:故事演講丶舞蹈表演丶樂器演奏
- 建立同理心和同情心
- 於完成活動後, 選擇參與 Microsoft 香港辦工室及體驗中心的參觀活動

請立即報名, 並𨍭發給老師們😊
登入Microsoft Educator Community 並安排與其他教室或是來自Skype in the Classroom 網站的演講嘉賓進行 Skype通話。(若未加入 Microsoft Educator Community, 可按此連結)

備註:

1) 下載Skype-a-Thon Step by Step活動計劃來幫助您組織和為學生準備參與Skype-a -Thon。

2) 參考帶領過學生參與Skype-a-Thon的老師想法並獲得啟發。

3) 下載Skype-a-Thon Teacher Toolkit,為您的班級提供活動物資 (我們已為您們準備活動護照丶證書丶海報丶社交媒體分享範例等資源),以便追蹤您的里程以及計入Skype-a-thon活動及慈善目標。

4) 把活動相片丶影片傳送至查詢電郵v-brng@mircosoft.com;上載到社交媒體,並在貼文提及 #skypeathon #MircosoftEDU #MIEHK。MSHK將會使用於製作香港區活動花絮,以便校方刊登及分享。

不審なメール、拡散されてませんか ? Office 365 側からまとめて管理することができます! ~Windows Defender Advanced Threat Protection と Office 365 Threat Intelligence の連携について~

$
0
0

こんにちは!セキュリティ担当の荒木 さつきです。

皆様もすでにご存知かと思いますが、Office 365 は企業・組織の IT 管理者向けの様々なサービスを提供しております。今回はその中から Office 365 Threat Intelligence (O365 TI) を使った、Windows 10 Defender ATP (WDATP) との連携機能を動画を交えながらご紹介させていただきます。

 

1. Defender = アンチウイルスではありません!

本題に入る前に Windows 10 のセキュリティ機能を簡単に紹介します。皆様は「Windows Defender」という言葉から何を想像されるでしょうか ? 多くの方が、アンチウイルス ソフトを想像されるかと思いますが、それは Windows Defender のごく一部の機能でしかありません。現在、「Windows Defender」は Windows エンドポイント セキュリティを包括的に担保するブランドとして以下のセキュリティ機能を有しています。

今回、O365 TI と連携する Window Defender Advanced Threat Protection (WDATP) は、エンドポイント セキュリティにおいて Endpoint Detection and Response (EDR) の役割を担っています。

 

2.Windows Defender ATP の役割

少し前まではエンドポイント セキュリティといえば、検知したマルウェアをパターン化しマッチングにさせるパターン ファイル方式でしたが、マルウェア全体の約 96 %がポリモーフィック型であることを示すデータからもわかるように、現在のマルウェアはパターン ファイルだけでは検知が難しくなっています。また最近では Powershell や Office のマクロ等を用いたファイルレス攻撃も増加の傾向にあります。

このような状況からパターン ファイル以外の要素を使ってエンドポイントへの攻撃を検知する必要が出てきました。

マイクロソフトでは、Defender シリーズでこれらの機能をサポートしています。上の図にも記載されている、「Windows Defender Exploit Guard」ではパターンファイルを使わずに OS のふるまいを監視し、セキュリティ上問題のある行動を制限することができます。

 

上の図はマイクロソフトが考えているエンドポイント セキュリティ対策の考え方です。

従来は「PRE-BREACH」という考え方に基づいて、検知されたセキュリティ上の問題を取り除く機能を中心に考えられていましたが、今日ではそれらに加えて「エンドポイントがセキュリティの攻撃によって侵入された」という前提に基づいて、侵入後の原因究明や発端となったマルウェアの拡散を防止する対策が取られています。この機能が「POST-BREACH」に相当します。

「POST-BREACH」を担当する機能は一般的に EDR (Endpoint Detection Protection) と呼ばれており、Defender シリーズでは WDATP が EDR 機能を担保しています。WDATP は「POST-BREACH」機能に加えて、攻撃の予兆の段階からふるまいを監視することでエンドポイントを保護します。また侵入後の対応を自動化する機能を有しているため、深夜や休日等、管理者不在の場合でも発生したセキュリティ攻撃に対して迅速に対応することができます。

WDATP を含めた Defender シリーズをもっと知りたい!という方は下記リンクも併せてご参照ください。

はい、これで見えますね: ファイルレス マルウェアをさらけ出す

次世代型のマルウェア対策機能を提供する Windows Defender ウイルス対策の本当の実力とは?

Windows Defender Exploit Guard

Windows Defender Advanced Threat Protection

 

3. WDATP が攻撃の痕跡を検知

さて、ここからいよいよ本題です。今回は WDATP で検知したエンドポイントのふるまいから原因を突き止め、O365 TI を使って内部の拡散状況を調査します。

ユーザーがメールを開き、添付ファイルを実行しました。

 

エンドポイント側で表面上は何も変化が見られませんが、WDATP が検知したイベントを確認すると添付ファイルを開くタイミングでいくつかのセキュリティの問題が確認されています。

 

上の画面は「Windows Defender Security Center」の画面です。クラウド上で管理画面が展開されているため、管理者はエンドポイントに出向くことなく対象となるエンドポイントのふるまいを確認することができます。

 

4. O365 TI を使って、拡散状況を確認

確認の結果、メール経由でエンドポイントに到達したファイルがセキュリティ上の問題を引き起こしていることがわかりました。同一メールをテナントで確認するために、WDATP と O365 TI を連携させます。

Windows Defender Security Centerで検知したファイルを Office 365 TI 側で確認し、同じメールの有無を確認しています。

 

5. 被害拡大を防止するために O365 TI から直接メールを削除

O365 TI 側で検索した結果、複数のメールアドレスにこのメールが配信されていることがわかりました。ここでは、O365 TI から拡散されたメールを削除してみましょう。

エンドポイント側で対象となるメールが削除されました。

 

6. O365 TI は EOP や Office 365 ATP とも連携可能

今回は WDATP で検知した不審な挙動に基づいて原因となったファイルを特定し、O365 TI でファイルの拡散状況を確認・削除するところを紹介しました。O365 TIはこれ以外にもさまざまな機能を持っています。EOP や Office 365 で検知されたメールに対しても同等の機能を持ち、管理者側で対象となるメールを一元管理することができます。以下、連携した場合の一例です。

例)

1. Office 365 ATP の添付ファイル保護機能を使いサンドボックスで検知されたメールを O365 TI 側で一括管理
2. Office 365 ATP の高度なフィッシング対策機能を使い検知したビジネス詐欺 (BEC) メールを O365 TI 側で一括管理

このように Office 365 TI はさまざまなサービスと連携し、管理者の運用負荷を軽減しながら確実にセキュリティの問題に対処することができます。

Office365 ATP については以下リンクも併せてご参照ください。
https://technet.microsoft.com/ja-JP/library/exchange-online-advanced-threat-protection-service-description.aspx

 

7. その他

現時点では今回ご紹介した機能拡張はオンプレミス環境については対象外となっております。Office 365 ATP・TI は Office 365 Enterprise E5 コンポーネントに含まれており、ご利用にあたっては Office 365 E5 のご契約が必要となります。(ATP・TI 単体でもご契約頂くことが可能です。) また、Windows 10 Defender ATP をご利用いただくためには Windows 10 E5 のご契約が必要となります。現在、Office 365・Windows 10 をご契約のお客様は本機能を追加でご利用頂くことで未知の脅威に対し、より強固な対策を実現することが可能です。

また、マイクロソフトでは上記機能を含めた包括的なセキュリティ対策としてMicrosoft 365(M365)を提供しております。お客様のセキュリティニーズに合わせて必要な機能・構成をご選択ください。
https://www.microsoft.com/ja-JP/Microsoft-365

ESENT データベース USS.jtx で、エラー イベント ID 490、454、489、455 が記録される事象について

$
0
0

皆さん、こんにちは。Windows サポート チームの神田です。

本日は、エラーとしてイベント ログに記録されるが、対策や処理などは必要のないイベントについて説明いたします。
後述するイベントは、ご利用いただいているシステムやユーザー環境に影響がなく、特別な対策を取る必要は無いものですが、Windows として「エラー」と記録するように規定されており度々お客様から質問があるため、ブログとして情報を公開させていただきました。

- 事象
Windows の起動時やログオン時、アプリケーション イベント ログに以下のイベントが記録される場合があります。
--------------------------------------------------------
ソース:           ESENT
イベント ID:       490
説明:
svchost (nnnn) Unistore: 読み取りまたは書き込みのためにファイル ""C:Users<User_Name>AppDataLocalCommsUnistoreDBUSS.jtx"" を開こうとしましたが、システム エラー 32 (0x00000020): ""プロセスはファイルにアクセスできません。別のプロセスが使用中です。 "" が発生したため開けませんでした。ファイルを開く処理は、エラー -1032 (0xfffffbf8) のため失敗します。
--------------------------------------------------------
ソース:           ESENT
イベント ID:       454
説明:
svchost (nnnn) Unistore: 予期しないエラー -1032 が発生したため、データベースの回復または復元に失敗しました。
--------------------------------------------------------
ソース:           ESENT
イベント ID:       489
説明:
svchost (nnnn) Unistore: 読み取るためにファイル ""C:Users<User_Name>AppDataLocalCommsUnistoreDBUSS.jtx"" を開こうとしましたが、システム エラー 32 (0x00000020): ""プロセスはファイルにアクセスできません。別のプロセスが使用中です。 "" が発生したため開けませんでした。ファイルを開く処理は、エラー -1032 (0xfffffbf8) のため失敗します。
--------------------------------------------------------
ソース:           ESENT
イベント ID:       455
説明:
svchost (nnnn) Unistore: ログ ファイル C:UsersAdministratorAppDataLocalCommsUnistoreDBUSS.jtx を開いているときに、エラー -1032 (0xfffffbf8) が発生しました。
--------------------------------------------------------

- 説明
上記のイベント内に記載されている UnistoreDB とは、UnistoreSvc (User Data Storage) と呼ばれるサービスにより参照されているデータベースです。サービスのプロセスがデータベース ファイルへアクセスを試みた際に、既にほかのプロセスが排他的にファイルへアクセスしていると、共有違反 (ERROR_SHARING_VIOLATION) が発生します。その場合、上述したエラーがアプリケーション イベント ログに記録されます。

UnistoreDB が既に排他でファイル アクセスされている要因の一つとして、同一のアカウントでリモート デスクトップのセッションが複数
確立している場合等が考えられます。

UniStore のデータベースはユーザー単位で保持される情報になり、当該データベースにアクセスできない状況でもシステム全体への影響はありません。また、データベースへのアクセスが次回の試行時に成功すれば、データベースの更新は正常に行われるため、エラーが発生した場合の対策を実施する必要はありません。
Windows Server 2016 の標準構成におきましては、Unistore サービスへのアクセスを行うアプリケーションがインストールされていない状況になりますので、サーバーのエディションにかぎりましては、Unistore に関連するエラー イベントの記録されている場合にも、業務に影響が発生することはありません。

- 補足
UnistoreSvc サービスは、連絡先情報、予定表、メッセージ、その他のコンテンツなどのユーザー データを管理しており、アプリケーションへのデータ アクセスを提供しております。

- 参考資料
Per-user services in Windows 10 and Windows Server
https://docs.microsoft.com/en-us/windows/application-management/per-user-services-in-windows
UnistoreSvc : User Data Storage
Handles storage of structured user data, including contact info, calendars, and messages. If you stop or
disable this service, apps that use this data might not work correctly.

[ASM] データセンタ リージョン間の Classic 仮想マシンの移動方法

$
0
0

こんにちは! Azure サポート チームの澤田です。

Azure サポート チームでは ARM デプロイメント モデルを利用した Azure 仮想マシンについてのお問い合わせを多くいただいておりますが、Classic である ASM デプロイメントモデルを利用の仮想マシンについてもお問い合わせを頂いています。ARM では新機能が続々と追加されている状況から、サポートチームとしても ARM の利用を推奨している状況ではありますが、事情により Classic を利用しなければいけない場合がある事も認識しています。本日はそんな Classic ユーザーのご利用者様を対象として、Azure 仮想マシンのデータセンター間での移動方法を纏めてみましたので、ご参考下さい。

ASM ARM に関わらず Azure 仮想マシンではリージョンを跨ぐ移動をサポートしていないため、利用しているリージョンを変更する為には、手動で移動させる必要があります。具体的には、VHD ファイルを残す方法で仮想マシンを削除し、VHD ファイルを移動させ、VHD ファイルから新規で仮想マシンを作成する方法です。

なお以下手順での移動対象はクラウドサービスにシングルで構成しているシンプルな仮想マシンでデータ ディスクがアタッチされている環境を想定しています。

目次

まず初めに、手順の項目を以下で説明します。

  1.  仮想マシンを停止させる
  2.  仮想マシンにアタッチされているデータディスクの構成を確認する
  3.  仮想マシンに紐づく vhd ファイルを移動先のストレージ アカウントへコピーする
  4.  仮想マシンを "特殊化" でバックアップする
  5.  仮想マシンのエンドポイントや NSG など設定をメモする
  6.  仮想マシンをクラウド サービスごと削除する
  7.  移動先のデータセンタで新規クラウド サービスを再作成する
  8.  移動した vhd ファイルを基に、OS ディスクならびにデータディスクを作成する
  9.  ディスクより仮想マシンを再作成する

手順

  1.  仮想マシンを停止させる

    vhd ファイルの移動時に vhd ファイルへの書き込みが発生すると、vhd ファイルの不整合により復旧に失敗する可能性があります。その為、対象の仮想マシンは事前に停止状態にしてください。以下に停止の手順を記載いたします。

    1) 管理ポータルへログインし、左メニューより “Virtual Machines" を選択します。
    2) 表示された仮想マシンのリストより、今回移動を計画している対象の仮想マシンを選択します。
    3) 対象仮想マシンの 概要欄より “停止" を選択します。
    4) 同じ概要欄より状態が「停止済み」となった事を確認します。

  2.  仮想マシンにアタッチされているデータディスクの構成を確認する

    今回の作業では、vhd ファイル移動し対象 vhd ファイルよりディスクを作成し、そのディスクを仮想マシンにアタッチします。その際には、Logical Unit Number (LUN) を、オリジナルの仮想マシンと同じように構成する必要があるので、現在の vhd ファイル、ディスクに対応する LUN を、事前に取得しメモします。以下に停止の手順を記載いたします。

    1) 管理ポータルへログインし、左メニューより “Virtual Machines" を選択します。
    2) 表示された仮想マシンのリストより、今回移動を計画している対象の仮想マシンを選択します。
    3) 対象仮想マシンのメニューより “ディスク” を選択します。
    4) アタッチされている各 データディスクを選択します。
    5) 論理ユニット番号 (LUN) に記載の番号をメモします。

  3.  仮想マシンに紐づく vhd ファイルを移動先のストレージ アカウントへコピーする

    対象仮想マシンで使用している vhd ファイルを、移動先のデータセンタに紐づくストレージ アカウントへ保存します。
    vhd ファイルの移動には AzCopy が便利です。以下に AzCopy の使用方法をご説明した Web サイトならびに今回利用するコマンドをご紹介します。

    AzCopy on Windows を使ったデータの転送
    https://azure.microsoft.com/ja-jp/documentation/articles/storage-use-azcopy/

    --------
    AzCopy /Source:<vhd ファイルが保存されている移動元のコンテナへのパス> /Dest:<vhd ファイルを保存する移動先のコンテナへのパス> /SourceKey:key1 /DestKey:key2 /Pattern:<VHD ファイル名>
    --------

    移動元のストレージと移動先のストレージからそれぞれ下記の情報を取得します。※移動先のリージョンへクラシックデプロイメントストレージを先に作成しておきます。

    Source:
    Dest:
    Sourcekey:
    DestKey:
    Pattern:

    例:Source の取得には、移動元ストレージアカウントの Blob より、OS とデータ ディスクで使用するそれぞれの vhd ファイルの url を取得します。

    1)ホーム画面の 左メニューより “ストレージ アカウント" を選択します。
    2) 表示されたストレージアカウントのリストより、移動元ストレージアカウントを選択します。
    3) ストレージ管理ブレード内にある Blob Service より “BLOB” を選択します。
    4) 表示されたコンテナより “vhds” を選択します。
    5) まずは OS ディスクの vhd  ファイルを選択します。

    6) 表示された概要内になる url (source) をコピーします。

    7) 次に、ストレージ管理ブレード内にある "アクセスキー" を選択し、Primary のキー ( Sourcekey ) をコピーします。

    8) 次に、メイン メニューから "ストレージ アカウント" を選択、移動先のストレージアカウントを選び、Blob を選択します。もし Blob 内にコンテナーがまだ作成されていない場合は下記の図のように作成します。

    9) 該当のコンテナーを選択しコンテナー管理ブレードより "プロパティ" を選択し、URL ( Dest ) をコピーします。

    10) 移動先のストレージ アカウントを再度選択し、表示された管理ブレードより "アクセスキー" をクリック、そして Primary のキー ( DestKey ) をコピーします

    11) 以上にて以下の採取が完了しますので、AzCopy のプロパティに当てはめコピーを開始します。

    Source: https://test12343365.blob.core.windows.net/vhds
    Dest: https://test2move.blob.core.windows.net/test2move
    Sourcekey: 0tTbAe/KFYB3bBaB0kl3pC5U9MuuEmfDwBMHFrjOWJX2QiZXLpy48mIXrQXUAcbQJPFj2VCS4uhgJYk0eQ4vyQ==
    DestKey: GTWKXqJwxlDBJrzA1uQlkK6KBeI9ZjTHg/u11di7JralYwuqJ/r+ng3MN+lKSX7peHCUYQsc5qHKVnqj18KMcA==
    Pattern: test1234-os-6485.vhd

    > AzCopy /Source:https://test12343365.blob.core.windows.net/vhds /Dest:https://test2move.blob.core.windows.net/test2move /SourceKey:0tTbAe/KFYB3bBaB0kl3pC5U9MuuEmfDwBMHFrjOWJX2QiZXLpy48mIXrQXUAcbQJPFj2VCS4uhgJYk0eQ4vyQ== /DestKey:GTWKXqJwxlDBJrzA1uQlkK6KBeI9ZjTHg/u11di7JralYwuqJ/r+ng3MN+lKSX7peHCUYQsc5qHKVnqj18KMcA== /Pattern: test1234-os-6485.vhd


    12) 移動先のストレージアカウント Blob 内の指定したコンテナーに vhd ファイルが移動されているか確認します。※ 下記は OS ディスクの vhd ファイルのみ

  4.  仮想マシンを "特殊化" でバックアップする

    復旧に失敗したときのために事前に対象仮称マシンのバックアップを取得します。以下に手順を記載します。

    1) メインメニューより “Virtual Machine" を選択します。
    2) 表示された仮想マシンのリストより、今回移動を計画している仮想マシンを選択します。
    3) 対象仮想マシンの タブのより “キャプチャ" を選択します。
    4) 適宜、ラベルの定義しますが、"仮想マシンで Sysprep を実行しました" のチェックは外したままにします。
    5) OK をクリックし、バックアップを取得します。

    6) 念のため、正しくバックアップが生成されたか確認します。
    7) メインメニューより 「すべてのサービス」 をクリックし、「イメージ」を検索。VM イメージ(クラシック)を選択。今回作成した仮想マシンのバックアップが存在するか、また、"OS の状態" が "Specialized"(特殊化) で保存されているか確認してください。

    今回は、バックアップが正しく作成できているか確認する事が目的でしたので、正しく作成されているようであれば、ウィンドウを閉じてください。

  5.  仮想マシンのエンドポイントや NSG 等、仮想マシンに紐づく設定をメモする

    新規で仮想マシンを作成する為に移動前の仮想マシンで設定されていたエンドポイントや NSG 等は引き継がれませんので、設定を確認しメモします。
    以下に確認手順の一部を記載します。

    1) 管理ポータルへログインし、メインメニューより “Virtual Machines" を選択します。
    2) 中央ペインの仮想マシンのリストより、今回移動を計画している仮想マシンを選択します。
    3) 対象仮想マシンの "エンドポイント" タブや "ネットワーク セキュリティ グループ" タブ等より設定をメモします。

  6.  仮想マシンをクラウド サービスごと削除する

    対象仮想マシンの DNS 設定はクラウド サービスに紐づき登録されていますので、移動に伴い元のクラウドサービスを削除します。VIP はデータセンタ毎に範囲が決められている為、予約 IP を使用していた場合でも引き継ぐ事はできません。
    また、今回、対象クラウド サービスには仮想マシンが当該仮想マシンのひとつのみ稼働していますが、クラウドサービスを削除する前に仮想マシンを削除します。
    以下にクラウドサービスを削除の手順を記載します。

    仮想マシンの削除
    1) 管理ポータルへログインし、左メニューより “Virtual Machines" を選択します。
    2) 表示された仮想マシンのリストより、今回移動を計画している対象の仮想マシンを選択します。
    3) 対象仮想マシンの 概要欄より “削除" を選択します。
    ※削除時にはディスクの削除有無を選択するページがありますが、必ずディスクは残す設定で仮想マシンの削除をお願いします。

    クラウド サービスの削除
    1) 管理ポータルへログインし、メインメニュー上部の “すべてのサービス” より “Cloud Services (クラシック)” を検索します。
    2) 表示されたクラウド サービスのリストより、今回移動を計画している仮想マシンが使用しているクラウド サービスを選択します。
    3) ページ上部タブより削除を選択し、その際に、"クラウド サービスとそのデプロイを削除します" を選択します。

  7.  移動先のデータセンタで新規クラウド サービスを再作成する

    1) 管理ポータルへログインし、メインメニュー上部の “すべてのサービス” より “Cloud Services (クラシック)” を検索します。
    2) クラウド サービスの管理ページ上部より "追加" を選択します。
    3) 適宜 DNS 名、リソース グループ名、場所を選択します。※ パッケージ、証明書のオプション項目を設定しません。

  8.  移動した vhd ファイルを基に、OS ディスクならびにデータディスクを作成する

    移動した vhd ファイルをもとに、ディスクを作成しする手順を以下に記載します。
    1) 管理ポータルへログインし、メインメニューより “すべてのサービス”より “ディスク(クラシック)”を検索しクリックします。
    2) ページ中央部にある “ディスク(クラシック)の作成” をクリックします。
    3) 適宜名前を設定し 、場所は移動先のリージョンを選びます。
    4) IO の種類( SSD か HDD )が合致していないと、ソース blob を参照するときに適切なストレージアカウントが表示されないので、確認後に参照をクリックします

    5) OS ディスクの vhd ファイルが格納されている移動先のストレージアカウント選択します。

    6) 次に OS ディスクの vhd ファイルが格納されているコンテナーを選択し、当該の vhd ファイルを選択し“作成”をクリックします。

  9.  ディスクより仮想マシンを再作成する

    ディスクより新規で仮想マシンを作成する手順を以下に記載します。
    1) 管理ポータルへログインしメインメニュー上部よりすべてのサービスより“ディスク(クラシック)”を検索します。
    2) Step 8 で作成したディスクを選択し、"VM の作成" を選択します。
    3) 適宜設定を進め仮想マシンを新規で作成します。
    ※ クラウド サービスの指定には Step7 で作成したクラウド サービスを選択してください。
    ※ エンドポイントの指定では Step5 でメモした内容を設定してください。
    4) 仮想マシンが作成が完了した後に、データ ディスクをアタッチします。管理ポータルへログインしメインメニューより “Virtual Machines” を選択し、表示された仮想マシンのリストから移動した仮想マシンを選択してください。
    5) 管理ブレードより “ディスク” を選び、上部タブにある "既存のディスクのアタッチ" をクリックします。
    6) 次のブレードが表示されましたら、“必要な設定の構成” を選び、その後データディスクの vhd ファイルが格納されているストレージとコンテナを選択します。
    7) 該当の vhd ファイルを選択し、OK をおしたら自動でデータディスクとしてアタッチされます。

以上が手順となります。上記にて作成された仮想マシンが正常に稼働しているかご確認をお願い致します。

上記手順は、シンプルな仮想マシンを移動させる方法のうちのひとつで、すべての仮想マシンで利用できるものではありません。環境に差などがある場合もありますので、動作検証を十分に行ったのちに本番環境への適用をお願いします。

Viewing all 34890 articles
Browse latest View live


<script src="https://jsc.adskeeper.com/r/s/rssing.com.1596347.js" async> </script>