Quantcast
Channel: TechNet Blogs
Viewing all 34890 articles
Browse latest View live

How to list updates that have been installed on your Windows Server 2016 machine.

$
0
0

In this post, we are going to walk through how to check what updates you have installed on your Windows Server 2016 machine.

Applies to:

  • Server with Desktop Experience
  • Server Core

Using PowerShell:

  1. Open a PowerShell prompt with Admin permissions.
  2. Type Get-Hotfix and press Enter.

Using a command line:

  • Open a command prompt with Admin permissions.
  • Type systeminfo.exe and press Enter.

    NOTE: There may be a short pause as the tool inspects your system.

  • Under the Hotfix(s) section, you will see a list of hotfixes / updates that you have applied to your machine.

Using the Windows Update Settings User Interface:

  1. Open the Windows Settings UI.
  2. Click on Update & security.
  3. Click on the “Update history” link located under the Windows Update tab.

Your thoughts, questions and feedback are very valuable to us and we encourage you to share them in the comments section below.


Always use File Chunking to Upload Files > 250 MB to SharePoint Online

$
0
0

This post is a contribution from Adam Burns, an engineer with the SharePoint Developer Support team

Some developers may have been confused by some of the information available on blogs (and even on MSDN) about the upper limit of file sizes that can be programmatically uploaded to SharePoint Online using the SharePoint REST API. The maximum file upload size in SharePoint Online follows the default limit that can be seen in Central Admin’s Web Application General Settings for SharePoint On-Premises:

spfilesizesettings

 

Of course, in SharePoint Online you don’t have access to this setting.

Whether you use the /Add method…
https://msdn.microsoft.com/en-us/library/office/dn450841.aspx#bk_FileCollectionAdd

…or the /SaveBinaryStream method…
https://msdn.microsoft.com/en-us/library/office/dn450841.aspx#bk_FileSaveBinaryStream

…in SharePoint Online, you will be limited to the 250 MB file limit. If you attempt to go over this limit and catch the WebException, you will see this:
Response received was -1, Microsoft.SharePoint.Client.InvalidClientQueryExceptionThe request message is too big. The server does not allow messages larger than 262144000 bytes.

In SharePoint On-Premises, you can change the Maximum Upload size (as shown above) to a maximum of 2 GB.

 

So Where’s the Confusion
At this writing, there are some statements in at least one article on MSDN that says things like “The maximum size of a binary file that you can add by using the REST API is 2 GB.
This statement is technically true, but the statement applies to the underlying framework, not the Maximum Upload Size set on the Web Application. This has confused more than a few developers and there may be a generally understanding that you can use the REST endpoints for /Add and /SaveBinaryStream to get around the apparent 250 MB file size limit. This is not true, the 250 MB Maximum Upload Size limit will likely remain in effect and you will need to use the chunked file approach to upload files larger than 250 MB.

 

What About .NET CSOM Code?
It turns out this File Upload limit is not limited to REST endpoints. You will receive the same failure if you use a typical CSOM call with code such as the following:

static void UploadDocumentContent(string baseUrl, string libraryName, string filePath)
{
  try
  {
    ClientContext ctx = new ClientContext(baseUrl);
    ctx.Credentials = GetSharePointOnlineCredentials(baseUrl);
    Web web = ctx.Web;
    List docs = web.Lists.GetByTitle(libraryName);
    byte[] fileData = System.IO.File.ReadAllBytes(filePath);
    using (System.IO.Stream stream = new System.IO.MemoryStream(fileData))
    {
      var fci = new FileCreationInformation
      {
        Url = System.IO.Path.GetFileName(filePath),
        ContentStream = stream,
        Overwrite = true
      };
     Folder folder = docs.RootFolder;
     FileCollection files = folder.Files;
     Microsoft.SharePoint.Client.File file = files.Add(fci);
     ctx.Load(files);
     ctx.Load(file);
     ctx.ExecuteQuery();
   }
 }
 catch (Exception ex)
 {
   Console.Write(ex.ToString());
 }
}

But the exception caught above warns of a timeout exception, which is misleading. If you use Fiddler to see the response to the request to /_vti_bin/client.svc/ProcessQuery, you will see the Microsoft.SharePoint.Client.InvalidClientQueryException noted above.

 

Conclusion
Whether using .NET native application, .NET web applications, or client-side browser-based code, we recommend that you always use the chunked file upload approach in your applications which upload files larger than 250 MB to SharePoint Online. This approach is explained at:
https://github.com/OfficeDev/PnP/tree/dev/Samples/Core.LargeFileUpload#large-file-handling—option-3-startupload-continueupload-and-finishupload
Both .NET-based CSOM and REST enpoints fully support the StartUpload, ContinueUpload and FinishUpload methods, which are the three methods you will need to use to upload file larger than 250 MB to SharePoint Online.

 

Note
The StartUpload , ContinueUpload , CancelUpload and FinishUpload methods of Microsoft.SharePoint.Client.File class which are used for chunk upload are available only in SharePoint Online and SharePoint 2016 OnPremise and are not available in SharePoint 2013 OnPremise.

Windows 10 Tech Series For Australian Partners

$
0
0
If you are attending the Sydney event make sure you let me know, I can’t make the first two days as I’ll be wrapping up an EMS training event, but I will be there on day 3.

 

You are invited to enroll in the Windows Tech Series training course. Building on deployment, management and security features first introduced with Windows 10 at release, this 3-day workshop, which includes hands-on labs, will provide you with the opportunity to explore the different deployment, management and security options and functionality available for your customers. It will also review the opportunity to develop your business as a Microsoft Cloud Solution Provider — either as a new CSP for Windows or to understand how adding Windows to your existing CSP portfolio can provide opportunities to develop your business further. The Course While the course provides extensive information from Microsoft trainers, we believe you will benefit most in developing your understanding of Windows 10 through seeing it in action, and working with it hands-on. In this course, you will work your way through the labs, demos, and other content to learn about:

Deployment infrastructure overview
Applications and updates
Managing Windows as a Service
Browsers and Internet Security
Deploying Secure Boot and Device Guard
Base system setup
Configuration
Managing Client devices
Advanced Client management
Analysis of common threats
Advanced Threat Analytics
Hardening Windows
Windows for SMB
Windows Enterprise Subscription
Deploying through CSP and managing updates
Competency Assessment Upon completion of the course, you will be given the opportunity to take the Security and Deployment Management assessment for the Windows and Devices competency. This competency provides you with tools, content and resources to help you build and grow your Windows 10 practice and shows customers that you are a trusted expert. Space is limited. Register today! We look forward to your participation in this interactive event. Please be advised that this workshop requires a commitment from you to attend from start to finish. We understand that your workload does not diminish while attending this workshop. Rest assured that numerous opportunities to stay connected will be provided throughout the day.
When and When Cliftons Sydney Office Level 13, 60 Margaret St 30th Nov – 2nd Dec 2016

 

Register Now!
 
Cliftons Melbourne Office Level 1, 440 Collins St 5th – 7th Dec 2016

 

Register Now!

 

[Script Of Nov. 24] How to check if a blob exists in Azure Storage using PowerShell

インテリジェンス機能搭載クラウド型ビジネスアプリケーション Dynamics 365 のビジネスパートナー様を募集しています【11/24 更新】

$
0
0

ビジネスに新たな価値をもたらすデジタル・トランスフォーメーションが加速する中、企業は「顧客とのつながり」のあり方を変革する必要に迫られています。

そして、営業活動からアフターサービスまで、顧客の状況や対応履歴をタイムリーに把握しながら、どこからでも誰でも顧客対応を可能にし、顧客の体験価値を向上させることは、企業が成功するための最重要な要因となっています。
11月から提供を開始したMicrosoft Dynamics 365は、CRM と ERP の機能を統合し、顧客とのあらゆる接点から基幹業務までエンドツーエンドで支援するクラウド型のインテリジェンス ビジネスアプリケーションです。企業に大きな価値を提供するとともに、ビジネスパートナー様にとっても大きな商機にしていただけるクラウドサービスです。

こちらの動画では、Office 365やAzureとの連携も含めて、Dynamics 365のビジネス機会をご紹介するとともに、弊社とビジネスパートナー様との特別協業プログラムと支援メニューをご紹介します。


また、このDynamics 365 をはじめとするマイクロソフトクラウドサービスとパートナー様のオファリング、ソリューションとを融合し、独自のソリューションを構築するのに最適なパートナーモデル、クラウドソリューションプロバイダー (CSP) についても併せてご紹介します。

 

 

 

Microsoft Translator がニューラル ネットワークによる翻訳の提供を開始

$
0
0

Posted by: 榊原 彰
日本マイクロソフト株式会社 執行役員 最高技術責任者

space

先週開催した開発者向けオンラインイベント Connect(); で発表したとおり、Microsoft Translator は、最先端のニューラル ネットワークを利用することにより、すべての音声翻訳の品質を向上させています。

Skype Translator、Office、Bing翻訳 など、同サービスを利用するすべてのアプリでこの新しいテクノロジが活用されるだけでなく、開発者もエンド ユーザーも使い慣れたアプリやサービスで、テストしたり使用したりできるようになります。

Microsoft Translator Speech API でサポートされる 9 言語 (アラビア語、中国語 (北京語)、英語、フランス語、ドイツ語、イタリア語、ブラジル ポルトガル語、ロシア語、スペイン語) に加えて、ニューラル ネットワークを利用した日本語テキストの翻訳も可能になります(注)。これらの主要 10 言語が Microsoft Translator によって毎日行われている翻訳の 80% 以上を占めています。
(注)Speech APIの日本語サポートは近日中を予定しています。

この数年間、ニューラル ネットワーク テクノロジは、音声や画像の処理など、人工知能の新たな活用事例で多数採用されてきました。これらの機能の多くは、Microsoft Cognitive Services を通じて提供されています。ニューラル ネットワークは機械翻訳業界でも活用されつつあり、既存の業界標準の統計的機械翻訳 (SMT) テクノロジよりもはるかに高い翻訳品質を実現しています。ニューラル ネットワークによる翻訳では、そのしくみに基づき、文章を翻訳する前に全文の文脈をより適切に捉えることで、従来よりもはるかに品質が高い、より自然な翻訳を実現しています。

microsoft translator 01

マイクロソフトの音声翻訳やテキスト翻訳におけるニューラル ネットワークの活用はまだ初期段階にありますが、生成される翻訳の質は、既に SMT を超えています。マイクロソフトでは、この段階 (いわゆる S 字カーブの成長期) にあるその他の新しいテクノロジと同様に、現在のニューラル ネットワークによる品質向上は将来の大幅な品質向上に向けた第一歩に過ぎないものと考えています。ニューラル ネットワークを利用した翻訳の詳細については、こちら を参照してください。

スーパーコンピューター化するマイクロソフトの AI と 深層学習構築・実行フレームワークであるMicrosoft Cognitive Toolkit の規模および能力を活用することで、担当チームは 10 言語もの同時リリースを実現することができました。特に、複雑な構造を持つ日本語においては、ニューラルネットワークによる翻訳を実現したことで、品質を大幅に向上することができました。その他の言語についても、ニューラル ネットワークによる翻訳の品質が SMT モデルの翻訳品質を上回った時点でサポートされます。
これらの言語については既にサービスが提供されており、各国語に翻訳された Windows デスクトップ用 Skype 通話、Windows 10 用 Skype プレビュー アプリ、iOS および Android 用 Microsoft Translator アプリの会話機能のエンド ユーザーが使用できます。

microsoft translator 02

エンド ユーザーは、http://translator.microsoft.com/neuralで翻訳をテストし、品質が向上したこれらの新しいニューラル ネットワーク モデルを直接試して、生成された 2 つの訳文を比較することもできます。

さらに、Microsoft Translator API の開発者および企業のお客様のために、Azure ポータル上でのMicrosoft Translator の提供を開始すると同時に、これらの新しいモデルの本番環境への展開が実施されます。Azure のサブスクリプションを使用して Microsoft Translator を使い始めるには、こちらをクリックしてください。既に Microsoft Translator にサブスクライブ済みであり、Azure にサブスクリプションを移行する方法について知りたい場合は、こちらをクリックしてください(英語)。また、こちらのショート ビデオで、Microsoft Translator API に関する詳細、新しい Swagger ドキュメントの使用方法、サービスのサインアップ方法、およびアプリケーションまたはワークフローへの API の追加方法について知ることができます。

ニューラル ネットワークによる翻訳は、音声 API およびテキスト API を使用する開発者が使用できます。

  • 本日より、音声 API 呼び出しでは、すべてニューラル ネットワークが利用されます。
  • テキスト API 呼び出しでは、標準カテゴリー (標準カテゴリーの詳細についてはこちらを参照してください:英語)「generalnn」を使用し、サポートされている 10 言語の任意の組み合わせを使用することで、ニューラル ネットワークを利用できるようになります。

 

詳細情報:

 

Revisit – Deploying a DC to Azure IaaS with ARM and DSC

$
0
0

Introduction

In an earlier post I provided a walkthrough for the deployment of a Domain Controller to Azure IaaS using an ARM template and DSC. Since that post, I’ve had several questions due to changes in the way the templates and deployment code do their work.

Today, I’m going to walk through this again with that hope that it clears things up.

Tools

Building ARM templates requires nothing more than a text editor but in my experience, you can’t go past Visual Studio with the Azure ADK. For this post, I’ll be using one of the pre-canned Azure VMs available to me via my MSDN subscription. It includes everything I need and I don’t have to spend time setting it all up –

ARM01

The other thing you’ll need is the xActiveDirectory PowerShell DSC Module. At the time of writing, there was a bug in the latest version (2.13.0.0) that prevented a deployment such as this from working on Windows Server 2016. There’s a specific issue fix on GitHub that does work with Windows Server 2016 and is available at

https://github.com/slapointe/xActiveDirectory/tree/Issue73

This should be downloaded and installed to

%ProgramFiles%WindowsPowerShellModulesxActiveDirectory2.11.0.0

Lastly, it’s been my observation that the %PSModulePath% environment variable often contains a duplicate entry for the PowerShell modules residing under %ProgramFiles%

C:Program FilesWindowsPowerShellModulesxActiveDirectory2.11.0.0

and

%ProgramFiles%WindowsPowerShellModulesxActiveDirectory2.11.0.0

This double-up of the path can cause deployment issues. I’d editing the %PSModulePath% environment variable and removing one of these entries if you have both.

Create an Azure Resource Group Solution

These steps are well discussed elsewhere but I’ll include them here for completeness –

  1. Open Visual Studio
  2. Choose New Project
  3. Expand Installed -> Templates -> Visual C# -> Cloud and choose Azure Resource Group in the centre pane
     ARM02
  4. Provide a Name and Solution Name and click OK

Use the Sample VM Template

After creating the new solution, you’ll be prompted to select from a series of base templates. You’re free to choose a blank template but for the purposes of this blog, I’ll select Windows Virtual Machine

ARM03

Exploring What I Have

Let’s start by expanding Scripts and Templates in Solution Explorer

ARM04_2

You’ll see Deploy-AzureResourceGroup.ps1. This script does all the heavy lifting when Visual Studio is instructed to deploy the solution. In my earlier post, we had to make some edits to this script but with the latest updates, it takes care of everything perfectly.

WindowsVirtualMachine.parameters.json is used to feed per-deployment configuration data into the ARM template.

WindowsVirtualMachine.json is the template that describes the resources deployed to the resource group. Opening this file displays the JSON ready for editing but also opens the JSON Outline in the left-hand pane. Expanding Resources in the JSON Outline gives us an idea of what I get with the sample template –

ARM05_2

So I’m getting a storage account, a public IP address, a virtual network, a network interface and a virtual machine with an Azure diagnostics extension. All I really need to add is some PowerShell Desired State Configuration that turns the VM into a Domain Controller.

Adding Desired State Configuration

In order to add DSC to the ARM template, right-click the VirtualMachine and select Add New Resource

ARM06_2

From the resource list, select PowerShell DSC Extension, provide a name for the extension and select the VM it applies to –

ARM07_2

After doing so, the DSC Extension appears in the JSON Outline, the JSON itself is added to the ARM template and a new DSC configuration script is added to the solution.

ARM08_2

Now that I have DSC added to the ARM template, I need to set it up to install and configure the Domain Controller role. In this example, I want to deploy the role, the administration tools and configure the new forest root domain along with administrator credentials. To do this, I’ll edit the dscDC.ps1 script as follows –

Configuration Main
{

[CmdletBinding()]

Param (
	[string] $NodeName,
	[string] $domainName,
	[System.Management.Automation.PSCredential]$domainAdminCredentials
)

Import-DscResource -ModuleName PSDesiredStateConfiguration, xActiveDirectory

Node $AllNodes.Where{$_.Role -eq "DC"}.Nodename
    {
        LocalConfigurationManager
		{
			ConfigurationMode = 'ApplyAndAutoCorrect'
			RebootNodeIfNeeded = $true
			ActionAfterReboot = 'ContinueConfiguration'
			AllowModuleOverwrite = $true
		}

		WindowsFeature DNS_RSAT
		{
			Ensure = "Present"
			Name = "RSAT-DNS-Server"
		}

		WindowsFeature ADDS_Install
		{
			Ensure = 'Present'
			Name = 'AD-Domain-Services'
		}

		WindowsFeature RSAT_AD_AdminCenter
		{
			Ensure = 'Present'
			Name   = 'RSAT-AD-AdminCenter'
		}

		WindowsFeature RSAT_ADDS
		{
			Ensure = 'Present'
			Name   = 'RSAT-ADDS'
		}

		WindowsFeature RSAT_AD_PowerShell
		{
			Ensure = 'Present'
			Name   = 'RSAT-AD-PowerShell'
		}

		WindowsFeature RSAT_AD_Tools
		{
			Ensure = 'Present'
			Name   = 'RSAT-AD-Tools'
		}

		WindowsFeature RSAT_Role_Tools
		{
			Ensure = 'Present'
			Name   = 'RSAT-Role-Tools'
		}

		WindowsFeature RSAT_GPMC
		{
			Ensure = 'Present'
			Name   = 'GPMC'
		}
		xADDomain CreateForest
		{
			DomainName = $domainName
			DomainAdministratorCredential = $domainAdminCredentials
			SafemodeAdministratorPassword = $domainAdminCredentials
			DatabasePath = "C:WindowsNTDS"
			LogPath = "C:WindowsNTDS"
			SysvolPath = "C:WindowsSysvol"
			DependsOn = '[WindowsFeature]ADDS_Install'
		}
    }
}

The first thing I’ve done is add some parameters for the domain name and the domain administrator credentials. This allows me to pass them in from the ARM template –

Param (
	[string] $NodeName,
	[string] $domainName,
	[System.Management.Automation.PSCredential]$domainAdminCredentials
)

Next I’m importing the PowerShell modules I need –

Import-DscResource -ModuleName PSDesiredStateConfiguration, xActiveDirectory

I’ve then applied a filter so that only nodes of role “DC” will be configured as Domain Controllers. This is less important when I’m deploying just one server but in larger deployments where multiple server roles are being deployed, it’s useful –

Node $AllNodes.Where{$_.Role -eq "DC"}.Nodename

The rest of the script installs the required Windows features and finally creates the forest using –

		xADDomain CreateForest
		{
			DomainName = $domainName
			DomainAdministratorCredential = $domainAdminCredentials
			SafemodeAdministratorPassword = $domainAdminCredentials
			DatabasePath = "C:WindowsNTDS"
			LogPath = "C:WindowsNTDS"
			SysvolPath = "C:WindowsSysvol"
			DependsOn = '[WindowsFeature]ADDS_Install'
		}

Configuration Data for DSC
When credentials are used with DSC, encryption certificates are necessary to protect passwords. Setting this up is beyond what I want to cover here so I’ll use a PowerShell data file added to my solution as follows –

ARM10

And then add a PowerShell data file –

ARM11

For this PowerShell data file to be included in the build, right-click on it in the Solution Explorer and select Properties. Configure as follows –

ARM13_2

I add the following contents to the PowerShell data file –

# Configuration Data for AD
@{
	AllNodes = @(
		@{
			NodeName="*"
			RetryCount = 20
			RetryIntervalSec = 30
			PSDscAllowPlainTextPassword=$true
			PSDscAllowDomainUser = $true
		},
		@{
			Nodename = "localhost"
			Role = "DC"
		}
	)
}

ARM Template Changes to Support DSC

The next step is to add some parameters for the domain name and admin credentials. The parameters file – WindowsVirtualMachine.parameters.json already contains –

{
  "$schema": "https://schema.management.azure.com/schemas/2015-01-01/deploymentParameters.json#",
  "contentVersion": "1.0.0.0",
  "parameters": {
    "adminUsername": {
      "value": null
    },
    "dnsNameForPublicIP": {
      "value": null
    }
  }
}

I update it to contain –

{
  "$schema": "https://schema.management.azure.com/schemas/2015-01-01/deploymentParameters.json#",
  "contentVersion": "1.0.0.0",
  "parameters": {
    "adminUsername": {
      "value": "mark"
    },
    "adminPassword": {
      "value": "P@ssw0rd123!"
    },
    "domainName": {
      "value": "contoso.com"
    },
    "dnsNameForPublicIP": {
      "value": "blogdc01"
    },
    "windowsOSVersion": {
      "value": "2012-R2-Datacenter"
    }
  }
}

adminPassword and windowsOSVersion are already a defined parameters in the WindowsVirtualMachine.json template file. All I need to do is add domainName to the parameters section using –

{
  "$schema": "https://schema.management.azure.com/schemas/2015-01-01/deploymentTemplate.json#",
  "contentVersion": "1.0.0.0",
  "parameters": {
    "adminUsername": {
      "type": "string",
      "minLength": 1,
      "metadata": {
        "description": "Username for the Virtual Machine."
      }
    },
    "adminPassword": {
      "type": "securestring",
      "metadata": {
        "description": "Password for the Virtual Machine."
      }
    },
    "domainName": {
      "type": "string",
      "minLength": 1,
      "metadata": {
        "description": "Domain Name for the Forest."
      }
    },
    "dnsNameForPublicIP": {
      "type": "string",
      "minLength": 1,
      "metadata": {
        "description": "Globally unique DNS Name for the Public IP used to access the Virtual Machine."
      }
    },
    "windowsOSVersion": {
      "type": "string",
      "defaultValue": "2012-R2-Datacenter",
      "allowedValues": [
        "2008-R2-SP1",
        "2012-Datacenter",
        "2012-R2-Datacenter"
      ],
      "metadata": {
        "description": "The Windows version for the VM. This will pick a fully patched image of this given Windows version. Allowed values: 2008-R2-SP1, 2012-Datacenter, 2012-R2-Datacenter."
      }
    },

Lastly, I’ll modify the DSC extension in the WindowsVirtualMachine.json template file from –

        {
              "name": "Microsoft.Powershell.DSC",
              "type": "extensions",
              "location": "[resourceGroup().location]",
              "apiVersion": "2015-06-15",
              "dependsOn": [
                  "[resourceId('Microsoft.Compute/virtualMachines', variables('vmName'))]"
              ],
              "tags": {
                  "displayName": "dscDC"
              },
              "properties": {
                  "publisher": "Microsoft.Powershell",
                  "type": "DSC",
                  "typeHandlerVersion": "2.9",
                  "autoUpgradeMinorVersion": true,
                  "forceUpdateTag": "[parameters('dscDCUpdateTagVersion')]",
                  "settings": {
                      "configuration": {
                          "url": "[concat(parameters('_artifactsLocation'), '/', variables('dscDCArchiveFolder'), '/', variables('dscDCArchiveFileName'))]",
                          "script": "dscDC.ps1",
                          "function": "Main"
                      },
                      "configurationArguments": {
                          "nodeName": "[variables('vmName')]"
                      }
                  },
                  "protectedSettings": {
                      "configurationUrlSasToken": "[parameters('_artifactsLocationSasToken')]"
                  }
              }
          }

to –

        {
              "name": "Microsoft.Powershell.DSC",
              "type": "extensions",
              "location": "[resourceGroup().location]",
              "apiVersion": "2015-06-15",
              "dependsOn": [
                  "[resourceId('Microsoft.Compute/virtualMachines', variables('vmName'))]"
              ],
              "tags": {
                  "displayName": "dscDC"
              },
              "properties": {
                "publisher": "Microsoft.Powershell",
                "type": "DSC",
                "typeHandlerVersion": "2.9",
                "autoUpgradeMinorVersion": true,
                "forceUpdateTag": "[parameters('dscDCUpdateTagVersion')]",
                "settings": {
                  "configuration": {
                    "url": "[concat(parameters('_artifactsLocation'), '/', variables('dscDCArchiveFolder'), '/', variables('dscDCArchiveFileName'))]",
                    "script": "dscDC.ps1",
                    "function": "Main"
                  },
                  "configurationArguments": {
                    "nodeName": "[variables('vmName')]",
                    "domainName": "[parameters('domainName')]",
                    "domainAdminCredentials": {
                      "UserName": "[parameters('adminUserName')]",
                      "Password": "PrivateSettingsRef:Password"
                    }
                  },
                  "configurationData": {
                    "url": "[concat(parameters('_artifactsLocation'), '/DSC/dscDCConfigData.psd1')]"
                  }
                },
                "protectedSettings": {
                  "configurationUrlSasToken": "[parameters('_artifactsLocationSasToken')]",
                  "items": {
                    "Password": "[parameters('adminPassword')]"
                  }
                }
              }
          }

Here I’ve modified the modulesUrl to match the name of the DSC archive that will be used for the DC, I’ve added domainName and domainAdminCredentials properties that will be passed to the DSC script and I’ve added the adminPassword and the DataBlobUri to protectedSettings. The DataBlobUri is the location for the PowerShell data file used for DSC config data.

Deployment

At this stage I’m ready to deploy my DC to Azure. All I need to do is right-click the solution name, select Deploy and then New Deployment.

ARM12_thumb3

Following the wizard kicks off the deployment and after a short wait, the deployment is complete.

Conclusion

My hope is that this post clears up a few questions around Azure Resource Manager (ARM) template deployments and integration with DSC. This is only the start of what’s possible with ARM template deployments that permit multi-VM builds with any number of customisations.

Microsoft Azure Stack Technical Preview 2 November Refresh

$
0
0

 

Microsoft wird Azure Stack als Integriertes System in Zusammenarbeit mit verschiedenen Hardwareherstellern veröffentlichen. Dies beinhaltet neben regelmäßigen Patches auch funktionale Updates. Entsprechende Update werden bereits in der Preview Phase von Azure Stack veröffentlich und ein erstes Update wurde Mitte November zur Verfügung gestellt.

Das sog. Azure Stack Technical Preview 2 November Refresh beinhaltet neben einigen Bugfixes auch konkrete Funktionen wie die PaaS Services mit SQL, MYSQL, and AppService.

 

Hier die Übersicht was verändert wurde:

  • New Downloader, which uses BITS, enabling a better more stable download experience, including pause/resume.
    NOTE: This downloader EXE requires .NET 4.6 – if your machine does not have this installed (likely via Windows Update), the application will crash at runtime. You can either install the .NET 4.6 update, or leverage a machine where it is already installed.
  • Deployment Fixes (based on TP2 20160913.1 customer feedback), including: -Rerun improvements, Preventing accidental restart, and specific known issue step fixes
  • Base OS update for the HOST and VM; it is now the RTM Windows Server 2016 Evaluation (180 days) version
  • and Other Known Issue Fixes, including: virtualMachine-ARM category fix, Export Template fix, Update RP usage fix, and HDD/LRS are now defaults

Die neue Version firmiert unter der Versionsnummer 20161104.1

Wer bereits die September Version von TP2 mit der Versionsnummer 20160913.1 installiert hat, der hat nur die Möglichkeit eines Re-Deployments, d.h. es gibt aktuell kein Inplace Upgrade.

Weiterführende Informationen sind im offiziellen Blog zu finden: https://azure.microsoft.com/en-us/blog/new-azure-paas-services-available-for-azure-stack-technical-preview-2-tp2/

Ein sehr ausführliches Video zu der neuen Version ist auf dem Azure Stack Channel auf Channel9.msdn.com zu finden, siehe hier: https://channel9.msdn.com/Blogs/azurestack/Update-Microsoft-Azure-Stack-Technical-Preview-2-TP2

 

Neben des bekannten Möglichkeiten von IaaS mit Azure Stack sind jetzt die PaaS Services dazu gekommen. Diese beinhalten Azure App Service (mit Web Apps, API apps, und Mobile apps) und aktuelle Versionen von MS SQL/ MySQL. https://azure.microsoft.com/en-us/blog/new-azure-paas-services-available-for-azure-stack-technical-preview-2-tp2/

Das Deployment ist hier ausführlich beschrieben: https://docs.microsoft.com/en-us/azure/azure-stack/azure-stack-tools-paas-services

 

HINWEIS: Dies ist eine Vorschauversion/Preview. Daher wird von einem produktiven Einsatz dringest abgeraten.

Azure Rocks!

Alexander Ortha


12 gute Gründe für den Technical Summit 2016

$
0
0

Der Countdown läuft: In zwölf Tagen, genauer gesagt am 6. Dezember, startet in Darmstadt der Technical Summit 2016 – die größte deutschsprachige Microsoft-Konferenz für Entwickler und IT-Professionals. Noch haben Sie die Chance, sich einen der letzten Plätze auf der Technologieveranstaltung zu sichern. Und eine Teilnahme lohnt sich in jedem Fall, zum Beispiel wegen dieser 12 Gründe:

Grund 1: Die Agenda

Auf Teilnehmer warten rund 100 Vorträge, Workshops und Keynotes, die nahezu die gesamte Bandbreite von Themen für Entwickler und IT-Experten abdecken. Auf der Agenda stehen dabei aktuelle und neue Technologien wie Windows 10, System Center 2016, Windows Server 2016 und SQL Server 2016. Aber auch zukünftige Versionen wie Visual Studio 2017 oder Visual Studio for Mac werden eine Rolle spielen.

Zur Agenda

Grund 2: Best Practices für Ihre täglichen Aufgaben

Theorie ist gut, aber Praxis ist besser: Ohne Erfahrung geht nichts, umso länger man mit einer Technologie arbeitet, umso effektiver lässt sich diese einsetzen. Daher bietet die Agenda des Technical Summit sowohl zahlreiche Best Practices-Vorträge als auch eine große Anzahl an praktischen Workshops am dritten Konferenztag.

Zu den Workshops

Grund 3: Die Keynotes

Ob Connect(); oder Ignite – Scott Guthrie, Donovan Brown und Ann Johnson sind derzeit auf technischen Veranstaltungen gefragte Keynote-Sprecher, da darf natürlich auch der Technical Summit 2016 nicht fehlen.

Den Anfang macht Scott Guthrie, wie gewohnt im roten Poloshirt. Ann Johnson wird anschließend einen detaillierten Einblick in die neuesten Sicherheitstechnologien von Microsoft geben. An Tag 2 bringt Donovan Brown dann Interessierte von 0 auf DevOps. Das Quartett wird komplettiert durch Erich Gamma, der sich ebenfalls am zweiten Konferenztag mit Microsoft und Open Source beschäftigen wird.

Zu den Keynotes

Grund 4: Die Referenten

Mehr als 100 nationale und internationale Experten geben auf dem Technical Summit ihr Wissen weiter. Neben Sprechern von Microsoft und Partnerfirmen sind außerdem jede Menge Community-Experten mit dabei. So dürfen sich Teilnehmer u.a. auf renommierte Referenten wie Eric Berg, Christian Heilmann, Seth Juarez, Neno Loje, Carsten Rachfahl, Dr. Holger Schwichtenberg, Rainer Stropek oder Christian Weyer freuen.

Zur Sprecherübersicht

Grund 5: Erweitern Sie Ihr Netzwerk

Der Technical Summit bietet die tolle Möglichkeit, Microsoft-Experten, Community-Größen, Partnerunternehmen, Firmenvertreter und viele Gleichgesinnte zu treffen, Sie sich mit Ihnen auszutauschen und so das eigene persönliche Netzwerk zu erweitern.

Grund 6: Sponsoren und Partnerausstellung

Mehr als 15 Partner und Sponsoren sind auf dem Technical Summit dabei und geben Ihr Wissen an Sie weiter – sowohl in der Fachausstellung als auch bei verschiedenen Partnervorträgen. Holen Sie sich jede Menge Know-how und Unterstützung für Ihre Projekte von den anwesenden Firmen, z.B. in den Bereichen Bereitstellung von virtualisierten Anwendungen, Automatisierung mit PowerShell oder Migration in die Cloud.

Zur Sponsorenübersicht

Grund 7: Virtuelle Welten mit Microsoft HoloLens

Testen Sie auf dem HoloDeck oder in der HoloLens Academy die interessanten neuen Möglichkeiten, die sich durch den Einsatz der Microsoft HoloLens ergeben.

Grund 8: Microsoft Cloud Deutschland

Mit Microsoft Azure Deutschland hat die Microsoft Cloud mit deutscher Datentreuhand im September offiziell ihren Dienst aufgenommen. Microsoft Azure Deutschland umfasst zum Start bereits eine große Zahl von Cloud-Diensten: Dazu gehören neben Infrastrukturdiensten wie virtuellen Maschinen, Storage Premium und Netzwerkkomponenten u.a. auch Plattform-Angebote wie SQL-Datenbanken oder Web Apps.

Die Möglichkeiten des neuen Cloud-Angebots dürfen natürlich auch auf dem Technical Summit 2016 nicht fehlen. Teilnehmer können sich vor Ort über das neue Angebot in Vorträgen und bei Experten informieren und sich so die wichtigsten Antworten holen.

Vorträge zur Microsoft Cloud Deutschland

Grund 9: Meet the DX – Ihr Projekt mit der Unterstützung von Microsoft

Sie haben, planen oder realisieren aktuell eine innovative Cloud-Lösung, dann hat Microsoft vielleicht die passende Unterstützung für Sie – z.B. mit Design und Engineering-Support durch Microsoft-Technologieberater, Account-Management, gemeinsamer Businessplanung oder Marketing- und Vertriebsunterstützung. Bewerben Sie sich mit einer kurzen E-Mail und treffen Sie Bastian Wagner (Partner Business Evangelist) & Lars Keller (Technical Evangelism Manager) auf dem Technical Summit 2016, um über eine mögliche strategische Partnerschaft zu sprechen.

Skizzieren Sie einfach kurz Ihre Lösung und was diese auszeichnet. Außerdem wären Angaben zum Marktsegment, Marktpotential und der zeitlichen Planung der Lösung sehr hilfreich.

Grund 10: Einen Platz auf dem Microsoft Cloud Summit sichern

Am 9. und 10. Februar 2017 lädt Microsoft zum Cloud Summit nach Frankfurt am Main. Auf der zweitägigen Fachkonferenz haben Interessierte die Möglichkeit, ihr Cloud-Wissen zu vertiefen. Mit einer Anmeldung zum Technical Summit haben Sie automatisch einen Platz auf dem Cloud Summit sicher. Dafür erhalten alle Technical Summit-Teilnehmer einen sog. RVSP-Code, mit dem Sie sich bei Interesse auch für den Cloud Summit anmelden können.

Grund 11: Blick über den Tellerrand

Werfen Sie auf dem Technical Summit außerdem einen Blick über den eigenen Tellerrand hinaus und lernen Sie neue Technologien kennen. Wie wäre es z.B. mit den Themen künstliche Intelligenz und Machine Learning? Oder unternehmen Sie einen Ausflug in der Welt der virtuellen Realität.

Grund 12: Aus Erfahrung gut

Mehr Sessions, mehr Workshops, mehr Experten, mehr Wissen und noch einmal mehr Teilnehmer, der Technical Summit erfreut sich großer Beliebtheit. Einen hervorragenden Eindruck, wie der letzte Technical Summit lief und was für dieses Jahr zu erwarten ist, zeigt dieses kurze Video:

Jetzt anmelden

Outlook のコマンドラインスイッチと初期化される情報について

$
0
0

こんにちは。Outlook サポートチームです。

通常 Outlook を起動する際、コマンドを入力したり目にしたりすることはありませんが、プログラムを起動するときは必ず outlook.exe コマンドが実行されています。

この outlook.exe コマンドに、スイッチと呼ばれるサブコマンドを追加することにより、プログラムの起動方法を部分的に変えることができます。

 

コマンドライン スイッチについて

コマンドライン スイッチとは、スラッシュの後に続くコマンド名と、その後に指定できるパラメーターです。

メイン コマンドの後にスペースを 1 つ入力し、その後にスラッシュとスイッチ名を入力することによって表され、コマンドの実行方法に関する追加情報を示します。

コマンドライン スイッチは、スタート メニューにある [ファイル名を指定して実行] を起動して実行します。

command

 

例えば、何か障害が発生している場合、この outlook.exe コマンドに、特定の情報をクリアしたり、削除したりするスイッチを追加することで、事象を回避することが期待できます。

コマンドラインスイッチを実行したことにより、すでに設定している情報がクリアされる場合は再設定が必要になります。

今回は、よくご案内するコマンドライン スイッチをピックアップし、初期化されてしまう情報、実行することによる影響についてご案内したいと思います。

ご紹介する以外にもたくさんの使用可能なスイッチが存在します。

詳細については、Outlook のバージョンごとに以下の公開情報にまとまっていますのでご参照ください。

 

 Outlook 2007

 Outlook 2010

 Outlook 2013/2016

 

 

/cleanviews

このスイッチを追加して起動することにより、ビューの設定を既定に復元するため、作成したユーザー設定のビューはすべて失われます。

ログオンするメールボックス、PST ファイル、およびアクセスを行ったパブリック フォルダーのうちアイテムを削除する権限を持つフォルダーのビューが初期化され、メール以外の予定表や連絡先、タスク フォルダーも初期化の対象となります。

ビュー情報とは、メッセージ一覧でのソート順序や各列の表示幅、フォント幅などの設定です。

Outlook 2010/2013/2016 の [表示]–[ビューの変更] [ビューの設定] からカスタマイズが可能な設定やフィルダーの並び順などが該当します。

 

  currentview

 

現在の設定値をバックアップファイルなどに出力するといった機能はないため、このスイッチを追加して起動した場合には、手動にて再設定する必要があります。

 

使用する例:

ビューの破損による問題の可能性が疑われる場合、回避が期待できます。

特定のフォルダーを表示すると、クラッシュしたり、アイテムが正しく表示されてないといった事象などの場合も、ビューの破損が疑われる事象です。

以下のブログの記事にある事象にも有効です。

 

Outlook 起動時や利用中に 「Microsoft Outlook は動作を停止しました」 というエラーが表示され強制終了する (ビューの破損による事象)

 

 

/cleanrules

このスイッチを追加して起動することにより、クライアント ベースおよびサーバー ベースの仕分けルールを削除します。

/cleanserverrules スイッチは、サーバー ベースのルールのみを削除します。

どのような仕訳ルールがクライアント ベース、サーバー ベースに該当するかなど、詳細は以下の公開情報をご参照ください。

 

仕分けルールを使ってメール メッセージを管理する

※こちらの公開情報の「サーバーベースの仕分けルールとクライアント専用の仕分けルール」セクションをご覧ください。

 

仕分けルールは、バックアップが可能です。実行前には以下の手順でバックアップを取ることをおすすめいたします。

 

– Outlook 2010/2013/2016 の場合

  1. Outlook を起動し、[ファイル] タブ – [情報]-[仕分けルールと通知の管理] をクリックします。
  2. 表示されたダイアログで、画面右上の [オプション] をクリックし、[仕分けルールをエクスポート] を実施します。
  3. 任意のパスに、ルールのバックアップを保存します。(ファイルの種類は自動仕分けウィザードのままにします。)

 

使用する例:

仕分けルールが動作しないなど、仕分けルールが不正な場合に回避が期待できます。

 

 

/resetnavpane

このスイッチを追加して起動することにより、Outlook のナビゲーション ウィンドウの情報が初期化されます。リセットされる設定/項目は以下のものが該当します。

・ ナビゲーション ウィンドウの設定が初期化される

・ メールフォルダのお気に入り、 検索フォルダーが初期化される

・ 予定表のグループ、連絡先のグループが初期化される

(この場合のグループは、各ユーザーが表示のために作成したものとなり、左ペインに表示されています。)

・ 共有の予定表/仕事/連絡先を左ペインに追加している場合、表示状態が一旦初期化され共有情報が非表示となる

(項目横のチェックがオフされるのではなく、追加している項目自体が一旦 Outlook から非表示となります。)

 

現在の設定値をバックアップファイルなどに出力するといった機能はないため、このスイッチを追加して起動した場合には、手動にて再設定する必要があります。

 

使用する例:

例えば、予定表に表示されるアカウントが二重表示されるなど、ナビゲーション ウィンドウに表示されている情報が不正な時、回避が期待できます。

 

 

/resetfolders

このスイッチを追加して起動することにより、メールボックスの既定のフォルダー (受信トレイ、削除済みアイテム、送信トレイ、送信済みアイテムなど) が不整合な状態で失われたフォルダーを、既定の配信場所で復元します。

既定のフォルダーが失われている場合には復元を行いますが、既定のフォルダー以外の独自に作成したフォルダーには影響しません。

そのため、特にバックアップなどをしておく必要はありません。

 

使用する例:

存在するはずのメールボックスの既定のフォルダーが表示されないときなどに回避が期待できます。

 

/resetfoldernames

このスイッチを追加して起動することにより、メールボックスの既定のフォルダー (受信トレイ、削除済みアイテム、送信トレイ、送信済みアイテムなど) を現在の Office ユーザーインターフェイス言語での既定の名前に復元します。

既定のフォルダー以外の独自に作成したフォルダーには影響しません。

 

使用する例:

たとえば、初めて Outlook のメールボックスに接続するときに英語のユーザー インターフェイスを使用すると、既定のフォルダー名は英語になり、この名前を変更することはできません。

英語から日本語へなど、既定のフォルダー名を別の言語に変更するには、ユーザー インターフェイスの言語を変更するか別の言語バージョンの Outlook をインストールしてから、このスイッチを使用して既定のフォルダー名をリセットします。

※注意:Exchange サーバー 2010 以降に接続する環境では、本機能は制限されています。

初期化するには、OWA より [オプション] – [設定] – [地域] [言語] を選択し、[指定した言語に一致するように既定のフォルダーの名前を変更する] にチェックを入れ [保存] をクリックします。

 

 

/safe

このスイッチを追加して起動することにより、Outlook をセーフ モードで起動します。

セーフ モードでの起動時は、以下の機能を制限します。

a. ウィンドウサイズの初期化 (セーフモード起動中 変更可能)
 b. 閲覧ウィンドウをオフで表示 (セーフモード起動中 変更可能)
 c. リコール機能 (未読メールの取り消し機能の無効化)
 d. リボンのユーザー設定、クイック アクセス ツール バーのユーザー設定無効化 (セーフモード起動中 変更不可)
 e. アドインのロードを行わない

※補足

セーフ モードでは、アドインのロードなどを行わない動作となるため、ウィルススキャン ソフトが動作しない場合があります。

さらに、Outlook は VBA マクロをアドインとして実装しているため、セーフ モードではマクロも実行できなくなります。

 

セーフ モードについては、以下の技術情報もご参照ください。

Office セーフ モードで起動する方法

 

セーフ モードでの起動中は制限された動作となりますが、Outlook を再起動すれば通常に戻ります。

そのため、表示や設定のバックアップの必要はありません。

 

使用する例:

Outlook セーフ モードの起動は、一部クライアント側データの修復を行うことが可能か試行し、他社製アドインによって引き起こされる事象かどうかの要因について切り分ける場合などに使用されます。

何か正常な動作でない場合には、アドインなどの拡張機能が影響していないかどうかの切り分けとして、まず行っていただくことをおすすめしております。

セーフ モードで起動中、事象が回避する場合には、アドインの動作が原因の可能性があります。

 

 

本情報の内容 (添付文書、リンク先などを含む) は、作成日時点でのものであり、予告なく変更される場合があります。

 

 

メール ソリューションをクラウドに移行した方がよい理由

$
0
0

(この記事は 2016 11 11 日に Office Blogs に投稿された記事 Why are you still waiting to upgrade your email to the cloud? の翻訳です。最新情報については、翻訳元の記事をご参照ください。)

クラウドを利用するメリットを理解していながら、いまだにオンプレミスのメール ソリューションを使用している企業があります。まだオンプレミス サーバーを使用しているのは、変化に対する気後れや移行の必要性を実感していないなど、さまざまな理由が考えられます。

IDG が 2015 年に 実施した企業のクラウド コンピューティング使用状況に関する調査 (英語) では、72% の企業が少なくとも 1 つのアプリケーションをクラウドで利用していて、56% の企業がクラウドに移行する IT ソリューションの選定を進めています。今回は、オンプレミスのメール ソリューションに関するよくある誤解と、業務用メール ソリューションをクラウドに移行した場合の実際の効果について説明します。

メールの攻撃に対処する企業のコストを削減: CSO Online の調査 (英語) によると、日々のマルウェア攻撃に対処するコストは一見たいしたことのないように思えますが、積み重なると無視できないものとなっています。しかし、クラウド ソリューションではこのようなことはなく、日々進化するメールの脅威に対してセキュリティ保護を常に最新の状態に保つことが可能となります。

why-are-you-still-waiting-to-upgrade-your-email-to-the-cloud-1b

出典:「大企業でのフィッシング攻撃の被害額は年間 370 万ドル」CSO Online、2015 年 (英語)

日常的な脅威にさほど直面していない場合、データ漏えいに対する対策の必要性は感じないかもしれません。しかし、Alert Logic のクラウド セキュリティ レポート (英語) によると、実際にクラウドでホストされているサーバーの方が、攻撃インシデント発生数が少ないことがわかります。

why-are-you-still-waiting-to-upgrade-your-email-to-the-cloud-2b

出典:「クラウド セキュリティ レポート」Alert Logic、2015 年 (英語)

移行はコストが高くダウンタイムも長い: 業務用メールのクラウド サーバー移行には長いダウンタイムが発生し、インフラストラクチャのコストが高くなると想像されるかもしれませんが、実際はその逆です。

高価なハードウェアの購入と保守が不要なため、クラウドへ移行すると設備投資を削減できます。また IT チームは、オンプレミス サーバーの保守やアップグレードに対応する必要がなくなり、自社製品やサービスの改良に集中できるようになります。

Upp Technology の調査 (英語) によると、クラウド テクノロジを利用している企業の 50% 以上が IT 関連コストを 25% 削減しています。削減したコストを他のプロジェクトに回すことができ、IT 担当者も企業利益への貢献に時間を費やせます。アプリケーションは短時間で配信されるため移行時にダウンタイムはほぼ発生せず、移行中に業務プロセスが中断されることはありません。

日々の業務でダウンタイムが発生するのはやむを得ない: ダウンタイムの解消はコストに大きく影響します。オンプレミス サーバーで起こる小さな技術的な遅延やダウンタイムはすべて回避可能です。オンプレミス サーバーが停止した場合、生産性が下がるだけではありません。Cogeco Peer 1 の調査 (英語) によると、大企業の 6 社に 1 社ではダウンタイム発生時に 1 時間あたり 100 万ドルの損失があると報告されています。

まとめ

メール ソリューションをクラウドへ移行することで、コスト削減、データ保護、無駄の解消が実現し、企業の生産性と収益性が向上します。

電子ブック『メールを高機能化: メールをクラウドに移行するなら今が最適 (英語)』では、クラウドへシームレスに移行する方法をご紹介していますので、ぜひお読みください。

※ 本情報の内容 (添付文書、リンク先などを含む) は、作成日時点でのものであり、予告なく変更される場合があります。

[オブジェクト アクセスの監査] を有効にした状態で Windows Firewall ログの書き込みが行えない。

$
0
0

こんにちは。
Windows プラットフォーム サポートの横山です。

今回は [オブジェクト アクセスの監査] を有効にすると、リムーバブル記憶域として接続した USB メモリに対する Windows Firewall ログの書き込みに失敗する事象についてお伝えいたします。

本事象について、[オブジェクト アクセスの監査] を有効化した際におけるリムーバブル記憶域に対する OS の挙動と Windows Firewall サービスの挙動とあわせてご説明いたします。

1. [オブジェクト アクセスの監査] とリムーバブル記憶域について
2. Windows Firewall サービスと Restricted SID について
3. 対処法について

1. [オブジェクト アクセスの監査] とリムーバブル記憶域について
まず、[オブジェクト アクセスの監査] を有効化した場合、Portable Device Enumerator Service (wpdbusenum) がリムーバブル記憶域へのアクセス時にデバイスのアクセス コントロール リスト (ACL) を設定し、各デバイスへのアクセス制御を行います。

ユーザーやアプリケーション、プロセスが ACL の設定されたデバイスへのアクセスを試みた際には、アクセス権のチェックが行われます。
対して、[オブジェクト アクセスの監査] が設定されていない場合には、アクセス権のチェックが行われません。

なお、Windows Server 2008 および Windows Server 2008 R2 では、リムーバブル記憶域へのアクセス時にアクセス権のチェックを行いません。

2. Windows Firewall サービスと Restricted SID について
Windows OS 上のサービスの SID には以下の 3 つのタイプがあります。

a. None
b. Unrestricted
c. Restricted

None では、サービスの起動時にサービスの SID がサービス プロセス トークンに追加されません。
Unrestricted では、サービスの起動時にサービスの SID をサービス プロセス トークンに追加します。
Restricted では、サービスの SID の他に制限された SID をサービス プロセス トークンに追加します。

殆どのサービスは Unrestricted で動作いたしますが、Windows Firewall サービスは Restricted で動作いたします。Restricted で動作しているサービスは [オブジェクト アクセスの監査] 有効化時におけるリムーバブル記憶域へのアクセス時に追加でのアクセス権チェックが行われます。

3. 対処法について
今回の事象は、本アクセス チェックに失敗しているために発生しています。

上記 1. でお伝えいたしました通り、[オブジェクト アクセスの監査] 有効化時におけるリムーバブル記憶域へのアクセス時のアクセス権チェックは Windows Server 2012 以降で実施されます。
また、Windows Server 2008 以降の OS で Windows Firewall サービスが Restricted サービスとして動作します。

そのため、本事象は Windows Server 2012 / Windows Server 2012 R2 / Windows Server 2016 の OS で発生します。

Windows Firewall サービスによるログの書き込みを行うための対処法は以下のいずれかとなります。

a. [オブジェクト アクセスの監査] を無効にする。
b. リムーバブル記憶域を Windows Firewall ログの保存先に指定しない。

ご不便をおかけし、大変申し訳ございませんが、Windows Firewall ログを記録される際には、上記いずれかの対処法をご実施ください。

One Dozen Azure Apps to Test for Identity with Azure AD

$
0
0

Windows Vista にて Windows Update がなかなか終わらない事象について

$
0
0

みなさま、こんにちは。WSUS サポート チームです。

本記事では、Windows Vista から Windows Update サイトへアクセスした際に Windows Update がなかなか終わらないという問題についてご紹介します。

Windows Vista にて Windows Update を実行すると、下記の「更新プログラムを確認しています…」の画面のままで、数時間経過しても検出が完了しないことがあります。

5

この問題は、更新プログラムの検出処理にて検出対象の更新プログラムが過去に置き換えた更新プログラムを 1 つ 1 つ遡って評価する処理に起因して発生しています。
リリース年数が長い製品では評価対象となる情報量が多いため、この問題が発生しやすくなります。

この問題に対処する方法としましては、下記ブログにてご紹介しています。

– 「Windows Update がなかなか終わらないな…」と思ったら
<https://blogs.technet.microsoft.com/jpwsus/2016/04/26/never-end-wu/>

上記ブログでは、Windows 7 の環境に対して最新の Windows Update Agent を適用する対処方法をご案内していますが、Windows Vista ではこの問題を改善した Windows Update Agent はリリースされていません。

そのため、置き換え関係の評価処理にてこの問題が発生した場合には置き換え関係の多い更新プログラムを事前に適用することで、検出対象から外し、置き換え関係の評価処理にかかる時間を短縮します。
どの更新プログラムの置き換え関係が多く存在しているかについては、リリースされた後に Microsoft Update カタログより Windows Vista 向けにリリースされた更新プログラムそれぞれの置き換え情報を確認する必要があります。
更新プログラムの検出処理に時間がかかる状況の場合には、都度カタログ サイトの確認が必要となりますが、下記手順にて置き換え情報を確認してください。

 

Vista の更新プログラムの置き換え情報の確認方法

1. 下記 URL にアクセスし、Microsoft Update カタログを開きます。

– MicrosoftUpdate カタログ
<http://catalog.update.microsoft.com/v7/site/Home.aspx>

2. 右上の検索窓より “Vista” というキーワードで検索します。

1

3. [最終更新日時] でソートし、リリースされた更新プログラムを確認します。

2

4. 対象の更新プログラムをクリックし、更新プログラムの詳細を開きます。

5. [パッケージの詳細] タブを開きます。

13

6. “この更新プログラムは、次の更新プログラムを置き換えます” に記載されている更新プログラムが対象の更新プログラムにより置き換えられた更新プログラムです。

4

 

置き換えた更新プログラムの数が多い更新プログラムを手動で適用する方法

1. 下記 URL にアクセスし、Microsoft Update カタログを開きます。

– MicrosoftUpdate カタログ
<http://catalog.update.microsoft.com/v7/site/Home.aspx>

2. 右上の検索窓より置き換えられた更新プログラムの数が多い更新プログラムの KB 番号で検索します。

6

3. 対象の更新プログラムの “追加” ボタンをクリックします。

7

4. “バスケットの表示” をクリックします。

8

5. “ダウンロード” をクリックします。

9

6. 任意の保存先を指定し、”続行” をクリックします。

11

7. ダウンロードが開始されますので、完了することを確認します。

12

8. ダウンロードした更新プログラムを Windows Update を実行する前に適用します。

 

LDAP query prettyfier

$
0
0

For some reason I have spent a lot of time looking at LDAP queries in the last few weeks. The simple queries are easy to “decode” but for the more complex ones you really need to format them properly to follow the flow. I wrote a little PowerShell script to do that, and I don’t mind admitting that it was a little harder than I expected. Here is the code; save it as Prettify-LDAP.ps1 and it’s ready for use.

[powershell]
[CmdletBinding()]
param (
[Parameter(Mandatory=$true)]
[string]$ldapquery
)

$tabLevel = 0
$formatted = [string]::Empty

# remove whitespace, convert to array, process each character
($ldapquery -replace "[sn]", ”).ToCharArray() | ForEach-Object {
if ($_ -eq ‘(‘)
{
$formatted += "`n$(" " * $tabLevel)("
$tabLevel++
} elseif ($_ -eq ‘)’) {
$tabLevel–
$formatted += "$(" " * $tabLevel))`n"
} else {
$formatted += $_
}
}

# remove extra empty lines after ending bracket,
# then remove spaces before ending bracket IF there is non-whitespace before it
($formatted -replace ‘)nn’, ")`n") -replace "(S)[ ]+)", ‘$1)’
[/powershell]

It takes the LDAP query as a mandatory string argument. Next, whitespace is stripped because the script needs to insert its own.  To work with individual characters, I find it handy to convert the input string to an array of characters, and push those into the pipeline. For the output format each opening bracket starts on a new line, with its closing bracket lining up. To keep track of the indentation level the counter $tabLevel is used. As a final step, superfluous whitespace is stripped again. The regular expressions do look a bit like line noise, but I find them really handy for this sort of text manipulation.

On to an example. This one is unsurprisingly related to Exchange Server:

[code]
.Prettify-LDAP -ldapquery "(&(&(&(& (mailnickname=*) (| (&(objectCategory=person)(objectClass=user)(|(homeMDB=*)(msExchHomeServerName=*))) )))(objectCategory=user)(department=IT)(physicalDeliveryOfficeName=Amsterdam)))"
[/code]

The output:

(&
  (&
    (&
      (&
        (mailnickname=*)
        (|
          (&
            (objectCategory=person)
            (objectClass=user)
            (|
              (homeMDB=*)
              (msExchHomeServerName=*)
            )
          )
        )
      )
    )
    (objectCategory=user)
    (department=IT)
    (physicalDeliveryOfficeName=Amsterdam)
  )
)

Much better, isn’t it? Almost comprehensible, even.


OMS – Service Map Solution – Unsigned Driver Windows Server 2016

$
0
0

Hi,

A new Service Map solution got released for OMS lately (until now 25/11/2016 only available in US region) :
https://docs.microsoft.com/en-us/azure/operations-management/-suite/operations-management-suite-service-map

The solution requires an additional service to be installed as documented over here:
https://docs.microsoft.com/en-us/azure/operations-management-suite/operations-management-suite-service-map-configure

This image gives you more insight on how the “Microsoft Dependency Agent” works together with the “MMA/OMS Agent”

agents

 

When trying to install the “Microsoft Dependency Agent” on Windows Server 2016, I noticed following error:
oms_service_map_driver

And when looking at my OMS workspace, I noticed that there wasn’t any data available for the server (RRAS):
oms_service_map_nodata

 

I disabled “Driver Signature Enforcement” as documented over here:
https://support.microsoft.com/en-us/help/17419/windows-7-advanced-startup-options-safe-mode
oms_service_map_boot

 

After reinstalling the “Microsoft Dependency Agent”, I still got the same error, however when looking at my OMS workspace I now saw data appearing for the server (RRAS):
oms_service_map_data

The solution is just awesome and will give you insight in you monitored environment.

 

OS イメージに対して、オフラインで更新プログラムを適用する際の注意事項について

$
0
0

こんにちは Windows Platform サポートチームです。

Sysprep を実行する際に、応答ファイルで PersistAllDeviceInstalls=True を指定した場合、
Sysprep 実行前のデバイス情報が保持されるため、初回の OS 起動時にドライバのインストールが
最小限になり、その分だけ早く起動処理を完了させることができます。

上記オプションを使用した OS イメージに対して、DISM コマンドを用いて更新プログラムを
オフラインで適用することが可能です。しかしながら、適用する更新プログラムにドライバーの
更新が含まれている場合、注意が必要です。

先述のとおり、応答ファイルで PersistAllDeviceInstalls=True が指定されたイメージは、
初回起動時にドライバーのインストールが行われません。本動作に伴い、オフラインで
適用した更新プログラムにドライバー ファイルが含まれている場合、当該ファイルは更新されず、
Sysprep 実行時に使用していた古いバージョンのドライバーが継続して使用されます。
(※ 例外として Boot critical device のドライバーは更新されます)

このため、オフラインで更新プログラムを適用する場合には、後述の手順で Boot critical device
ではないドライバー (Non boot critical driver) が含まれているか、事前に確認してください。
Non boot critical driver を含む更新プログラムであれば、オフラインで適用しないようにします。
(ただし、この現象が発生した場合でも、DISM コマンドにてドライバー ストア内に更新バージョンの
ドライバー ファイルが配置されるため、OS 起動後、デバイス マネージャーから対象のデバイスについて、
ドライバーの更新を行うことで、ファイルの更新を完了させることが可能です。)

補足 : Boot critical device について
OS の起動に不可欠なデバイスとしてあらかじめ規定されているデバイス群があり、これらを
Boot critical device と呼びます。上述の例外事項として記載しているとおり、Boot critical device の
ドライバーは PersistAllDeviceInstalls=True が設定されている OS イメージであっても、
初回起動時に必ずインストールが行われます。このようなデバイス群は上述の問題の影響を受けません。
今回の問題は以下の一覧に含まれていないドライバー (Non boot critical driver) を適用する際に発生します。

– Boot critical device 一覧
Class GUID                               Device Class
{4D36E97D-E325-11CE-BFC1-08002BE10318}  “System”
{4D36E966-E325-11CE-BFC1-08002BE10318}  “Computer”
{50127DC3-0F36-415E-A6CC-4CB3BE910B65}  “Processor”
{4D36E96B-E325-11CE-BFC1-08002BE10318}  “Keyboard”
{4D36E96F-E325-11CE-BFC1-08002BE10318}  “Mouse”
{745A17A0-74D3-11D0-B6FE-00A0C90F57DA}  “HIDCass”
{4D36E978-E325-11CE-BFC1-08002BE10318}  “Ports”
{4D36E96A-E325-11CE-BFC1-08002BE10318}  “HDC”
{4D36E97B-E325-11CE-BFC1-08002BE10318}  “SCSIAdapter”
{4D36E967-E325-11CE-BFC1-08002BE10318}  “DiskDrive”
{4D36E965-E325-11CE-BFC1-08002BE10318}  “CDROM”
{4D36E980-E325-11CE-BFC1-08002BE10318}  “FoppyDisk”
{4D36E969-E325-11CE-BFC1-08002BE10318}  “fdc”
{36FC9E60-C465-11CF-8056-444553540000}  “USB”
{6BDD1FC1-810F-11D0-BEC7-08002BE2092F}  “1394”
{C459DF55-DB08-11D1-B009-00A0C9081FF6}  “Enum1394”
{71A27CDD-812A-11D0-BEC7-08002BE2092F}  “Voume”
{72631E54-78A4-11D0-BCF7-00AA00B7B32A}  “Battery”
{4D36E977-E325-11CE-BFC1-08002BE10318}  “PCMCIA”
{D48179BE-EC20-11D1-B6B8-00C04FA372A7}  “SBP2”

 

[対処策]
更新プログラムに Non boot critical driver が含まれているかを確認し、除外する方法について

===========
作業の流れ
===========
1. 更新プログラムを展開し (※後述の手順をご参考ください)、ドライバーファイルと共に同梱されている
inf ファイルを確認します。

2. inf ファイルに記載されている Class GUID の値と、上記 Boot critical device 一覧に記載された
Class GUID と一致するものがあるか確認します。

3. 一致する GUID が存在しない場合、そのドライバーは Non boot critical driver となり、上記の問題が発生する
更新プログラムとなるため、オフラインでの適用から除外します。

 

– 更新プログラムの展開方法について (例として Windows Update カタログ サイトから入手した
KB3133977 をコマンド プロンプトで展開する方法を記載いたします)

1. 以下のコマンドで Windows Update カタログ サイトから入手した KB3133977 のインストールファイルである
.msu ファイルを展開します

expand AMD64-all-windows6.1-kb3133977-x64_7c11a96b02a1800067ce6772f6a316021cac2bfb.msu -f:* <展開先フォルダパス>

2. 続いて 1. で抽出した .cab ファイルを展開します (展開先フォルダパスは上記と同一で構いません)

expand Windows6.1-KB3133977-x64.cab -f:* <展開先フォルダパス>

3. 確認する必要がある inf ファイルは以下のフォルダにあります
(どちらのフォルダの inf ファイルでも確認すべき値は同じです)

amd64_tpm.inf_31bf3856ad364e35_6.1.7601.19146_none_0a2a4c4e1dddf592
amd64_tpm.inf_31bf3856ad364e35_6.1.7601.23346_none_0ab3eaff36fb9283

4. 上記フォルダの inf ファイルを開き、Class GUID の値を確認します

// 以下例になります
========================================
;
; Copyright (c) Microsoft Corporation, All Rights Reserved
;
; TPM.INF  — This file contains descriptions of the general purpose
;             TPM driver
;

[Version]
Signature   = “$WINDOWS NT$”
Class       = SecurityDevices
ClassGuid   = {d94ee5d8-d189-4994-83d2-f68d7d41b0e6}   <<<<<<<<<< ここの値を確認します
Provider    = %MSFT%
PnpLockdown = 1
DriverVer=06/21/2006,6.1.7601.19146

5. 先の一覧に一致する GUID ではないため、このドライバーは Non boot critical driver となります。
この場合には、オフラインでの適用から除外して下さい。

 

以下、上記内容の英語表記になります。
======================================================================

Title: Important notice of applying update program to OS image offline 

 

Configuring PersistAllDeviceInstalls= True within answer file, results speeding up the booting process because device information stored before running Sysprep is used and driver installation is minimized.

Within the OS image with above option applied, DISM command must be used to install updates offline. However, if any kind of driver is included within update, need to be careful as the following.

As stated, with the “PersistAllDeviceInstalls=True” is initially selected on the OS image, drivers within update will not be installed at the first boot. This is since old version of drivers, stored while initial run of Sysprep, are decided to be used by the system. (* only exceptions are Boot critical device driver)

If you need to install any type of updates offline, please be sure to follow the guideline below, to see any Non boot critical driver is included within an update. Update with Non boot critical driver can be installed offline, though user need to install manually by clicking update driver within device manager.

Quick Memo: Some devices are defined as essential for booting OS, and these group are named as Boot critical devices.

These device will be installed even if ” PersistAllDeviceInstalls=True ” is configured. Issue above will only rise within Non boot critical device which are NOT included within the following list.

– Boot critical device list
Class GUID                               Device Class
{4D36E97D-E325-11CE-BFC1-08002BE10318} “System”
{4D36E966-E325-11CE-BFC1-08002BE10318} “Computer”
{50127DC3-0F36-415E-A6CC-4CB3BE910B65} “Processor”
{4D36E96B-E325-11CE-BFC1-08002BE10318} “Keyboard”
{4D36E96F-E325-11CE-BFC1-08002BE10318} “Mouse”
{745A17A0-74D3-11D0-B6FE-00A0C90F57DA} “HIDCass”
{4D36E978-E325-11CE-BFC1-08002BE10318} “Ports”
{4D36E96A-E325-11CE-BFC1-08002BE10318} “HDC”
{4D36E97B-E325-11CE-BFC1-08002BE10318} “SCSIAdapter”
{4D36E967-E325-11CE-BFC1-08002BE10318} “DiskDrive”
{4D36E965-E325-11CE-BFC1-08002BE10318} “CDROM”
{4D36E980-E325-11CE-BFC1-08002BE10318} “FoppyDisk”
{4D36E969-E325-11CE-BFC1-08002BE10318} “fdc”
{36FC9E60-C465-11CF-8056-444553540000} “USB”
{6BDD1FC1-810F-11D0-BEC7-08002BE2092F} “1394”
{C459DF55-DB08-11D1-B009-00A0C9081FF6} “Enum1394”
{71A27CDD-812A-11D0-BEC7-08002BE2092F} “Voume”
{72631E54-78A4-11D0-BCF7-00AA00B7B32A} “Battery”
{4D36E977-E325-11CE-BFC1-08002BE10318} “PCMCIA”
{D48179BE-EC20-11D1-B6B8-00C04FA372A7} “SBP2”

[Walkthrough]
How to confirm and exclude non critical drivers.

===========
Steps
===========

  1. Expand update programs (how-to are written below) and check for the “ini” file.
  2. Check if there is same “Class GUID” in the list above.
  3. If there is no match, that program is non boot critical driver, so please exclude it from offline update.

 

– How to expand programs.

Ex) Expanding KB3133977 from Windows Update catalog site by command prompt.

  1. Expand “msu” file of KB3133977 with command as below.

expand AMD64-all-windows6.1-kb3133977-x64_7c11a96b02a1800067ce6772f6a316021cac2bfb.msu -f:* < Destination folder path >

  1. Next, expand “cab” file with command as below as well.

expand Windows6.1-KB3133977-x64.cab -f:* < Destination folder path >

  1. “inf” files which needs to be confirmed are in the folder named as below.

 amd64_tpm.inf_31bf3856ad364e35_6.1.7601.19146_none_0a2a4c4e1dddf592
amd64_tpm.inf_31bf3856ad364e35_6.1.7601.23346_none_0ab3eaff36fb9283

  1. Open “inf” file, and check for the Class “GUID”.

// Below is sample
========================================
;
; Copyright (c) Microsoft Corporation, All Rights Reserved
;
; TPM.INF — This file contains descriptions of the general purpose
;             TPM driver
;

[Version]
Signature   = “$WINDOWS NT$”
Class       = SecurityDevices
ClassGuid   = {d94ee5d8-d189-4994-83d2-f68d7d41b0e6}   <<<<<<<<<<<<<<< Please check the following GUID
Provider   = %MSFT%
PnpLockdown = 1
DriverVer=06/21/2006,6.1.7601.19146

  1. The GUID of this program is not on the list, so this is a non boot critical driver.

In this case, exclude this program from offline installation.

Interesting issue with Hybrid Skype for Business with Office 365

$
0
0

Hi All

I have been playing around with Skype for Business Hybrid and getting Office 365 Cloud PBX calling happening. Anyway, during the setup of the environment I hit a snag and couldn’t get users in on-prem seeing users in the cloud. It was an interesting one as cloud people could see presence for On-Prem people.

When on-prem users attempted to see presence we saw “Presence unkown” or …..”Updating”.

 

When an on-prem user attempted to communicate with an online user this is what they saw. Interestingly the error message was “This message wasn’t sent to Izzy Moore due to company policy”.

 

 

So this of course had me madly looking around to work out what policies were breaking my ability for on-prem to talk to o365 users.

 

My first thought after digging around for a policy was to have a look at UCCAPILOGs. I had a look at the on-prem user client first. What I saw in the UCCAPILOGs was:

 

So interestingly there was a ms-diagnostics log entry with a reason of “Unable to resolve DNS SRV record” and it was pointing to steverm.info DNS-SRV-RESULT. So some sort of SRV record for the steverm.info domain was failing.

In my case I was using Split DNS, so I had an on-prem copy of the steverm.info DNS zone running on my Domain Controllers. It had a subset of DNS records, as it was setup primarily to be used for on-prem Lync and Skype clients. So this also meant that the external records were not included in this DNS zone, as only internal clients needed access. What I worked out was that in a hybrid scenario, Front Ends begin looking up SRV record values for the domain, in particular the _sipfederationtls._tcp.<DomainName>.

As in a hybrid environment, the _sipfederationtls._tcp record will point to the On-Prem Edge Pool’s SIP service. So in my case, this was sip.steverm.info. I found I also needed this record as it was the returned service URL for the federation SRV record.

So I added my SIP record and my SRV record. I ended up doing it with Powershell

#Edge sipfederationtls SRV record

$strDNSZone=”steverm.info”

$strFrontEndPoolName=”lab2-fe1.corp.contoso.com”

$strEdgePool = “sip.steverm.info”

$strDCName = “lab2-dc1”

Add-DnsServerResourceRecord -Srv -Name “_sipfederationtls._tcp” -ZoneName $strDNSZone –DomainName $strEdgePool –Priority 0 –Weight 0 –Port 5061 -ComputerName $strDCName

 

The resulting records created look like:

 

The good news is once the DNS records were created all was good in the world and my on-prem users started to see each other’s presence. Yehh

 

Happy Skype’ing

 

Steve

“What’s up, Tech?”: Erste Episode der neuen Podcast-Serie

$
0
0

Was ist “What’s up, Tech?”?: Bis Weihnachten werden wir immer freitags eine neue Podcast-Episode veröffentlichen. Dabei wird es um neue Trends, Tipps und Tricks rund um den PC oder um Gaming gehen. Die Episoden findet ihr hier im Blog, auf unserem Soundcloud-Kanal und auf iTunes.

Was sind die aktuellen Trend-Themen in der Techbranche, über welche Weihnachtsgeschenke freuen sich Technik-begeisterte Freunde oder Verwandte? Über diese Themen habe ich mich in der neuen Podcast-Serie “What’s up, Tech?” mit dem Journalisten Martin Eisenlauer unterhalten. Martin Eisenlauer, ist bei der Bild-Zeitung als der “Tech-Freak” bekannt ist. Was seine Geräte- und Gadget-Highlights in diesem Jahr waren, erfahrt ihr hier:

 

 

Über den Autor

felix boepple
Felix (
@felix_unterwegs) betreut als Trainee Business & Consumer Communications die Bereiche Windows und Devices.
Er twittert vor allem rund um die Themen Windows 10, Surface und Phones – und das, wie sein Handle verrät, am liebsten von unterwegs.

GNPC 透過 Microsoft FastTrack 快速地部署 Office 365

$
0
0

gnpc-logo-2

此篇 Office 365 及 Microsoft FastTrack 文章由 Ghana National Petroleum Corporation 資訊經理  Godfred Ofori-Som 撰寫

GNPC 是一家國有企業,其願景是成為全球領先的石油和天然氣公司,致力於減少該國對外國能源的依賴。為了讓我們的員工始在任何地方都能夠保持聯繫及確保設備齊全,我們決定投資強大的 IT 技術和支援即時聯繫的工具。這項工具支援內、外部人員即時性的溝通,包括夥伴、客戶、供應商、及其他關鍵的人員。

為了加快專案的過程,我們建立了一個快速的時程表來解決這個問題。在 IT 部門的領導下,我們決定將關鍵的企業 App 移至雲端,特別是電子郵件。 我們設置了兩週時程,使干擾降到最小化。

到目前為止,我們的策略是保留一些內部的 App,我們了解將一大塊軟體遷移到雲將釋放 IT 資源,例如: 準備更新 Windows 10,推動採用 我們新的解決方案,提供員工更好的支持和經驗。這意味著我們還有時間探索可發展性的技術項目,以增強業務運作,而不僅僅是簡化 IT 而已。

我們的第一步是說服我們的管理團隊這項策略的安全性和可靠性不會是問題,一旦我們確定了 Microsoft 在內外部人員資訊安全層面的問題,那麼每個人都將會在同一個平台上。我們開始尋找提供應商,幸運地很快就找到了,我們已經使用 Windows Server 和 Windows 系統。此外,我們擁有 Microsoft 企業協議條約,建立了我們與 Microsoft 的密切關係,Office 365 絕對是我們的首選。

然而,過去我們沒有像這樣整合項目的經驗,所以當 Microsoft 技術客戶經理告訴我們 Microsoft FastTrack 時,我們非常地興奮。與我們合作的 FastTrack 經理和工程師,從一開始就證明 FastTrack 是非常有用的。 從 fasttrack.microsoft.com 上的工具所提供的報告,給予我們對 IT 基礎架構和環境的前瞻性評估。

FastTrack 幫助我們與Office 365整合,並向我們展示如何持續進行。此外,它還幫助我們創建了一個計劃,鼓勵員工使用 Office 365,發展最佳做法和管理上的改變。我們與 Microsoft Premier Services Support、FastTrack 和 Premier,不僅幫助我們部署 Office 365,還發展了一個高度的願景 -雲端至上的商業策略。包括提供如何隨時間整合其他的 App 等建議,並充分利用 Office 365 的功能及工具。

我們的員工已經改變了他們的工作方式。 管理員現在可以彼此共享數據資料,即使在旅行時也可以使用,這是一種新型態的最佳實踐,而不是在電腦上儲存數據。同時也改進了員工間溝通和參與。 員工可以在 Yammer 上透過張貼照片、影片等聯繫。我們的公司事務部透過 Yammer 上的資料分享,員工可快速更新資訊,進一步推動業務團隊之間的協同合作。

因此,如果您需要快速地與 Microsoft Cloud 整合,並且沒有內部資源或專業知識,FastTrack 是一個很好的選擇。 我對 Office 365 的解決方案有信心,並對於 Microsoft 與我的團隊整合的實現成果非常滿意,並為我們的成功奠定了基礎。.

更多的資訊請參照 FastTrack.microsoft.com,並成為我們的成功客戶案例!

*FastTrack 適用於擁有 50 個以上的授權客戶。更多詳細資訊,請參閱 FastTrack Center Benefit for Office 365

Viewing all 34890 articles
Browse latest View live


<script src="https://jsc.adskeeper.com/r/s/rssing.com.1596347.js" async> </script>