Quantcast
Channel: TechNet Blogs
Viewing all 34890 articles
Browse latest View live

Enabling Typescript local debugging with Azure Functions on Mac

$
0
0

I love typescript. I'd love to write typescript with Azure Functions.  However, TypeScript support for Azure Functions is preview on Portal.

I'd like to develop Azure Functions with typescript with local debugging. Even if my Mac Book Pro.

This was very easy. 🙂 So I'd love to share it.

Prerequisite

Install the Azure Functions CLI (core)

Also NodeJS. I recommend 8.x for this purpose. I tried on my Mac.

Create Functions with TypeScript

Create a Function App

$ func init
Writing .gitignore
Writing host.json
Writing local.settings.json
Created launch.json

Initialized empty Git repository in /Users/ushio/Codes/AzureFunctions/some/.git/

Create Functions

$ func new
Select a language:
1. C#
2. JavaScript
Choose option: 2
JavaScript
Select a template:
1. BlobTrigger
2. HttpTrigger
3. QueueTrigger
4. TimerTrigger
Choose option: 2
HttpTrigger
Function name: [HttpTriggerJS]
Writing /Users/ushio/Codes/AzureFunctions/some/HttpTriggerJS/index.js
Writing /Users/ushio/Codes/AzureFunctions/some/HttpTriggerJS/sample.dat
Writing /Users/ushio/Codes/AzureFunctions/some/HttpTriggerJS/function.json

Now, you can get a template.

Setup Typescript enviornment

This is just include TypeScript configuration.

cd HttpTriggerJS
npm init
tsc --init
cp index.js index.ts

Then Change your index.ts like this.

export async function run (context: any, req: any) {

 

Change typeconfig.json

Then change the typeconfig.json Uncomment the sourceMap and add lib entry.

{
  "compilerOptions": {
    /* Basic Options */
    "target": "ES2015",                          /* Specify ECMAScript target version: 'ES3' (default), 'ES5', 'ES2015', 'ES2016', 'ES2017', or 'ESNEXT'. */
    "module": "commonjs",
    "sourceMap": true,
                   /* Specify module code generation: 'commonjs', 'amd', 'system', 'umd' or 'es2015'. */
    "lib": [ "es2015"],

Now your Azure Function can use TypeScript with Local Debugging.

 

For example, I wrote a function like this. This code is typescript code for querying Cosmos DB.  No call back hell! This is just a sample code. You can write much more simple one.

I'm not sure however, when I use "documentdb-typescript", don't need context.done().

index.ts

 

import * as DB from "documentdb-typescript";

import { Collection } from "documentdb-typescript";

export async function run (context: any, req: any) {

 context.log('JavaScript HTTP trigger function processed a request.');

 let url = process.env["COSMOS_DB_HOST"];

 let key = process.env["COSMOS_DB_KEY"];

 let coll = await new Collection("car","cardb",url, key).openOrCreateDatabaseAsync();

 let state = context.bindingData.state;

 if (state === "approved" || state === "pending" || state === "rejected" ) {

 let allDocs = await coll.queryDocuments({

 query: "select * from car c where c.state = @state order by c.name desc",

 parameters:[{name: "@state", value: state }]},

 {enableCrossPartitionQuery: true, maxItemCount: 10}).toArray();

 context.res = {

 body: allDocs

 }

 } else {

 context.res = {

 status: 400,

 body: "Please pass the correct state! State is only allowed ( approved | pending | rejected )"

 };

 }

 // context.done();

};
Once you compile this functions by
tsc -p .
You'll find index.map.js file. It is mapping between ts and js files.

 

Debugging

Now you can debug your TypeScript functions locally! Start your functions with debug flag.

$ func host start --debug VSCode

Then start debug with your VS Code.

You can see the debug port on the log.

      Start Process: node  --inspect=5858 "/Users/ushio/.azurefunctions/bin/workers/Node/dist/src/nodejsWorker.js" --host 127.0.0.1 --port 61608 --workerId 380f28f6-f7a7-4ec4-adc6-ffa61819c1bb --requestId 0d896ea7-8657-4029-a5b4-d13e600b419a

Then you can Start debugging to push DEBUG > Attach to Azure Functions button. Also you can set a break point on index.ts file.

Send request to the functions,  You can see the deubg feature works!

Even if this is not the official support, I'm very happy to be able to code/debug Azure Functions with TypeScript.

Resource

 

 


2017 年 10 月のセキュリティ更新プログラム (月例) で追加されたイベント ID : 1794

$
0
0

皆さん、こんにちは。

Windows プラットフォーム サポート チームです。

本日は 「2017 年 10 月のセキュリティ更新プログラム (月例)」 で追加されたイベント ID : 1794 に関する情報を紹介いたします。

下記 URL に書かれているとおり、特定の TPM チップセットにおいて、TPM が作成するキーの強度を弱めるファームウェアの脆弱性が確認されております。

ADV170012 | Vulnerability in TPM could allow Security Feature Bypass
https://portal.msrc.microsoft.com/en-US/security-guidance/advisory/adv170012
2017 年 10 月のセキュリティ更新プログラム (月例)
https://blogs.technet.microsoft.com/jpsecurity/2017/10/11/201710-security-bulletin/

「2017 年 10 月のセキュリティ更新プログラム (月例)」 を適用した場合、ファームウェアの脆弱性に該当する TPM チップセットが搭載されている場合、OS 起動時にシステム ログへイベント ID : 1794 が出力されます。

Windows 10、Windows Server 2016 では TPM 管理コンソール (TPM.msc) 画面にも同様のメッセージが表示されます。
イベント ID : 1794 はあくまでもファームウェアの脆弱性に該当していることを通知するイベントとなり、本脆弱性に対処するためには、ファームウェアのアップデートをご実施ください。
ファームウェアのアップデートが行われるまでの間、暫定的に対処する場合は、TPM を利用しないように各サービスの設定を変更する必要があります。
Windows OS では以下のサービスが TPM を利用いたしますので、ご確認ください。
<サービス一覧>
Active Directory Certificate Services (ADCS)
Active Directory Directory Services (ADDS)
BitLocker
Credential Guard/DPAPI/Windows Information Protection
Device Health Attestation Service (DHA)
VSC - Virtual Smart Card
Windows Hello For Business and Azure Active Directory
Windows Hello (and Microsoft Accounts (MSA))
Windows Server 2016 Domain-joined device public key authentication
また、セキュリティ情報内のページにも、随時、サービスごとに対処する場合の手順を準備しておりますので、併せて、ご確認ください。
ADV170012 | Vulnerability in TPM could allow Security Feature Bypass
https://portal.msrc.microsoft.com/en-US/security-guidance/advisory/adv170012

TAP: Outlook Mobile でオンプレミス版 Exchange と Microsoft Enterprise Mobility + Security のサポートを開始

$
0
0

(この記事は 2017 9 27 日に Exchange Team Blog に投稿された記事 TAP: Outlook mobile support for Exchange on-premises with Microsoft Enterprise Mobility + Security の翻訳です。最新情報については、翻訳元の記事をご参照ください。)

Ignite 2017 で発表 (英語) されたとおり、Outlook for iOS/Android は、オンプレミス版 Exchange でのハイブリッド利用に向けて、近日中に完全なマイクロソフトのクラウド基盤に移行します。今回の更新では、Enterprise Mobility + Security (EMS) の Microsoft Intune 管理機能もサポートいたします。今回の記事では、この変更がもたらすメリットと、新しいアーキテクチャに関する Technology Adoption Program (TAP) への参加方法をご紹介します。

Exchange Server のお客様向けの新しいマイクロソフト クラウド アーキテクチャ

Exchange Server のメールボックスに関して、Outlook Mobile の新アーキテクチャは従来の設計と比べても大きな違いはありません。ただし、サービスが (Office 365 と Azure を使用する) マイクロソフトのクラウド サービスに直接組み込まれることで、Office 365 セキュリティ センターAzure セキュリティ センター (英語) で、セキュリティ、プライバシー、コンプライアンス、透明性のある運営が保証されるというメリットがあります。

Hybrid

Exchange Online から Outlook アプリへのデータ送信では、TLS で保護された接続を利用します。Azure 上のプロトコル トランスレーターは、データ、コマンド、通知のルーティングなどを実行しますが、データそのものを読み取ることはできません。

Exchange ActiveSync (EAS) を利用すると、Exchange Online とオンプレミス環境を接続してオンプレミス データを Exchange Online テナントに同期できます。4 週間分のメール、すべての予定表データ、すべての連絡先データ、不在ステータスを保存でき、30 日間使用されなかった場合には Exchange Online から自動的に削除されます。

オンプレミス環境と Exchange Online のデータ同期は、ユーザー操作に関係なく実行されるため、デバイスに新しいメッセージをすばやく送信することができます。

新しいマイクロソフトのクラウドベースのアーキテクチャのメリット

Outlook for iOS/Android は、最良のエクスペリエンスを提供するためのクラウド基盤アプリとして開発されました。つまり、ローカルにインストールされたアプリも、安全でスケーラブルなマイクロソフト クラウドのサービスを活用しているということです。

マイクロソフトのクラウド上で情報処理を行うことにより、優先受信トレイのメール分類などの高度な機能、出張や予定表のエクスペリエンスのカスタマイズ、検索速度の向上といったメリットが得られます。また、負荷の高い処理をクラウドで実行することで、ユーザー デバイスのリソース負荷を最小限に抑えられるため、Outlook のパフォーマンスと安定性が向上します。さらに、基盤サーバーの性能 (Exchange や Office 365 のバージョンの違いなど) に関係なく、すべてのメール アカウントで利用可能な機能を構築することができます。

新しいアーキテクチャで実現する具体的なメリットは以下のとおりです。

    1. EMS のサポート: Microsoft Intune と Azure Active Directory Premium を組み合わせた Microsoft Enterprise Mobility + Security (EMS) を活用して、条件付きアクセス ポリシーと Intune App Protection ポリシーを有効化し、モバイル デバイス上の企業のメッセージ データを制御および保護することができます。
    2. 完全なマイクロソフト クラウド基盤: AWS のメールボックス キャッシュを廃止し、Exchange Online にネイティブに組み込んだことで、マイクロソフトの Office 365 セキュリティ センターで保証されるセキュリティ、プライバシー、コンプライアンス、透明性のある運営といったメリットを得られるようになります。
    3. OAuth によるユーザー パスワードの保護: Outlook では OAuth を利用してユーザーの資格情報を保護します。OAuth は、Outlook がユーザーの資格情報を編集したり保存したりすることなく Exchange データにアクセスできる安全な認証メカニズムです。サインイン時に、ID プラットフォーム (Azure AD または ADFS などのオンプレミス ID プロバイダー) に対して直接ユーザー認証を実行し、アクセス トークンが返されると Outlook がユーザーのメールボックスやファイルにアクセスできるようになります。サービスがユーザーのパスワードにアクセスすることはありません。
    4. 一意のデバイス ID を提供: Outlook の各接続は Microsoft Intune に個別に登録され、一意の接続として管理することができます。
    5. iOS および Android 向けの新機能: 今回の更新により、これまでオンプレミス版 Exchange でサポートされていなかった Office 365 のネイティブ機能 (Exchange Online 検索のフル機能や優先受信トレイなど) を Outlook アプリで利用できるようになります。これらの機能は、Outlook for iOS/Android アプリのみで提供されます。
: Exchange 管理センターでのデバイス管理が利用できなくなります。モバイル デバイス管理には Intune が必要です。

Outlook Mobile、Exchange Server、EMS に関するその他の注意事項

  • モバイル デバイスの管理: デバイス管理やワイプ操作を実行する場合には、Microsoft Intune が必要です。オンプレミスの Exchange 環境で個々のデバイス ID を管理することはできません。
  • Exchange Server 2007 のサポート: Exchange Server 2007 のメインストリーム サポート終了により、Exchange Server 2007 のメールボックスを使用しているユーザーは、Outlook for iOS/Android のメールと予定表にアクセスできなくなります。
  • Exchange Server 2010 のサポート: Exchange Server 2010 SP3 のメインストリーム サポート終了により、Intune で管理される Outlook Mobile を利用できなくなります。新アーキテクチャでは、Outlook Mobile の認証メカニズムに OAuth が使用されます。オンプレミスの構成変更の一環として、マイクロソフトのクラウド サービスへの OAuth エンドポイントを既定の認証エンドポイントに設定することができます。これを適用すると、各クライアントは OAuth 使用のネゴシエーションを開始できるようになります。組織全体の変更になるため、Exchange 2013 または 2016 をフロントエンドに置いた Exchange 2010 メールボックスがある場合は、OAuth を実行できると誤認識し、接続が解除されてしまいます。Exchange 2010 の認証メカニズムでは OAuth はサポートされません。

技術要件とライセンス要件

新しいアーキテクチャの技術要件は以下のとおりです。

  1. オンプレミス版 Exchange の構成:
    • すべての Exchange サーバーに累積更新プログラム (Exchange Server 2016 CU6 または Exchange Server 2013 CU17 以上) を展開すること
    • すべての Exchange 2007 または Exchange 2010 サーバーを環境から除外すること
  2. Active Directory の同期: Azure AD Connect を使用して Azure Active Directory との Active Directory 同期を実行すること。以下の属性が同期の対象になっていることを確認します。
    • Office 365 ProPlus
    • Exchange Online
    • Exchange ハイブリッド展開のライトバック
    • Azure RMS
    • Intune
  3. Exchange のハイブリッド構成: オンプレミス版 Exchange と Exchange Online の完全なハイブリッド関係を構成すること
    • Office 365 テナントを完全なハイブリッド モードで構成し、ハイブリッド構成ガイドの指定どおりにセットアップする必要があります。
    • Office 365 Enterprise、Business、Education のいずれかのテナントが必要です。
    • メールボックス データは、Office 365 テナントをセットアップしたデータセンター リージョンで同期されます。Office 365 データの格納場所の詳細については、Office 365 セキュリティ センターの「データの格納場所 (英語)」のセクションを参照してください。
    • 提供開始時点では、Office 365 US Government Community/Defense、Office 365 Germany、21Vianet テナントが運営する Office 365 China ではサポートされません。
    • EAS の外部 URL ホスト名は、ハイブリッド構成ウィザードを使用して AAD にサービス プリンシパルとして公開する必要があります。
    • 自動検出および EAS の名前空間では、インターネットからのアクセスと匿名接続のサポートが必要です。
  4. EMS の構成: Intune のクラウド展開とハイブリッド展開の両方をサポート (Office 365 の MDM は非対応)。
  5. Office 365 のライセンス*: 各ユーザーに対して、Outlook for iOS/Android の商用利用に必要な Office クライアント アプリケーションを含む以下のいずれかのライセンスが付与されていること
    • 企業向け: Enterprise E3、Enterprise E5、ProPlus、Business ライセンス
    • 政府機関向け: US Government Community G3、US Government Community G5
    • 教育機関向け: Office 365 Education E3、Office 365 Education E5
  6. EMS のライセンス*: 各ユーザーに対して以下のいずれかのライセンスが付与されていること
    • スタンドアロンの Intune + スタンドアロンの Azure Active Directory Premium
    • Enterprise Mobility + Security E3、Enterprise Mobility + Security E5

*Microsoft Secure Productive Enterprise (SPE) には、Office 365 および EMS に必要なすべてのライセンスが含まれています。

データ セキュリティ、アクセス、監査制御

Exchange Online のデータは、さまざまなメカニズムによって保護されています。コンテンツ暗号化 (英語) に関するホワイトペーパーでは、BitLocker を使用したボリューム レベルの暗号化について説明しています。このアーキテクチャでは、コンテンツ暗号化 (英語) に関するホワイトペーパーで説明している Customer Key を使用したサービス暗号化をサポートしていますが、暗号化ポリシーを割り当てるには、Office 365 Enterprise E5 (または政府機関/教育機関向けプランの対応するバージョンの) ライセンスが必要です。

既定では、マイクロソフトのエンジニアが、管理者特権や Office 365 内のお客様コンテンツに対するアクセス権を常時保有することはありません。管理者のアクセス (英語) に関するホワイトペーパーでは、人員の審査、身元確認、ロックボックスとカスタマー ロックボックスなどについて説明しています。

サービス アシュアランスの ISO 監査済みの制御機能 (英語) のドキュメントには、Office 365 に実装された国際的な情報セキュリティ標準および規制における監査済みの制御機能のステータスを記しています。

Technology Adoption Program (TAP) への参加

すべてのお客様に新しいアーキテクチャの提供を開始する前に、TAP にご参加いただけるお客様を募集いたします。TAP では、マイクロソフトがお客様と緊密に協力して、ニーズや要件を確認しながらソリューションを展開することを目指しています。

TAP に参加するメリット

  • 製品エンジニアによる直接の対応とサポート
  • 展開支援とサポート
  • 初期の製品トレーニング
  • 定期的な電話会議
  • 意見やフィードバックが製品に反映される可能性

TAP の参加条件

  • マイクロソフトとの秘密保持契約を締結すること
  • TAP プログラムの期間中にマイクロソフトと密接に協力し、問題、バグ、フィードバックを共有する意思があること
  • コードの展開: プレリリース版の Exchange Server ソフトウェアを運用環境に展開すること
  • ユーザーが実際に利用している 25 台以上のデバイスに展開する意思があること
  • 運用環境のさまざまなサイズ (中、大、特大) のメールボックスに展開すること

TAP へのご応募を希望される場合は、担当のアカウント チームまでご連絡ください。

TAP 参加に関する追加の技術要件

上記の恒常的な技術要件に加えて、TAP プログラムの期間中には、以下の要件が追加適用されます。

  • 認証サポート: 利用できる認証メカニズムは OAuth のみです。
  • Exchange モバイル デバイスのアクセス ポリシー (ABQ ポリシー) はサポートされていません。オンプレミス版 Exchange Server の ABQ ポリシーを適用すると、クラウドからの同期がブロックされます。Office 365 で設定した ABQ ポリシーを適用することはできません。
  • Exchange モバイル デバイスのメールボックス ポリシー (EAS ポリシー) は Outlook Mobile には適用されません。ユーザーにセキュリティ ポリシーを割り当てるには Intune で管理する必要があります。

ご不明な点がありましたら、お気軽にお問い合わせください。

Ross Smith IV
Office 365 カスタマー エクスペリエンス担当
主任プログラム マネージャー

※ 本情報の内容 (添付文書、リンク先などを含む) は、作成日時点でのものであり、予告なく変更される場合があります。

HTTP Data Collector API in a real customer scenario

$
0
0

Hi there,

I am back writing a blog post about how I used the HTTP Data Collector API to fulfill a specific customer request.

Background:

My customer requested to create a computer group in OMS, whose membership was based on an attribute different from the computer name.

There was hence the need for a new custom attribute to be populated in OMS and to be later used in the Log Analytics to create a Computer Group.

Implementation:

Since the official documentation can be found on the HTTP Data Collector API TechNet page, I'll focus on the method I used to retrieve the data I need. Analyzing the PowerShell example on the TechNet page, I recognized 3 specific areas:

  1. On the top of the script there's an area containing your workspace access information. Here, you have to customize this info before running the script.

  2. In the center, there's the body or data part, used to retrieve your data. I am going to cover how to change this part in this post.

  3. In the bottom part, you see the area containing the functions used to sign in and submit the data. I am going to refer to this part as the "fixed part"

Because I need to query my data to create records with different dynamic values (coming from the query results) and it is not possible to use variables with the syntax used in the sample script (which is using fixed values), how do I convert into Json something that is using variables?

The solution I implemented, which consist in a small change of the original sample script, is using the following methods (add members, ConvertTo-Json) and is made of the following steps:

  1. Create the data structure
  2. Populate the data structure as needed
  3. Convert the data structure to Json

So, in the sample script below (attachments link in the bottom), you can see my script doing the following:

  1. Setting the Workspace ID and Primary Key
  2. Setting the LogType with my own type (see "My body part" green arrow)
  3. Retrieving the data to be sent to OMS (see "My body part" green arrow)
  4. Creating and setting the PowerShell object containing the data (see "My body part" green arrow)
  5. Converting the PowerShell Object to Json (see "My body part" green arrow)
  6. Sending the data (using the Build-Signature and Post-OMSData functions and the Post-OMSData call from the "fixed part")

Running the above script manually, will upload a record with the following format:

This is just a prototype of the script I left to the customer. Hence, it must be considered as an example to explain how to retrieve a registry key to be used as part of a Computer Group Log Search Query like this one:

RegistryKey_CL | where (Value_s == "BR1-Role") | distinct Computer

Lesson learned:

  1. LogType: It represents the information type used in the query. Just remind that OMS will add the "_CL" suffix to it.
  2. TimeGenerated: This one is not mandatory the default value is the data ingestion timestamp (the timestamp when the data get uploaded).
  3. Body part: by appropriately changing the body part you can create a script that uploads different information such as ActiveDirectory attributes (Description, EmployeeID, etc), Active Directory OU location, number of files in a given path and so on.
  4. Key fields in the record: Use it if you like to have a more detailed result from your query. Here's why, in this example, I included the computer name.

Just for the purpose of demonstrating that you can really change just the body part, I am also attaching another sample script which gets the OU Attribute for the local computer (if joined to AD).

That's all folks, for now. I will cover how to make the data submission automatic in another post.

Thanks,

Bruno.

HTTPApiCollectorActiveDirectoryOU.zip

HTTPApiCollectorRegKey.zip

Новый бессрочный выпуск Office

$
0
0

На конференции Microsoft Ignite в Орландо мы объявили о выходе Office 2019 — следующего бессрочного обновления Office. Этот выпуск, запланированный на вторую половину 2018 года, будет включать бессрочные версии приложений Office (включая Word, Excel, PowerPoint и Outlook) и серверов (включая Exchange, SharePoint и Skype для бизнеса). Предварительные версии новых продуктов начнут поставляться в середине 2018 года. Office 2019 предоставит новые возможности для конечных пользователей и ИТ специалистов в организациях, которые еще не готовы к облаку. К примеру, новые и улучшенные возможности рукописного ввода, такие как чувствительность к нажатию, эффекты наклона и возможность воспроизведения написанного, сделают работу более естественной. Новые формулы и диаграммы расширят возможности анализа данных в Excel. Анимационные эффекты, такие как трансформация и масштабирование, добавят лоска презентациям PowerPoint. В серверных продуктах будут улучшены управляемость, удобство использования, возможности голосовой связи и безопасность. Облачные инновации стали основной темой Ignite на этой неделе. Но мы понимаем, что переход в облако — это непростой путь, на котором нужно учесть множество факторов.

Office 2019 станет ценным обновлением для клиентов, которым нужно оставить все или некоторые приложения и серверы в локальной среде. В ближайшие месяцы мы будем делиться с вами новыми подробностями о предстоящем выпуске.

Автор статьи, первоначально опубликованной здесь: Джаред Спатаро (Jared Spataro), генеральный менеджер Office.

Deploy VMs from custom image

$
0
0

Back in the old times, you might have used CDs to deploy a new desktop or server on premise. Or maybe System Center or any other tools. You might have created a "Golden Image" fully prepared and customized, or you used a basic image and tools like System Center, DSC, Puppet or Chef to customize your image after deployment. Well, good news is that most of those options are available in the cloud, too. If you go for the later one, just use a base image provided by Azure and include an extension for DSC or other tools to customize. If you want to use your own image, here is how to do it...

I published already an article touching this for Azure Service Manager deployments (see here (in German, I'm afraid), but meanwhile you should plan with the Azure Resource Manager for deployments and that's what I will show here:

  • we use an existing VM and customize it (just a little bit, feel free to experiment further)
  • we prepare the VM to be used as an image
  • we deploy a new VM based on that image by using a template

We will do this with Windows, but it works for Linux in nearly the same way. Watch the end of this article for the differences!

Ready? Let's go!

Customize Image

As said we will use an existing VM, for this example the VM is named "golden" and is in the resourcegroup "winvm-rg". Best practice is to build a new VM from scratch and customize it. For your first tests you might just change some registry keys, add a folder or install a feature (I always use the telnet client for tests). Iterate your way and use the experience you already have from your on-premise history...

Prepare VM

Good news is that you can use good, old sysprep.exe (located in %windir%system32sysprep). Once you are finished with customization, start it, choose (as usual) the "out-of-box-experience", click "generalize", and "shutdown". Or use this commandline after switching to the directory:
[code]
sysprep.exe /generalize /oobe /shutdown
[/code]

Your customized VM will be prepared and shut down. Remember: If you restart that VM again, you have to go through that process again.

This was the first part, what comes next is to prepare the VM as image. There are two ways to do this. One is to create an "unmanaged image", the other is - you guess it - a "managed image". We will start with the "managed image" and have a short look on the "unmanaged image" later.

First, stop the VM (yes, the VM is in a shutdown state, but is not stopped!):

[code]
Stop-AzureRmVM -ResourceGroupName winvm-rg -Name golden
[/code]

Second, generalize the OS disk:

[code]
Set-AzureRmVm -ResourceGroupName winvm-rg -Name golden -Generalized
[/code]

Verify that the VM is in a generalized state:

[code]
Get-AzureRmVm -ResourceGroupName winvm-rg -Name golden -Status
[/code]

You should see something like this:

[code highlight="4"]
(...)
Code : OSState/generalized
Level : Info
DisplayStatus : VM generalized
(...)
[/code]

We will go on from here creating a managed image. For information how to create an unmanaged image (and what's the difference) see further down.

For the next steps, we first need some information.

  1. the region where the image will be available, we will use germanycentral
  2. the OSType, we will use Windows
  3. the URI of the VHD of our "golden" VM
  4. a (new?) resourcegroup to store the image reference

Let's look at no. 3. How do we get this information? Well, the URI is part of the storage profile of the VM, and we find it there under OSDisk and Vhd:

[code]
$temp = Get-AzureRmVm -ResourceGroupName winvm-rg -Name golden
$uri = $temp.StorageProfile.OSDisk.Vhd.Uri
[/code]

Copy the Uri or save it in a variable like we did.

If you want to use a central resource group for all images, create it:

[code]
New-AzureRmResourceGroup -name "goldenimages" -location germanycentral
[/code]

And now bring it all together to create the image:

[code]
$imgConf = New-AzureRmImageConfig -Location germanycentral
$imgConf = Set-AzureRmImageOsDisk -Image $imgConf -OSType Windows -OSState Generalized -BlobUri $uri
$image=New-AzureRmImage -ImageName "TestImage" -ResourceGroupName goldenimages -Image $imgConf
[/code]

Needless to say that you should choose a better name then "TestImage". If you look at $image, you see the Id of the new image, or use Get-AzureRmImage for a list of your images. We need this Id for our image reference in the template.

Deploy a new VM

Time to use it in a template. Very simple, just use a normal VM deployment template and change two things:

Define a variable with the Id from above ($image.Id), this will look someting like:
[code highlight="3"]
(...)
"variables": {
"imageID": "/subscriptions/{...}/resourceGroups/goldenimages/providers/Microsoft.Compute/images/TestImage",
(...)
[/code]

Use this variable in the Microsoft.Compute/virtualMachines resource definition:

[code highlight="4"]
(...)
"storageProfile": {
"imageReference": {
"id": "[variables('ImageId')]"
}
}
(...)
[/code]

and there we go. If you combine this with a deployment link like explained in this blog article you can build your own internal marketplace. Since I published the template used for this example on GitHub, you can see (but not deploy) all of this for copy&paste. The reason you cannot deploy is that you don't have access to my resources, especially the resourcegroup "goldenimages". To give access to a resourcegroup is left as an exercise to the reader :-).

Unmanaged Images

Unmanaged images are stored in a storage blob. The way to create them is similar to the one used above. Customize and sysprep the VM, stop it and generalize it.

Then create the image:

[code]
Save-AzureRmVmImage -ResourceGroupName winvm-rg -Name golden -DestinationContainerName "winimages" -VHDNamePrefix "prefix" -path c:tempfilename.json
[/code]

This will copy the VHD from the VM into a new container inside the same storage account. After the command finished, you find a JSON file at the location you entered (here c:tempfilename.json) with some information, and under "resources"-"storageProfile"-"osDisk"-"image"-"uri" is the path to that image. The path is contructed like this:

[code]
https://{storageaccount}.blob.core.cloudapi.de/system/Microsoft.Compute/Images/{DestinationContainer}/{prefix}-osDisk...
[/code]

To use that image in a deployment, make sure that the container has appropriate Read Permissions, maybe copy the image to another container/storageaccount and modify your template as shown:

[code highlight="3,4,5,33,38"]
(...)
"variables": {
"srcImageUri": "https://goldenimages.blob.core.cloudapi.de/windows/master-Win2012R2-v3.vhd",
"srcImageOS": "Windows",
"ImageResourceName": "myImage",
(...)
"resources": [
{
"type": "Microsoft.Compute/images",
"apiVersion": "2016-04-30-preview",
"name": "[variables('ImageResourceName')]",
"location": "[resourceGroup().location]",
"properties": {
"storageProfile": {
"osDisk": {
"osType": "[variables('srcImageOS')]",
"osState": "Generalized",
"blobUri": "[variables('srcImageUri')]",
"storageAccountType": "Standard_LRS"
}
}
}
},
(...)
{
"apiVersion": "2017-03-30",
"type": "Microsoft.Compute/virtualMachines",
"name": "[variables('vmName')]",
"location": "[resourceGroup().location]",
"dependsOn": [
"[resourceId('Microsoft.Storage/storageAccounts/', variables('storageAccountName'))]",
"[resourceId('Microsoft.Network/networkInterfaces/', variables('nicName'))]",
"[resourceId('Microsoft.Compute/images/', variables('ImageResourceName'))]"
],
"properties": {
"storageProfile": {
"imageReference": {
"id": "[resourceId('Microsoft.Compute/images/', variables('ImageResourceName'))]"
}
},
(...)
[/code]

To explain this: We create an additional resource, the image, and use this resource later for the VM. Notice that I moved the image to a new location in another storage account. You find the full template also on GitHub.

Additions

Linux

As promised, here is in short what to do with Linux. It is nearly identical, just replace the sysprep stuff with waagent.

[code]
sudo waagent -deprovision+user -force
[/code]

and replace "Windows" with "Linux" when creating the image. See further down unter "Links" for more information.

Preparations

Another thing is where you customize your VM. I prefer Azure, but using a Hyper-V image is also possible of course. You have to do some adoptions, especially watch out for using a fixed disk and a .vhd instead of a .vhdx, but after uploading the VHD into Azure storage the rest of the steps are the same. For preparation see further down under "Links".

Post-deployment tasks

Of course you can add extensions to the VM for DSC etc to customize the VM even further. Sometimes it's a thin line between putting everything into the image or keep some customizations for DSC. Discussions about this is far beyond the scope of this article...

Links

Here are some links to really good AzureDocs articles about image creation, including PowerShell and CLI creation of VMs from managed and unmanaged images. Check them out, they are worth it...

All examples are tested in Azure Germany. Here is where you get a free Azure Germany trial!

Update to Advanced AAD Connect Permissions tool

$
0
0

Since it's initial creation, I've made a few updates to the Advanced AAD Connect permissions tool.  The most recent updates:

  • 2017-10-11 - delegating write permissions to the CN=adminSDHolder,CN=System container
  • 2017-10-05 - delegating write permissions to the ms-DS-ConsistencyGuid property

These two updates should allow for a more complete AAD Connect permissions delegation experience.  The script has been updated in the gallery (https://gallery.technet.microsoft.com/AD-Advanced-Permissions-49723f74).

Please be sure to leave any questions or feedback.

Thanks!

Exchange, Cluster, and Network Thresholds

$
0
0

Cluster failures due to transient cluster communications problems can often lead to databases failing over between nodes or nodes being removed from cluster membership.  For many administrators the occasional network hiccups that can drive up the likely hood of this occurring is a fact of life.  It is definitely more prevalent when cluster nodes are geographically dispersed.

 

On occasion there are recommendations to change the cluster network thresholds that determine if a node is alive or failed.  A blog post that I’ve referenced for an explanation and guidance on this is published here:

 

https://blogs.msdn.microsoft.com/clustering/2012/11/21/tuning-failover-cluster-network-thresholds/

 

I’m not sure if I’ve missed it or if Elden recently updated it but I noticed that there are new values listed in the table for Windows 2016 based clusters.  I also noticed the following paragraph issuing what I thought was updated guidance on cluster network thresholds.

 

“To be more tolerant of transient failures it is recommended on Win2008 / Win2008 R2 / Win2012 / Win2012 R2 to increase the SameSubnetThreshold and CrossSubnetThreshold values to the higher Win2016 values.  Note:  If the Hyper-V role is installed on a Windows Server 2012 R2 Failover Cluster, the SameSubnetThreshold default will automatically be increased to 10 and the CrossSubnetThreshold default will automatically be increased to 20.  After installing the following hotfix the default heartbeat values will be increased on Windows Server 2012 R2 to the Windows Server 2016 values.”  This is a hotfix available that will do this for you.  https://support.microsoft.com/en-us/help/3153887/fine-tuning-failover-cluster-network-thresholds-in-windows-server-2012

 

If changing these values or considering changing them I encourage you to book mark Elden’s blog and reference it for guidance.


Article 4

$
0
0

Here’s the news of the day, X509 is not supported with Remote PowerShell to Office 365 Services.

Limitation 

They say a picture can speak a thousand words.  We don’t need a thousand, just one, X509.

What is X509?

Public key cryptography relies on a public and private key pair to encrypt and decrypt content.  The X.509 public key infrastructure (PKI) standard identifies the requirements for robust public key certificates. A certificate is a signed data structure that binds a public key to a person, computer, or organization.  In other words, X509 lets Cyber sleep better at night. Maybe.  For more information on X509, Bing X509.

On the left, a user with PIV attempts to access PS with PIV.  On the right, the same user attempts to access the Office 365 web portal with PIV.  What do they have in common? AD FS, Modern AUTH, and, you guessed it PIV.  As you can see, by default ADFS displays "Sign in using an X.509 certificate" when using user certificate authentication.  However, certificate authentication is not supported with PowerShell in Azure AD.

Here is the word from the product group, (drum roll please)…..  “I was thinking about the PowerShell idea, which is useful for people to run scheduled jobs.  The gap is that the current CBA support from AAD revolved around mobile devices (https://docs.microsoft.com/en-us/azure/active-directory/active-directory-certificate-based-authentication-ios)  I haven’t done the analysis to understand what it takes for AAD to support CBA for PowerShell. This is on our todo list.  Yes you heard it, something magical is happening at Microsoft.

Workaround

And there you have it, a front row seat to the story of my life. 😊  For short, the only work around is, you guessed it, User object , synced via AD Connect, with interactive logon disabled.  This account will leverage AD FS with WIA.  For added security you can enable MFA for either Office 365 or Azure and it works!

Update coming soon!

Konsistent undervisning på fælles platform – Windows 10 Student use Benefit

$
0
0

I klasseværelset i dag finder du mange forskellige styresystemer, både de nyere og dem af ældre dato, dette kan til tider godt være en udfordring. Fortvivl ej, dette vil Microsoft og vores samarbejdspartner Kivuto gerne hjælpe med at komme til livs!

 

Det forholder sig sådan, at hvis din institutions administration har Windows på deres licensaftale med Microsoft, har I mulighed for at tilbyde Windows 10 for Education til eleverne uden ekstra omkostninger.

 

Udover at I får en fælles og kendt platform, hvilket giver mulighed for en mere dynamisk undervisning, sørger i også for at sikre jeres elever bedst muligt. Windows 10 for Education er det mest sikre operative system for elever/studerende, og ved at højne sikkerheden for eleven sikrer man derigennem også skolen. Windows 10 er et system som løbende bliver opdateret, hvorfor eleverne altid er sikret de nyeste opdateringer, bl.a. den kommende store opdatering Windows 10 Fall Creators Update, som udkommer d. 17. oktober. Ydermere er integrationen mellem Office 365 og Windows bedre nogensinde før.

Du kan læse mere om Windows 10 for Education på dette link: https://www.microsoft.com/en-us/WindowsForBusiness/industry-education

 

Processen for at tilbyde dette til eleverne er, at administrationen opretter en portal i Kivutos system via følgende link: http://kivuto.com/windows-10-student-use-benefit/ . Når portalen er oprettet vil der være en platform tilgængelig for eleverne, hvor de fx med deres Office 365 konto kan lave en enkelt registrering og herefter frit afbenytte deres nye udgave af Windows.

 

Jeg håber I vil overveje dette fede tilbud til jeres elever og studerende 😊

 

Har du nogle spørgsmål er du mere end velkommen til at skrive til mig på t-frhaug@microsoft.com eller ringe på +46 29 22 97 94, så forklarer jeg gerne konceptet og processen.

Netzwerk schlägt Hierarchie: Drei Tipps für Digital Leader

$
0
0

Haben Sie schon einmal versucht, ihre Twitter-Follower per Brieftaube zu erreichen? Das erscheint Ihnen absurd? Bei diesem Beispiel sind wir uns sicher einig, wie wenig zielführend und albern allein der Versuch wäre. Dennoch versuchen genau das noch immer viele Führungskräfte in Unternehmen weltweit, Tag für Tag. Sie stülpen neue Technologien über eine alte, überholte Führung und nennen es „New Work“. Dieser Wolf im Schafspelz bzw. die Brieftaube als Twittervögelchen mag nicht immer sofort auffallen, führt aber auf lange Sicht zur Unzufriedenheit der Mitarbeiter – das zeigen auch aktuelle Studien.

Für die (neue) Arbeitswelt brauchen wir einen neuen Führungstypus – den Digital Leader. Einen Leader, der digital denkt, inspiriert, coacht, vertraut und empathisch handelt. Dafür müssen wir das vorherrschende Verständnis von Führung - und vor allem das Selbstverständnis von Managern grundsätzlich hinterfragen. Deshalb setzen wir uns in unserem Buch „Netzwerk schlägt Hierarchie“ intensiv damit auseinander, was Digital Leadership auszeichnet. Wir wollen Führungskräften aus unterschiedlichen Branchen Orientierung bieten und unsere Erfahrungen aus der Praxis teilen. Drei wichtige Erkenntnisse daraus möchten wir schon einmal kurz vorstellen – hoffentlich erkennen möglichst viele sich selbst und ihre Kollegen darin wieder:

1. Digital Leadership heißt mutig Vorangehen

Die gute Nachricht ist: Führen bedeutete schon immer Vorleben, Vorangehen – das hat auch in der neuen, vernetzten, Arbeitswelt weiterhin Bestand. Die schlechte Nachricht ist: Es erfordert in Zeiten der digitalen Transformation mehr Mut als früher. Den Mut, nicht allwissend zu sein, Verantwortung auf das Team und jedes einzelne Mitglied zu übertragen und über Ziele zu steuern – egal, wo die Personen sitzen, wann und wie sie arbeiten. Mut, sich selbst, die eigene Rolle, Strukturen, Denkmuster und Prozesse stets kritisch und ergebnisoffen zu hinterfragen. Denn die digitale Transformation ist kein Stadium, das man überwinden kann. Sie versetzt uns in einen kontinuierlichen Wandel, ja eine permanente Beta-Phase, die man nur dann aktiv gestalten kann, wenn man ihr bewusst begegnet.

2. Digital Leadership heißt, seine eigene Route finden

Viele Wege führen nach Rom – und Umwege erhöhen die Ortskenntnis. So könnte man den Weg zum persönlichen Führungsstil beschreiben. Es gibt kein Universalrezept, so viel ist klar. Aber es hilft, sich inspirieren zu lassen und sich mit anderen auszutauschen – auch über Disziplinen und Branchen hinweg. Jeder Digital Leader muss seinen eigenen Stil und auch sein eigenes Selbstverständnis entwickeln. Der kulturelle Wandel und neue technologische Lösungen geben uns die Möglichkeit, uns selbst zu fragen: Wie möchten wir (zusammen)arbeiten? Wie möchte ich führen? Dazu gehört es auch, Dinge auszuprobieren, neue Wege zu beschreiten – und zwischendurch vielleicht auch mal zu scheitern. Aus Fehlern lernen wir am meisten. Doch wir schwer ist es, sich gestehen, dass Scheitern vollkommen okay und ein Teil des Prozesses ist – diese Einsicht gilt im Übrigen gleichermaßen für Führungskräfte und Mitarbeiter.

3. Digital Leadership heißt, das Team nach vorn zu bringen

Die Arbeit der Zukunft findet in Teams statt. Glaubt man aktuellen Prognosen, wird es bereits in drei Jahren mehr Team- als Einzelarbeitsplätze in Unternehmen geben. Was bedeutet das für Führungskräfte? Einzelinteressen und vor allem -meinungen treten für das Wohl das Gruppe, das Projektergebnis, in den Hintergrund – auch die der Führungskraft.

Erfolg wird über Ziele gemessen, für welchen Weg ein Team sich entscheidet, ist ihm selbst überlassen. Gleichzeitig dürfen die Bedürfnisse des Einzelnen aber nicht vernachlässigt werden. Jedes Teammitglied muss sich als Person wahrgenommen und wertgeschätzt fühlen. Erst dann kann er oder sie im Team sein volles Potenzial enthalten. Ein schwieriger Spagat, der für Digital Leader bedeutet: Teamgefühl aufbauen. Die Mannschaft nach vorn bringen. Sich selbst zurücknehmen. Coachen statt kontrollieren. Freiräume schaffen, um neue Wege zu ermöglichen. Wie sagte der Musketier D’Artagnan so schön: Einer für alle, alle für einen.

Wir freuen uns über weiteren Austausch, Feedback und Kritik – zu unserem Buch „Netzwerk schlägt Hierarchie“, das ab sofort im Redline Verlag verfügbar ist. Du erreichst uns via LinkedIn und natürlich bei Twitter – nur bitte ohne Brieftauben.


Ein Beitrag von Ines Gensinger 
Head of Business & Consumer Communications bei Microsoft Deutschland
und Christiane Brandes-Visbeck
Gründerin Ahoi Consulting

SharePoint: Importing Manager property with AD Import: A Troubleshooter

$
0
0

Overview:

This is a fairly visible problem within SharePoint.  It can cause the organization chart to show old manager info, or not work at all.
So what to do if your user profiles show no manager value, or maybe a user has changed managers, and it’s not being updated?

This is a complicated topic for a seemingly simple operation.  The complications come from the differences in how profiles are imported between SharePoint 2010, 2013, and 2016, and the various Sync / Import options: FIM Sync, Active Directory Import, and External Identity Manager.

This particular article is about the Active Directory Import option in SharePoint 2013 and 2016.

Many times, I see the troubleshooting focus go to import / Sync of the direct report (DR) user.  However, it’s just as likely that the problem is with the import / Sync of the Manager user.

The manager property is not just a string value containing a managers name, it's a reference to another user object.  As such, the manager user object must be imported into the User Profile Service Application (UPA).

Troubleshooting manager updates

1. Get the account name for an example problem user and their manager -- or a couple of examples is even better.

2. Make sure that the manager profile property is mapped.  Manager is mapped out of the box, but you can’t assume that the mapping hasn’t been changed.  Go to Central Admin | User Profile Service App | Manage User Properties | Manager.  With AD Import, there is an interesting quirk where the out-of-box property mappings don’t show in the UI.  However, that doesn’t mean they aren’t there.  For the purposes of AD Import, just make sure Manager hasn’t been mapped to some other AD attribute.  See more about that quirk here: http://www.harbar.net/archive/2013/02/18/Default-Active-Directory-Import-User-Profile-Property-Mappings-in-SharePoint.aspx
If you like, you can create an explicit mapping to the manager attribute in AD.  That won’t hurt anything, it’s just redundant.

 

 

 

 

3. Make sure that the DR user and Manager user both have profiles in the User Profile Service Application (UPA).  You can do this in Central Administration, but I find you can get the bigger picture by running this SQL query against the Profile database and getting the output in Excel:
select * from upa.userprofile_full (nolock)
Then you can filter and sort the data anyway you like.

 

4. If they don’t both have profiles, then something is wrong with the AD Import configuration.  Check the Organizational Units (OUs) selected and the import connection filter to make sure they aren’t being excluded.  Make sure the entire OU is selected.  If just individual users and groups within the OU are selected, but the OU itself is not, that won’t work.  Also, there’s a little known issue with the LastKnownParent AD attribute that will cause profiles to not be imported.  Read more about that here: https://support.microsoft.com/en-us/help/3133015

5. If they do have profiles, make sure they were actually imported and are not “stub profiles”.  See my article about “stub profiles” here.  You can check for stub profiles by running the GetNonImportedObjects command and making sure the DR user and Manager user are NOT listed in the output text file:

$upa = Get-spserviceapplication | ? {$_.typename -match "profile"}
Set-SPProfileServiceApplication $upa -GetNonImportedObjects $true | out-file c:tempNonImportedProfiles.txt

 

6. If either the Manager or the DR is in that GetNonImportedObjects output, then we need to look at the import configuration again.   We need to check OUs selected and import connection filters to make sure they aren’t being excluded from the import.  You can also review the SharePoint ULS logs during a run of the AD Import timer job.  More on that later.

 

7. If you’re here, that means you’ve confirmed that both the manager and the DR have profiles and they’ve both been imported.  That means there is likely a problem with the post-import processing. After Import, manager references are staged in the upa.ProfileImportStagingPersonProperties table in the Profile database:

 

 

 

 

 

 

When the Post-import processing runs, it should clear out this table, so if there are any records that persist, that indicates a problem with the post-processing.
8. Run some SQL queries against the Profile DB to see where it's at with the post-import processing:
#-- Staged Managers:
select * from upa.ProfileImportStagingPersonProperties (nolock)
 
#-- Processed Managers:
select * from upa.userprofile_full (nolock) where manager is not null

-- When they're getting staged during the import, you should see entries like this in the ULS logs:

 
w3wp.exe (APP1:0x4A5C) 0x4B94 SharePoint Portal Server User Profiles aj3b9 Verbose UserProfile.UpdateProfileImportStagingPersonProperty(): ready to write to staging: PartitionID '0c37852b-34d0-418e-91c6-2ac25af4be5b', RecordId '7871', ProfileType 'User', Property 'Manager', Value 'contoso_Manager1__653981c2-2454-4fb4-b862-420a9bae387b' 5841ce9d-9a86-9073-bbda-b799c29ac26b
 
w3wp.exe (APP1:0x4A5C) 0x4B94 SharePoint Portal Server User Profiles ogvr High User profile record of "contosouserA" was changed by "contosofarmAccount". 5841ce9d-9a86-9073-bbda-b799c29ac26b

-- In the above ULS example, the user being updated (UserA) has record ID 7871 in the upa.UserProfile_Full table, and his manager value is getting set to "contosoManager1"

9. If you suspect a problem with the post-processing, it’s best to look at the SharePoint ULS logs.  The post-import processing is also done by the AD Import timer job.  You can use the following PowerShell to show timer job history for the AD Import timer job.  This can be helpful to see which server you need to get ULS logs from after you run an import:

$tjs = Get-SPTimerJob | ? {$_.name -match "_UserProfileADImportJob"}
foreach ($tj in $tjs)
{$tj.name
$tj.displayname
$tj.historyentries | select StartTime, EndTime, ServerName, status -first 10 | sort -Descending starttime}

-- This is what the post-import processing looks like in the ULS logs:
Note:
IMPORTEXPORT_PostImportUserProperties is for manager updates.
IMPORTEXPORT_PostImportMembers is for group membership updates, which are “staged” in the same way as manager updates and also part of the post-import processing.

01/18/2017 06:55:00.93    OWSTIMER.EXE (0x0EBC)    0x17E8    SharePoint Portal Server    User Profiles    aei64    Medium    UserProfileADImportJob: Begin executing.    fc43cc9d-4014-e088-a10e-ef4c179a74fb
 
01/18/2017 06:55:00.94    OWSTIMER.EXE (0x0EBC)    0x17E8    SharePoint Portal Server    User Profiles    afoeg    Medium    UserProfileApplication.SynchronizationPostProcessing: About to call IMPORTEXPORT_PostImportUserProperties    fc43cc9d-4014-e088-a10e-ef4c179a74fb
 
01/18/2017 06:55:00.96    OWSTIMER.EXE (0x0EBC)    0x17E8    SharePoint Server    Database    tzkv    Verbose    SqlCommand: '[upa].[ImportExport_PostImportUserProperties]'     CommandType: StoredProcedure CommandTimeout: 0     Parameter: '@correlationId' Type: UniqueIdentifier Size: 0 Direction: Input Value: '00000000-0000-0000-0000-000000000000'    fc43cc9d-4014-e088-a10e-ef4c179a74fb
 
01/18/2017 06:55:01.10    OWSTIMER.EXE (0x0EBC)    0x17E8    SharePoint Portal Server    User Profiles    afoeh    Medium    UserProfileApplication.SynchronizationPostProcessing: Returned from IMPORTEXPORT_PostImportUserProperties    fc43cc9d-4014-e088-a10e-ef4c179a74fb
 
01/18/2017 06:55:01.10    OWSTIMER.EXE (0x0EBC)    0x17E8    SharePoint Portal Server    User Profiles    afoei    Medium    UserProfileApplication.SynchronizationPostProcessing: About to call IMPORTEXPORT_PostImportMembers    fc43cc9d-4014-e088-a10e-ef4c179a74fb
 
01/18/2017 06:55:01.10    OWSTIMER.EXE (0x0EBC)    0x17E8    SharePoint Server    Database    tzkv    Verbose    SqlCommand: '[upa].[ImportExport_PostImportMembers]'     CommandType: StoredProcedure CommandTimeout: 0     Parameter: '@correlationId' Type: UniqueIdentifier Size: 0 Direction: Input Value: '00000000-0000-0000-0000-000000000000'    fc43cc9d-4014-e088-a10e-ef4c179a74fb

01/18/2017 06:55:02.10    OWSTIMER.EXE (0x0EBC)    0x17E8    SharePoint Portal Server    User Profiles    afoej    Medium    UserProfileApplication.SynchronizationPostProcessing: Returned from IMPORTEXPORT_PostImportMembers    fc43cc9d-4014-e088-a10e-ef4c179a74fb
 
01/18/2017 06:55:04.26    OWSTIMER.EXE (0x0EBC)    0x17E8    SharePoint Portal Server    User Profiles    aei66    Medium    UserProfileADImportJob: End executing.    fc43cc9d-4014-e088-a10e-ef4c179a74fb
10. If the manager updates are staged and processed successfully, then you should have the proper manager values now.  The only issue I know of where the post-import processing succeeds, but you still don’t have the correct manager values is the manager - assistant swap issue I covered in this post:
https://blogs.technet.microsoft.com/spjr/2017/07/17/sharepoint-2013-2016-manager-and-assistant-values-swapped-in-user-profiles/

Windows Defender Antivirus の自動除外設定について

$
0
0

こんにちは。System Center Support Team の益戸です。
Windows Defender Antivirus についてご紹介いたします。
Windows Defender では、Windows Server 2016 以降より、自動的に有効化した役割に対して、Antivirus の除外設定を自動的に実施するようになりました。これは、Antivirus の機能がたびたびサーバーの機能と競合するため、予め除外することで競合による動作不良を防ぐために追加されました。

具体的に追加された役割に対する除外機能については、以下の公開情報にて更新されております。

 

Windows Server での Windows Defender AV の除外の構成
https://docs.microsoft.com/ja-jp/windows/threat-protection/windows-defender-antivirus/configure-server-exclusions-windows-defender-antivirus

 

上記公開情報には自動除外の対象として以下のパスが記載されておりますが、1) と 2) は Windows Server 2003 以前のクラスターのパス情報であり、Windows Server 2016 クラスターの除外推奨フォルダーはクラスターの役割を追加しても、自動除外されないため手動で除外リストに追加する必要があります。

 

1) %clusterserviceaccount%Local SettingsTemp
2) %SystemDrive%mscs
3) %SystemDrive%ClusterStorage
また、3) のパスは CSV を使用している環境での除外対象のフォルダーですが、上記のパスが自動で除外される条件は、[ファイル サービスおよび記憶域サービス] 役割の追加であるため、クラスターの機能だけを追加した場合には、自動除外されないため手動で除外リストに追加する必要があります。
<< Windows Server 2016 クラスターの除外推奨 >>
– 各ノードの %systemroot%Cluster フォルダー
– 監視ディスクの Cluster フォルダー
- %SystemDrive%ClusterStorage フォルダー (CSV を使用している場合)
また、Microsoft 製品では、以下の通り、製品ごとに除外すべきパスが異なっております。
少しでも、ユーザーの手間を省くために自動での除外機能が追加されてはおりますが、改めて、ご利用いただいている製品ごとに、除外設定をご確認ください。

 

Microsoft Anti-Virus Exclusion List
https://social.technet.microsoft.com/wiki/contents/articles/953.microsoft-anti-virus-exclusion-list.aspx

Security at the Site-Collection Level in SharePoint Online

$
0
0

Balancing security and usability are core to ensuring people can collaborate effectively without interrupting the necessary flow of information across organizations.  With SharePoint Online we’ve been at work developing security and sharing controls that are scoped at the site collection level.  This allows Tenant administrators to configure more restrictive controls at the site collection level, than those that are configured at the Tenant level providing a balance between the need to protect corporate information and the requirement to collaborate effectively across and outside of the corporate boundary.

Site Collection Controls

Restricted Domain Sharing Controls

With SharePoint Online sites can be shared with users from specific domains by using the restricted domains setting. This is useful for a business-to-business extranet scenario where sharing needs to be limited to a particular business partner or external user.

Administrators can configure external sharing by using either the domain allow list or deny list. This can be done at either the tenant level or the site collection level. Administrators can limit sharing invitations to a limited number of email domains by listing them in the allow list or opt to use the deny list, listing email domains to which users are prohibited from sending invitations.

To configure restrict domains in external sharing in SharePoint Online at the site collection level:

  1. From the SharePoint Admin Center, select the site collections tab.
  2. Select a site collection, and then click Sharing.
  3. Under Site collection additional settings, select the Limit external sharing using domain check box.
  4. From the drop-down list, choose either Don’t allow sharing with users from these blocked domains to deny access to targeted domains or Allow sharing only with users from these domains to limit access to only to the domains you list.
  5. List the domains (maximum of 60) in the box provided, using the format domain.com.. If listing more than one domain, separate each domain with a space or a carriage return.

Site-Scoped Conditional Access Policies

New to SharePoint Online are site-scoped conditional access policies.  Device-based policies for SharePoint and OneDrive in help administrators ensure data on corporate resources is not leaked onto unmanaged devices such as non-domain joined or non-compliant devices by limiting access to content to the browser, preventing files from being taken offline or synchronized with OneDrive on unmanaged devices at either the Tenant or site collection level.

Site-scoped device-based access policies can be configured with SharePoint Online Management Shell.

Before you get started using PowerShell to manage SharePoint Online, make sure that the SharePoint Online Management Shell is installed, and you have connected to SharePoint Online.

NOTE

The Tenant-level device-based policy must be configured to Full Access prior to configuring site-scoped policies.

Connect-SPOService -Url https://<URL to your SPO admin center>
$t2 = Get-SPOSite -Identity https://<Url to your SharePoint online>/sites/<name of site collection>
Set-SPOSite -Identity $t2.Url -ConditionalAccessPolicy AllowLimitedAccess

Read more about site-scoped conditional access at https://blogs.technet.microsoft.com/wbaer/2017/10/08/site-scoped-conditional-access-policies-in-sharepoint-online/.

Additional Controls

Allow users to Invite new partner users:    In certain site collections, admins can optionally allow users to invite new partner users. In this model, an email invite is sent to the partner user and the user must redeem that invite to access the resource. See Manage external sharing for your SharePoint Online environment for details.

Sharing by site owners only:    Ability to have site collections where only site owners can bring in or share with new users. Site members, who are typically external partner users, can see only the existing site members in the site. This helps in governing what partners can see and with whom they can share documents.

To learn more about security and compliance with SharePoint and OneDrive:

IP Staircase – Virtual Workshop Series!

$
0
0

EB_Banner_Paint

More revenue, higher margins

Partners selling Packaged IP see Gross Margins of upwards of 65%*. Partner own IP is pivotal both to satisfying customer demand in the Cloud and making money for your company. In this 4-week Virtual Workshop series, we will introduce you to the fast track framework for cost-effectively creating your own packaged IP (the IP Staircase). Creating your own IP may seem daunting, however with this prescriptive workshop we will help you determine how best to monetize your cloud opportunity.

This series will include:

  • Real world partner examples with results and learnings
  • Creation of a strong value proposition for Partner IP that addresses relevant business levers
  • Using customer-funded R&D to lower IP creation costs
  • How to quantify working capital requirements, P&L impact, and end business valuation impact
  • Prescriptive guidance and assignments to get you started today

Who should attend: Business owners, CEOs, General Managers

Speaker: Dana Willmer, Founder of CloudSpeed.

Dana has been a driving force behind Cloud adoption in the Microsoft ecosystem over the last 8 years, providing strategic advice to scores of Microsoft Partners on 4 continents. He is the author of numerous assets, publications and financial models for Microsoft, which help  Partners ensure they get “the right things right” in their critical business model transition.

Join our Cloud Growth & Profitability LinkedIn and Yammer hubs for more information and on-demand resources.

Register HERE!

Thanks for reading,

Jeff Stoffel Cloud Azure

Jeff Stoffel


最新提案資料のご紹介~ 「Microsoft AI 」マイクロソフトの人工知能(AI)によるビジネス変革 他【10/12 更新】

$
0
0

AI によるビジネス変革を実現した日本のお客様事例やデータと人をつなげるマイクロソフトのデータ+ AI プラットフォームについて 1 ページにまとめた資料 「Microsoft AI 」マイクロソフトの人工知能(AI)によるビジネス変革  他、貴社のビジネスに役立つ各種資料をダウンロードしてご活用ください!

 

「Microsoft AI 」マイクロソフトの人工知能(AI)によるビジネス変革

●  Microsoft SQL Server 2017 パートナー様向け1枚資料

●  Microsoft SQL Server 2017 販売店様用資料

●  [ご提案書] ID 保護ソリューションのご紹介

 

 

提案資料や営業ツールはこちら

 

 

アジアにおける金融機関の 81% が、ビジネス成功のカギはデジタル化であると回答

$
0
0

Posted by: コーポレートコミュニケーション本部

「お客様のデジタルトランスフォーメーション推進」がマイクロソフトにおける最重要の取り組みであり、これは日本においても同様です。


これまでプラットフォームとして水平的なテクノロジやサービスを提供してきた当社にとって、各業種におけるデジタルトランスフォーメーションを推進するにあたり、各業種に特化した垂直的なソリューションを提供して変革を推進する「インダストリーイノベーション」を進める事が不可欠です。当社では様々な業種から、特に6つの業種(金融、流通、製造、政府・自治体、教育およびヘルスケア)にフォーカスし、お客様やパートナー様向けの組織体制を含めて、取り組みを加速しています。


では、これらの業種において、デジタルトランスフォーメーションの必要性や課題はどのように捉えられているのでしょうか。マイクロソフトが13か国・地域※のビジネスリーダーを対象に、最新テクノロジの活用とビジネス変革について調査した「Microsoft Asia Digital Transformation Study」(回答者数:日本の115人を含む1,494人)から、まずは金融業界に関する調査結果をご紹介したいと思います。
※ オーストラリア、中国、香港、インドネシア、インド、日本、韓国、マレーシア、ニュージーランド、フィリピン、シンガポール、台湾およびタイ

81%のビジネスリーダーがデジタルトランスフォーメーションの重要性について認識している一方で、現在デジタル化に関する全体戦略があると回答したのは31%、16%は非常に限定された戦略あるいはまったくないという状況です。
Capgemini’s World Retail Banking Report では、顧客の15%はサービス品質や利便性を理由に別の銀行に口座を移す意向を持っていることが明らかになっています。また、アバナードによると、80%の顧客が「サービスのパーソナライズが保険会社の変更を検討する主な要因である」と考えているとの結果が得られています。

今回の調査では、マイクロソフトが考えるデジタルトランスフォーメーションの4分野について、Asiaの金融機関はその重要性を以下の順番で捉えていることが分かりました。

1. お客様とつながる
2. 業務を最適化
3. 社員にパワーを
4. 製品の変革


ジェネレーションYと呼ばれる1980年から1990年に生まれた世代では、現在利用している銀行を使い続けるのは半分未満というデータもあり、「お客様とつながる」ことが最重要であると捉えられているのは必然とも言えます。

また、ビジネスリーダーの83%が、クラウドコンピューティングとデバイスコストの削減により、より安価にデジタルトランスフォーメーションが可能になると認識しているとの結果となりました。今後2~3年の間で、デジタルトランスフォーメーションを推進し、実現するためのテクノロジとして以下に注目していることが明らかになりました(以下注目順)

  1. IoT:ATMの予兆保全などへの活用が期待されています。
  2. 人工知能(AI):様々な情報源から収集した膨大なデータをもとに、顧客とコミュニケーションすることで、ニーズを把握し、感情や意図を理解できるソリューションです。
  3. 次世代コンピューティング体験:ChatbotやSkype Translatorなどにより、時間や言語の壁を越えたサービス提供が可能になります。

また、デジタルトランスフォーメーション推進にあたっての障壁として最も回答が多かったのは、サイバーセキュリティ上の脅威でした。


サイバー攻撃と詐欺は、金融機関における最優先事項と言えます。本調査結果によると、金融業界におけるクラウドの安全性に関する懸念はまだ残っていますが、実際にはオンプレミスよりもクラウドの方がよりセキュアである環境が整いつつあります。実際、本調査では、IT管理者の87%は長期的にはクラウドがより安全になると考えています。セキュリティ、プライバシー、コンプライアンスについて、マイクロソフトは、柔軟なソリューション、統合的なオファリングに加えて、セキュリティ、プライバシー、情報管理、コンプライアンスおよび透明性確保への継続的な投資を通して、あらゆる規模の企業や組織のデジタルトランスフォーメーションを支援していきます。

最後に、日本におけるデジタルトランスフォーメーションに取り組まれているお客様をご紹介します。


三井住友銀行様
:従業員の業務効率化とワークスタイル変革を実現し、デジタルトランスフォーメーションを推進するために、マイクロソフトのパブリッククラウドを採用されました。AzureやOffice 365を活用したセキュアで生産性の高いオフィス環境の構築に加えて、The Microsoft Cognitive Toolkitを活用した対話型自動応答システムの導入や、邦銀として初となるMyAnalyticsの採用など、AIを積極的に活用したワークスタイル変革にも取り組んでいます。

三井住友銀行は、従業員の業務効率化とワークスタイル変革に向け、マイクロソフトのパブリッククラウドサービスを採用

The Microsoft Cognitive Toolkit を活用した対話型自動応答システムの構築について

三井住友フィナンシャルグループの、パブリッククラウド・人工知能を活用した働き方改革の取組みについて


セブン銀行様
:パブリッククラウドを活用して送金や振込などのサービスを提供する取り組みを開始されています。第一弾として、クラウドプラットフォームMicrosoft Azure上で開発されたスマホアプリによる海外送金サービスを開始されました。

セブン銀行の新サービス “スマホアプリによる海外送金” や “リアルタイム振込機能” の基盤を Microsoft Azure で構築


北國銀行様
: 2018 年夏のサービス開始を目指し、Microsoft Azure を基盤としたインターネットバンキングサービスとして日本初となる「北國クラウドバンキング」を開発中です。Microsoft Azureと勘定系システムを連携し、セキュリティを確保しつつ、多様化するお客様のニーズに合わせた迅速なサービスの拡充を実現する全く新しいインターネットバンキングサービスの提供に向けて取り組まれています。

北國銀行 インターネットバンキングをクラウドで実現


第一生命様
:「健康増進サービス」のシステム基盤としてMicrosoft Azureを採用、クラウドを活用したビッグデータ分析と AI を活用し、スマートフォンやウェラブル端末向けに、お客様の健康リスクを評価・分析し、個々人に最適なアドバイスを提供されています。

第一生命保険株式会社、”健康第一” プロモート InsTech 基盤に Microsoft Azure を採用


SBIリクイディティ・マーケット様/SBI FXトレード様
:AI(人工知能)を活用したチャットボットを導入し、FX取引における有人コールセンターや、メールでの問い合わせ対応等におけるカスタマーサポートを補完・向上させる取り組みを開始されています。まずは、お客様からの定型的な質問への回答を行いますが、データを蓄積し学習することで、将来的には有人対応と同等レベルの応答品質にまで精度を高めていく予定です。

人工知能 (AI) を活用した FX 取引サービスの実現に向け、SBIリクイディティ・マーケット、SBI FXトレードと日本マイクロソフトが連携

---

本ページのすべての内容は、作成日時点でのものであり、予告なく変更される場合があります。正式な社内承認や各社との契約締結が必要な場合は、それまでは確定されるものではありません。また、様々な事由・背景により、一部または全部が変更、キャンセル、実現困難となる場合があります。予めご了承下さい。

ExpressRoute のエッジ ルーターのメンテナンス通知に関する説明

$
0
0

本日、ExpressRoute のエッジ ルーターにおけるメンテナンスのお知らせがお客様に送信されました。

お知らせにもあるとおり、今回のメンテナンスにおいてお客様のサービスに影響が発生することは想定しておりません。この点についてはご安心いただければと思います。ただ、送信されたお知らせの文面は最低限のものですので、どのようなメンテナンスが予定されており、どういった理由で影響がないのかなど、本ブログ記事にてご説明をさせていただきます。

これまでにも何度か実施されているメンテナンスと同じですので、内容についてはご存知の方もいらっしゃるかと思いますが、参考になりましたら幸いでございます。

なお、最初に送信された通知において、東京・大阪の両ロケーションにおける日本時間の表記に誤りがありました。修正版の通知を順次お送りしておりますが、日本時間と世界標準時間でずれがある場合は、世界標準時間を正としてご認識いただけますようお願いいたします。混乱を招いてしまい大変申し訳ございません。

メンテナンスの内容

ExpressRoute は、非常に簡単に図示しますと、以下のようなアーキテクチャになっております。エッジ ルーター (MSEE) とよばれる物理ルーターが 2 台 Azure 側に存在しており、それぞれ、回線プロバイダーのルーターと接続されています。

※ L2 モデルのプロバイダーをご利用の場合は、プロバイダーのスイッチを経て、L3 レベルではお客様のルーターと接続されています。以下の説明における「プロバイダーのルーター」という表現についても、L2 モデルのプロバイダーをご利用の場合は、お客様が構築されている BGP ルーターと読み替えていただければと思います。

メンテナンスの対象

今回、メンテナンスが発生するのは、MSEE (図における黄色のルーター) です。このルーターにおいて、片方ずつメンテナンスが実施されます。各ロケーションにおいて、数時間ずつ (東京および大阪では 6 時間ずつ) 計 2 回のメンテナンス ウィンドウが通知されておりますが、最初のウィンドウで片方のルーター、後のウィンドウでもう片方のルーターのメンテナンスが行われます。

つまり、冗長性を考慮し、片方ずつ十分に時間をわけてメンテナンスを行うことが予定されています。

メンテナンス時の挙動

ExpressRoute においては、プロバイダーのルーターと、MSEE との間で必ず BGP による動的な経路交換が行われており、ある経路がダウンした場合に、別の経路に切り替わるよう冗長性も BGP によって確保されています。

実際にメンテナンスが行われるタイミングでは、MSEE はいきなり応答を停止するのではなく、プロバイダーやお客様のルーターに対して BGP の Administrative Shutdown を明示的に通知します。プロバイダーのルーターはこれを受けて、経路を能動的に切り替えます。

Administrative Shutdown の通知が MSEE から送信されないと、プロバイダーやお客様のルーターにとっては、MSEE からの応答が突然なくなるため、タイムアウトになるまで再接続を試みたのちに、経路が切り替わります (つまり、MSEE が応答を停止してから、プロバイダーのルーターがタイムアウトと判断するまでの間、通信断が発生します)。

このような通信断を防ぐために、MSEE は Administrative Shutdown を明示的に通知し、プロバイダーのルーターがタイムアウトを待たずに、ダウンタイムなしで経路を切り替えるようにしています。

よくある質問

「BGP が構成されていれば問題ない」という記載があったが、BGP が構成されているかどうかはどうやって判断すればよいか。
ExpressRoute おいては、経路の交換を行う手段が BGP しかありません。したがって、現在 ExpressRoute をご利用いただけているようであれば、必ず BGP は構成されています。BGP なしで ExpressRoute を利用することはできませんので、BGP の利用の有無をあらためて確認する必要はありません。
現在利用している ExpressRoute 回線は冗長化されているか。
ExpressRoute は、「1 回線」作成すると、必ず内部的には 2 本の物理的な回線が構成され、2 台の MSEE が利用されます。つまり、シングル構成になっていることは原則ありません。

ただし、L2 モデルのプロバイダー (お客様自身で BGP ルーターを構成いただく必要があるプロバイダー) をご利用いただいており、ルーターを片方の回線にしか接続していない、片方の回線しか BGP の Neighbor を確立していないなど、極めて例外的な構成を取っている場合に限っては、今回のメンテナンスにあたって通信影響が生じます。

このような構成は、SLA が担保されない、弊社として保証していない特殊な構成であり、プロバイダーまたはお客様にて意図的に構成するものです。ご利用の ExpressRoute の環境が冗長構成されているかは、プロバイダーまたはお客様のネットワーク担当者にご確認ください。

ExpressRoute Gateway の SKU と影響の有無は関係あるか。特に、Basic SKU の Gateway だと問題があるなどは考えられるか。
Gateway の SKU がどれであっても、今回のメンテナンスに伴う影響の有無には関係ありません。Gateway は上記の図でいう青色の部分ですが、今回のメンテナンス対象である MSEE は黄色の部分であり、Gateway の SKU とは特に関係がありません。
ExpressRoute と接続しているルーターにおいて、エラーなどが発生する可能性はあるか。
MSEE から BGP の Administrative Shutdown の通知を送信しますので、通知を受け取り、BGP のセッションを切断したことを示すログなどが記録されることが想定されます。ルーターの監視を行っている場合は、メンテナンス期間中にこのようなログが記録されることをあらかじめご認識いただけますと幸いです。

The New Customer Service Hub in Dynamics 365

$
0
0

The new Customer Service Hub in Microsoft Dynamics 365 is optimized for the Customer service module. It is a focused, interactive interface, designed to simplify your day-to-day job. It shows you all your vital information in one place, and lets you focus on the key activities that require your attention.

 

 

To navigate to the new Customer Service Hub simple expand the Dynamics 365 app choser, and click Customer Service Hub

Customer Service Hub is based on our new Unified Interface. The intuitive interface unifies vital information in one place, and lets you focus on things that require your attention.

The Visual Filters at the top of the dashboard lets you filter the Streams at the bottom of the dashboard. In the Tier 1 Dashboard below I have four Visual Filters:

  1. Cases By Priority
  2. Case Mix (By Origin) - email, phone, Twitter, Web (portal) etc
  3. Cases By Account
  4. Cases By Status

And four Streams. The streams helps me see a chronological stream of:

  1. Active Cases
  2. My Resolved Cases
  3. My Draft Emails
  4. My Activities

So if I quickly want to filter for which cases originated from Twitter I simply click the Twitter part of the pie chart in the Case Mix (By Origin) Visual Filter

The updated dashboard now shows that I have five cases originating from Twitter and I could easily filter further down by Account and/or Status

In the Tier 2 Dashboard I can work with cases from different perspective, including products and incident types

The Customer Service Hub truely empowers your agents to work smarter and faster with the modern, interactive experience tailored to their role.

Enjoy

See Also

  • User Guide (Customer Service Hub) - link
  • Social CRM at its best – Leads or Cases in Dynamics CRM from Social Posts in Microsoft Social Engagement - link

Das Meeting der Zukunft braucht vor allem eins: Kreativität

$
0
0

Wissenschaft und Unternehmen entmystifizieren Stück für Stück das abstrakte Konzept der Kreativität und beginnen, kreative Denkprozesse im Arbeitsalltag gezielter einzusetzen. Gut so, denn ungewöhnliche Lösungsansätze für Probleme werden so gefördert.

Die Arbeitswelt befindet sich in einem gewaltigen Strukturwandel. Durch Automatisierung und künstliche Intelligenz werden Prozesse beschleunigt und physische Arbeit erleichtert. Andererseits werden Problemstellungen anspruchsvoller und Arbeitsmodelle komplexer. Um ebendiesen Anforderungen sich immer rasanter entwickelnder Märkte gerecht zu werden und wettbewerbsfähig zu bleiben, müssen Unternehmen innovativ sein. Dafür braucht es ein Arbeitsumfeld, in dem Kreativität gefördert wird. Fakt ist, dass kreative Einfälle sich nicht erzwingen lassen, weshalb es umso wichtiger ist, die richtigen Bedingungen für Originalität und Phantasie am Arbeitsplatz zu schaffen. Deshalb bemühen sich immer mehr Führungskräfte, interne Meetings zur Grundlage für kreativere Denkprozesse zu transformieren.

Kreativität hängt von der Umgebung ab

Schon seit einigen Jahren versuchen Firmen, eine angenehme und motivierende Arbeitsatmosphäre zu schaffen, beispielsweise durch Arbeitsräume mit Sitzkissen und einem Tischkicker. Doch damit ist es nicht getan: Das Berliner Start-up Spacebase hat in einer Studie Stimuli identifiziert, die Kreativität nachweislich beeinflussen. Herausgekommen ist dabei, dass die Atmosphäre des Raums ein kritischer Faktor für das kreative Verhalten von Teams ist. Originelle Ideen entstehen demnach vermehrt, wenn man sich in einer ungewohnten Umgebung aufhält – denn durch die räumliche Veränderung trennt man sich auch gedanklich vom (Arbeits-)Alltag. Das schafft eine größere Freiheit und ermöglicht neue Perspektiven.

Mit Malen, Kneten und Bauen zu neuen Ideen

In der Forschung wird die Meinung vertreten, dass es der Kreativität zugutekäme, wenn wir unser antrainiertes, konvergentes (also lineares, rational-logisches) Denken zumindest teilweise durch weniger zielgerichtetes (sogenanntes divergentes) Denken ersetzen würden. Um dies zu erreichen, wird in Meetings beispielsweise immer öfter Spielzeug eingesetzt: Während der Ideenfindung erste Prototypen zu malen, mit Legosteinen zu bauen oder Holz zu schnitzen regt die Kreativität an – das ist bei Erwachsenen nicht anders als bei Kindern. Das Formen und Modellieren hat großen Einfluss auf die Denkprozesse und ermöglicht durch die haptischen und visuellen Reize neue Verknüpfungen zwischen einzelnen Ideen. Ein weiterer Vorteil: Durch die visuelle Reduzierung auf das Wichtigste verlieren wir die wesentlichen Faktoren nicht aus den Augen.

Ideen räumlich greifbar machen – Microsoft-Technologien ermöglichen Kreativität 2.0

Auch neue Technologien ermöglichen die Visualisierung von Ideen in frühen Entwicklungsstadien. Microsoft hat hier die Vorreiterrolle übernommen und mit dem Surface Hub und der HoloLens bereits zwei Technologien entwickelt, mit denen sich Visualisierung in Meetings neu denken lässt. Beispielsweise können verschiedene Personen Prototypen mithilfe der Technologien gleichzeitig weiterentwickeln, auch wenn sie sich nicht am selben Ort befinden. Virtual Reality wird es ermöglichen, Konzepte einfacher verständlich im Raum zu präsentieren und so Ideen, besonders solche, die sich gerade noch am Anfang der Entwicklung befinden, greifbarer denn je zuvor zu machen.

Die Zeit, in denen „ein Meeting haben” bedeutet, mit Stift und Papier bewaffnet im grauen Nebenzimmer zu sitzen, neigen sich (endlich) dem Ende zu. Wenn der Wandel auch in den Köpfen aller Beteiligten stattfindet, können sich Wissensarbeiter auf das Meeting der Zukunft freuen: Durch technische Innovationen und strukturelle Auflockerungen in inspirierenden Räumlichkeiten wird das Meeting zum kreativen Ideenfindungsprozess.


Ein Gastbeitrag von Philipp Kraatz
Marketing Specialist bei Spacebase

Philipp Kraatz ist nach seinem Studium der Betriebswirtschaftslehre in Mannheim nach Berlin gezogen und ist dort in die Start-up-Welt eingetaucht. Momentan arbeitet er als Marketing Manager bei Spacebase. Daneben studiert er Design Thinking am Hasso-Plattner Institut in Potsdam.

Viewing all 34890 articles
Browse latest View live


<script src="https://jsc.adskeeper.com/r/s/rssing.com.1596347.js" async> </script>