Schlagwort-Archive: SP2016

SharePoint zu O365 Migration

11. Türchen

Unsere FileShare Daten haben wir schon in der Cloud. Gestern haben wir mit dem eDiscovery Workaround versucht, unseren SharePoint und die darin gespeicherten Daten etwas besser zu verstehen. Mit dem heutigen Beitrag, wie wir mit PowerShell unseren SharePoint nach Office 365 migrieren, finden wir das letzte Puzzle-Teil, um Daten mit nativen Mitteln in die Cloud zu bekommen. Grundsätzlich muss man dann also das große Projekt Office 365 Migration nicht mehr länger vor sich her schieben.

Bevor es aber losgeht, müssen wir bei der SharePoint Migration über die High Speed Migration API noch ein paar Dinge beachten:

  1. Das größte mögliche Migrationspaket kann maximal eine Dokumentenbibliothek (inkl. Ordnerstruktur) umschließen. Eine Site Collection und/oder Subseiten Struktur muss ich also zuvor manuell nachbauen
  2. Die Migration wird nur für SharePoint 2013 und 2016 unterstützt
  3. Bibliotheken und Datenvolumen mit mehr als 15 GB sind nicht möglich
  4. Anpassungen (Solutions, Vorlagen, Apps, etc.) sind auch nicht möglich
  5. die Limits bei der FileShare Migration kommen auch noch dazu

Ansonsten läuft der Prozess identisch zur FileShare Migration ab. Nur ganz wenige PowerShell Befehle unterscheiden sich. Fassen wir das ganze also kurz zusammen.

Voraussetzungen:

  1. Microsoft Azure Login Assistent und PowerShell Module installieren
  2. SharePoint Online PowerShell Modul installieren und laden
  3. Azure Speicherkonto
  4. O365 Tenant mit Administrator-Konto – logisch
  5. Azure Storage Explorer als netter Zusatz für das Überwachen des Prozesses

Ablauf der SharePoint Online Migration:

1. Verbindung zu O365 herstellen

  • $Creds = Get-Credentials
  • Import-Module Microsoft.Online.SharePoint.PowerShell -ErrorAction SilentlyContinue
  • Connect-SPOService -Credential $Creds -Url https://yourdomain-admin.sharepoint.com

2. Migrationspaket erstellen

Add-PSSnaping Microsoft.SharePoint.PowerShell

  • $QuellPfad„\\Server\C`$\SP-O365-Migration“
  • $QuellPaketPfad = „\\Server\C`$\SP-O365-Migration\Quellpaket“
  • $ZielPaketPfad = „\\Server\C`$\SP-O36-5Migration\Zielpaket“
  • $Zielweburl = „https://yourdomain.sharepoint.com/sites/yoursite“
  • $Zielbibliothek = „SharePointMigration“
  • #$OptionalZielOrdner = „OnlineMigration“

Export-SPWeb -Identity „http://onpremwebapp/sites/Sitename“ -ItemUrl „Quellbibliothek“

3. Migrationspaket konvertieren

  • ConvertTo-SPOMigrationTargetedPackage -SourceFilesPath $QuellPfad -SourcePackagePath $QuellPaketPfad -OutputPackagePath $ZielPaketPfad -TargetWebUrl $Zielweburl -TargetDocumentLibraryPath $Zielbibliothek -TargetDocumentLibrarySubFolderPath $ZielOrdner -Credentials $Creds

4. Paket zum Azure Storage hochladen

  • $PayloadContainer = „sharepointpayload“
  • $PaketContainer = „sharepointpaketcontainer“
  • $AzureWarteschleife = „sharepointupload“
  • $azureKontoame = „robtheninja“
  • $AzureStorageKey = „hierdeinazurekey==“
  • $SPUpload = Set-SPOMigrationPackageAzureSource –SourceFilesPath $QuellPfad –SourcepackagePath $ZielPaketPfad –FileContainerName $PayloadContainer –PackageContainerName $PaketContainer –AzureQueueName $AzureWarteschleife –AccountName $AzureKontoName -AccountKey $AzureStorageKey

5. Migration starten

  • Submit-SPOMigrationJob –TargetwebUrl $Zielweburl –MigrationPackageAzureLocations $SPUpload –Credentials $Creds

Wir sehen, den einzigen Unterschied zwischen FileShare und SharePoint Migration über die HSM API finden wir in Punkt zwei, nämlich einerseits das Laden der SharePoint On-Premises PowerShell Befehle (Add-PSSnapin) und andererseits wie das Paket erzeugt wird (Export-SPWeb). Diese beiden Befehle habe ich aus der Aufzählung raus genommen und zentriert, um deutlich zu machen, dass dies tatsächlich der einzige Unterschied zur FileShare Migration ist. Der Rest ist identisch (sofern ihr mit Variablen arbeitet). Übrigens, bei dem SharePoint Export-Befehl können wir auch die gewohnten Switches verwenden, wie z.B. „IncludeVersions 4“.

Wie hat es bei euch mit der Migration geklappt geklappt? Lasst es mich wissen. Ich hoffe genauso unkompliziert, wie bei mir.

Happy „SharePointing“!

Zur O365Adventskalender Übersicht

SharePoint Datenklassifizierung

10. Türchen

Um gleich zu Anfang eine wahrscheinlich sehr große Erwartungshaltung zu dämpfen, eine automatische Klassifizierung von Dokumenten in SharePoint ist mit nativen Mitteln aktuell praktisch nicht möglich. Wir können nur PowerShell Skripte schreiben oder 3rd Party Anbieter verwenden. Daher soll euch der heutige Beitrag nur einen Workaround liefern, wie ihr dennoch identifizieren könnt, welche Daten in die Cloud können und welche nicht.

Ein nützliches Feature, das mit der SharePoint Enterprise Edition geliefert wird, nennt sich eDiscovery. Der eigentliche Zweck ist, dass eine SharePoint Farm nach bestimmten Suchbegriffen abgesucht wird. Alle gefundenen Treffer können nicht nur protokolliert werden, sondern die dazugehörigen Daten können auch direkt exportiert werden oder vor Änderungen geschützt werden, damit sie in ihrer originalen Form erhalten bleiben. Diese Daten könnte man dann als Beweis in einem Rechtsstreit verwenden, um z.B. bei einer Patentsverletzung zu zeigen, dass man schon länger an einer entsprechenden Lösung arbeitet, weit bevor ein Konkurrent ein Patent angemeldet hat.

Die eDiscovery beruht auf der SharePoint Suche und damit können wir nicht nur die offensichtlichen Begriffe, wie Dokumententitel, suchen, sondern auch nach dem wirklichen Inhalt der Dokumente. Dies ist entscheidend, um beispielsweise Dokumente zu identifizieren, die in ihrer Fußzeile das Wort „vertraulich“ als Indiz für die Sensibilität stehen haben.

Erstellung einer eDiscovery Query:

Bevor wir unsere Farm nach sensiblen Daten absuchen können, müssen wir eine Site Collection mit der Enterprise Vorlage „eDiscovery Center“ erstellen. Auf dieser Seite können wir dann einen neuen Fall erstellen. Jeder Fall, der aus eDiscovery Sets, Queries und Exporten bestehen kann, stellt dann im Prinzip eine Art Sub-Seite dar.

01a-ediscovery

Für unser Szenario zur Vorbereitung auf eine Office 365 Migration sind die Queries interessant.

01b-ediscovery

Im sich dann öffnenden Fenster ist erst einmal der Suchbegriff wichtig und die Quelle, in der gesucht werden soll. Bei der Quelle können wir einzelne Site Collections angeben. Bequemer ist direkt die Root-Site, da sie auch die Suchergebnisse aller Site Collections dieser Web Application beinhaltet. In der 2013er Version sehen wir aber leider nur eine Komplettanzahl und nicht sortiert nach Site Collection. Um also wirklich unsere Query-Ergebnisse pro Site Collection sehen zu können, müssten wir also leider in der Tat jede Site Collection einzeln zum Scope hinzufügen.

01c-ediscovery

In SharePoint 2016 wurde das besser umgesetzt, da man hier als Quelle angeben kann, dass alles durchsucht werden soll.

02-ediscovery

Auswertung der Ergebnisse:

In SharePoint 2016 wird in den Ergebnissen bereits schön aufgeschlüsselt, in welcher Site Collection viele der Dokumente liegen, die unseren Suchbegriff beinhalten (siehe Screenshot oben). Dies ist im Prinzip genau das, was wir brauchen.

  1. Sichere Daten: Suchen wir nach explizit sicheren Daten, also mit dem Suchbegriff „Öffentlich“ oder „Nicht vertraulich“, so erhalten wir solche Site Collections, welche wir für die Migration „verpacken“ können (siehe morgiges Türchen – ups, jetzt hab ich’s verraten… 😉 )
  2. Sensible Daten: Suchen wir hingegen nach Dateien, die vertrauliche Informationen enthalten, wie z.B. „vertraulich“ oder „Gehaltsnachweis“, dann erhalten wir die Site Collections, die wir lieber noch On-Premises belassen sollten und wenden darauf gleich entsprechende Data Lost Prevention (DLP) Policies an, damit die Mitarbeiter sensibilisiert werden, dass es sich um sensitive Daten handelt (siehe mein Blogbeitrag zu Governance und Compliance mit dem neuen SharePoint 2016 – DLP im Compliance Center).

Diese schöne Übersicht haben wir leider nicht in SharePoint 2013. Da empfehle ich, die Ergebnisse zu exportieren (was aber auch in SharePoint 2016 möglich ist).

04-ediscovery

Die Ergebnisse, also die gefundenen Dateien, kann man direkt exportieren und sie anschließend in ein FileShare Online Migrationspaket verpacken, wie gestern in der FileShare zu O365 High Speed Migration erklärt. Ich persönlich finde, dass dieser Ansatz aber zusätzliche Komplexität erzeugt, weil so einzelne Dateien in der Cloud liegen, andere wieder nicht, die zuvor gemeinsam an einem Ort lagen. Daher dient dieser Workaround nur für sehr spezielle Szenarien.

Interessanter ist jedoch die Möglichkeit, den Report zu exportieren. Damit erhalten wir eine CSV-Liste, die uns alle gefunden Dokumente anzeigt. So können wir, wie schon einen Schritt zuvor mit SharePoint 2016, die Site Collections identifizieren, deren Inhalte entweder noch nicht oder doch schon in die Cloud migriert werden können – je nach Suchbegriff.

Empfehlung:

Diese Workarounds funktionieren ab SharePoint 2010. (Die PowerShell High Speed Migration funktioniert aber erst ab SharePoint 2013 Inhalten). Mit SharePoint 2016 kommen die einfachere Verwaltung sowie DLP Queries hinzu, die uns die Vorbereitung auf eine Online Migration weiter vereinfachen. Nichts desto trotz ist dieser Ansatz nur für sehr eingeschränkte Migrationsszenarien nützlich. Stattdessen empfehle ich hier den Microsoft FastTrack Service oder noch besser 3rd Party Anbieter. weil diese noch weniger Einschränkungen haben und direkte Migrationspfade auch ab SharePoint 2007 bieten.

Für einen Überblick der gespeicherten Daten in meiner Farm und damit etwas mehr Licht in meinen „Dark Data“ kann ich diesen Ansatz dennoch empfehlen als erste Vorbereitung auf eine Online Migration. Denn wenn ich damit sichere Daten und Site Collections identifiziert habe, kann ich diese bereits in die Cloud über die High Speed Migration API migrieren. Wie man diese bestimmten Inhalte oder eine gesamte Farm in die Cloud migriert, erfahren wir morgen.

Happy „SharePointing“!

Zur O365Adventskalender Übersicht

Neuigkeiten von der European SharePoint Conference in Wien

Letzte Woche fand die ESPC 2016 statt und empfang viele namenhafte Speaker und Teilnehmer im Austria Center Vienna.

Wir sahen viele spannende Vorträge und auch die ein oder andere Neuigkeit wurde verkündet, die mich wirklich überrascht hatte. Dies habe ich per Gastbeitrag auf dem Blog bei AvePoint (in Englisch) zusammengefasst:
http://www.avepoint.com/community/strategy-blog/key-takeaways-european-sharepoint-conference-2016

Zudem halte ich dazu ein Webinar am Donnerstag, den 24.11.2016, in dem ich auch die Neuerungen in verschiedenen Live Demos zeigen werden. Die Anmeldung zu dem Webinar findet ihr unter dem obigen Link.

Viel Spaß und lasst mich gern wissen, was für euch die spannendste Neuigkeit war.

Happy „SharePointing“!

DLP in SharePoint 2016 On-Premises funktioniert nun besser

BUUUH!!! Pünktlich zu Halloween gibt es ein paar Neuigkeiten und regelrechte Horror-Storys am Ende dieses Beitrages.

Zunächst einmal funktioniert nun die DLP (Data Lost Prevention) in der On-Premises Version von SharePoint 2016. In der Vergangenheit wurde einfach nie ein Dokument markiert, wenn es gegen eine DLP-Richtlinie verstoßen hat. Mit dem September CU für SharePoint Server 2016 wurde diese Funktion nun endlich fehlerfrei etabliert und auch der Export einer DLP-Query mit der eDiscovery funktioniert nun.

Beide dazugehörige Artikel aus dem Frühjahr 2016 habe ich dazu aktualisiert und mit entsprechenden Tipps und Screenshots versehen.

Leider funktionieren die Email-Notifications und das Audit Logging für überschriebene Policies noch nicht. Dies finde ich besonders spannend, denn Notifications hin oder her, ich muss einfach wissen, was mit den gefunden Dokumenten geschieht bzw. ob und wie meine Benutzer möglicherweise die Richtlinien überschreiben. Denn wird der Policy Tip eines Dokuments als „False Positive“ gekennzeichnet oder die identifizierten sensiblen Informationen darin werden einfach benötigt, dann erfahre ich von diesem Überschreiben nichts. Beim nächsten Scan werden die Dokumenten auch nicht mehr geblockt – AUCH NICHT, wenn das Dokument geändert wurde.

HORRORGESCHICHTE 1: Ich lade ein Dokument hoch, das eine Kreditkarte enthält. Die DLP mit einer Regel auf Kreditkarten markiert es als sensibel und ich überschreibe diese Policy. Niemand bemerkt es und die vertraulichen Dokumente bleiben da liegen, wo sie nicht hingehören.

HORRORGESCHICHTE 2: Angenommen, der Administrator bemerkt es dennoch dank in Zukunft funktionierender Notifications oder Audits. Da es nur eine Kreditkartennummer ist, weil es z.B. eine Rechnung des Vertriebs ist, geht das Überschreiben der Policy in Ordnung. Das Dokument wird somit automatisch markiert, dass die Policy nicht mehr anschlagen soll. Das geschieht automatisch, ich kann es nicht als Administrator verhindern oder regulieren. Der Benutzer kann nun in dieses Dokument so viele Kreditkartennummern und weitere Finanzdetails packen, wie er möchte, denn die Richtlinie auf diesen Trigger wird nicht mehr ansprechen.

HORRORGESCHICHTE 3: Für O365 trifft auch Horrorgeschichte 2 zu. Glücklicher Weise kann ich dort noch die Schrecken dieses Szenarios etwas abmildern. Je Regel kann ich Aktionen für wenige Funde und für viele Funde konfigurieren. Beispielsweise erhalte ich nur eine Warnung bei nur einem einzigen Kreditkartenfund. Das Blockieren des Dokuments erfolgt ab fünf Kreditkartennummern. Nachdem ich also die Richtlinie bei wenigen Funden überschrieben habe, so löse ich sie erneut aus, wenn ich mindestens so viele zusätzliche sensiblen Informationen – also fünf Kreditkartennummern – im Dokument hinzugefügt habe, wie ich für die Richtlinie mit vielen Funde konfiguriert habe. Weiterhin könnte ich generell untersagen, ob eine Policy überhaupt überschrieben werden darf. Dies ist zwar deutlich besser, aber wirklich flexibel und sicher ist es nicht.

Bewusste Verstöße werden so sehr leicht gemacht und als Administrator kann ich mich nicht auf die eingebauten DLP Funktionen verlassen. Das ist sehr schade, aber ich hoffe, Microsoft schafft sehr bald Abhilfe.

Dennoch viel Spaß beim „SharePointen“!

News from Ignite

Meine Eindrücke und Erfahrungen der diesjährigen Microsoft Ignite Konferenz in Atlanta. Das ganze habe ich in folgende Kategorien zusammengefasst:

  • Fast Track
  • Office 365
  • SharePoint (2016)
  • Künstliche Intelligenz
  • Event Organisation

Fast Track
Für alle O365 Subscriptions mit mindestens 150 lizensierten Seats bietet Microsoft einen kostenlosen Migrationsservice. Neben dem eigentlichen „Doing“ wird auch über Best Practices beraten, damit der Kunde ein tolles „Benutzererlebnis“ hat. Dies war bisher für die Migrationsquellen Box, File Shares und Google Drive möglich.

Zur Ignite ist SharePoint 2013 als weitere Migrationsquelle neu hinzugekommen. Dies war bereits in dem #FutureOfSharePoint Event am 4. Mai angündigt worden. Der Service beinhaltet dabei die Inhalte und leichte Anpassungen für MySites und Teamsites.
fasttrack

Dies ist ein wirklich guter Kompromiss für viele Srandard-Seiten. Aber besonders für das OneDrive 4 Business ist dieser Service großartig, weil Microsoft damit für Kunden das perfekte hybride Einstiegs-Szenario erleichtert: Unternehmensdaten On-Premises, OneDrive-Daten in O365. Und ich sage es noch einmal, der Service ist kostenlos!

Microsoft sagt weiterhin ganz deutlich, dass komplexere SharePoint Seiten mit z.B. angepassten Lösungen oder Workflows On-Premises bleiben sollen und so eine hybride Infrastruktur geschaffen wird. Vorbei also die Zeiten, in denen man sich in die Cloud gezwungen fühlte, obwohl Microsoft auf der anderen Seite keine wirkliche Hilfestellung gab, mit seinen Daten in die Cloud zu gelangen.

Session: Move your data to Microsoft Office 365
https://myignite.microsoft.com/videos/2660

Office 365
Mit Office 365 hat sich Microsoft weiterhin auf eine verbesserte Produktivität konzentriert. Exemplarisch möchte ich dafür folgende vier Features ansprechen, die mir am besten gefallen haben.

  1. Tap in Word and Outlook
    Mit diser Funktion kann ich nun direkt in einem Dokument oder Email bereits existierende Unternehmensdaten integrieren. Ähnlich, wie wir bisher ganz einfach Cliparts oder Formen einfügen konnten, können wir so nun auch Daten direkt einfügen ohne das Dokument oder die Email verlassen zu müssen. Also keine unnötigen Klicks and Copy/Paste Aktionen mehr. Hier ein kurzes 51 Sekunden Video:
    https://www.youtube.com/watch?v=cf2ZTQ9Iu2E
  2. Turn data into Maps in Excel
    Microsoft hat geografische Daten mit Bing Maps verschmolzen. So können wir nun sehr einfach Daten in Karten integrieren und diese grafisch aufbereiten. Vorbei sind also die Zeiten mit teurer Zusatz-Software oder zeitaufwendigem „Nachzeichen“ von Regionen für eine visuelle Hervorhebung. Der Überblick in 50 Sekunden:
    https://www.youtube.com/watch?v=GP8MmCUB9e0
  3. Microsoft MyAnalytics
    Ebenso vorgestellt wurden die „neuen“ MyAnalytics, die früher noch Delve Analytics hießen. Damit kann ich mir mein Arbeitsverhalten analysieren lassen. Zum Beispiel kann ich sehen, wie schnell ich auf Emails meines Chefs antworte, aber auch, wie langsam auf Emails anderer Kollegen. Generell kann ich mir so also neue Ziele setzen, produktiver zu werden. Ich kann aber auch herausfinden, wo ich ineffizient arbeite und somit besser Prioritäten setzen. Auch wenn das schön klingt, so bin ich mir ehrlich gesagt nicht sicher, ob ich diese Art „Überwachung“ wirklich möchte. Hier ein Einblick in 44 Sekunden:
    https://www.youtube.com/watch?v=BS4ngU1bJhI
  4. Yammer integration with Office 365 Groups
    Genauso wie SharePoint Seiten und Bibliotheken in die O365 Groups gebracht werden, so geschieht dies auch für Yammer. In Zukunft werden wir damit auch in Yammer-Gruppen solche Resourcen sowie OneNote, Planner und Outlook Gruppenkalender nutzen können. Zusammengefasst in 129 Sekunden:
    https://www.youtube.com/watch?v=SMP_iKPz7no

Weiterhin hat Microsoft in O365 viel in Sicherheit investiert und bringt eine verbesserte Gefahrenabwehr (Advanced Threat Protection – ATP). Nicht nur verbesserte Analysetechniken werden genutzt, sondern auch eine verbesserte grafische Übersicht finden Einzug. Dies trifft auch auf die sogenannte Governance zu, welche die Klassifizierung, Archivierung sowie Löschung veralteter Inhalte beschreibt.

Screenshots und weitere Details auf dem Office Blog:
https://blogs.office.com/2016/09/26/office-365-news-in-september-at-ignite-intelligence-security-collaboration-and-more/

SharePoint (2016)
Share wurde auch weiter im Detail verbesserte. Die Nutzererfahrung wurde verbessert sodass Informationen zu Kollegen, Neuigkeiten und das Teilen von Inhalten nun einfacher geregelt ist. Das ganze wurde auf die Android, iPhone UND – ENDLICH – Windows 10 Mobile App ausgerollt.

Windows 10 Mobile App:
https://www.microsoft.com/en-us/store/p/sharepoint/9nblggh510hb?tduid=(f242c42c3fa802bd549677f29f20bc44)(213688)(2795219)()()

Aber das spannendste von allem war die Ankündigung des ersten SharePoint Feature Packs. Hurra! Damit halten nun folgende Funktionen Einzug auch in SharePoint On-Premises:

  • Audit Logging für Aktionen in der Zentraladministration
  • Neues 2×2 MinRole Konzept, sodass wir nun auch Zero-Downtime-Patching mit insgesamt vier Servern, statt bisher acht Servern realisieren können. Somit aktivieren wir die Web-Frontend und Distributed Cache Rollen auf einen Server sowie Application und Search auf einem zweiten Server -das ganze dann mal zwei für das Patching.
  • Verbessertes OneDrive 4 Business Look&Feel
  • Eigene Kacheln können nun einfach zum App-Launcher hinzugefügt werden
  • Einheitliche Auditierung nun auch für On-Premises Audits für hybride Deployments
  • Einheitliche Taxonomy, also Managed Metadaten, in hybriden Deployments – keine zwei separaten Services mehr
  • OneDrive API 2.0 für Entwickler

Weitere Informationen zu diesen Features gibt’s auf dem Office Blog:
https://blogs.office.com/2016/09/26/announcing-feature-pack-1-for-sharepoint-server-2016-cloud-born-and-future-proof/


Die dazugehörigen Sessions von der Ignite zur „Nachlese“ findet ihr hier:


Künstliche Intelligenz
Als weiterer Punkt, speziell im Fokus auf der Innovation Keynote mit Satya Nadella, wurde das Thema künstliche Intelligenz adressiert. Diese soll mehr und mehr Einzug in die Produkte von Microsoft erhalten und in Zukunft auch vertieft mit Bots zusammen arbeiten. Als Beispiel wurde ein Szenario mit dem technischen Support gebracht. So kann nun ein „Chat-Bot“ Nutzeranfragen versuchen selbst zu beantworten und dabei natürlcih stets dazu lernen. Nur wenn das Problem nicht gelöst werden konnte, kann der Kunde auf Wunsch noch zusätzlich an einen menschlichen Support-Mitarbeiter weiter geleitet werden.

Ein weiteres Beispiel war OneNote. Handschriftlich eingegebene mathematische Formeln werden zunächst in Druckschrift umgewandelt und anschließend gleich ausgerechnet. Sogar der Lösungsweg zum Ergebnis kann aufgezeigt werden. Das ist echt eine coole Sache, die das Lernen und auch die Arbeitseffizienz weiter verbessern wird. Ich freue mich darauf!
aiInnovation Keynote: https://myignite.microsoft.com/videos/39172

Event Organisation
Wie nicht anders zu erwarten, so konnte die Organisation der Konferenz wirklich überzeugen. Der Badge Check-In war sogar schon bei der Gepäckabholung im Flughafen möglich, um lange Wartezeiten am ersten Konferenztag zu vermeiden. Weiterhin standen während des Events überall fleißige Helfer bereit, die stets eine Antwort auf die Teilnehmerfragen hatten.

Das Atlanta World Congress Center ist einfach riesig und man legte einige Kilometer zurück, wenn man von Vortrag zu Vortrag ging. Aber bei mehr als 20.000 Teilnehmer war das auch nicht anders zu erwarten.

Besonders entspannend war der „Chill-Out“ Bereich, in dem man in der Sonne entspannen, Schach, Riesen-Jenga oder andere Spiele spielen konnte. Außerdem war das immer eine gute Gelegenheit, um sich von den klimatisierten gefühlten minus 5 Grad in den Hallen wieder etwas aufzuwärmen.
chill-out

Ein ganz großer Pluspunkt war aus meiner Sicht auch die Ignite App. Damit konnte man sich seine Sessions organisieren, Lagepläne zum nächsten Vortragsraum studieren und sich mit anderen Teilnehmer verbinden. Sollte man es mal nicht rechtzeitig zu einer Session geschafft haben oder der Raum bereits überfüllt war, so konnte man zu fast jedem Vortrag auch direkt per App den Live-Stream verfolgen, der mit dem lokalen WLAN auch echt gut funktionierte. Bei so vielen Teilnehmern aus meiner Sicht eine echt beachtenswerte Leistung.
event

Am Donnerstag der Konferenzwoche lud Microsoft noch zum großen „Get-Together“ zu Schweinshaxen, Bier und kurzweiligen Spielen in den Contennial Olympic Park ein. Außerdem spielten Bands und DJs, um die Teilnehmer zu unterhalten. Ein gelungener Abschluss einer tollen Konferenz mit vielen interessanten Eindrücken und detaillierten Informationen, in welche Richtung sich Microsoft weiterentwickeln will.

SharePoint und die neue EU-Datenschutz Grundverordnung

Nach vier Jahren Verhandlungen wurde die neue EU-Datenschutz Grundverordnung am 4. Mai 2016 im EU-Amtsblatt veröffentlicht und trat 20 Tage später in Kraft. Das bedeutet, dass die darin definierten Regularien nach zweijähriger Übergangszeit am 25.05.2018 anwendbar sein werden. Oder kurz gesagt, ab diesen Zeitpunkt wird es spannend, da die neuen Strafmaßnahmen „scharf“ geschaltet werden.

Die neue Grundverordnung umfasst die weltweit weitreichendsten Datenschutzrichtlinien mit 9 Artikeln und 173 Erwägungsgründen. Damit ist sie deutlich umfangreicher als das deutsche Bundesdatenschutzgesetz. Aber nicht nur inhaltlich wurde der Umfang erweitert. Auch der Rahmen der Verantwortlichen und der betreffenden Firmen, auf welche die Richtlinien anzuwenden sind, wurde vergrößert. Neben den IT Administratoren, wird nun viel mehr die Management Ebene und vor allem die CISOs, CIOs und CPOs in Veranwortung genommen. Alle müssen dabei enger zusammen arbeiten, damit Ziele und Anforderungen umgesetzt werden können.

Neuerungen:

  • Schutz der Grundrechte und Grundfreiheiten natürlicher Personen (der EU) in Bezug auf personenbezogene Daten
    • Stärkung und Präzisierung der Rechte
    • freier Verkehr personenbezogener Daten
  • Verschärfung der Auflagen für diejenigen, die personenbezogene Daten verarbeiten
  • Gleiche Befugnisse und Sanktionen aller Mitgliedstaaten

Diese Kernpunkte verdeutlichen, dass personenbezogene Daten dem Nutzer gehören und daher hat jeder das Recht – klar und verständlich – zu erfahren, welche Daten über ihn gesammelt werden oder welche gelöscht werden müssen. Auf dieser Basis soll es auch erleichtert werden, dass man seine Daten von einem Internetportal zu einem anderen umziehen kann. Dies war in der Vergangenheit kaum möglich. Neu ist außerdem, dass Jugendliche erst ab 16 Jahren in die Datenverarbeitung einwilligen dürfen. Dies wird besonders bei sozialen Netzwerken interessant.

Aber die einschneidensten Neuerungen sind folgende:

  • Jede Firma, die Daten europäischer Bürger verarbeiten, ist an dieses Recht gebunden – auch US-Firmen, selbst wenn sie keinen Sitz in Europa haben
  • Die neuen Strafen können in die Milliarden gehen und die Existenz von Firmen bedrohen
bis 10 Mio. € oder bis 2% des weltweiten Vorjahresumsatzes bis 20 Mio. € oder bis 4% des Weltweiten Vorjahresumsatzes

(je nachdem, was höher (!) ist)

bis 20 Mio. € oder bis 4% des weltweiten Vorjahresumsatzes
Verstöße gegen Regelungen, z.B. – Schutzmaßnahmen – Auftragsverarbeitung Verstöße gegen Grundsätze, z.B. – Einwilligung – Drittlandsübermittlung Verstöße gegen Anordnungen der Aufsichtsbehörde

Vor- und Nachteile:

Allerdings ist nicht alles so überzeugend, wie es zunächst klingt – besonders wenn wir an das bereits sehr starke deutsche Bundesdatenschutzgesetz denken. Folgenden Vorteilen möchte ich daher auch die Nachteile gegenüber stellen:
01

Besonders der zweite Nachteil wird interessant, denn obwohl die Aufsichtsbehörden mehr Rechte haben und härtere Strafen verhängen können, so sind einfach die Rahmenbedingungen dafür nicht geschaffen. Dies weicht die aktuell sehr strengen deutschen Richtlinien auf und somit stehen die erweiterten Rechte der Verbraucher nur auf dem Papier, aber sind faktisch nicht durchsetzbar.
02

Im deutschen Bundesdatenschutzgesetz gab/gibt es eine Verpflichtung für alle deutschen Unternehmen, bei denen mehr als neun Beschäftigte Zugriff auf personenbezogene Daten haben, einen Datenschutzbeauftragten einzuberufen. Dies wird also nicht mehr so streng sein, sofern bei Firmen mit weniger als 250 Mitarbeitern die Ddatenverarbeitung nicht ein Risiko für die Rechte und Freiheiten der betroffenen Personen birgt, nur gelegentlich erfolgt oder nicht besondere Datenkategorien (Art. 9) oder Straftaten (Art. 10) einschließt. Dies würde beispielsweise noch Gesundheitsdienstleister betreffen, aber alle anderen Firmen mit weniger als 250 Mitarbeitern sind quasi von Datenschutzbeauftragten befreit. Hier bleibt zu hoffen, dass die Bundesregierung von der Öffnungsklausel in Art. 35 Abs. 4 EU-DSGVO Gebrauch macht. Damit könnte eine Verpflichtung zur Bestellung eines Datenschutzbeauftragten – wie aktuell in Deutschland – weiterhin lokal durchgesetzt werden.

Und obwohl die Erfüllung der neuen EU-DSGVO ein Markenzeichen und damit einen Wettbewerbsvorteil darstellt, so fallen die rationellen Gründe für kleine Firmen weg, freiwillig einen Datenschutzbeauftragten zu bestellen. Dies wird nämlich in Zukunft nicht mehr mit finanziellen Erleichterungen belohnt.

Anforderungen:

Aus diesen Neuerungen sowie Vor-und Nachteilen ergeben sich Anforderungen, die Firmen mit Anwendbarkeit der Grundverordnung erfüllen müssen:
03

Mit diesen Informationen sind wir grundsätzlich gut aufgestellt, um unser Geschäft in Sachen Datenschutz fitt für die Zukunft zu machen. Dabei wird klar, dass diese Verordnung natürlich das gesamte Unternehmen betrifft und nicht nur auf SharePoint reduziert werden darf. Denn es gibt neue Begriffe und neue Definitionen zur Auftragsdatenverarbeitung, Einwilligungen, Informationen an Betroffene, interne Dokumentationen, etc. Dies sind Änderungen, welche die gesamte Unternehmung betreffen.

Anwendung auf SharePoint:

Schauen wir uns dennoch isoliert den SharePoint an, so bedeutet dies, dass beispielsweise für den User Profile Service dokumentiert werden muss, wie und welche Daten gespeichert sind. Werden über den Business Data Connectivity Service weitere personenbezogene Daten aus z.B. SAP angebunden, dann muss auch hierfür eine Dokumentation angelegt werden. Dies ist insbesondere deswegen notwendig, weil hier die Daten möglicherweise anders verarbeitet und genutzt werden, als im Urspungssystem, und somit eventuell für einen anderen Zweck verwendet werden. Dies muss den Besitzern der Daten bekannt gemacht und der Nutzung explizit zugestimmt werden.

Weiterhin liegen vermutlich im SharePoint Dokumente, die personenbezogene Daten enthalten. Dies können Gehaltsnachweise sein, Beurteilungen, aber auch ganz einfache Dokumente über eine Mitarbeiterselbstauskunft. Diese Dokumente gilt es zu identifizieren, damit festgehalten werden kann, wo und zu welchem Zweck sie gespeichert sind.

Mit der Dokumentation ist es jedoch nicht getan. Denn weiterhin müssen personenbezogene Daten proaktiv geschützt werden, damit es nicht zu Datenschutzverstößen und somit zu den empfindlichen Strafen kommt. Microsoft hat uns dafür die Data Lost Prevention (DLP) Funktionalitäten zur Verfügung gestellt. Ich kann nur empfehlen, diese zu nutzen. (siehe mein Blogbeitrag vom März 2016: http://blogs.msdn.com/b/robert_mulsow/archive/2016/03/24/governance-und-compliance-mit-dem-neuen-sharepoint-2016-dlp-im-compliance-center.aspx)

Diese Funktionen helfen sehr, doch brauchen sie Zeit, um sie korrekt einzustellen. Leider sind die Standardmöglichkeiten auch sehr begrenzt, sodass auch 3rd-Party Software in Betracht gezogen werden muss, um alle neuen Anforderungen korrekt zu erfüllen. Exemplarisch sei die Firma AvePoint genannt, deren Sicherheitslösungen einen datenzentrischen Ansatz verfolgen (DCAP – Data Centric Audit and Protection).
04

Es wird klar, es gibt noch eine Menge zu tun, aber auf der anderen Seite sind es keine zwei Jahren mehr, die wir für eine finale Umsetzungen zur Verfügung haben. Das ist in der Tat sehr wenig Zeit, daher sollte man nicht warten, sich mit diesen neuen Anforderungen auseinander zu setzen.

Es wird klar, es gibt noch eine Menge zu tun. Auf der anderen Seite sind es keine zwei Jahren mehr, die uns für eine finale Umsetzungen zur Verfügung stehen. Das ist für den großen Anforderungskatalog, der mit den neuen Regularien auf uns zukommt, in der Tat sehr wenig Zeit. Daher sollte man nicht warten, sich mit diesen neuen Vorschriften auseinander zu setzen und keine Strafzahlungen riskieren.

Eine wichtige Frage zum Abschluss:

Ein COO einer deutsche Firma sagte folgendes: „Wir müssen möglicherweise in Betracht ziehen, unsere dot-com Webseite wieder auf deutschen Servern zu hosten, um mit der neuen EU-DSGVO auf der sicheren Siete zu stehen.“

Warum muss ich selbst diesen Schritt in Betracht ziehen, selsbt wenn alle meine peronenbezogenen Daten korrekt gespeichert, gesichert und dokumentiert sowie die Besitzer der Daten informiert sind? Der Trick ist die zweite Ebene der Anforderungen – als vertrauenswürdig eingestufte Drittländer! Die USA ist nicht als vertrauenswürdig mit der EU-DSGVO eingestuft und damit dürfen keine personenbezogenen Daten von EU-Bürgern in die USA gelangen.

Was bedeutet dies für Cloud-Provider und speziell für Microsoft mit Azure und O365? Für solche Dienste arbeiten bereits die Regierungen zusammen, um das „Privacy Shield“ Abkommen zu unterzeichnen. Was dies dann für unsere Daten und speziell für die Datenschutz Grundverordnung bedeutet, erkläre ich in einem nächsten Blog.

Bis dahin happy „SharePointing“!

Aus „Folgen“ werden „Favoriten“ in Office 365

Oder anders gesagt: Nanu, wo hat sich denn der „Folgen“ Link bei Dokumenten versteckt?

SharePoint wird derzeit fleißig innerhalb Office 365umgebaut. Microsoft lässt den Ankündigungen des „May the 4. be with you“ Events nun also Taten folgen. Die „Sites“ Kachel wurde somit bereits in „SharePoint“ umbenannt, welches zu den gefolgten Seiten leitet. Weiterhin hält die neue Inhaltsübersicht für Seiten Einzug und bei kürzlich erstellten Seiten erhält jede neu hinzugefügte Dokumentenbibliothek auch bereits automatisch das neue Look&Feel.

Spannend ist jedoch, was dabei verloren geht: Das Folgen von einzelnen Dokumenten. Auch der bekannte Newsfeed, der eine Übersicht aller gefolgten Seiten, Dokumenten, Leuten und Tags war, ist nicht mehr zu finden. In der SharePoint Tenant Administration wurde in der Verwaltung der Benutzerprofile auch der Link entfernt, mit dem man das Folgen konfigurieren konnte. In den neuen Bibliotheken mit dem modernen Design fehlt auch der Folgen-Link in jeglichen Kontextmenues.
01
(Hinweis: Screenshot aus zwei Screenshots zusammen gefügt)

Was ist nun die Alternative? Microsoft hat uns in Delve die Favoriten-Seite hinzugefügt. Dort kann ich meine Delve Boards verwalten und Dokumenten „folgen“, obwohl dies nun per Definition markierte Favoriten sind.
03

Aktuell scheinen auch die bisher gefolgten Dokumente verloren zu gehen, da sie mir nicht mehr angezeigt werden. Um nun also erneut eine Favoritenliste für Dokumenten zu erstellen, müssen wir zu unserer Delve Übersichtsseite wechseln und dort angezeigte Dokumente oben rechts markieren.
02

Seiten kann man zwar weiter problemlos folgen, diese sind aber in Zukunft nur über die „SharePoint“ Kachel zu erreichen.

Es bleiben derzeit drei spannende Fragen offen:

  1. Werden wir in Zukunft auch Dokumente direkt aus Bibliotheken favorisieren können?
  2. Was passiert mit den bisher gefolgten Dokumenten?
  3. Was geschieht mit dem Folgen aus Bibliotheken, die noch das alte Design verwenden? Denn dort kann man weiterhin problemlos Dokumenten folgen, nur scheinen diese Links ins Leere zu führen, weil sie auf keinem meiner Profil- oder Delve-Seiten auftauchen.

Wir sind gespannt, wie sich das entwickelt. Wer mehr Informationen über dieses Szenario hat, ist herzlich eingeladen, diese in den Kommentaren zu teilen. Auch ich werden den Beitrag aktualisieren, sobald es Neuigkeiten gibt.

Happy „SharePointing“!

SharePoint Durable Links – Bug oder Feature?

In den letzten Wochen habe ich mich intensiver mit den neuen Durable Links beschäftigt und ich wollte meinen Augen nicht trauen, was dabei heraus kam. Kurz: Diese neuen Links funktionieren nur bei Office Dateien beim Umbenennen. Aber der Reihe nach…

Test-Framwork:

  • SharePoint On-Premises und der entsprechenden Office Online Server Version (früher Office Web Apps)
    – Release Candidate
    – GA inklusive Mai CU
    – GA inklusive Juni CU
  • SharePoint Online in O365
  • Zum Verschieben der Dokumente folgende Ansätze genutzt
    – „Content and Structure“ in den SharePoint Site Collection Settings

    – „Send To“ Locations in der SharePoint Item Ribbon

    – Drittanbieterlösung

NEU: Durable Links

  • Links sollen erhalten bleiben, selbst wenn ein Dokument umbenannt oder verschoben wird
  • es wird eine ID dem Dokument hinzugefügt, an dem es in der Inhaltsdatenbank identifiziert werden soll, egal welchen Namen das Dokument hat oder welche URL davor steht
  • http://intranet2016/sites/RootSite/SubSite/Shared%20Documents/Doc1.docx?d=wc6f9bf88c1a846579992030744063b1b (durable Link)
  • Office Online Server erforderlich, mit dem der durable Link dann automatisch generiert wird

ALT: Document ID

  • Zusätzliche ID von Dokumenten per Site Collection
  • gedacht, um z.B. auf feste IDs per Custom Solution zu verweisen oder mit dem CQWP (Content by Query Web Part) eine Übersicht aus verschiedenen Dokumenten zusammen zu stellen
  • ein Prefix der ID kann konfiguriert werden und auch erneut überschrieben werden
  • Die ID kann auch in einer zusätzlichen Spalte angezeigt und als Link genutzt werden
  • http://intranet2016/sites/RootSite/SubSite/_layouts/15/DocIdRedir.aspx?ID=ROBTHEMSGEEK-680852213-3
  • Das Mapping hinter dem Link beruht jedoch auf dem Search Index
  • Das Umbenennen und eingeschränkte Verschieben erhält die ID und den Link, ABER, die Search muss den neuen Namen oder Ablageort erneut indexieren, damit er funktioniert

NEU am ALTEN:

Vor SharePoint 2016 wurde trotz DocID der normale Link im Kontextmenü („„) erhalten. Somit haben wir einen Link mit DocID in einer extra einzublendenen Spalte und einen normalen Link im Kontextmenü der Datei. Welchen Link nimmt nun wohl der Endanwender, um auf eine Datei zu verweisen? Richtig, den normalen. In SharePoint 2016 wurde das verbessert. Sobald man in den Site Collection Features die Document ID aktiviert, erhalten Dokumente nach durchgelaufenem Timer Service eine zusätzliche (Link-) ID. Außerdem wird der normale Link mit dem DocID-Link (DocIdRedir.aspx?ID=…) im Kontextmenü ersetzt. Damit haben wir nicht mehr zwei verschiedene Links pro Dokument, sondern nur noch den einen (besseren) Document ID Link.

———————–

Soviel zur Theorie. Jetzt spielen wie Myth Busters.

Funktioniert bei… Durable Links Document IDs
Office Dateien
(Word, Excel, PowerPoint, OneNote)
Ja Ja
Anderen Dateien
(pdf, jpg, png, wmv, mp4, etc.)
Nein Ja
Umbenennen Ja Ja*
Nach erneutem Crawl
Verschieben in andere Bibliothek
(per Content and Strcuture)
Nein Ja*
Nach erneutem Crawl
Mit Drittanbieterlösung auch ohne Crawl
Verschieben in andere Site
(per Content and Strcuture)
Nein Nein
Verschieben in andere Site Collection
(per Send To Locations)
Nein Nein

Und ich lege noch einen drauf. Sobald ich die Document IDs aktiviere, verschwinden die Durable Links komplett. Ehrlich gesagt ist das vielleicht auch ganz gut so, denn wir sehen oben, dass ich mit den DocID-Links einfach mehr erreichen kann.

Auf dem offiziellen und ein paar Monate alten Blog von Bill Bear (https://blogs.technet.microsoft.com/wbaer/2015/09/22/durable-links-in-sharepoint-server-2016-it-preview) werden obige Features aber noch immer uneingeschränkt so beschreiben, wie es funktionieren soll aber (noch) nicht geht. Daher auch der Vermerkt in rot bei obiger Durable Links Beschreibung. Es existieren auch unzählige andere Blogs, die von diesem tollen Feature (falsch) berichten. Denn spätestens ab dem Release Candidate wurde offensichtlich dieses Feature (sowie auch andere Funktionen siehe DLP in einem früheren Blogbeitrag [http://blogs.msdn.com/b/robert_mulsow/archive/2016/03/24/governance-und-compliance-mit-dem-neuen-sharepoint-2016-dlp-im-compliance-center.aspx]) wieder entfernt.

Grundsätzlich bin auch ich von dem Ansatz der Durable Links begeistert und unterstütze diese Idee als absolut notwenidgen Schritt in die richtige Richtung von Microsoft. Aktuell liegen Versprechen und Realität aber leider noch weit auseinander. Wir können nur hoffen, dass mit den nächsten CUs die Funktionalitäten zurück nach SharePoint 2016 kommen und auch die Durable Links wie versprochen in O365 funktionieren.

Bis dahin bleibt wachsam und viel Spaß beim „SharePointen“!

SharePoint 2016 Site Collections super schnell erstellen

Microsoft hat uns mit SharePoint 2016 eine kleine aber feine Rafinesse zur Verfügung gestellt, wenn wir Site Collections erstellen möchten. Jeder Farmadministrator, der „mal schnell“ eine Site Collection erstellen musste, kennt folgendes Szenario sicher: Nach dem Absenden der Erstellung holen wir uns erst einmal einen Kaffee, so wie wir es früher beim Start langsamer Computer gemacht haben. Denn eine Erstellung dauert ungefähr 40 (+/-) Sekunden, bis die Seite wirklich da ist.

Wenn ich nun in einem Unternehmen die Richtlinie verfolge, dass pro Projekt oder Mandant oder Kunde eine Site Collection erstellt werden muss, dann kann dies bei größeren Firmen zu sehr viel Wartezeit führen. Microsoft hat für dieses Szenario eine „Kopieren und Einfügen“ Funktion für Site Collections eingebaut. Statt 40 Sekunden braucht dieser Prozess nur noch eine Sekunde. Um diese Funktion zu nutzen, benötige ich zwei Schritte:

  1. Eine Vorlage für das „Fast-Site-Creation“ Verfahren aktivieren
    Enable-SPWebTemplateForSiteMaster -Template „STS#0“ -CompatibilityLevel 15
  2. Diese Vorlage dann als Master in einer ausgewählten Datenbank abspeichern
    $DB = Get-SPContentDatabase -site http://WebApp/sites/TeamSite
    New-SPSiteMaster -ContentDatabase $DB -Template „STS#0“

Ist dies erledigt, so sehe ich auch in meiner Zentraladministration, dass ein Site-Master als Site Collection angelegt wurde.

Als nächstes kann ich bereits mit dem richtigen PowerShell Befehl eine Site in Windeseile erstellen lassen.

New-SPSite http://WebApp/sites/Fast -Template „STS#0“ -ContentDatabase „P_SP_Content_Intranet“ -OwnerAlias „Contoso\administrator“ -CreateFromSiteMaster

 

Was müssen wir berücksichtigen?

  1. Sie sehen an dem Befehl, dass der einzige Unterschied zu einem normalen Erstellungsprozess der Switch „-CreateFromSiteMaster“ ist. Ohne diesen wird die Site nach dem Standard-Verfahren erzeugt. Auch das Erstellen über die Zentraladministartion verwendet den Standard-Prozess, sodass diese neue Funktion wirklich nur per PowerShell zur Verfügung steht.
  2. Dieser neue Prozess erstellt die Seite auf Datenbankebene. Damit ersparen wir uns einiges an „Hin und Her“ zwischen SharePoint and SQL Server, weil eben nicht das SharePoint Object Model verwendet wird. ABER, dies bedeutet gleichzeitig, dass nicht alle Features aktiviert werden können. Microsoft weist aber freundlich beim Erstellen das Site-Masters darauf hin, dass basierend auf der verwendeten Vorlage (- auch angepasste Vorlagen sind möglich -) noch bestimmte Features nachträglich aktiviert werden müssen, weil dies nicht für alle möglich ist. Mit dem Get-SPSiteMaster Befehl kann dies auch nachträglich herausgefunden werden. Dies ist interessant für Entwickler, deren Anpassungen bestimmte Features benötigen. Solche müssen somit noch explizit nach der Kopie zu einer neuen Site Collection aktiviert werden.

Fassen wir die Befehle noch einmal zusammen:

Enable-SPWebTemplateForSiteMaster Aktiviert die entsprechende Vorlage für den
Fast-Site-Creation Prozess
Disable-SPWebTemplateForSiteMaster Deaktiviert entsprechende Site Collection
Get-SPWebTemplatesEnabledForSiteMaster Zeigt alle Vorlagen an, die für den
Fast-Site-Creation Prozess aktiviert wurden
Get-SPSiteMaster Zeigt einen entsprechenden Site-Master an
(um z.B. die zu aktivierenden features erneut zu identifizieren)
New-SPSiteMaster Erstellt einen neuen Site-Master
Remove-SPSiteMaster Löscht einen Site-Master

Habe Sie beispielsweise ein „Self-Service-Portal“ auf Basis von PowerShell zur Provisionierung von Site Collections, dann empfehle ich dieses Feature zu nutzen, weil die Endbenutzer so noch schneller ihre angeforderte Seite zur Verfügung gestellt bekommen.

Also viel Spaß beim „SharePointen“!

Zero-Downtime Patching nur eingeschränkt mit Distributed Cache Service möglich

Mit SharePoint 2016 wurden die MinRoles und damit auch das Zero-Downtime Patching eingeführt. Aber derzeit kursieren widersprüchliche, gar falsche Aussagen in den Technet Artikeln. Die Dinge möchte ich gerade rücken und Ihnen zeigen, wie Sie mit dem Distributed Cache Service umgehen müssen, um das versprochene Zero-Downtime Patching bestmöglich zu realisieren.

Generell gibt es schon tolle Beiträge von John Peluso und Stefan Goßner über die Eigenarten des SharePoint Patchings in der Vergangenheit und wie dies SharePoint 2016 löst. Eine Kleinigkeit wird dabei jedoch ausgeklammert: Der Distributed Cache Service.

Derzeit ist der Englische Technet Artikel (nach meiner Erfahrung) korrekt:
https://technet.microsoft.com/en-us/library/mt346114(v=office.16).aspx

Darin wird gesagt, dass man acht (8) Server für die Hochverfügbarkeit in einem Zero-Downtime Patching Szenario benötigt. Allerdings wird richtigerweise darauf hingewiesen, dass es Einschränkungen mit dem Distributed Cache Service gibt

Der deutsche, russische und spanische Artikel (nach meinen persönlichen Checks) zeigen aktuell noch eine falsche Aussage. Darin wird gesagt, dass mindestens neun (9) Server erforderlich sind und der Distributed Cache Service dabei eine spezielle Rolle einnimmt mit insgesamt drei Servern, weil es einen Clusterquorum benötigt. Dies ist nicht korrekt, da der Service nicht über eine Quorum-Rolle im Cluster verwaltet wird. Stattdessen müssen die Informationen, die auf einem Cache Server gespeichert sind, für das Patching auf einen anderen Server manuell übertragen werden. Dies erfolgt per PowerShell cmdlet:

Stop-SPDistributedCacheServiceInstance -Graceful

Zusätzliche Details und weiterführende Links, wie Sie den Distributed Cache Service planen und verwalten können, habe ich bereits im letzten SharePoint Adventskalender beschrieben:
http://blogs.msdn.com/b/robert_mulsow/archive/2015/12/16/sharepoint-configuration-best-practices-distributed-cache-service.aspx

Lassen Sie sich also nicht in die Irre führen. Das Problem habe ich an Microsoft reported. Entsprechende Updates sehen Sie dann hoffentlich bald auf den Technet-Seiten. Auch ich werde diesen Artikel nach Aktualisierung anpassen.

Viel Spaß beim „SharePointen“!