Suche

Sonntag, 4. Dezember 2011

SharePoint Advent

Ich möchte Euch heute nur kurz den SharePoint Advent (http://sharepointadvent.de/) der 8 MVP aus dem DACH-Bereich empfehlen. Hier findet Ihr jeden Tag einen informativen Beitrag der folgenden MVP:

Ich wünsche Euch viel Spaß beim Durchstöbern der einzelnen Beiträge.

Patrick

Sonntag, 28. August 2011

SharePoint 2010 - Installation Service Pack 1

Ich möchte hier noch einmal kurz auf die Installation des SharePoint 2010 Service Pack 1 eingehen. Das Thema wurde zwar schon in einigen Posts diskutiert, jedoch gibt es immer noch Verständnis-Probleme mit der Installation.
Nach dem anfänglichen Durcheinander nach der Veröffentlichung  des Service Packs 1 und dem CU June 2011 gab es diverse Post, die sich mit der Installation des Service Packs 1 befasst haben. In den meisten Artikeln wurde empfohlen das CU June 2011 nach dem Service Pack 1 unverzüglich einzuspielen. Dieser Empfehlung sollte man allerdings nicht nachkommen.
Spencer Harbar hat hierzu einen sehr interessanten und empfehlenswerten Post (So What the Fuss?) geschrieben. Da das CU June 2011 auch in der aktualisierten Version nicht einwandfrei funktioniert (http://social.technet.microsoft.com/Forums/pl-PL/sharepoint2010setup/thread/7669d518-f7c9-4be4-9cd7-a1d5eae5ddd7) sollte man wirklich versuchen sich an diesen Guide zu halten und das CU June 2011 nicht unmittelbar nach dem Service Pack 1 einzuspielen. 
Wie bei allen anderen Updates und Service Packs empfiehlt es sich ein Test-System zur Evaluierung zu nutzen, bevor man sein Produktiv-System auf den neuesten Stand bringt.


Viele Grüße und viel Spaß,
Patrick

Mittwoch, 24. August 2011

Upgrade MOSS 2007 von SQL Server 2005 auf SQL Server 2008

Ich werde ich im folgenden Post den Vorgang beschreiben, wie man die Datenbanken eines MOSS 2007 von einem SQL Server 2005 auf einen SQL Server 2008 verschiebt.
Bevor man mit der Umsetzung beginnt, sollte man auf jeden Fall eine Sicherung der kompletten SharePoint-Farm durchführen.
Es werden die folgenden Berechtigungen auf den Systemen benötigt:


SharePoint
  • lokaler Administrator
  • Farm-Administrator
SQL-Server (2005)
  • lokaler Administrator
  • SecurityAdmin
  • DB_BackupOperator
SQL-Server (2008)
  • lokaler Administrator
  • DB_Owner
  • DB_Creator
Des Weiteren sollte man sicherstellen, dass genügend
  • Festplattenspeicherplatz für die Datenbank-Backups zur Verfügung steht und
  • der Zugriff auf alle benötigten Server erteilt wurde.

Durchführung Datenbank-Backups
Folgende Dienste müssen gestoppt werden, damit die Farm nicht mehr zu Verfügung steht:
  • Windows SharePoint Services Administration
  • Windows SharePoint Services Search
  • Windows SharePoint Services Timer
  • Windows SharePoint Services Tracing
  • Windows SharePoint Services VSS Writer
Nachdem die Dienste gestoppt sind kann der IIS gestoppt werden.
  • iisreset /stop
Nun erstmal einen Kaffee holen, da es eine kleine Zeit dauern kann bis der Windows SharePoint Services Timer alle Prozesse
beendet hat. Jetzt kann man mit dem eigentlichen Datenbank-Backup beginnen.



Möglichkeit 1: SQL Server Management Studio (GUI)
  • Rechtsklick Datenbank
  • Tasks
  • Backup
  • Einstellungen durchführen

Möglichkeit 2: SQL Server Management Studio (Skripte)
Folgendes Skript im SSMS ausführen:


BACKUP DATABASE [Datenbank-Name]
TO DISK = N'C:\BackUp\Datenbank-Name.bak'
WITH NOFORMAT,
NOINIT,
NAME = N'Datenbank-Name',
SKIP,
NOREWIND,
NOUNLOAD,
STATS = 10
GO
  • Datenbanknamen anpassen
  • Pfade anpassen
  • für alle Datenbanken ausführen
Die erstellten Backup-Dateien (Dateiname.bak) müssen nun kopiert werden und in ein Verzeichnis abgelegt werde, auf welches der neue SQL-Server Zugriff hat.

Durchführung Datenbank-Restore
Entweder die Datenbanken über die GUI des SSMS wiederherstellen oder aber über das folgende Skript.
Da es sich um mehrere Datenbanken handelt bevorzuge ich das Skript. Man muss es dann nur für jede Datenbank anpassen, lässt es dann laufen und kann sich in Ruhe einen Kaffee holen :-) (wie man bemerkt, ich trinke gerne Kaffee).
Die Pfade müssen natürlich auch dementsprechend angepasst werden, in diesem Fall wird die Instanz MSSQL2008R2 benutzt.


RESTORE DATABASE [Datenbank-Name] FROM DISK = N'C:\BackUp_2005\Datenbank-Name.bak' WITH FILE = 1,
MOVE N'Datenbank-Name' TO N'C:\Program Files\Microsoft SQL Server\MSSQL10_50.MSSQL2008R2\MSSQL\DATA\Datenbank-Name.mdf',
MOVE N'Datenbank-Name_log' TO N'C:\Program Files\Microsoft SQL Server\MSSQL10_50.MSSQL2008R2\MSSQL\DATA\Datenbank-Name_1.LDF',
NOUNLOAD, REPLACE, STATS = 10
GO

Umbennung SQL-Server
Als nächstes muss nun noch der Server umbenannt werden, damit auch die korrekte Verbindung hergestellt werden kann.
Hierzu zu einfach die PowerShell-Console öffnen, in das Verzeichnis C:\Program Files\Common Files\Microsoft Shared\Web Server Extensions\12\BIN wechseln und den folgenden Befehl eingeben:

.\stsadm.exe -o renameserver -oldservername "alter SQL-Server" -newservername "neuer SQL-Server"

Dieser Befehl muss auf allen Webfrontend-Servern durchgeführt werden. Nun müssen die WFE's noch durchgestartet werden.
Die Windows SharePoint-Dienste und der IIS werden nach dem Neustart automatisch hochgefahren.
Zur Kontrolle kann man nun die Zentral-Administration aufrufen und schauen, ob alles zur Verfügung steht und die Inhaltsdatenbanken das
richtige Mapping aufweisen.

Mittwoch, 10. August 2011

Moving FAST Search Server Indexfiles

Ich stand die Tage vor einem Problem mit den Indexfiles des FAST Search Server for SharePoint 2010. Standardmäßig werden die Indexfiles in dem Installationsverzeichnis (C:\FASTSEARCH) abgelegt, der Sinn hiervon sei mal dahingestellt. 
Nach einigen Recherchen bin ich dann auf den folgenden Artikel gestoßen. Die Informationsquellen für die FAST Search sind doch noch relativ dürftig. Die Nomenklatur des mklink-Aufrufes geht aus dem Artikel leider nicht eindeutig hervor und man könnte annehmen, dass man Ihn so übernehmen kann. Ein Junction Point lässt sich auch erfolgreich anlegen, jedoch funktioniert die FAST Search danach nicht mehr.
Hier dann noch einmal der komplette Vorgang mit der einzusetzenden Schreibweise:


  1. Stoppe den FAST Search for SharePoint service
  2. Stoppe den FAST Search for SharePoint Monitoring service
  3. Verschiebe den Ordner C:\FASTSEARCH\data in das neu erstellte Verzeichnis (hier D:\IndexFAST\data)
  4. Starte das folgende Skript in der Konsole: 
    • mklink /j C:\FASTSEARCH\data D:\IndexFAST\data
  5. Starte den FAST Search for SharePoint Service, der Monitoring Service wird automatisch mitgestartet
Dann viel Spaß beim Verschieben der Indexfiles.

Viele Grüße
Patrick




Dienstag, 9. August 2011

PerformancePoint Services - Dashboard Designer 2010

Leider hat es etwas gedauert, aber ich habe meinen Sommerurlaub verbracht und die Zeit zum Entspannen genutzt. 

















Kommen wir dann aber heute zum zweiten Teil über die PerformancePoint Services vom SharePoint Server 2010. Im ersten Teil habe ich einen Überblick im Allgemeinen gegeben. In diesem Teil werde ich den Dashboard Designer 2010 beschreiben und aufzeigen welche Möglichkeiten wir mit diesem Tool haben.

Was ist ein Dashboard?

Kurz und knapp gesagt: Ein Dashboard ist eine Sammlung/Übersicht von Unternehmensdaten, die mit Hilfe von Scorecards, KPI’s und Berichten dargestellt werden können. Der Benutzer greift über einen Webbrowser interaktiv auf die Daten zu und erhält die erforderlichen Informationen. Es kann eine Vielzahl an Elementen in einem Dashboard vorhanden sein. Das hängt von der Komplexität der zu darstellenden Informationen ab.

Was ist der Dashboard Designer?

PerformancePoint Dashboard-Designer ist ein in den PerformancePoint Services des Microsoft SharePoint Server 2010 enthaltenes Tool, mit dem Sie die Möglichkeit haben leistungsfähige Dashboards in Ihrem Unternehmen erstellen zu können. Die PerformancePoint Services sind Bestandteil der Enterprise Edition und müssen von Ihrem Administrator konfiguriert werden. Nachdem Sie die erforderlichen Berechtigungen zum Erstellen von Dashboards erhalten haben und den Dashboard Designer 2010 via ClickOnce Installation (Internetverbindung vorausgesetzt) installiert haben, stehen Ihnen die folgenden Funktionen zur Verfügung:
  • Erstellen von Datenverbindungen
  •  Erstellen von Berichten
  •  Erstellen von Filtern
  • Erstellen einer Dashboard-Seite
Was aber sind nun die Vorteile gegenüber den mit Microsoft Office Excel oder Diagramm-Webparts erstellten Übersichten. 
  • Wiederverwendbarkeit von Dashboard-Elementen
    • Speicherung in Listen und Bibliotheken
    • Zugriff für alle Dashboard-Autoren
  •   Drillup und Drilldown der Daten
    • sehr hohe Interaktivität möglich 
    • Abhängig von der Konfiguration und der Daten
  • Verknüpfung von Dashboard-Elementen mit anderen Berichten
    • Filter-Funktionalität
  • Zeitintelligenz-Funktionalität
    •  Auswahl der Zeiträume

Im nächsten Post, der hoffentlich nicht wieder so lange auf sich warten lässt, werde ich mich dann mit dem Erstellen eines Dashboards befassen.

Viele Grüße und viel Spaß,
Patrick

Freitag, 17. Juni 2011

Überblick PerformancePoint Services - SharePoint 2010

Wie ich in einem meiner vorherigen Posts erwähnt habe, wollte ich mich noch einmal zu dem Thema PerformancePoint Services äußern und meine Erfahrungen an die Aussenwelt kommunizieren. Da dies eine wirklich breit gefächerte Thematik ist und auf die unterschiedlichsten Daten zugreifen kann, würde ein einzelner Post entweder zu lang werden oder aber es würden viele Informationen verloren gehen. Daher habe ich mich dazu entschieden, das Ganze in ein paar kleinere Posts zu splitten (aufgrund meiner derzeitigen Projektauslastung kann es eventuell mal etwas länger dauern).

Den Anfang macht man natürlich mit einer Übersicht. Ich werde also in diesem Post die PerformancePoint Services beschreiben und Euch einen Überblick darüber verschaffen, was die PerformancePoint Services überhaupt darstellen. Meine Informationen habe ich der msdn entnommen bzw. basieren Sie auf eigenen Erfahrungen.



Was sind PerformancePoint Services (PPS)
Generell kann man sagen, dass die PPS ein Tool zur Überwachung und zum Analysieren von Daten sind. Die PerformancePoint Services gibt es bereits seit der 2007er Version, wo Sie jedoch noch als ein eigener PerformancePoint Server 2007 eingesetzt wurden. In der SharePoint 2010 Version wurden die PPS direkt in den SharePoint Server integriert. Die PPS stehen jedoch nur in der Enterprise Edition zur Verfügung. Die Funktionalität wurde im Gegensatz zur alten Version verbessert und erweitert. Mit den PPS wird es den Anwendern möglich gemacht Geschäftsentscheidungen, Analysen und Überwachungen der Kennzahlen durchzuführen. Als Hilfsmittel dienen hier die zur Verfügung gestellten
  • ·         Dashboards
  • ·         Scorecards
  • ·         KPIs
  • ·         Reports
  • ·         Diagramme.

Ohne Daten nutzen einem diese Hilfsmittel natürlich nichts, daher unterstützen die PerformancePoint Services eine Reihe an möglichen Datenquellen. Auf die Implementierung dieser Datenquellen werde ich in einem der nächsten Posts drauf eingehen. Eins werde ich jedoch jetzt schon erwähnen. Um aussagekräftige und optimal nutzbare Auswertungsmöglichkeiten zu erzielen ist es vorzuziehen, dass man die SQL Server Analysis Services als Datenherkunft einsetzt. Die insgesamt zur Verfügung stehenden Datenquellen sind folgende:
  • ·         SharePoint-Listen
  • ·         Excel Services
  • ·         SQL Server
  • ·         SQL Server Analysis Services

Wie bei allen anderen Auswertungen/Analysen/Berichten ist man auch bei den PPS auf eine zuverlässige Datenqualität angewiesen, denn ohne korrekte Daten helfen auch die besten Tools nicht weiter.

Wie funktionieren die PerformancePoint Services
Die PerformancePoint Services sind eine SharePoint 2010 Server-Dienstanwendung. Datenquellen und  Dashboards werden in Dokumenten-Bibliotheken gespeichert, während alle anderen Dashboard-Inhalte in Listen abgelegt werden. In der folgenden Abbildung (Quelle: http://technet.microsoft.com/de-de/library/ee890835.aspx) wird einmal die Architektur und Funktionsweise der PerformancePoint Services in einer 3-Server-Farm dargestellt:



Wie man hier erkennen kann haben wir hier ein Zusammenspiel von unterschiedlichen Features, wie z.B. Microsoft Office Excel oder auch der Dashboard Designer. Der Dashboard Designer ist eine Click-Once-Anwendung, die beim ersten Gebrauch der PPS heruntergeladen und auf dem Client ausgeführt wird. Die Handhabung des Dashboard Designers folgt in einem der nächsten Posts. Die Datenquellen werden hier auch noch einmal dargestellt.

Das Sicherheitsmodell der PerformancePoint Services
Wenn es im Unternehmen um Daten geht kommt immer auch die Frage von einem Sicherheitskonzept auf. Wie verhält es sich bei den PerformancePoint Services? Die PerformancePoint Services speichern die Objekte in Dokumenten-Bibliotheken und Listen ab, somit werden die Daten durch das Sicherheitsmodell des SharePoint Server geschützt. Die folgenden Punkte sollte man der Nutzung der PerformancePoint Services beachten und planen:
  • ·         verschiedenen Methoden für die Authentifizierung
  • ·         Vertrauenswürdige Speicherorte
  • ·         Vertrauenswürdige Dateninhaltsbibliotheken
  • ·         Vertrauenswürdige Listen für Dashboard-Inhalte
  • ·         Datenquellensicherheit
  • ·         Secure Store Service und unbeaufsichtigte Dienstkonten
  • ·         Forderungsbasierte Authentifizierung

Weiterführende und detaillierte Informationen findet Ihr auf http://technet.microsoft.com/de-de/library/ee748637.aspx.

Um einen ersten Überblick der PerformancePoint Services zu erlangen, sollte es erst einmal reichen. In weiteren Posts werde ich dann auf die Handhabung und Erstellung von Dashboards mit dem Dashboard Designer eingehen.

Viele Grüße...
Patrick

Mittwoch, 15. Juni 2011

Erstellen einer Inhaltsdatenbank mit dazugehöriger Webseitensammlung

Heute habe ich bei meinen Kollegen mitbekommen, dass Sie eine neue Webseitensammlung (Site-Collection) mit einer eigenen Inhaltsdatenbank (Content Database) anlegen mussten. Ich habe es so wahrgenommen, dass dieses Szenario über die UI doch etwas umständlich ist. Da ich in letzer Zeit immer mehr Begeisterung für PowerShell empfinde, habe ich mich doch einfach daran gemacht und das folgende Script angefertigt :-)

# Enter your SQL Server Instance
$SQLServer = 'SPS2010SQLServer'
# This variable stores your content-database
$contentDB = 'SP_2010_Content_DB'
# Here you have to enter the URL of your webapplication
$SPWeb = 'http://SharePoint2010'
# Enter the URL of your new site-collection
$SPSite = 'http://SharePoint2010/websites/newSiteCollection'
# Please enter here your primary site-collection administrator
$SPSiteAdmin = 'Domain\SP_Admin'
# Enter your primary language (1031 = German)
$LanguageID = '1031'
# You although can specify the template for this site-collection (STS#1 = blank)
$SPTemplate = 'STS#1'
# This statement creates the new content-DB
New-SPContentDatabase -Name $contentDB -DatabaseServer $SQLServer -WebApplication $SPWeb
# Creates the new Site-Collection on the specified Content-Database
New-SPSite -URL $SPSite -OwnerAlias $SPSiteAdmin -ContentDatabase $contentDB -Language $LanguageID -Template $SPTemplate


Viele Grüße,
Patrick

Benutzer einer SharePoint-Gruppe auslesen (Data One Power Activity for Nintex Workflow)

Ich habe dieser Tage ein kleines Problem mit der Nintex-Aktivität << Data Request >> gehabt. Derzeit ist es leider nur möglich dieser Aktivität einen Benutzer zuzuweisen. Was nun aber tun, wenn mehrere Benutzer diese Dateneingabe vornehmen sollen. Man kann das Ganze umgehen, indem man eine neue SharePoint-Gruppe anlegt und die Benutzer in dieser Gruppe einpflegt.
Hier bin ich dann jedoch auf das nächste Problem gestoßen. Die SharePoint-Gruppe wird nicht aufgelöst, so dass die Aufgabe nicht in den Nintex-Webpart << Meine Workflowaufgaben >> angezeigt wird. Ich habe mir nun Gedanken über eine mögliche Lösung gemacht und bin zu folgendem Ergebnis gekommen.

Schritt 1: SharePoint Webservice
Auslesen der SharePoint-Gruppe mit dem SharePoint Webservice (http://sharepoint/_vti_bin/UserGroup.asmx) und der Methode << GetUserCollectionFromGroup >>. Als Ergebnis bekommen wir folgendes XML-Konstrukt (aus Darstellungsgründen habe ich es auf den LoginName beschränkt):


<GetUserCollectionFromGroup xmlns="http://schemas.microsoft.com/sharepoint/soap/directory/">
   <Users>
        <User  LoginName="Domäne\ps_test"  />
        <User  LoginName="Domäne\tk_bpmhelp" />
        <User  LoginName="Domäne\tk_discmanager"  />
   </Users>
</GetUserCollectionFromGroup>

Schritt 2: Auslesen mit PowerShell
Für die weitere Vorgehensweise werden die einzelnen Benutzer (in diesem Fall der LoginName) benötigt. Das Auslesen der Benutzer habe ich mit der Powershell realisiert. Die meisten werden nun fragen, wie kann ich Nintex Workflow in Verbindung mit der PowerShell nutzen? Ganz einfach, man benutzt die  << Data One PowerActivity for Nintex Workflow >>. Das folgende Script liest die einzelnen Benutzer aus und speichert Sie in einer ArrayList. Das Ergebnis wird dann einer Nintex-Collection-Variablen übergeben und man hat nun die Möglichkeit auf die einzelnen Benutzer dieser SharePoint-Gruppe zuzugreifen.


# path to the xml-file
$InputXML = 'C:\Users\ps\Desktop\UserGroup.xml' 
# get the content from the xml-file
$xml = [xml](Get-Content -Path $InputXML)
# create a variable of type System.Collections.ArrayList
$users = new-object 'System.Collections.ArrayList'
# iterate through the xml-file and get all users of the SharePoint-Group
$xml.GetUserCollectionFromGroup.users.user | foreach { 
$users.Add($_.Loginname)
}


Schritt 3: Zuweisen << Data Request >> an die Benutzer
Damit die Benutzer nun Ihre Aufgaben auch im Webpart << Meine Workflowaufgaben >> sehen können, muss jedem Benutzer ein << Data Request >> zugewiesen werden. In der Collection-Variable, die zuvor in der << Data One PowerActivity >> gefüllt wurde, sind alle Benutzer der SharePoint-Gruppe enthalten. Für jeden Eintrag wird ein << Data Request >> gestellt. Nun müssen wir noch die Abarbeitung der restlichen Aufgaben realisieren, wenn jemand seine Eingabe getätigt hat. Die << Data Request >> Aktivität hat derzeit leider nicht die Möglichkeit, dass man in der Konfiguration angeben kann, dass die erste Antwort zählt (wie man es z.B. vom Flexi-Task gewöhnt ist). Man muss sich die Action-ID's der einzelnen Aufgaben speichern und kann hiermit dann die noch offenen Aufgaben abschließen.

Die Lösung ist zwar nur suboptimal, aber man kann damit arbeiten und diese Aktivität auch mit mehreren Usern nutzen. Ich hoffe, dass in einem der nächsten Releases dieses Feature implementiert sein wird.

Viele Grüße,
Patrick

Dienstag, 17. Mai 2011

SharePoint 2010 - Passphrase zurücksetzen

Habe gerade einen blogpost entdeckt, der kurz und knapp die Möglichkeit des Zurücksetzens der Passphrase beschreibt. Wie gerne vergisst man Ihn ;-)

Viele Grüße
Patrick

Samstag, 16. April 2011

European Best Practices SharePoint Conference - Tag 3 (Teil 1)

Session – Agenda Tag 3

User, Profiles and MySites: Managing a Changing SharePoint UserPopulation (9:00-10:00)
  • Paul “Papanek” Storck
What to avoid to ensure Workflow projects succeed (10:15-11:15)
  • Mike Fitzmaurice
Building effective Dashboards using the Business Intelligence Toolkit of SharePoint 2010 (11:30 - 12:30)
  • Mark Macrae 
Partner Lunchtime Session (Raona – Why and how you should integrate Twitter, Facebook and Linked In with SharePoint within the Enterprise) (12:45-13:30)
  • Adrian Willis & Pablo Peris
Using Visual Studio 2010 to Create SharePoint Load tests (13:45 - 14:45)
  • Steve Smith
Real World Service Application federation with SharePoint 2010 (15:00 - 16:00)
  • Spencer Harbar


Den Gesichtsausdrücken einiger Teilnehmer konnte man entnehmen, dass die „Party Night“ recht erfolgreich verlaufen ist. 
Zu allem Übel gab es in den Kühlschränken auch keine Cola mehr, nur noch Wasser und 7Up, der Tag wurde Nichtsdestotrotz ein Erfolg.

User, Profiles and MySites: Managing a Changing SharePoint UserPopulation (9:00-10:00)
Den Anfang des dritten und letzten Tages machte Paul "Papanek" Storck (Twitter: pstork). In dieser Session ging es um Benutzer, Profile, MySite und um das Verwalten dieser Daten. Paul fing damit an, dass wenn man die Daten eines Benutzer im Profil ändert (z.B. Displayname) sich diese Änderung sich nicht direkt im SharePoint wiederfindet. Hierfür kann es mehrere Gründe geben:
  • der Quick Sync/Full Sync ist noch nicht gelaufen
  • der Benutzer ist deaktiviert
    • manuell aktivieren
    • Benutzer muss einmal am SharePoint teilnehmen (z.B. ein Dokument hochladen)
      • Quick Sync starten oder max. 5 Minuten abwarten
Für den Sync sind 2 SharePoint Timer-Jobs verantwortlich:
  • Quick Sync (alle 5 Minuten)
  • Full Sync (jede Stunde)
  • Benutzer die nicht als aktiv markiert sind, werden nicht synchronisiert
SharePoint Foundation und SharePoint Server speichern die Daten unterschiedlich:
  • SharePoint Foundation
    • User Infotable
  • SharePoint Server
    • User Infotable
    • User Profiles
Hier noch ein paar Infomationen zu Profilen:
  • einige Felder lassen sich nicht editieren
  • einige Felder nutzen Mananged Metadata (Vereinheitlichung und Strukturierung dieser Felder)
    • Skills
    • Ask me about
    • Projects
Dann hat Paul zum Thema "Cleaning up MySites and Profiles" interessante Infos und Tipps gegeben. Zum einen gibt es hier seitens SharePoint ein paar Umstimmigkeiten.
  • MySite Clean Job 
    • manuell
    • automatisch (CleanUp ist aktiviert)
  • Email an den Manager
    • wird als Secondary Site-Collection Admin eingetragen (bekommt somit Zugriff auf die Dokumente und Unterlagen der MySite. Die Homepage ist nicht einsehbar.
    • Manager muss im AD gepflegt und synchronisiert sein
    • Manager muss SharePoint-User sein
    • landet in den Junk-Emails
Es war eine sehr interessante Session mit einem Top-Speaker. Das Thema Users, Profiles und MySites sollte also wirklich gut durchdacht sein. Wie bisher in allen anderen Sessions auch. Der SharePoint Server braucht eine sehr gut durchdachte Planung, das kann viel Zeit und Troubleshooting ersparen.

Building effective Dashboards using the Business Intelligence Toolkit of SharePoint 2010 (11:30 - 12:30)
Die nächste Session zum Thema „Building effective Dashboards using the Business Intelligence Toolkit of SharePoint 2010“ wurde von Marc Macrae (Twitter: m_macrae) gehalten. 
Auch hier waren meine Erwartungen wieder sehr hoch. Ich habe mir von dieser Session ein paar neue Gedankenanstöße und Tipps in der Anwendung erwartet. Meine Erwartungen wurden 
jedoch nicht unbedingt erfüllt. Auf meiner Spielwiese habe ich die BI-Tools vom SharePoint bereits selbst benutzt und herumgespielt, daher auch Spielwiese ;-)
Mark hat in seinen Slides und Live-Demos die folgende Punkte angesprochen und erläutert:


Data Layer (most important part)
  • Data
  • Security
  • Consumers
  • Tool Selection
Data
  • Excel
  • SAP
  • SP2010
  • SQL Server
  • Data Warehousing (across all Systems)
Security
  • Techniques
    • Build separate Dashboards
      • Least secure
    • Build separate Data Sources
      • Most practical
    • Use Per-User Security Trimming
      • Complex configuration requiered
      • Trust
Tool Selection
  • Dashboard Designer 2010
  • Performance Point Services
Basic Tools
  • Chart Web Part
  • SP List
  • BCS
  • Web Part
  • Excel
Status List
  • SP List
  • Analysis Services
  • Excel
  • Simple Scorecards
Operational Tools
  • Excel 
  • most popular BI-Tool
  • Most versatile
  • feature rich product
Advanced Tool
  • Performance Point Services 
  • Expensive/Costs
  • Need trainings
  • OLAP (primarily Data Sources)
Zum Thema Performance Point Services werde ich in naher Zukunft (eine Definition von naher Zukunft werde ich jetzt nicht definieren) noch einen separaten Post veröffentlichen. 
Das Thema ist einfach zu komplex und vielfältig und es in ein paar Zeilen oder einer Session abbilden zu können. Die anderen Sessions werde ich in einem weiteren Post veröffentlichen.


Viele Grüße
Patrick

Mittwoch, 13. April 2011

European Best Practices SharePoint Conference - Tag 2 (Teil 2)

Wie im vorherigen Post erwähnt, kommt nun dann noch der Rest vom 2. Tag der "European Best Practices SharePoint Conference".




Eine Session von der ich viel erwartet habe war "Architecting and Deploying Business Intelligence Solutions using PowerPivor" von Shaun O'Callaghan (Twitter: shaunocallaghan / Blog: sharepointplace). Zu diesem Thema werde ich einfach mal die wichtigsten Stichpunkte erwähnen.


Informationen
  • Hohe Kosten
  • Spezialisten sind notwendig
  • Data-Warehouse empfehlenswert
  • Leistungsfähige Database Analysis Engine (In-Memory)
  • Sehr große Mengen an Datenmanipulation
  • Excel-Umgebung zum Erstellen der Workbooks
  • entwickelt auf Analysis Services
  • Spaltenbasierende Datenspeicherung
  • Extrem hohe Kompressionsrate (~ 1:10)
  • Vertipaq in-Memory
  • Benutzt DAX (Data Analysis Expressions) anstelle von MDX
  • keine Unterstützung von Claims-Based!
  • Workbooks werden in der Content-DB gespeichert (Speicherkapazität beachten)
Microsoft Business Intelligence Tools
  • Microsoft Office 2010
  • Microsoft SharePoint Server 2010 (Enterprise Edition)
  • SQL Server 2008 R2 (Enterprise Edition)
Service-Architektur
Daten-Aktualisierung
  • Workbooks werden aktualisiert
  • aktiviert auf Service Application Ebene
  • über Schedule gesteuert
  • im Workbook oder Datenquelle konfiguriert
  • verschiedene Datenquellen können unterschiedliche Schedules haben
  • Ist ein 2-Stufen-Prozess
  • Sehr Ressourcenhungriger Prozess
    • 64GB RAM (SQL Server)
    • Quad Core Xeon 2,6 GHz (SQL Server)
Shaun hat dann in einer Live-Demo einmal PowerPivot vorgestellt und ein paar Daten geladen und entsprechenden verarbeitet und angezeigt. Im Großen und Ganzen war es eine gelungen Session, Neuigkeiten waren bis auf den Prozess der Daten-Aktualisierung und der hohen RAM-Nutzung des SQL Servers nicht vorhanden.

Dann habe ich wie bereits am 1.Tag eine Session von Laura Rogers "InfoPath und SharePoint Designer 2010 Workflow Best Practices" besucht und wie bereits in Ihrer ersten Session war die Anzahl der Sitzplätze viel zu knapp bemessen. Ich habe zum Glück einen Platz ergattern können.
Wie das Thema bereits aussagt hat Laura InfoPath in Verbindung mit SharePoint Designer 2010 Workflows gezeigt. Hierbei ging es um einfache Approval-Prozesse, die über das InfoPath-Formular gesteuert werden. Es wurde auch der UserProfile-Webservice eingebunden, so dass man sich automatisch den Manager des Benutzers ziehen konnte, um diesem einen Genehmigungs-Prozess zuweisen konnte. Laura hat mit "Conditional Formatting Rules" bestimmte Bereiche, Felder und Buttons ein- und ausgeblendet. Mein Fazit dieser Session: Wenn man einfach strukturierte Genehmigungsprozesse abbilden möchte, man die Enterprise-Version zur Verfügung hat und man keine 3rd-Party-Workflow-Tools einsetzen will, dann kann man mit InfoPath und SharePoint Designer 2010 Workflows die Prozesse abbilden. Sollte es jedoch um komplexere Prozesse gehen, so gehe ich Stand heute davon aus, dass man hier mit 3rd-Party-Tools besser bedient ist, alles andere wäre ohne Entwicklung, sprich Coding, nicht einfach umsetzbar.



Viele Grüße,
Patrick

European Best Practices SharePoint Conference - Tag 2

Der 2. Tag ist dann auch vorbei, der Post hierzu folgt jedoch erst am 3. Tag, denn gestern Abend war die "Party Night" sponsored by K2.


Es ist daher etwas später geworden und um für den letzten und 3. Tag fit zu sein hat der Weg direkt ins Bett geführt. Nun aber zum Inhalt der Sessions.
Identity Management in SharePoint 2010



Speaker dieser Session war Rick "SlickRick" Taylor (Twitter: @slkrck). Um die müden Leute (immerhin war es erst 9 Uhr)erst einmal in Stimmung zu bringen, brauchte er nur ein paar Jokes und das Publikum war bereit. Es folgte ein Überblick über das Identity Management in SharePoint und es gab direkt Best Practices Tipps. "Audit and Monitoring is very, very useful. Don't miss it."

Dann gab es eine Übersicht der 4 A's:
  • Authentication
    • PIN
    • Password
    • Email
    • Username
  • Authorization
    • the user has permissions to do this?
    • it is a dynamic process!
  • Access Control
    • ACL's for every user means CHAOS!
  • Auditing
    • User Lifecycle
    • check Users and not only the Admin-Accounts!
Über den FIM hat sich Rick dann auch noch ein wenig ausgelassen, ist hier jedoch nicht in die Tiefe gegangen, das hätte auch den Rahmen der Session gesprengt.
Die 60 Minuten haben mir sehr gut gefallen und das Fazit sind ein paar Gedankenanstöße, die jedoch mehr mit der IT-Infrastruktur zutun haben und nicht unbedingt auf der SharePoint-Seite zu suchen sind.

State Machine Workflows mit Mike Fitzmaurice war als nächstes an der Reihe. Mike ist hier nicht explizit auf den State Machine-Activities von Nintex eingegangen, sondern hat dem Publikum Sinn und Zweck von State Machine Workflows im Allgemeinen näher gebracht. Da ich bereits mit State Machine Workflows arbeite, konnte ich hier nicht wirklich viel Neues erfahren. Ich werde jedoch die Ein oder Anderen Tipps von Mike beachten. Definitiv folge ich seiner Anweisung, beim Kunden von Stages und nicht von States zu sprechen. Die Erfahrung habe ich bereist gemacht, dass der Kunde es nicht immer sofort versteht.

Das Highlight des Tages war dann wieder einmal Gary Lapointe mit seiner Session zum "PowerShell Best Practices for Developers". Richtig gelesen, ein DevTrack ;-). Nachdem ich am 1.Tag bereits seine "PowerShell Session Best Practices for Admins" besucht hatte, blieb mir keine andere Wahl. Denn mich hat Gary Lapointe vollkommen von PowerShell überzeugt und ich hoffe wirklich sehr, dass ich genügend Zeit haben werde, mir ein paar Scripte zur Automatisierung, Konfiguration und Überwachung der Systeme zu erstellen. Die Zeit werde ich bei Kundenprojekten definitiv einsparen können. Gary hat ein paar wenige Slides gezeigt und den Rest seiner Präsentation als Demo gestaltet. Ich habe mir ein paar Dinge mitgescriptet, so dass ich die Basis für meine Erweiterungen nutzen kann. In seinem blog findet man jede Menge Informationen zu diesem Thema.

Die folgenden Sessions (Archtitecting and Deploying Business Intelligence Solutions, Best Practices for Multi-Tenancy, InfoPath and SharePoint Designer 2010 Workflows) habe ich ebenfalls noch besucht, hierdrauf werde ich jedoch erst im nächsten Post genauer eingehen. Für heute erst einmal genug geschrieben, werde jetzt noch das englische Bier testen ;-)

Ein Punkt den ich noch kurz erwähnen möchte: in der Lunchtime Session habe ich mir K2 angesehen und bin von der Handhabung, der Flexibilität und den Möglichkeiten extrem begeistert. Habe mir direkt am Stand erstmal einen USB-Stick mit den Demos abgeholt ;-)

Cheers,
Patrick

Montag, 11. April 2011

European Best Practices SharePoint Conference - Tag 1

Der erste Tag ist vorbei und er war wirklich voller Überraschungen und jede Menge interessanter Sessions. Die Keynote wurde von Chris Johnson (Microsoft) durchgeführt. Der SharePoint-Trailer zur Einstimmung wurde sehr gut realisiert und war eine gute Einleitung. Dann hat Steve Smith (Combined Knowledge) noch ein paar Worte an die Leute gerichtet, bevor er dann zusammen mit der Queen Chris empfangen hat. Er hat ein wenig die Geschichte von Microsoft mit kleinen Videos widergespiegelt. Es ging es bei der Entstehung los, über die Gegenwart bis hin zu einem Ausblick in die Zukunft...man kann sehr gespannt sein!!!

Den Anfang der Sessions habe ich dann bei Michael Noel "Building the perfect SharePoint Farm" (Michael Noel) gemacht. Die Session war vollgepackt mit Informationen, Tipps und benötigten Ressourcen, die man laut "Best Practice" für eine SharePoint Server 2010 Farm benötigt...da kann man mal gespannt sein, was der nächste Kunde sagt, wenn ich Ihm die Anforderungen mitteile. Ich sage nur "Six-Server Farm".
(Die Präsentation kann man hier ansehen. Lediglich das Theme ist nicht aktuell.)

Als nächstes habe ich mich in die Session von Laura Rogers (Blog - WonderLaura) zum Thema "Data View Webpart Best Practices" begeben. Der Raum ist fast aus allen Nähten geplatzt, jede Menge Stehplätze mussten besetzt werden, ob es nun an dem Theme oder an Laura gelegen hat, das überlasse ich Euch selbst ;-)
Für mich war es thematisch ein großer Erfolg, da ich mir ein paar Tipps und Lösungen für das "Conditional Formatting" von Listen holen konnte. Nun kann ich mir das JavaScript sparen und werde so schneller und flexibler zum Erfolg finden. Ich werde mich nächste Woche näher damit beschäftigen und die Umsetzung im Projekt durchführen.

Dann war erstmal Lunchtime und welch Wunder, es gab annehmliches Essen!

Habe mich dann in der Lunchtime Session "Nintex Analytics 2010" bei Mike Fitzmaurice aufgehalten. Leider konnte er seine Demo nicht am Live-System durchführen, das WLAN lässt keinen VPN-Zugang zu...aber er hatte jede Menge Screenshots dabei und konnte auch so souverän durch die Session leiten...hört sich auf jeden Fall interessant an, aber man muss abwarten, wie es sich in einer Produktiv-Umgebung verhalten wird.

Die an diesem Tag interessanteste und meiner Meinung nach gelungenste Session wurde von Gary Lapointe (Blog - Gary Lapointe) zum Thema "Windows PowerShell Best Practices for SharePoint 2010 Administrators" gehalten. Gary hat mit ein paar Fundamentals angefangen, wie man Variablen setzt und benutzt, was man mit dem $-Zeichen alles anstellen kann. Dann ging es auch schon recht zügig an Auflistungen der SharePoint-Datenbanken, Erstellen von Hash-Tables, Benutzen von Expressions und Auflistung bestimmter Spalten. Zudem hat er auch die Möglichkeiten aufgezeigt Benutzer über die PowerShell anzulegen oder auch Auswertungen der Farm durchzuführen. Aufgrund der Zeit konnte Gary nur kurz das Remoting ansprechen und demonstrieren. Hierzu werde ich mich noch ausführlicher informieren. Im Juni 2011 kommt sein ersten Buch auf den Markt. Nach der Session werde ich mir dieses Buch mit größter Wahrscheinlichkeit zulegen. Mit dem Thema werde ich mich definitiv mehr beschäftigen, die PowerShell kann einem viel Arbeit abnehmen, indem man gewisse Sachen automatisiert laufen lassen kann. Ich bin begeistert.

In der Nachmittags-Session hatte ich die Qual der Wahl. Zur Auswahl standen "InfoPath 2010 Under the hood: Building next generation SharePoint applications using InfoPath and SharePoint Designer 2010 mit Darvish Shadraven" und "Rational Guide to SharePoint 2010 User Profile Synchronization mit Spencer Harbar". Ich habe mich dann aufgrund diverser Probleme mit dem UPS für Spencer Harbar (Blog - Spencer Harbar) entschieden und diesen Beschluss auch nicht bereut. Die Session war sehr ausführlich, übersichtlich und hervorragend präsentiert. Spencer ist auf die möglichen Fehlerquellen (falsche Konfiguration der User, fehlende Berechtigungen) eingegangen und hat mit einer Live-Demo die Konfiguration des User Profile Synchronization (UPS) veranschaulicht, wie leicht es gehen kann, wenn man die richtigen Accounts mit den korrekten Berechtigungen nutzt. Die Anleitung findet man auch auf seinem Blog. Mit dieser Anleitung sollte bei der Konfiguration nichts mehr verkehrt laufen. Man sollte beachten, dass wenn man den Synchronization Service startet, keine Passwort-Überprüfung stattfindet. Sollte der Service also nicht starten, dann liegt es entweder daran, dass das Passwort nicht korrekt ist oder das der Farm-Account nicht in der Gruppe der lokalen Administratoren enthalten ist (zwingend notwendig um den Service zu starten).

Zum Abschluss des ersten Tages, mal abgesehen vom SharePint, hat Ben Curry "Farm Architecture Performance, Logging and Monitoring" einen krönenden Abschluss geliefert. Die Queen hatte die Veranstaltung leider schon verlassen gehabt, sonst wäre ein Ritterschlag nicht weit entfernt gewesen. Wie bereits in der Session von Michael wurden auch hier die Anforderungen an die Hardware und Software erwähnt. Beim SQL-Server sind wir dann mittlerweile bei mindestens 16GB angekommen, ich freue mich auch hier auf das Gesicht des Kunden, aber hier werde ich dann als Consultant Überzeugungsarbeit leisten und den Kunden mit guten Argumenten überzeugen müssen. Die Session hätte gerne noch 1 Stunde länger gehen können, zum Einen ist Ben Curry ein sehr guter Speaker und zum Anderen ist das ein sehr interessantes Thema, welches auch immer mehr in der Mittelpunkt der Projekte rückt. Denn ein gutes System ist der Grundstein für ein erfolgreiches Projekt.


Ich freue mich auf den morgigen 2. Tag, nicht nur aufgrund der Sessions, denn am Abend ist die "Party Night" sponsored by K2.

Patrick

Sonntag, 10. April 2011

European Best Practices SharePoint Conference

Ich werde die nächsten 3 Tage die "European Best Practices SharePoint Conference" in London besuchen. Nachdem ich heute schon in London eingeflogen bin und die ersten Eindrücke dieser Stadt gesammelt habe, werde ich mich dann ab morgen auf den folgenden Sessions rumtreiben:
- Building the perfect SharePoint Farm (Michael Noel)
- Dataview Web Part Best Practices (Laura Rogers)
- Windows PowerShell Best Practices for SharePoint 2010 Administrators (Gary Lapointe)
- InfoPath 2010 Under the hood: Building next generation SharePoint applications using InfoPath and SharePoint Designer 2010 (Darvish Shadraven)
- Optimizing SQL Server 2008 for SharePoint 2010 (Brian Aldermann)
- SharePoint 2010 Upgrade Strategy and Best Practices (Joel Oleson)
- Configuring SQL Reporting Services in SharePoint integrated Mode (Mark Macrae)
- Architecting and Deploying Business Intelligence Solutions using PowerPivot (Shaun O'Callaghan)
- SharePoint Branding - From Beginning to End (Matthew Hughes)
- InfoPath and SharePoint Designer 2010 Workflow Best Practices (Laura Rogers)
- Planning Extranet Environments SharePoint 2010 (Michael Noel)
- Using Visual Studio 2010 to create SharePoint Load Tests (Steve Smith)
- Cutting Costs using SharePoint 2010 (Alan Richards)
- Users, Profiles and MySites: Managing a changing SharePoint User Population (Paul Stork)

Ich werde versuchen jeweils ein paar Zeilen über die einzelnen Sessions zu schreiben und somit meine Erkenntnisse zur Verfügung zu stellen.