OBJEKTspektrum 06/11

Cloud, Soziale Netzwerke & Co.: Vernetzte Trends erkennen und bewerten

Autoren: ,

IT-Trends zu beobachten, ist wichtig, um sich rechtzeitig auf neue Herausforderungen einstellen zu können. Auf der anderen Seite ist es genauso wichtig, die richtigen Maßnahmen zu ergreifen und keinen kurzlebigen Hypes aufzusitzen. Das übliche isolierte Betrachten und Bewerten von Trends birgt aber einige Risiken, weil man dann die dynamischen Querbeziehungen zwischen den Trends nicht erkennt und so möglicherweise die falschen Maßnahmen ergreift. Am Beispiel einiger aktueller Trends wird in diesem Artikel gezeigt, wie sich diese Themen wechselseitig beeinflussen und warum man sie nur in einer vernetzten Form optimal bewerten kann.

Trends sind keine einfache Sache. Auf der einen Seite entpuppen sich viele als Strohfeuer, auf der anderen Seite möchte man die wichtigen Trends nicht verpassen. Man möchte die Trends identifizieren, die die IT von morgen prägen und die für einen selbst relevant sind. So kann man sich rechtzeitig auf die Herausforderungen von morgen und übermorgen einstellen und verliert nicht den Anschluss. Diese Herausforderung gilt vom Entwickler, der sicherstellen will, dass sein Skill-Profil auch morgen noch gefragt ist, bis hin zum CIO, der seine IT strategisch auf die kommenden Themen vorbereiten muss.

Eine wichtige Quelle in dem Zusammenhang sind die alljährlichen Trendprognosen der einschlägigen Analysten (vgl. z. B. [CIO10], [CIO11], [Gar11]). Die Analysten beobachten das Marktgeschehen und prognostizieren die wichtigsten Trends der kommenden Jahre. Das ist gut, aber wie geht man mit diesen Prognosen um? Was ist wichtig und was kann man ignorieren? Welche Maßnahmen leitet man daraus ab? Was bietet man seinen Kunden an? Was bedeutet das für einen selbst und für die Mitarbeiter? Kann man noch warten oder sollte man schnell handeln? Trends bedeuten viel Möglichkeiten, aber auch viele Fragezeichen.

Üblicherweise werden Trends isoliert betrachtet, d. h. man betrachtet jedes Thema für sich und leitet daraus Folgerungen und Maßnahmen ab (siehe auch Abbildung 1). Das passt zur gewohnten „Teile-und-herrsche”-Vorgehensweise und ist auch verlockend, weil jedes Thema für sich besser überschaubar wirkt. Ein solches Vorgehen birgt aber ein hohes Risiko, die falschen Schlüsse zu ziehen und nicht die geeigneten Maßnahmen zu ergreifen. Warum? Das Problem besteht darin, dass die meisten Trendthemen in der Realität nicht isoliert für sich stehen, sondern in enger Beziehung zu vielen anderen (Trend-) Themen und sich diese wechselseitig beeinflussen. Ändert sich bei einem Thema etwas, hat das fast immer Auswirkungen auf die anderen Themen.

Mit einer isolierten Analyse gehen einem viele Zusammenhänge verloren, die wichtig sind, um die Themen richtig zu verstehen und passgenaue Maßnahmen zu definieren. Außerdem läuft man ohne ein Verständnis der Querbeziehungen Gefahr, relevante Entwicklungen und Treiber zu spät zu erkennen, weil man die Dynamik in den Beziehungen zwischen den Themen nicht bewerten kann. Die Konsequenz daraus ist, dass man Trends vernetzt betrachten, analysieren und bewerten sollte, um auch die Beziehungen zwischen ihnen und deren Dynamik mit in die Betrachtung einbeziehen zu können. Häufig kann man nur so die relevanten Treiber identifizieren, die einen Veränderungsdruck erzeugen, auf den man reagieren will bzw. manchmal auch reagieren muss, um den Anschluss nicht zu verlieren (siehe Abbildung 2).

Trends erkennen

Anhand einer Reihe aktueller Trends wollen wir in diesem Artikel exemplarisch darstellen, wie sich diese gegenseitig beeinflussen und welche Konsequenzen sich daraus ergeben. Diese Darstellung hat keinen Anspruch auf Vollständigkeit und auch die sich daraus ergebenden Konsequenzen und Maßnahmen werden für jeden etwas anders aussehen, aber es werden eine Menge Zusammenhänge und Abhängigkeiten zwischen den Trendthemen sichtbar, die bei einer isolierten Betrachtung unentdeckt geblieben wären. Wir beginnen beispielhaft mit einer isolierten Betrachtung des Themas Cloud-Computing und vergleichen diese im Anschluss mit einer vernetzten Betrachtung.

Cloud-Computing isoliert betrachtet

Cloud-Computing ist eines der großen aktuellen Trendthemen: Elastische Res – sour cen, Ad-hoc-Skalierbarkeit, hoher Automatisierungsgrad in der Bereitstellung, Self-Service (der Erwerb von Ressourcen bzw. Dienstleistungen per Selbstbe die – nung), Pay-per-Use (Bezahlmodell, bei dem nach tatsächlicher Ressourcennutzung abgerechnet wird) – je nach Präferenz als öffentliche, hybride oder private Cloud. Dazu kommen alle möglichen Fragestellungen rund um Datensicherheit sowie rechtliche Fragestellungen, die wir an dieser Stelle aber einmal außer Acht lassen wollen.

Wohin führt uns eine isolierte Betrachtung des Themas? Cloud-Computing scheint ein reines Betriebsthema zu sein: Durch Self-Service und Automatisierung der Bereitstellung von Ressourcen bzw. Dienstleistungen können wir Ressourcenanforderungen effizienter bedienen, Bereitstellungsprozesse beschleunigen und verschlanken sowie die Kosten senken. Durch Pay-per-Use stellen wir ein transparenteres Abrechnungsmodell zur Verfügung – bei gleichzeitiger Reduzierung der Fixkosten durch die Prozessverschlankung aus dem vorherigen Punkt. Und durch die Ad-hoc- Skalierbarkeit können wir als Betrieb flexibler auf Lastspitzen reagieren als früher – gerade auch in Verbindung mit einer hybriden Cloud, die Spitzenlasten über einen externen Cloud-Anbieter abfedert.

Das klingt jetzt ganz verlockend, gerade wenn man sich in einem Unternehmen befindet, in dem die Beschaffung eines zusätzlichen Rechners eventuell noch mehrere Monate dauert (gibt es immer noch recht häufig, insbesondere in Konstellationen, in denen der IT-Betrieb ausgelagert wurde), und erhöht sicherlich die Zufriedenheit der Parteien, die Ressourcen bzw. Dienstleistungen beim IT-Betrieb angefordert haben. Aber ist das wirklich so wichtig? Muss man als IT-Leiter in dieser Situation tätig werden oder kann man getrost noch abwarten?

Typischerweise führt eine solche isolierte Betrachtung – abhängig vom Kontext – entweder zu einer „Noch-ein-wenig- Warten”-Strategie oder zu einem behutsamen Einstieg, um die Einspar- und Beschleunigungspotenziale im Betrieb zu realisieren, gemäß der Devise: Geringere Kosten bei kürzeren Reaktionszeiten stehen einem CIO gut zu Gesicht, wenn er sein nächstes Budget mit dem CFO aushandelt. Für die exemplarische isolierte Betrachtung von Cloud-Computing soll das genügen. Wie bereits erwähnt, erheben wir mit unseren Erkenntnissen und Folgerun gen keinen Anspruch auf Allgemeingül tigkeit, auch wenn sie in vielen Unternehmen wahrscheinlich ähnlich aussehen. Die linke Seite von Tabelle 1 fasst die Ergebnisse der isolierten Analyse noch einmal zusammen. Aber wie stellt sich das Thema dar, wenn wir die aktuellen Trends vernetzt betrachten? Bekommen wir da andere Treiber für Cloud-Computing, die möglicherweise zu anderen Folgerungen und Maßnahmen führen?

Tabelle 1

Vernetzte Trendanalyse

Ausgehend von Abbildung 3 beginnen wir die Betrachtung mit einem anderen Trendthema, den sozialen Netzwerken (Social Networks). Mittlerweile gibt es jede Menge sozialer Netzwerke, z. B. Facebook (bzw. Google+ als neuer Herausforderer), LinkedIn (bzw. XING als deutschsprachige Alternative), Twitter, Digg, Tumblr und Delicious, um nur einige bekannte Namen zu nennen. Trotz unterschiedlicher Angebote, Inhalte und Zielgruppen ist allen sozialen Netzen gemeinsam, dass sie ein wesentlich interaktiveres Nutzungsmuster von IT-basierten Angeboten prägen als klassische Web-Anwendungen: Die Nutzer sind nicht mehr passive Konsumenten, sondern aktive Content-Lieferanten, die anderen Content kritisch beurteilen – und wenige Sekunden nach einer solchen Beurteilung kann jeder lesen, was sie denken.

Wir haben es also mit wesentlich mündigeren Nutzern unserer Angebote zu tun. Zusätzlich sinkt die Bereitschaft der Nutzer, „klassische” Angebote zu nutzen. Speziell Vertrieb und Marketing sind stark von sozialen Netzen betroffen. Ein Unternehmen benötigt neue, auf soziale Netzwerke zugeschnittene Formen der Kommunikation mit seinen Kunden, wenn es die neue Generation von Net-Citizens erreichen will, die ganz selbstverständlich in sozialen Netzwerken unterwegs sind, und es muss sich auf unmittelbares und oftmals sehr unverblümtes Feedback seiner Kunden einlassen.

Im Gegenzug liefern die Nutzer eigenaktiv viele Informationen über sich sowie ihre Interessen und Vorlieben, die für Unternehmen ein gigantisches Vertriebspotenzial darstellen, wenn sie es erschließen können, von einigen speziell in Deutschland noch offenen rechtlichen Fragestellungen einmal abgesehen, auf die wir in diesem Zusammenhang aber nicht eingehen wollen (für weitere Details zu dem Thema vgl. z. B. [Kep11]).

Bezieht man das Thema soziale Netzwerke auf Cloud-Computing, kommt man zu ganz anderen Treibern als bei einer isolierten Betrachtung. Zum einen haben soziale Netzwerke eine nicht vorhersagbare Dynamik: Eine gelungene Werbemaßnahme im Umfeld eines sozialen Netzwerks kann zu sprunghaften Lastanstiegen auf den eigenen Web-Angeboten führen, die jenseits aller Prognosemodelle liegen. Trotzdem will ein Unternehmen flexibel auf solche Lastspitzen reagieren – schließlich handelt es sich um potenzielle Kunden. In Zeiten von Google, Facebook und Amazon erwarten die Anwender jederzeit gute Antwortzeiten. Antwortet das eigene Web-Angebot zu langsam oder gar nicht, weil es die plötzliche Last nicht bewältigen kann, hat man den potenziellen Kunden möglicherweise direkt wieder verloren. Hier bietet Cloud-Computing mit seiner Elastizität praktisch die Basistechnologie, um binnen weniger Minuten auf sprunghaft steigende und sinkende Lastanforderungen reagieren zu können.

Zum anderen will man in der Lage sein, unvorhersehbare, schwach strukturierte Datenmengen in kurzer Zeit verarbeiten zu können, wenn man Wissen aus den Unmengen an Informationsschnipseln ziehen will, die die Kunden über sich bereitstellen. Das zugehörige Trendthema lautet Big Data. Die Basis für dieses Thema bietet Cloud- Computing, da es ermöglicht, Datenmengen in einem Umfang zu speichern und zu verarbeiten, der mit klassischen Unternehmensanwendungen nicht mehr oder nur noch sehr schwer zu beherrschen ist.

Häufig geschieht das in Verbindung mit NoSQL-Datenbanken, einem weiteren Trendthema, wobei der Nutzen der Systeme in diesem Kontext darin liegt, dass sie in der Lage sind, ihre Daten zuverlässig auf einfacher Standard-Hardware zu verteilen. Ein Kernproblem von Big Data ist, dass die Skalierung von Speicher- und Verarbeitungs-Ressourcen ab einem gewissen Punkt mit einem überdurchschnittlichen Kostenanstieg verbunden ist.

Nun kann man entweder für entsprechende Speziallösungen tief in die Tasche greifen oder aber man muss versuchen, seine Lösung auf einfacher Standard- Hardware aufzubauen, die man mit unterdurchschnittlichem Kostenanstieg skalieren kann. Einfache Standard-Hardware ist aber per se nicht ausfallsicher. Man benötigt also Lösungen, die damit umgehen können, dass ein Rechnerknoten zu jedem Zeitpunkt ausfallen kann. Genau dieses liefern einem diverse Vertreter der NoSQLDatenbanken (allerdings nicht alle – man muss also schon genau hinschauen, welche Anforderungen es gibt und welche Datenbank man dafür am besten nutzen kann).

Zusätzlich bieten NoSQL-Datenbanken häufig gute Speziallösungen für bestimmte Aufgabenstellungen. So sind beispielsweise Graphen-Datenbanken sehr gut geeignet, um Beziehungen jedweder Art – z. B. aus sozialen Netzwerken – zu repräsentieren und zu verarbeiten, während schemalose Dokumenten-Datenbanken sehr gut schwach strukturierte Daten verarbeiten können. Es sind also weniger intrinsische technische Interessen, die das Trendthema NoSQL-Datenbanken vorangetrieben haben, als vielmehr fachliche Anfor derungen, die aus anderen Trendthemen kommen. Die Anforderung, sehr große Graphen in Datenbanken vorzuhalten, kommt beispielsweise häufig aus den sozialen Netzwerken. Das ist ein typisches Beispiel dafür, dass gerade technische Trendthemen ohne ihre Treiber in ihrer Bedeutung nur sehr unzulänglich erfasst werden können.

Vor diesem Hintergrund lässt sich sehr schnell die Brücke zu einem anderen Trendthema schlagen: Business Intelligence (BI) bzw. Echtzeit BI. BI – mit und ohne Echtzeit – ist schon seit Jahren ein Dauerbrenner auf den Trendlisten der Analysten. Da das Bedürfnis, neue Erkenntnisse aus den gesammelten Datenmengen eines Unternehmens zu ziehen, nach wie vor ungebrochen ist, wird sich daran wahrscheinlich in den nächsten Jahren auch nicht viel ändern. Der Druck in Richtung Echtzeit wächst: Man möchte nicht mehr die Daten vom Vormonat bewerten, um dann im nächsten Monat darauf zu reagieren, sondern jetzt auf die Daten der letzten Stunde reagieren können. Auch dieses Trendthema ist ein Treiber für Cloud-Computing, häufig in Verbindung mit NoSQL-Datenbanken und Verarbeitungsverfahren wie Map-Reduce, da diese es ermöglichen, die erforderlichen Datenmengen kostengünstig zu speichern und schnell zu verarbeiten.

Gehen wir einen Schritt weiter zu Mobile Computing, einem weiteren Trendthema: Mobile Geräte sind Wegbereiter, unter anderem für die sozialen Netzwerke. Smartphones haben den Weg für die Kommunikation auf nahezu beliebigen Kanälen geebnet, von Telefonie über SMS bis hin zu E-Mail, Facebook, Twitter und Co. – zu beliebigen Zeitpunkten und an beliebigen Orten. Das zugehörige Trend- Stichwort lautet Ubiquitous Computing.

Auch wenn wir eigentlich mittlerweile immer weniger Geräte bräuchten, weil praktisch alle Geräte alle wichtigen Dienste anbieten (so können wir mittlerweile auch vom Computer aus telefonieren und SMS versenden), bildet sich ein Nutzungsverhalten mit mehreren Geräten heraus, das auf die speziellen Stärken der einzelnen Geräte abgestimmt ist: Beispielsweise scannen wir die News auf dem Notebook und markieren die interessanten Artikel für später. Facebook und Twitter nutzen wir via Smartphone, da wollen wir „always on” sein. Die markierten Artikel lesen wir abends in Ruhe auf der Couch auf unserem Pad. Ebenso schauen wir uns da die Analysen an, die uns der Kollege nachmittags geschickt hat. Unseren Kommentar dazu schicken wir aber erst am nächsten Morgen von unserem Notebook aus …

So entwickeln sich auf die Geräteeigenschaften abgestimmte Nutzungsmuster, die natürlich auch aus Sicht der Unternehmensanwendungen bedient werden sollten. Warum muss ich vor dem PC an meinem Arbeitsplatz sitzen, um die BIReports zu lesen? Geht das nicht auch zuhause am Pad? Da habe ich doch wesentlich mehr Muße, um mir die Reports anzusehen. Und im Zweifelsfall möchte ich den Whitepaper-Entwurf, den mein Kollege ins Sharepoint (oder wohin auch immer) gestellt hat, auch von meinem Smartphone aus kommentieren können, wenn ich gerade unterwegs bin.

Die Unternehmen nehmen es zwar billigend hin, wenn die Mitarbeiter Arbeit mit in ihre Freizeit nehmen, aber im Gegenzug steigt auch die Erwartungshaltung der Mitarbeiter: Sie wollen all die Geräte und Kanäle für ihre Arbeit nutzen können, wie sie es jenseits ihres Arbeitsplatzes mit Facebook, Google Apps & Co. bereits gewohnt sind. Sie wollen jederzeit und überall das tun können, was sie wollen – und zwar mit dem Gerät ihrer Wahl.

Offensichtlich kann man die Themen Mobile Computing, Social Networking und Ubiquitous Computing nicht wirklich isoliert betrachten, weil sie sich zumindest in einigen Bereichen wechselseitig verstärken und beeinflussen. Da soziale Netzwerke Treiber für Cloud-Computing sein können, müssen wir auch die Themen mit betrachten, die Auswirkungen auf die Nutzung und weitere Entwicklung von sozialen Netzwerken haben.

Zusätzlich führen Mobile und Ubiquitous Computing zu einem deutlich anderen Nutzungsverhalten im Geschäftsumfeld. Statt gut kalkulierbarer Zugriffsmuster innerhalb der normalen Bürozeiten gibt es nur schwer kalkulierbare und stark schwankende Zugriffszahlen, die weit über die normalen Bürozeiten hinausgehen. Um hier flexibel auf die dynamischen Lastanforderungen reagieren zu können, kann der Aufbau einer (privaten) Cloud eine sinnvolle Maßnahme sein.

Sind wir erst einmal bei Cloud-Anwendungen, die wirklich skalierbar sein müssen – sei es wegen der zu verarbeitenden Datenmengen oder der benötigten Elastizitätkommen wir schnell zu neuen Herausforderungen: Test und Betrieb solcher Anwendungen sind mit den klassischen Verfahren praktisch nicht mehr möglich. Die Anwendungen sind so groß und über so viele Knoten verteilt, dass es fast nicht möglich ist, sie mit vertretbaren Mitteln zu duplizieren und mit Testdaten zu versehen, um sie dann zu testen. Auch Lasttests sind bei Anwendungen, die dynamisch bis hin zu Millionen simultaner Benutzer und Petabyte (oder mehr) an Daten skalieren, nicht mehr mit herkömmlichen Mitteln umsetzbar – zumindest nicht bei einem sinnvollen Kosten-Nutzen-Verhältnis.

Das führt einen recht schnell zu einem weiteren Trendthema: DevOps. Der DevOps-Gedanke hat das Zusammenwachsen der Entwicklung (Dev) und des Betriebs (Ops) zum Ziel. Geboren aus der Problematik, dass die klassischen Verfahren für Test und Auslieferung (Deployment) neuer Anwendungsstände bei sehr großen Anwendungen nicht mehr funktionieren, wird dieser Gedanke mittlerweile auch auf kleinere Umgebungen übertragen, weil man so schneller und flexibler auf neue Anforderungen reagieren kann.

Die Konzepte gehen so weit, dass in manchen Unternehmen neue Anwendungsstände mehrfach täglich in den Betrieb gegeben werden, die dann praktisch erst im Live-Betrieb von den Anwendern final getestet werden. Statt aufwändige Testphasen vor das Deployment zu setzen, geht man dazu über, nur noch das vorab zu testen, was automatisiert und mit vertretbarem Aufwand möglich ist. Im Gegenzug dazu liefert man nur noch vergleichsweise überschaubare Änderungen aus und trägt dafür Sorge, dass man im Falle eines Problems mit einer Änderung die Anwendung schnell und einfach auf den vorhergehenden Stand zurückrollen kann.

Dieses Beispiel zeigt, dass auch ein eher technisch orientiertes Trendthema wie Cloud-Computing ein Treiber für ein weiteres technisch orientiertes Trendthema sein kann. Die mit der Umsetzung des DevOp-Gedankens verbundenen Strukturänderungen im Betrieb sind so weitreichend, dass ohne starken Treiber die nun vorgeschlagenen Lösungen niemals entwickelt worden wären.

Gleichzeitig führen die gefundenen technischen Lösungen zu neuen fachlichen Möglichkeiten. Als ein Schritt zur Absicherung des kontinuierlichen Deployments gibt es – neben der Beschränkung auf kleine Änderungen je Deployment – den Ansatz, die neuen Versionen erst einem eingeschränkten Benutzerkreis zur Verfügung zu stellen. Erst wenn dieser die neue Version eine Zeit lang verwendet und dadurch seine Qualität gesichert hat, erhalten alle Benutzer Zugriff auf die neue Version.

Diese Steuerung, welcher Benutzer mit welcher Version arbeitet, kann nun wiederum eingesetzt werden, um eine bestimmte Funktionalität nur bestimmten Benutzergruppen zugänglich zu machen oder ganz allgemein die angebotenen Versionen besser auf das individuelle Nutzerverhalten abzustimmen, statt allen Benutzern dieselbe Applikation zur Verfügung zu stellen. Damit wirkt das technische Trendthema DevOps als Wegbereiter für ganz neue fachliche Nutzungsszenarien zurück, die vorher in der Form gar nicht denkbar waren und sich möglicherweise wiederum zu neuen Treibern für das Thema Cloud- Computing entwickeln könnten. Die rechte Seite in Tabelle 1 fasst die gefundenen Ergebnisse der vernetzten Analyse für das Thema Cloud-Computing noch einmal zusammen.

Treiber für Cloud Computing

Folgerungen und Konsequenzen

Natürlich ist die in diesem Artikel vorgestellte Analyse bei Weitem nicht vollständig und es gibt noch diverse andere Verbindungen und Treiber zu entdecken und zu analysieren. Außerdem haben wir uns an dieser Stelle weitestgehend darauf beschränkt, mögliche weitere Treiber für Cloud-Computing zu finden, die bei einer isolierten Betrachtung des Themas wahrscheinlich nicht in der Form gefunden worden wären. Wichtig ist hier auch nicht die Vollständigkeit der Analyse, sondern die Erkenntnis, dass wir Trends nicht mehr isoliert analysieren und bewerten sollten.

Trends sind Teil einer komplexen Umgebung, in der wir uns bewegen. Damit sind auch Trends komplex. Wenn man sich mit dem Management komplexer Systeme beschäftigt (vgl. z. B. [Mal94] oder [Hon08]), lernt man die elementare Grundregel, dass klassische „Teile-und- Herrsche”-Strategien zum Beherrschen eines komplexen Systems nicht funktionieren. Die Dynamik in den Beziehungen zwischen den einzelnen Elementen des Systems ist so hoch und beeinflusst das Verhalten des Gesamtsystems so stark, dass das Fokussieren auf einzelne Elemente nicht genügend Informationen zum Bewerten des Gesamtsystems bietet. Stattdessen muss man regelmäßig das System als Ganzes beobachten, analysieren und bewerten und so in kurzen Zyklen Maßnahmen ableiten. Übertragen auf die Trends heißt das, dass wir bei einer isolierten Betrachtung einzelner Trends essenzielle Informationen verlieren, die wir benötigen, um die für uns geeigneten Maßnahmen abzuleiten (siehe Abbildung 1). Stattdessen müssen wir die Trends in ihrer Gesamtheit und ihren wechselseitigen Beeinflussungen, Verstärkungen und Abschwächungen beobachten, um so zu für uns sinnvollen Maßnahmen zu gelangen (siehe Abbildung 2).

Aber wie komme ich als Person oder Unternehmen zu meinen Maßnahmen? Dazu können wir an dieser Stelle leider keine Pauschalantwort liefern. Der Grund dafür ist, dass die Maßnahmen nicht nur von den Trends, sondern insbesondere auch von der aktuellen Situation der Person bzw. des Unternehmens abhängig sind, von der Ausrichtung, den Inhalten und den aktuellen Schmerzpunkten.

So könnte z. B. ein Hersteller eines auf den jugendlichen Massenmarkt ausgerichteten Lifestyle-Produkts soziale Netzwerke als wichtige Marketing- und Vertriebs – plattform nutzen wollen, während diese Art der Werbung und des Vertriebs für eine Privatbank wahrscheinlich nicht sinnvoll ist. Entsprechend unterschiedlich sind die Maßnahmen, die man nach der Bewertung der Trends ableitet.

Zusätzlich hängen die Maßnahmen auch nicht ausschließlich von den Trends ab. Trends sind nur ein Einflussfaktor in einer strategischen Planung – dazu kommt eine Vielzahl weiterer Vorgaben und Einflussfaktoren. Wichtig ist hierbei aber, dass die abgeleiteten Maßnahmen maximal so gut sein können wie die Informationen, auf denen sie beruhen. Wie wir gezeigt haben, bedeutet dies, dass man Trends vernetzt analysieren und bewerten muss, da man nur so möglichst viele der für einen relevanten Treiber und Informationen gewinnen kann, die man zur Ableitung seiner strategischen Maßnahmen benötigt.

Fazit

Wenn man Trends beobachtet, kann man frühzeitig einen Veränderungsdruck erkennen, auf den man als Unternehmen oder Einzelperson in seinem jeweiligen Kontext eine passende Antwort finden muss. Daher ist es wichtig, Trends zu beobachten, zu analysieren und zu bewerten. Dabei greift es zu kurz, Trends isoliert zu betrachten und zu bewerten, da sie miteinander zusammenhängen, sich gegenseitig beeinflussen, verstärken und abschwächen. Um die für einen selbst maßgeblichen Treiber identifizieren und die richtigen Maßnahmen aufsetzen zu können, muss man die Trends vernetzt betrachten und ihre wechselseitigen Einflüsse in die Betrachtung einbeziehen. Ansonsten läuft man Gefahr, dass die aufgesetzten Maß – nahmen ins Leere laufen, weil man wichtige Beziehungen übersehen hat.

 

[Cio10] CIO Online, Wie die IT das Leben von morgen bestimmt, siehe: http://www.cio.de/strategien/2242552/

[Cio11] CIO Online, Die IT-Trends 2011, siehe: http://www.cio.de/strategien/analysen/2257721/

[Gar11] Gartner Predicts 2011, siehe: http://www.gartner.com/technology/research/predicts/

[Hon08] J. Honegger, Vernetztes Denken und Handeln in der Praxis, Versus Verlag Zürich 2008

[Kep11] S. Kepser, Kommerzielle Nutzbarkeit der Daten von Twitter und Facebook, siehe: http://blog.codecentric.de/2011/07/twitter-facebook-daten/

[Mal84] F. Malik, Strategie des Managements komplexer Systeme, Haupt Berne 1984

Vollständiger Artikel