Sonntag, 22. Juni 2014

Strategische Kennzahlen für Fachverlage im Medienwandel (2)

In Folge 1 habe ich darüber gesprochen, daß der richtige Zeitpunkt, auf grundlegende Marktveränderungen zu reagieren, von Verlag zu Verlag sehr unterschiedlich sein kann. Die Märkte sind komplex, die verfügbaren empirischen Daten und Marktmodelle können die Realität meist nur näherungsweise abbilden, weshalb der Intuition eine wichtige Rolle zukommt. Doch zukunftsprägende Entscheidungen allein mit Intuition zu begründen ist vielleicht für inhaber-geführte Verlage möglich, Manager müssen diese, soweit immer möglich, mit empirischen Daten begründen.

In Folge 2 möchte ich jetzt fragen, inwieweit wir mit umsatz-bezogenen Kennzahlen erkennen können, ob sich Märkte grundlegend ändern und ab wann wir reagieren müssen. Umsatzbezogene Daten haben einen großen Vorteil: Sie sind so gut wie immer verfügbar oder mit geringem Aufwand zu erstellen.
Das wichtigste operative Controlling-Ritual ist der monatliche Umsatz-Soll-Ist-Vergleich, ergänzt um den Vorjahresvergleich. Damit kann monatlich erkannt werden, ob der Umsatz im geplanten Korridor liegt. Die monatlichen Zahlen schwanken jedoch häufig mehr oder weniger zufällig um die (meist linear nivellierten) Planwerte. Häufig kann man bei größeren Abweichungen die Ursachen schnell erkennen, zum Beispiel verzögerte Auslieferung, verschobene Vertriebsaktionen, stornierter Großauftrag etc. und mit  (zusätzlichen) operativen Maßnahmen auf der Produkt- oder  Vertriebsebene dagegen steuern. Damit ist aber noch nichts gesagt über längerfristige Marktveränderungen.

Wie kann man nun erkennen, ob die Schwankungen, egal ob monatlich oder über mehrere Jahre, einen generellen Marktwandel anzeigen oder nur das Auf und Ab des üblichen Wettbewerbs sind? Und wann ist der richtige Zeitpunkt, das aktuelle Produktportfolio oder Geschäftsmodell grundlegend zu innovieren? Wann muß ich zum Beispiel von Print auf Digital wechseln, in welcher Form, in welche Ausprägung oder muß ich gar nicht, obwohl der Wettbewerb dies bereits tut?

Grundlegende Veränderungen
verlaufen fast immer in der Form einer S-Kurve. Dies bedeutet, dass zu Beginn nur wenige Kunden mit dem bisherigen Produkt unzufrieden werden und abwandern, sobald eine neuartige und ausreichend gute Alternative im Markt erhältlich ist. Der flache Beginn der S-Kurve ist oftmals deutlich länger als die zweite Phase, wenn die Veränderungsgeschwindigkeit exponentiell zu steigen beginnt. Spätestens in dieser Phase droht jedoch die Gefahr, auch für anerkannte Produkt-Marken, ins Abseits zugeraten. Haben sich zu dieser Phase neue Wettbewerber-Marken etabliert, kann dies zu dauerhaften Marktverschiebungen führen.
Zwei Beispiele möchte ich anführen. Einmal die Anzeigenrubriken in den Tageszeitungen und die Loseblatt-Rechtsprechungssammlungen der Juristen. Beide wurden etwa zeitgleich im Verlaufe nur eines Jahrzehnts, etwa von 2000 bis 2010, vollständig von der Papier-Plattform auf die Digital-Plattform verdrängt. In beiden Fällen sind durch diesen Medienplattform-Wandel neue Produktmarken von bisher branchenfremden Anbietern im Markt entstanden, wodurch dauerhaft Marktanteile verloren wurden. In beiden Beispielen haben die betroffenen Verlage den Wandel kommen sehen, sich jedoch vom flachen Beginn der S-Kurve zu lange täuschen lassen.
Das heißt, wir benötigen Kennzahlen die anzeigen, wann der flache, langsame Veränderungsverlauf zu steigen beginnt, denn dies ist der späteste Zeitpunkt, an dem sie reagieren müssen. Dies ist, wie ausgeführt, aufgrund der „normalen“ Schwankungen des traditionellen Geschäfts nicht einfach zu erkennen. Steigt zum Beispiel bei einem Fachbuchverlag der Printumsatz aufgrund eines oder mehrerer zufälliger Bestseller stark an, verwischt dieses den Wendepunkt vom flachen zum steilen Verlauf. Das heißt, auch ein mehrjähriger Vergleich von aggregierten Umsätzen mit den Vorjahren alleine reicht nicht aus, obwohl zufällige Schwankungen dadurch leichter nivelliert werden, da hier fast immer Preiserhöhungen, Portfoliobereinigungen u.a. Effekte „versteckt“ sind. Gerade Preiserhöhungen haben in den letzten Jahren das „wahre“ Ausmaß des Medienwandels in vielen Marktsegmenten lange verschleiert. Wir benötigen deshalb Umsatz-Kennzahlen, die diese Verzerrungen vermeiden. Folgende bieten sich an:
1.        Durchschnitts-Umsatz je Produkt und Produktkategorie
2.        Durchschnitts-Verkäufe je Produkt und Produktkategorie
3.        Durchschnitts-Umsatz je Kunde und Kundengruppe
4.        Durchschnitts-Verkäufe je Kunde und Kundengruppe
Ad. 1: Beim Durchschnitts-Umsatz je Produkt über mehrjährige Zeitreihen sollte man unbedingt zwei Effekte herausrechnen: Preiserhöhungen und Preisinflation. Ein sinkender/steigender Wert kann dann bedeuten: Das Produktportfolio hat sich in Richtung niedrig-/höher-preisiger Produkte verschoben. Das heißt, die Kennzahl muß bei Verlagen mit einem heterogenen Produktportfolio differenziert werden nach Produktkategorie und Produkt-Marktsegment. Innerhalb eines homogenen Segments kann ein über mehrere Jahre zurückgehender Preis einen höheren Wettbewerbsdruck anzeigen: Einerseits durch traditionelle (und bessere) Wettbewerberprodukte, andererseits auch durch neuartige Wettbewerbsprodukte, die bereits beginnen einen grundlegenden Marktwandel einzuleiten. Bei einem gestiegenen Wert sollte man sich aber nicht in „Sicherheit“ wähnen. Dieser kann Ausdruck eines schwächer gewordenen Wettbewerberumfelds sein oder in der  Vergangenheit nicht ausgeschöpfter Preiselastizität. Dies erhöht aber die Wahrscheinlichkeit, daß die Kunden sich aktiv nach preisgünstigeren Alternativen umsehen und bereit sind neuartige Produktansätze von neuen, auch unbekannten Wettbewerbern auszuprobieren, selbst wenn diese noch nicht so „gut“ sind, wie die etablierten Marken.
Ad. 2: In jedem Fall ist der parallele Blick auf die Durchschnitts-Verkäufe je Produkt (brutto und netto) wichtig. Sind die Verkäufe zurückgegangen bei steigenden Preisen, kann dies bedeuten, dass das Pricing überzogen wurde und evtl. korrigiert werden muss. Ist der Rückgang bei stabilen oder niedrigeren Preisen erfolgt, kann dies eine strukturelle Vertriebsschwäche sichtbar machen oder, dies gilt es zu erkennen, einen schleichenden strukturellen Marktwandel. Wichtig ist die Unterscheidung in Brutto- und Netto-Verkäufe (Verkäufe nach Remissionen). Steigen die Remissionen über mehrere Perioden hinweg, obwohl der Vertriebsdruck nicht erhöht worden ist und ausgeschlossen werden kann, daß an eine Nebenzielgruppe oder gar falsche Zielgruppe verkauft worden ist, ist vermutlich der Nutzenwert der Produkte für die Zielgruppe zurück gegangen. Dann ist sofort zu klären, weshalb und ob dies noch durch traditionelle Produktverbesserungen heilbar ist. Verfälscht werden können diese Daten und Interpretationen durch sinkende oder steigende Zielgruppenzahlen. Verringert sich  die Zielgruppe, zum Beispiel aus demografischen Gründen, wie dies derzeit in vielen Verlagsmärkten der Fall ist, sinken natürlich auch die Verkäufe, auch wenn sie alles richtig gemacht haben.
Ad. 3 und 4: Deshalb sind diese Daten zusätzlich zu vergleichen mit dem Durchschnitts-Umsatz und Durchschnittsverkäufen je Kunde und/oder Kundengruppe. Sinkt der Umsatz, weil weniger Stück verkauft wurden, obwohl der Vertrieb alles richtig gemacht hat, ist dies ein Hinweis auf stärker gewordene traditionelle Wettbewerber (bessere Qualität oder besseres Preis-Leistungsangebot) oder, falls dies ausgeschlossen werden kann, auf eine grundlegende Marktverschiebung aufgrund neu-artiger, heute in aller Regel digitaler Produktmodelle.

Diese vier Kennzahlen sollten immer gemeinsam betrachtet und interpretiert werden. Sinnvoll ist, sie auch als prozentuale Veränderungen darzustellen. Wenn, allgemein gesagt, über mehrere Zeitperioden hinweg, das Verkaufen schwieriger und teurer geworden ist, und nicht nur bei Ihnen, sondern auch bei den direkten Wettbewerbern, spätestens dann sollten sie unverzüglich durch qualitative Kundenbefragungen in der Kernzielgruppe nach Ursachen forschen. Die kritische Frage ist immer: kann  das traditionelle Produktkonzept noch (wirtschaftlich) durch weitere Verbesserungen fit gemacht werden oder muß jetzt der Umstieg auf einen neu-artigen Produktansatz gestartet werden.

Um vorschnelle Fehlinterpretationen durch betriebsinterne Ursachen und Sondereffekte zu vermeiden sollten Sie allerdings weitere Kennzahlen zu Rate ziehen. Als zweite Gruppe werde ich in Folge 3 daher auf Kosten-Kennzahlen  eingehen.

Mittwoch, 11. Juni 2014

Strategische Kennzahlen für Fachverlage im Medienwandel (1)

Sie kennen den Spruch „Die Zukunft ist immer schon da“, um auszudrücken, dass die Innovations-entwicklung stets ungleich verläuft. Manche Marktsegmente und Marktteilnehmer gehören zu den frühen Pionieren, andere verlassen erst später die angestammten Geschäftsfelder, manche nie. Dann allerdings greift der Spruch: „Wer zu spät kommt, den bestraft das Leben“. Die Botschaft ist berechtigt, doch ebenso berechtigt ist der Spruch „Wer dem Markt zu weit voraus marschiert, auch der verliert den Kontakt zu den Kunden“. Beispiele gibt es zu Hauf.

Die Marktsituation und die interne Situation sind häufig für jedes Unternehmen sehr unterschiedlich. Damit ist der „richtige“ Zeitpunkt für die Anpassung der bestehenden Prozesse und Produkte an neue Marktgegebenheiten ebenso unterschiedlich. Die Kunst ist zu erkennen, wann für das eigene Unternehmen der beste Zeitpunkt ist. Ich verwende das Wort Kunst und nicht Wissenschaft, da das Erkennen dieses richtigen Zeitpunkts mindestens zu 50% Kunst und höchstens zu 50% Wissenschaft ist. Könnte man den richtigen Zeitpunkt wissenschaftlich berechnen, gäbe es schlichtweg nur erfolgreiche Unternehmen im Markt.

Heute wird durch die massive Berichterstattung über die neue Zauberformel „Big Data“ wieder einmal der verführerische Eindruck erzeugt, künftiger Markterfolg ließe sich wissenschaftlich-rational berechnen. Ich meine: Sicher, in vielen Fällen, aber sicher in vielen Fällen eben nicht. Seit Clayton M. Christensen mit seinem klugen Buch The Innovator’s Dilemma (1997) die Theorie der disruptiven Innovation zum strategischen Allgemeingut werden ließ,  ist jedoch die Aufgabe, den richtigen Zeitpunkt zu erkennen, eine Pflichtaufgabe für jeden Manager geworden. Genau zwei Methoden stehen hierfür zur Verfügung: Intuitive Heuristik und empirische Marktdaten.

Ich denke, auch in Ihrem Unternehmen spielen eigentlich schon immer beide Ansätze eine Rolle, häufig in unterschiedlicher, auch leidenschaftlicher Ausprägung. Trotz vieler psychologischer Studien darüber, wie wir Entscheidungen im Wirtschaftsleben treffen, nämlich immer mit einem großen Anteil an intuitiver Heuristik, tun wir in unseren Geschäftsberichten meistens so, als ob alle Entscheidungen daten-mäßig abgesichert wären.
Die Start-up-Kultur „start quick, fail fast“ ist für die traditionell vorsichtige Verlagslandschaft nicht wirklich opportun. Dennoch, start quick (intuitive Heuristik) und fail fast (empirische Daten) bringt die Verbindung der beiden Methoden perfekt auf den Punkt. Es sind nämlich keine konkurrierenden sondern sich ergänzende Methoden, letztlich zwei Seiten einer Medaille.

Reale Entscheidungen liegen immer irgendwo im Kontinuum zwischen Sicherheit und Unsicherheit. Wichtig ist daher, getroffene Entscheidungen mit der Umsetzung sofort empirisch zu begleiten, um möglichst schnell ausreichend Daten über Erfolg oder Nicht-Erfolg genieren zu können. Denn je früher man ein neu begonnenes Projekt richtigerweise abbricht, desto geringer sind die verlorenen Projektkosten. Richtigerweise heißt, dass die Entscheidung zum Abbruch eben auch richtig ist, das heißt, dass das neue Projekt aufgrund der gewonnen empirischen Daten, keinen Markterfolg haben wird.  Dumm wäre natürlich, wenn man aus „Ängstlichkeit“ ein Projekt vorschnell als nicht marktfähig bewertet und abbricht.
In den nächsten Wochen werde ich mit einer kleinen Reihe „strategische Kennzahlen“ einige Kennzahlen für das Erkennen fundamentaler Marktveränderungen erläutern. (Zum Unterschied zwischen operativen und strategischen Kennzahlen sei auf den Blogeintrag „Strategisches Controlling“ verwiesen.)

Montag, 5. Mai 2014

„Do Not Track“ vor dem Aus? Wer gewinnt im Internet: Maßanzug oder Vertrauen?

Wie u.a. heise-online und spiegel-online am Wochenende berichteten, verabschiedet sich jetzt auch yahoo von der Datenschutzfunktion ´Do Not Track`. “As of today, web browser Do Not Track settings will no longer be enabled on Yahoo.” meldete das "Yahoo Privacy Team"  letzte Woche  auf tumblr. Und dies zu einer Zeit, in der die Öffentlichkeit durch den NSA-Skandal besonders sensibel in Sachen #Datenschutz reagiert.

Yahoo liefert die Begründung gleich mit: “We fundamentally believe the best web is a personalized one.” Da stimmen nun sicherlich viele fast alle Internetnutzer zu. Ist doch gerade die personalisierte und kontextuell-maßgenschneiderte Information ein originärer Nutzenvorteil gegenüber dem gedruckten Medium. Dies gilt für Fachinformationen wie für Tagesmedien wie für Social Media. Jeder Leser möchte jederzeit und auf allen Medienträgern den informationellen Maßanzug: top-aktuell, persönlich relevant und mit hohem Nutzwert. Wie soll das möglich sein, ohne das Surf-Verhalten der Internet-Nutzer immer genauer, umfassender und smarter auszuwerten?
 
Yahoo jedenfalls weiß keine Lösung (mehr) hierfür und entscheidet sich für weniger Datenschutz und für mehr Maßanzug. In diesem Beispiel wird einmal mehr der zentrale Grundkonflikt der Geschäftsmodelle im Internet sichtbar: Gib (User) mir deine Daten und ich (Internetplayer) gebe dir maßgeschneiderte Inhalte und Services und das kostenlos.
Die Preisgabe persönlicher Informationen war im analogen Informationszeitalter nicht erforderlich. Wir haben gar nicht darüber nachgedacht, was das ist. Und wir haben überhaupt nicht mitbekommen, wann und wie wir unsere persönlichen Daten dem Internet anvertraut haben. Und wenn ich mir vor Augen halte, was die nächste Generation heute in unseren Schulen darüber lernt, nämlich nichts, wundere ich mich, weshalb die etablierten Medien heute lauthals fehlenden Datenschutz beklagen und einklagen. Die großen Player scheinen ja kein Problem zu haben, den Kunden künftig nicht mehr, sondern weniger Datenschutz zu bieten. Kennen die Ihre Kunden nicht, obwohl sie so umfassende Daten über ihn haben? Hat also nur die informationelle Medien-Elite ein Problem damit, nicht aber die erste Milliarde von Alltags-Nutzern von facebook und Co.?
Das #Geschäftsmodell der heutigen Internetriesen beruht auf Gedeih und Verderb auf weiterem Wachstum. Mehr User heißt mehr Geschäftsmöglichkeiten, heißt mehr Umsatz. Und inzwischen ist eindeutig klar, was der Kunde im 21. Jahrhundert im Internet will: kostenlose und individuell-maßgeschneiderte Informationen und Services. Heute technisch kein Problem mehr. Die Ingenieure von Google, facebook und Co. haben in den letzten 10 Jahren gute Arbeit geleistet. Auch juristisch bislang kein Problem. Auch die Juristen habe gute Arbeit geleistet. Die spannende Frage ist jetzt nur: Wird die erste Internetgeneration im Internet bleiben, auch ohne echten Datenschutz? Und wird auch die zweite Milliarde von Nutzern ins Internet gehen, auch ohne echten Datenschutz?
Wenn ja, ist alles gut für die großen Internetplayer. Die Aktionäre können sich freuen. Wenn nein? Dann allerdings haben die Ingenieure von Google und Co. eine neue Herausforderung zu bewältigen. Dann wird die Frage zu beantworten sein: Geht denn nicht beides? Echter Datenschutz und Maßanzug? Schießt sich das wirklich aus? Gibt es wirklich keine technischen Lösungen, unsere persönlichen Daten so zu organisieren und zu speichern, dass unsere Anonymität gewährleistet wird und wir dennoch individuelle Lösungen erhalten?
Es gibt natürlich noch eine zweite Lösung. Wir alle kennen diese aus unserem Privatleben. Wir nennen sie #Vertrauen. Dies ist die psychologische Lösung. Grundsätzlich ja denkbar, dass wir auch Firmen unser Vertrauen schenken und ihnen unsere persönlichen Daten und Geheimnisse zu treuen Händen anvertrauen, wie wir dies bei sehr guten Freunden tun. Dann allerdings benötigen die großen Internetplayer zwei neue Kompetenzen: Einmal Ingenieure, die wirklich technisch garantieren können, dass unsere Daten bei Ihnen gegen Datendiebstahl und Datenmissbrauch sicher sind und zweitens gute Manager und Psychologen, die uns mit umfassender Transparenz zeigen können, das unsere Daten vertrauensvoll genützt werden, genau so, wie wir dies von guten Freunden erwarten.
Wer gewinnt? Für mich keine Frage: Langfristig gewinnt nur Vertrauen. Wer wirklich langfristige Geschäftsmodelle und Strategien entwickeln will, kommt um den kritischen Erfolgsfaktor Vertrauen nicht umhin.
Gibt es ein Risiko? Ja, das kurzfristige Optimierungsdenken. Wie im realen Leben auch halt. Fortsetzung folgt.

Montag, 28. April 2014

Sparen, eine Frage der Effizienz oder der Unternehmenskultur?

Bei BUNTE muss künftig gespart werden, meldete gestern  der Online-Branchendienst  Media . Interessant und bedenk-lich finde ich allerdings die Begründung: Der deutliche Rückgang der Auflagenzahlen zwinge zu dieser Maßnahme, nämlich zu sparen. Die implizite Botschaft, die in dieser Begründung indirekt an die Mitarbeiter kommuniziert wird, ist möglicherweise nicht jedem klar, aber ganz klar unvermeidlich: wir müssen jetzt sparen, weil wir jetzt weniger Geld haben. Im Umkehrschluss heißt dies, wir müssen nicht (mehr) sparen, wenn wir (wieder) mehr Geld haben.

Dann dürfen wir z.B. wieder nur einseitig bedrucktes Papier wegwerfen, nicht wirklich erforderliche Essenseinladungen anbieten, Interviews nicht mehr selbst abtippen oder freiwerdende Stellen wieder neu besetzen, ja? Soll heißen, dürfen wir wieder Geld ausgeben für Dinge, die eigentlich  für den Erfolg des Geschäftsmodells nicht wirklich erforderlich sind, sich aber einfach so im Laufe der Zeit eingebürgert haben? Also entweder ist z.B. eine Stelle für den Geschäftsprozess erforderlich oder nicht. Wenn ja, dann muss Sie besetzt werden, völlig unabhängig vom Geld, oder sie ist nicht erforderlich, dann darf sie nicht besetzt werden, auch wenn genügend Geld da ist.
 
Die Kosten eines Geschäftsmodells sind stets ein Nullsummenspiel. Geld das ich an einer Stelle ausgebe, kann ich nicht an einer anderen Stelle ausgeben, Geld das ich für unnütze Papierverschwendung oder Essenseinladungen ausgebe, kann ich dann nicht alternativ in ein besseres Produkt oder einen besseren Vertrieb ausgeben. Sparen im betriebswirtschaftlichen Sinne heißt eben immer, alle erforderlichen Ressourcen für einen Geschäftszweig so effizient wie möglich einzusetzen. Und sparen in dem Sinne, grundsätzlich kein Geld und keine Ressourcen  für Überflüssiges oder Unnützes  auszugeben, ist zuvorderst auch eine unternehmens-kulturelle Einstellung, ganz losgelöst vom aktuellen Markterfolg eines Geschäftsfeldes.

Freitag, 25. April 2014

Chancenlos gegen Facebook, G+ vor dem Aus ??

Sicher nicht. War G+ denn je ein Konkurrent zu Facebook? Kann eine Social-Media-Plattform sich überhaupt ernsthaft in direkter Produkt-Konkurrenz zu einem Milliarden-Portal wie facebook positionieren? Ganz sicher nicht.

Me-too (Produkt-)Strategien sind nur in eng begrenzten Fällen sinnvoll und nur kurzzeitig erfolgreich. Sinnvoll können z.B. im Einzelfall kurzzeitige Alternativ-Positionierungen zu einem dominanten Player sein, jedoch nur aus marketing-taktischen Gründen, um Aufmerksamkeit zu generieren und vom Neugiereffekt zu profitieren. Kurzzeitig heißt, rechtzeitig, bevor durch den direkten Vergleich sich langsam das Image des Zweitbesten verfestigt, eine markante Abgrenzungspositionierung zu beginnen.
Erfolgreich sind Produkt-Strategien, die sich komplementär zu einem dominanten Marktplayer aufstellen, wie z.B. WhatsApp. G+ wird seinen anderen Nutzen künftig stärker herausstellen und neben und nicht als konkurrierende Alternative zu facebook wachsen. Die Frage ist daher, war G+ aus Sicht von Google je als direkte Alternative zu facebook gedacht? Wir werden es bald wissen. 
Nur auf die aktiven Nutzerzahlen, 1.200 Million zu 300 Millionen, zu schauen, das reicht nicht für eine strategische Kennzahlen- und Erfolgsbewertung. Weder im Rückblick und schon gar nicht im Ausblick für Morgen.

Mittwoch, 23. April 2014

500 Millionen = WhatsApp, Spezialist verdrängt Generalist

Ist das das Zukunftsmodell im need-to-have Markt? Spezialisierte, eindimensionale Dienste, ergänzend zu den horizontalen Alles-Könner-Portalen wie facebook & Co.? Einen einzigen Nutzen bieten, den aber wirklich besser als alle anderen? Einen unverzichtbaren Kern-Nutzen,  aber diesen ohne Schnick-Schnack und ohne nice-to-have Ergänzungen, dafür schlank und rank? Und wirklich einfach und sofort intuitiv bedienbar?

Und ist dies auch das Zukunftsmodell für Content, ein-dimensionale Nische statt Alles-unter-einem-Dach? Wie so oft, ich denke man muss auch hier differenzieren, es gibt viele Märkte, nicht jede Strategie passt auf alle Märkte und auch nicht zu jeder Zeit.

Und nicht jeder Markt hat ein exponentielles Wachstumspotenzial, wie im Falle WhatsApp: Gib mir dein Adressbuch und ich gebe dir WhatsApp (fast) umsonst. Darauf hätten auch die Social-Media-Riesen kommen können und auch die Telcos. Sind Sie vermutlich auch, nur die Großen tun sich mit der Eigenkannibalisierung immer schwerer als die Kleinen, die nichts zu verlieren haben. Clayton M. Christensen`s Innovator`s Dilemma ist möglicherweise ein sehr universelles Phänomen.
Ist es daher vielleicht doch kein „Zufall“, dass auch im Content-Markt Nischentitel den digitalen Medienwandel besser bewältigen als die Generalisten-Schlachtschiffe aus der Printwelt? Ich denke, das muss jeder für sein eigenes Marktsegment beantworten. Viele Beispiele sprechen dafür. Dazu passt auch die neue IVW-I/2014 Meldung, in der die spezialisierten Spartentitel wieder einmal besser davonkommen. Und auch im Fachinformationsmarkt dominieren die themenfokussierten Titelklassiker das digitale Erfolgsgeschehen.

Mittwoch, 16. April 2014

A print newspaper generated by robots: Is this the future of media or just a sideshow?

fragt heute das Blog Gigaom bezogen auf die Experimente des Gardian, mit einer maschinell zusammengestellten Printausgabe, generiert über Algorithmen, die die „likes“ und Empfehlungen der Leser in den Sozialen Medien auswerten. Wohlgemerkt, gemeint ist die Zukunft der Print-Zeitung.

Das ist natürlich nicht die Zukunft, sondern eine Marketingspielerei, wie es schon viele gab und weiter geben wird. Auch die gedruckte Ausgabe von Wikepedia war eine nette Spielerei im Lexikonmarkt, nicht mehr, nicht weniger.
Eine Roboter-Zeitung, die nur Themen enthält, die bereits von den Lesern auf ihren digitalen Bühnen gelesen und bewertet wurden, ist eine Wiederholung bereits bekannter Inhalte und nur in Einzelfällen neu für Leser, die nicht auf den digitalen Lesebühnen unterwegs sind. Eine Zielgruppe, die täglich kleiner wird.

One size for all ist nicht dasselbe wie one size fits all. Bisher war und ist die Print-Zeitung eine Auswahl von Themen, bei der Redakteure der Überzeugung sind, dass diese für ihre Leser wichtig oder interessant sind. Dies enthält einen gewissen Imperativ, eine persönliche Bewertung, die man teilen kann, was zu Markenvertrauen und Markentreue führt, oder eben nicht. Der Auswahlfilter von Personen (Redakteuren) wird durch zwei Variablen geprägt: dem persönlichen Weltbild und den als marketingrelevant eingestuften empirischen Leserdaten. Daraus entsteht das Markenimage der Redakteure, damit der Redaktion, damit der Print-Zeitung und das nährt das tägliche Marktmomentum.
Es ist ein genuines Bedürfnis des Menschen sich an Meinungsführern zu orientieren und die eigene persönliche Sicht damit abzugleichen. Meinungsführer wird ist man nicht, wenn man nur wiedergibt, was die Mehrheit denkt. Das ist ok für Marktforscher. Zusätzlich zu wissen, was die Mehrzahl der (Social-Media-) Öffentlichkeit(en) für wichtig und interessant hält, ist auch ein wichtiges Bedürfnis, aber ein Bedürfnis, für das die Print-Plattform heute keinen Mehrwert  mehr bieten kann.
Ich wundere mich also weiter, weshalb die Print-Verleger nicht alles tun, um die originären Print-Mehrwerte zu verbessern und diese zu den originären Mehrwerten der digitalen Medien in Kontrast zu stellen. Noch geht es in vielen Mainstreammärkten nicht um Verdrängung, sondern um Ergänzung.

Mittwoch, 19. März 2014

Orientierungslos – G8, G9, gymnasiale Schulpolitik im 21. Jahrhundert

Strategie ohne Ziel – zum Scheitern verurteilt

Februar 2014. Das Volksbegehren der Freien Wähler hat nun auch in Bayern, wie in vielen anderen Bundesländern, die Schulpolitiker wieder wachgerüttelt. Die Bundespolitik betet seit Jahren das Mantra „Bildung ist Deutschlands wichtigster Rohstoff“. Innovations- und Bildungsgipfel sind hoch im Kurs, doch eine langfristige Schulentwicklungs-Strategie ist nicht erkennbar.

Jede Strategie beginnt mit der einfachen Frage: Woher kommen wir und wohin wollen wir? Erinnern wir uns also: Weshalb wurde eigentlich vor rund zehn Jahren im Hauruck-Verfahren das G8 eingeführt? Die deutschen Studenten seien im internationalen Vergleich zu alt, hieß es. Nein, nicht zu schlecht, im Gegenteil, deutsche Universitätsdiplome waren weltweit angesehen, aber zu alt. 13 Jahre bis zum Abitur, statt 12 Jahre, wie international üblich, Wehrplicht und eine Regelstudienzeit von 4-5 Jahren bis zum deutschen Universitäts-Diplom- oder Magisterabschluss, führten dazu, dass unser akademischer Nachwuchs mit ca. drei Jahren „Verspätung“ in das Berufsleben startete. Und dies angesichts einer immer älter werdenden Gesellschaft. Die Politik musste deshalb sofort handeln, war sie jedenfalls überzeugt.

Politik und Verbände wussten darüber hinaus, dass die Qualität des bisherigen 13-jährigen Abiturs durch die Verkürzung jedoch keinesfalls verringert werden durfte. Da Qualität mit Wissensmenge gleichgesetzt wurde und, mit Verlaub, bis heute wird, und die Ganztagsschule ebenso opportun war, war die Lösung schnell gefunden. Man verteilte das 13-jährige Curriculum auf 12 Jahre und weitete den Unterricht auf den Nachmittag aus. Die Schüler hatten ja bislang nachmittags frei und für die Hausaufgaben gibt es ja den Feierabend. So schnell geht das. Gleiche Qualität, alles nur ein Jahr schneller. Wow! Ja?

Doch, wie war das, das Abitur ist ein Reifezeugnis? Unsere Abiturienten sollen eben gerade nicht abgefüllte lebende Wissenscontainer werden? Und Gras wächst nicht schneller, wenn man daran zieht? Doch unsere Schüler können mit Hilfe des G8 ein Jahr schneller reifen? So ganz sicher waren sich die G8-Macher wohl doch nicht. Vielleicht führten Sie ja deshalb ein kumulierendes Notensystem ein: Jede Note, von Beginn der 11. Klasse bis zum Abitur, geht in die Abiturendnote ein. Das zu einer Zeit, in der der Numerus-Clausus-Notendruck einen Höchststand erreicht. Die Schüler müssen deshalb zwei Jahre ohne Unterbrechung maximale Performance zeigen, kleine Schwächen, Verschnaufpausen oder seelische Krisen zwischendurch, im Alter zwischen 16 und 18 Jahren ja nicht gänzlich unerwartbar, das geht leider nicht (mehr). Die Klagen der Eltern, dass das einfach nicht geht, blieben lange ungehört.

Nachdem nun die ersten kompletten G8-Jahrgänge Abitur gemacht und viele Landespolitiker das bessere Gymnasium wieder als Wahlkampfthema entdeckt haben, geht der ideologische Klein-Kampf um G8 oder G9 in eine neue Runde, mit „deutscher“ Gründlichkeit, multipliziert auf 16 Bundesländer, denn Bildung ist so wichtig, da muss jedes Bundesland einen eigenen Weg gehen. Doch, was ist nun die allseits akzeptierte Lösung? Ganz einfach: Zurück zu Start. Wir verlängern einfach die Schulzeit wieder um ein Jahr. Und ruck zuck, schon wieder ist die neue Lösung fertig. Wiederum wow! Und noch besser, wir lassen den Schülern einfach die Wahl zwischen G8 und G9. Dann müssten doch wirklich alle (Wähler?) zufrieden sein. Dann können die guten („schnellen“) Schüler ein Jahr schneller reifen und die „langsamen“ eben ein Jahr langsamer.

Die Komplexität der Organisationsprozesse auf Seiten der Gymnasien dahinter ist vom Feinsten. Ein nebeneinander von 30 bis 40 verschiedenen Fächern und Kursen, zig Fächerwahloptionen, und jetzt nochmals differenziert nach G8 und gleichzeitig G9 und alles schön getrennt nach 16 Bundesländern, kein Problem. Unsere Schulbürokratie mit ihren reform-gestählten Beamten, die schafft das schon.

Um es auf den Punkt zu bringen: Das ursprüngliche Ziel, die Schuldauer zu verkürzen ohne die Qualifikationsansprüche zu verkürzen, war einfach dumm und von Anfang an zum Scheitern verurteilt. Und auch das ursprüngliche Ziel, das Alter der Abiturienten ein Jahr zu verkürzen, war kein sinnvolles Ziel. Fragen Sie sich: Kann die Schuldauer überhaupt ein Bildungsziel sein? Muss nicht eigentlich der Inhalt des Bildungszieles die Dauer der Schulzeit bestimmen? Dann sind wir sofort bei der wichtigsten strategischen Frage überhaupt. Was ist das Bildungsziel? Und, woher wissen wir, was unsere Schüler und Abiturienten im 21. Jahrhundert wissen und können müssen? Wer kann diese Frage beantworten? Die Wissenschaft, die Verbände, die Politik oder nur die Gesellschaft insgesamt?

Kann in einer Zeit, in der die Halbwertszeit des Faktenwissens immer schneller sinkt und der Zugang durch das Internet jederzeit und überall möglich ist, die bloße Vermittlung und das Auswendiglernen von Faktenwissen noch ein sinnvolles Bildungsziel sein? (Das böse Wort von der Bulimie-Schule wurde leider durch das G8 weiter verstärkt.) Kann es sein, dass in einer Zeit, in der durch die Digitalisierung und Vernetzung aller Lebensbereiche die soziale und emotionale Komplexität unserer Schüler drastisch zunimmt, in der die Lehrer über immer „anstrengendere“ Schüler jammern, das reflexhafte Festhalten am herkömmlichen (150 Jahre alten) Schulmodell, egal ob in G8- oder G9-Form, das völlig überholte und falsche Ziel ist?

Ich meine, es ist jetzt aller höchste Zeit über das neue Bildungsziel der Schule im 21. Jahrhundert zu diskutieren und zu entscheiden. Und diese Diskussion darf nicht länger nur von den digital immigrants domminiert werden. Hier müssen die digital natives massiv eingebunden werden, denn es ist Ihre Zukunft, über die die „Qualität“ des Schulsystems entscheidet. Erst nachdem Klarheit und ein breites, über Parteigrenzen hinausgehendes gesellschaftliches Einvernehmen über das Bildungsziel besteht, erst dann kann undogmatisch und zielgerichtet über den richtigen Weg zu diesem Ziel diskutiert und entscheiden werden.

Es ist ein banales Bonmot, dass jede Strategie richtig ist, wenn das Ziel nur ausreichend unklar oder überhaupt nicht formuliert ist. Und der dann zwangsweise folgende Streit über die richtige Strategie wird zur never-ending story, zu einer andauernden intellektuellen Ressourcenverschwendung. Macht es im 21. Jahrhundert weiterhin Sinn, 16 Bundesländer über das das bessere Gymnasium und das bessere Schulsystem streiten zu lassen? Macht es Sinn, im Jahres- oder Wahltagsrhythmus eklektizistische Nachbesserungen mit dogmatischem Eifer zwischen G8 und G9 hin und her zu schieben? Die Rückkehr zum G9 ist kein Fortschritt, sondern Rückschritt und die Wahloption zwischen G8 und G9 ist vielleicht gut gemeint, bindet aber noch mehr Geld und Ressourcen in ein konzeptionell veraltetes Schulsystem. Ein System, das noch immer auswendig gelerntes Faktenwissen belohnt und individuelle Varianz bestraft, Kreativität systematisch unterdrückt und Methodik und Teamarbeit für überflüssig hält. Gras wächst nicht schneller, wenn man daran zieht, deshalb war das G8 die falsche Lösung, Es war die einfache Lösung, entstanden aus dem Denkmodel des 20. Jahrhunderts, dem Höher, Schneller, Weiter. Eine Lösung die zur Effizienzsteigerung technisch-organisatorischer Prozesse taugt, aber nicht auf psychologische Entwicklungsprozesse übertragbar ist.

Im digital-vernetzten Zeitalter des 21. Jahrhunderts, in dem das Faktenwissen überall verfügbar ist, zählen andere Werte und Kompetenzen: Empathie und Methodenwissen, Kreativität, Individualität, soziale Reife, emotionale Belastbarkeit, Eigenständigkeit und Eigenverantwortlichkeit. Werte und Befähigungen, die sich nicht durch Auswendiglernen ausbilden können, sondern individuelle Reifezeit und individuelle pädagogische Führung erfordern, von der Grundschule bis zum Abitur.

Der Wandel von der bisherigen Wissensvermittlungs-Schule zur Kompetenzvermittlungs-Schule benötigt jedoch Zeit, viel Zeit. Es erfordert pädagogisch-psychologisch ausgebildete Lehrer von der Grundschule bis zum Abitur, Lehrer, die die Schüler zum selbstständigen und eigenverantwortlichem Denken und Problemlösen ermutigen und anleiten können, Lehrer die fächer-übergreifend wirken, Teamarbeit vorleben und Kreativität und Fragemethodik belohnen.

Dieser Wandel ist riesengroß. Er ist schlichtweg ein Paradigmenwechsel. Dieser Wandel geht nicht innerhalb einer Wahlperiode und kann durch partei-politisch geprägte Veränderungsprojekte nicht bewältigt werden. Bei grundlegendem Wandel geht es jedoch überhaupt nicht um die Schnelligkeit, sondern einzig um die Nachhaltigkeit.

Im Grunde gibt es nur zwei Arten von Wandel: trivial oder traumatisch. Auch unsere Wirtschafts-unternehmen tun sich sehr schwer mit grundlegendem Wandel und versuchen häufig, sich so lange mit trivialen Innovationen vor dem grundlegenden Wandel zu drücken, bis die wahren Innovatoren von außerhalb Ihrer Branche sie mit der Kraft der schöpferischen Zerstörung traumatisch vom Markt verdrängen. Schule hat aber keine Konkurrenten, die erstarrte Strukturen vom Markt verdrängen können. Wenn wir jetzt unsere Energie nur auf die Fehler des G8 fokussieren, werden wir zwangsläufig bei einem besseren G8 oder G9 landen und verlängern dadurch nur die Lebensdauer des veralteten Schulsystems aus dem 19.Jahrhundert. Können wir dadurch wirklich die Probleme des 21. Jahrhunderts lösen?

Kann es sein, dass jede Gesellschaft die Schule hat, die sie verdient? Ich hoffe nicht, ich hoffe, dass auch unsere Generation jetzt die Kraft hat, die Schule grundlegend neu zu erfinden. Nur drei einfache, aber dennoch so schwierige Schritte sind notwendig:
1. Einsicht, dass der bisherige Weg trivialer Innovationen in eine Sackgasse führt
2. Klärung: Was wollen wir? Was ist das Bildungsziel der Schule im 21. Jahrhundert
3. Danach, wirklich erst danach, Ableitung einer gemeinsamen Veränderungsstrategie

Diese Veränderungsstrategie ist nicht trivial und muss alle Institutionen, die die Schule bestimmen, umfassen. Nur im Dreiklang aus Schule, Universität und Lehrerausbildung kann dies gelingen. Also, wer hat den Mut und die Größe, jetzt einen völlig neuen Weg einzuleiten?