24 Jun

ChatGPT bzw. KI macht (nicht nur) Berater denkfaul!

CHATGPT-EINSATZ, BERATER-ARTIKEL. Das Programm ChatGPT kann nicht „out of the box“ denken. Das bedenken viele Berater – gleich welcher Couleur – u.a. beim Schreiben von Artikeln mit Hilfe dieses KI-Tools nicht.

 

Seit das Unternehmen OpenAI Ende 2022 sein Programm ChatGPT für die allgemeine kostenlose Nutzung freigeschaltet hat, ist um das Thema künstliche Intelligenz (KI) ein Hype entstanden. Auch die Beraterszene hat den Nutzen solcher Chat-Programme wie ChatGPT für sich erkannt – zu Recht, denn mit ihnen lassen sich sehr schnell und einfach zumindest erste Entwürfe solcher Werbetexte wie Blogbeiträge, Werbeschreiben oder Post für die Social Media generieren, die man dann weiterbearbeiten kann.

 

Berater lassen Artikel, Blog-Beiträge usw. oft von ChatGPT schreiben

„ChatGPT nimmt Beratern nicht das Denken beim Artikel-Schreiben ab.“

Oft treibt die ChatGPT-Nutzung der Berater aber seltsame Blüten. So zum Beispiel, wenn wir als PR- und Marketing-Agentur für Berater zu einem aktuellen Trendthema – wie Künstliche Intelligenz, Transformation, hybride Teams, Nachhaltigkeit, Blended Learning, Generation Z usw. – einen Artikel schreiben und in Print- und Online-Medien platzieren sollen, beispielsweise weil
• der betreffende Berater gerade ein neues Produkt zu diesem Thema entwickelt hat und
• er dieses promoten möchte.

Angenommen wir sagen dann zu dem Berater „Das machen wir gern. Doch bitte geben Sie uns zuvor einen Input, damit wir ihre Kernbotschaften und ihre inhaltliche Stoßrichtung kennen“. Dann wird uns nicht selten kurze Zeit später ein Text zugesandt, der erkennbar von ChatGPT erstellt wurde. Und in seiner Mail? In ihr erwähnt der Berater nicht selten sogar voller Stolz, dass er den Text mit Hilfe des „Kollegen ChatGPT“ erstellt hat – vermutlich als Beleg dafür, wie „innovativ“ und „auf dem neusten Stand der Technik“ er ist.

In der Praxis bedeutet dies: Der Text besteht im Idealfall aus einigen recht allgemeinen Aussagen beispielsweise zum Thema „Künstliche Intelligenz“ oder „Transformation“, die wir selbst auch beim Googeln im Netz gefunden hätten. Von eigenen Gedanken des Beraters findet man in den Texten jedoch keine Spur.

 

Berater durchdenken Themen und Problemstellungen oft nicht

Nicht selten wären die Artikel-Entwürfe, wenn wir sie ohne eine neue inhaltliche Fokussetzung Fachzeitschriften anbieten würden, aus deren Sicht sogar ein absoluter Blödsinn – zum Beispiel, weil in ihnen nicht reflektiert wird, dass
• Kleinunternehmen weniger Ressourcen als Konzerne haben,
• die Logistik- und Baubranche ganz anders als die Finanzbranche tickt,
• der Vertrieb von Maschinenanlagen ganz anders als Verkauf der Klamotten und Kosmetik-Artikeln funktioniert,
• die Arbeitsanforderungen in Forschungs- und Entwicklungsbereichen der Unternehmen ganz andere als in deren Produktion sind
• und, und, und
weshalb für viele „Probleme“ gilt: Sie bedürfen situations- und kontextabhängig teils ganz andere Lösungen. Das heißt, in den Artikelentwürfen erfolgt keine Differenzierung, obwohl sich gerade darin die Expertise eines Beraters zeigt.

 

Berater reflektieren häufig nicht: Wer sind die (Artikel-)Adressaten?

Hierfür ein Beispiel. Vor einigen Wochen bat uns ein auf KMU spezialisierter Personalberater, der offensichtlich auch irgendwo gelesen hatte „Der KI gehört die Zukunft“, für ihn einen Artikel zum Thema „KI-Einsatz im Personalauswahlprozess“ zu schreiben. Nachdem ich ihn gebeten hatte, mir diesbezüglich einige Stichworte zu senden, erhielt ich kurze Zeit später einen etwa 30 Zeilen langen Text. In ihm wurde ein möglicher KI-Einsatz im Personalauswahlprozess zur Bewerbervorselektion beschrieben – ohne jeglichen Bezug auf Klein- und Mittelunternehmen.

Dabei hatte mir der Berater im Vorfeld erzählt, die meisten seiner Kunden kämpften aktuell mit folgendem Problem: Auf Stellenausschreibungen von ihnen
• melden sich, wenn überhaupt, maximal 1, 2 Bewerber und
• deshalb müssen sie mangels Alternative, um ihre Arbeitsfähigkeit zu bewahren, oft auch Bewerber einstellen, die ihre Anforderungen nur partiell erfüllen.

Als ich den Berater anrief und fragte, welchen Nutzen in einer solchen Arbeitsmarktsituation KMU ein KI-System zur Vorselektion von Bewerbern biete, lautete seine Antwort nach einem kurzen Nachdenken: „Eigentlich keinen – denn wenn nur ein Bewerber vor der Tür steht, dann…“

 

Die von ChatGPT erstellten Berater-Artikel sind meist sehr undifferenziert

„Die Berater-Kompetenz zeigt sich oft in der differenzierten Betrachtung.“

Ähnlich erging es mir, als wir für ein größeres Beratungsunternehmen einen Artikel zum Thema „Generationenübergreifende Zusammenarbeit“ schreiben sollten. In der Textvorlage, die ich erhielt, wurde der Eindruck suggeriert: Das Gros der Mitarbeitenden und Führungskräfte der Unternehmen sind auch heute noch Digital Immigrants, die mit der IT auf Kriegsfuß stehen und starke emotionelle Vorbehalte gegenüber IT-Lösungen haben, woraus Probleme in der Zusammenarbeit mit den Digital Natives resultieren.

Als ich daraufhin den Textlieferanten fragte, inwieweit dies heute noch zutreffend sei, da inzwischen
• viele Angehörige der in dem Artikel zitierten Generationen X und Y ja schon 35 oder gar 40 Jahre alt seien und
• nicht selten seit Jahren schon zu den Leistungsträgern in den Unternehmen zählten,
lautete seine Antwort: „Damit könnten Sie recht haben.“
Offensichtlich hatte er jedoch noch nie darüber nachgedacht, inwieweit diese vor ein, zwei Jahrzehnten gültigen Klischees auch heute noch stimmen. Also störten sie ihn auch im Textentwurf von ChatGPT nicht.

 

Berater überlassen das Denken immer häufiger ChatGPT

Ähnliche Erfahrungen sammeln wir auch immer häufiger, wenn wir für Berater neue Seiten für ihre Homepages und Beiträge für ihre Blogs texten sollen, zum Beispiel weil sie
• ein neues Produkt entwickelt haben oder
• bei einem bestimmten Stichwort, das gerade „in“ ist, auch von ihren potenziellen Kunden im Netz gefunden werden möchten.
Auch dann stellt sich uns beim Sichten ihrer Textvorlagen oft die Frage: „Was hat sich der Berater hierbei gedacht?“ Und nicht selten lautet die Antwort: „Nichts, denn er hat nur bei ChatGPT einige Prompts eingeben.“

Der Grund hierfür: Die Texte sind so banal und allgemein, dass man von einem eigenständigen Denken des Beraters oder gar von dessen Feld- und Praxiserfahrung nichts spürt. Nur, warum sollten dann potenzielle Kunden, die beim Googeln auf die Webseite des Beraters stoßen, diesen überhaupt kontaktieren? Das fragen sich viele Berater bei ihrer ChatGPT-Nutzung offensichtlich nicht.

 

ChatGPT-Artikel können die Redaktionen auch selbst erstellen

Sie fragen sich dies ebenso wenig, wie sie sich beim Schreiben von Artikeln fragen: Warum sollte eine Fachzeitschrift einen „Experten-Beitrag“ von mir publizieren, den deren Redaktion auch selbst durch die Eingabe gewisser Prompts in ChatGPT erstellen könnte?

Hierfür besteht für die Redaktionen keinerlei Anlass – zumal die von ihnen selbst mit ChatGPT erstellten Artikelentwürfe meist sogar besser sind als die von Beratern. Denn, da die Fachredakteure die Adressaten ihres Magazins meist besser kennen als die Berater, sind in der Regel auch ihre „Prompts“ zielgruppen-genauer bzw. -spezifischer als die der Berater. Zudem wissen sie, an welchen Punkten sie die Textentwürfe von ChatGPT noch schleifen, präzisieren, konkretisieren usw. müssen, damit sie aus der Warte ihrer Leser lesenswert sind.

 

ChatGPT kann nicht „out of the box“ denken

Die obigen Zeilen sollen kein Votum gegen eine Nutzung des Programms ChatGPT durch Berater gleich welcher Couleur sein. Dieses ist und bleibt ein oft sehr hilfreiches Tool. Was ChatGPT Beratern aber nicht abnehmen kann, ist
• das Denken (in all seinen Facetten wie durch-denken, be-denken und quer-denken) und
• das Entwickeln passgenauer Problemlösungen für ihre Zielkunden.
Denn letztlich kann dieses Programm nur ein mehr oder minder sinnvolles Substrat der Infos, die es im Netz findet, wiedergeben. Es kann also auch nicht (um ein aktuelles Berater-Schlagwort zu verwenden) „out of the box“ denken und ganz neue Problemlösungen (er-)finden. Das ist und bleibt der Job der Berater (alleine oder im Dialog mit ihren Kunden).

 

Sich nicht selbst zum „Sklaven“ der KI machen

Mein Marketing-Klassiker u.a. für Berater, Coaches „Die Katze im Sack verkaufen:…“

Was für die Beraterzunft gilt, gilt selbstverständlich auch für den KI-Einsatz in Unternehmen. Auch hier besteht die Gefahr, dass die User denkfaul werden und den von KI-Systemen vorgeschlagenen Lösungen blind vertrauen statt sich zu fragen: Inwieweit sind diese zielführend?

Diesbezüglich die Mitarbeitenden der Unternehmen zu sensibilisieren und zu schulen, könnte übrigens ein Beratungs- bzw. Trainingsangebot der Anbieter im Bildungs- und Beratungsbereich sein. Denn auch bei ihnen stellt man nicht selten eine Tendenz zum Denken fest: Was die KI (bzw. ChatGPT) uns vorschlägt, muss ja „gut“ bzw. zielführend sein. Schließlich speisen sich die von ihr vorgeschlagenen Lösungen ja aus dem, was Tausende oder gar Millionen anderer Menschen bereits vor mir gedacht und geschrieben haben. Sie übersehen dabei, dass sie sich durch ein solches Denken und Handels selbst zum „Sklaven“ der Künstlichen Intelligenz machen und zunehmend das verlieren, was sie zu einem wertvollen Mitarbeiter (bzw. Berater, Artikelautor usw.) macht.

Wünschen Sie mehr Infos über die Autoren dieses Blog-Beitrags und die Leistungen der PRofilBerater, dann klicken Sie hier. Möchten Sie künftig über neue Blog-Beiträge informiert werden? Wenn ja, dann senden Sie uns bitte eine Mail.