CEO des Indie-Spieleverlags schlägt Black Mirror-würdige KI-Erkennung von Burnout bei Mitarbeitern vor, sagt, es sei alles hypothetisch angesichts der Kritik.

CEO des Indie-Spieleverlags schlägt hypothetische Black Mirror-würdige KI-Erkennung von Burnout bei Mitarbeitern vor, trotz Kritik.

Alex Nichiporchik, CEO des Hello Neighbor-Verlages tinyBuild, hat kürzlich vorgeschlagen, KI-Modelle einzusetzen, um “problematische Teammitglieder” zu finden und Mitarbeiter mit Burnout-Risiko zu identifizieren. Obwohl das Ziel angeblich darin bestand, den Mitarbeitern zu helfen, mochte das wirklich niemand.

WhyNow Gaming berichtete über eine Präsentation, die Nichiporchik auf der Develop: Brighton-Konferenz am 12. Juli hielt. Der Vortrag hatte den Titel “KI in der Gamedev: Ist mein Job sicher?” In der Zusammenfassung heißt es, der Vortrag werde “ausführlich darauf eingehen, wie der Verlag KI in den täglichen Ablauf integriert hat, um die Effizienz exponentiell zu steigern. Von einer zehnfachen Steigerung der Effizienz bei der Erstellung von Key Art bis hin zur Verwendung von KI zur Datenerfassung und Überprüfung der Stimmung in der Community befinden wir uns in der industriellen Revolution des digitalen Zeitalters. Diejenigen, die es annehmen, haben bereits einen Vorteil.”

Neben der Verwendung von KI als Werkzeug für Game-Entwicklungsbereiche wie Kunst und Code weist die Sitzung darauf hin, dass “eine Umverteilung der menschlichen Ressourcen erfolgen wird, die die Arbeitsweise der Teams verändert und optimiert.” Es war vor allem dieses Element, das so viel Kritik hervorrief. Die Diskussion drehte sich um die Idee, KI einzusetzen, um einzelne Mitarbeiter herauszufiltern, anstatt beispielsweise nachzufragen, wie es ihnen geht.

(Bildnachweis: tinyBuild)

In den Folien von Nichiporchiks Präsentation wird eine “Ich, Ich-Analyse” vorgeschlagen, bei der gemessen wird, wie oft Mitarbeiter sich als Individuen und nicht als Teil des Teams bezeichnen (mit Pluralen wie “wir”, etc.). Dies könnte beispielsweise erreicht werden, indem Slack- oder andere Messaging-App-Konversationen, wie automatische Transkripte von Google oder Zoom-Anrufen, durch KI wie ChatGPT geleitet werden, nachdem sie von allen identifizierenden Details bereinigt wurden. Nichiporchik soll während seines Vortrags angeblich Scherze darüber gemacht haben, diese Methode zu patentieren, “weil meines Wissens noch niemand dies erfunden hat.”

Er sprach auch über die Suche nach Mitarbeitern, die im Vergleich zu ihren Kollegen eine “unverhältnismäßige Menge an Meeting-Zeit” beanspruchen – Menschen, die er “Zeitvampire” nannte. Dieser Begriff fällt zufälligerweise auch für Videospiele mit viel Inhalt, die ich verwende. Abschließend wurde in dem Vortrag ein 360-Grad-Feedback von der Personalabteilung eingeführt, bei dem die Mitarbeiter gebeten werden, Kollegen aufzulisten, mit denen sie positive Interaktionen hatten, und dann diejenigen zu untersuchen, die in vielen oder keiner dieser Listen auftauchen.

Zusammenfassend heißt es in der Präsentation, dass man durch die Kombination dieser Daten “möglicherweise ein Burnout – sowohl bei der Person als auch bei ihrem Team – verhindern kann.” Nichiporchik fügte auch hinzu, dass man “die Teammitglieder niemals das Gefühl geben darf, dass sie ausspioniert werden”, doch der Widerspruch zwischen dieser Warnung und den vorgeschlagenen Methoden stieß bei Spieleentwicklern nicht auf Zustimmung.

(Bildnachweis: tinyBuild)

Wenn du denkst, dass dies wie ein dystopischer Albtraum aus Black Mirror klingt, wirst du vielleicht überrascht sein, dass in der Präsentation sogar gesagt wurde: “Willkommen bei Black Mirror”. Die Behauptung, dass “toxische Menschen normalerweise diejenigen sind, die kurz vor dem Burnout stehen”, wobei ein Dia in der Präsentation Burnout mit Toxizität gleichsetzt, hat ebenfalls einige Kritik hervorgerufen. Um es milde auszudrücken, gefällt den Leuten das nicht. Um es weniger milde auszudrücken:

“Nur so eine Idee, vielleicht gibt es weniger dystopische Möglichkeiten herauszufinden, ob deine Mitarbeiter verdammt elend sind”, sagte Thirsty Suitors Narrative Designer Meghna Jayanth.

“Jemand, der ausgebrannt ist, ist normalerweise nicht ‘toxisch’. Menschen können sicherlich ausgebrannt und toxisch sein, aber zu behaupten, dass Burnout meistens ein Versagen des Charakters ist, ist bizarr”, fügte Dora Breckinridge, Direktorin bei Armor Games, hinzu.

“Wenn du immer wieder betonen musst, dass du weißt, wie dystopisch und entsetzlich deine Mitarbeiterüberwachung ist, bist du vielleicht das verdammte Problem, mein Freund”, sagt WB Games-Autor Mitch Dyer.

Dan Ahern, QA-Leiter von Radical Forge, argumentierte: “Du brauchst keine KI, um ‘problematische Mitarbeiter’ zu finden – du kannst sie einfach finden, indem du schaust, wer versucht, so schreckliche, quälende Bullshit-Aktionen wie diese durchzuführen. Es ist wirklich enttäuschend, dass Develop einen derartig anti-Spieleentwickler Vortrag überhaupt dort ermöglicht hat.”

(Bildnachweis: tinyBuild)

Heute Morgen, am 14. Juli, hat Nichiporchik auf Twitter die ursprüngliche Geschichte kritisiert, die er als “aus einem Ort des Hasses” kommend bezeichnet und behauptet, dass sie “aus dem Zusammenhang gerissen” und “bequemerweise” wichtige Folien ausgelassen habe. WhyNow Gaming hat auch seine Geschichte mit einer Erklärung des CEO aktualisiert, in der es heißt:

“Der HR-Teil meiner Präsentation war hypothetisch, daher der Black Mirror-Bezug. Ich hätte es klarer machen können, wenn es aus dem Kontext betrachtet wird. Wir überwachen keine Mitarbeiter oder verwenden KI, um problematische zu identifizieren. Die Präsentation untersuchte, wie KI-Tools verwendet werden können, und einige bewegen sich in gruseligem Gebiet.”

“Es geht nicht darum, problematische Mitarbeiter zu identifizieren, sondern darum, HR-Tools zur Identifizierung und Vermeidung von Burnout bei Menschen zur Verfügung zu stellen”, betonte Nichiporchik auf Twitter.

“Ich hätte das viel stärker betonen können: Wir verwenden keine KI-Tools für HR, dieser Teil der Präsentation war hypothetisch”, antwortete er.

Ein Twitter-Benutzer sagte, er “verabscheue die Idee, dass meine Slack-Nachrichten gesammelt und in irgendein Programm eingespeist werden”, und zur Verwirrung einiger antwortete Nichiporchik “zu 100% einverstanden”, ohne weitere Erklärung.

Auf die Frage, ob tinyBuild-Mitarbeiter ihre Nachrichten auf diese Weise analysieren lassen haben, sagte Nichiporchik, dass niemand seine Erlaubnis geben musste, weil “sie nirgendwohin geleitet wurden” – wiederum, nehme ich an, weil dies alles “hypothetisch” war.

“Die Ethik solcher Prozesse ist definitiv fragwürdig, und diese Frage wurde während der Q&A nach der Präsentation gestellt”, sagte er in einem anderen Tweet. “Deshalb sage ich ‘sehr Black Mirror-Gebiet’. Dieser Teil war HYPOTHETISCH. Was man tun könnte, um Burnout zu verhindern.”

Hypothetisch oder nicht, die Idee an sich hat bei vielen Menschen einen schlechten Eindruck hinterlassen, besonders wenn sie auf einer Konferenz wie dieser präsentiert wird und von einem leitenden Angestellten eines bedeutenden Indie-Studios stammt. Ich habe direkt an tinyBuild um einen aktualisierten Kommentar zu dem Vorschlag, seiner Haltung zu dieser Art von Überwachung und KI-gesteuerter Mitarbeiterintervention sowie dazu, ob sie ein solches System selbst implementieren wollen, angefragt.

Vor kurzem wurde ein Persona 5-Synchronsprecher auf Twitter vertrieben, nachdem sie ein Video kritisiert hatte, das ihre Stimme mit KI klonen ließ, nur Tage nachdem KI-Stimmen in NSFW Skyrim-Mods eine separate Diskussion über dieselbe Art von Klon-Technologie ausgelöst hatten.