Tinybuild-president Alex Nichiporchik zegt dat het bedrijf kunstmatige intelligentie gebruikt om giftige werknemers te identificeren, waaronder volgens de CEO ook degenen die een burn-out hebben.
Nichiporchik laat zien hoe het bedrijf tijdens de ontwikkeling AI op de werkplek gebruikt: Brightons toespraak met de titel “AI in Gamedev: Is My Job Safe”, introduceerde een sectie met de naam “AI voor HR” en besprak hoe de technologie kan worden gebruikt om door werknemerscommunicatie te kammen en identificeer ‘probleemwerkers’.
In een fragment uit de talk gepubliceerd door Why Now Gaminglegt Nichiporchik uit hoe het bestand hallo buren De uitgever voert tekst van Slack-berichten, geautomatiseerde transcripties van Google Meet en Zoom en taakbeheerders die door het bedrijf worden gebruikt, in ChatGPT om een ”ik-en-mij-analyse” uit te voeren waarmee Tinybuild “de waarschijnlijkheid kan meten dat een persoon in burn-out.”
Nichiporchik zei dat de technologie, die hij beweert te hebben uitgevonden, een “rare zwarte spiegel” is en het gebruik van ChatGPT inhoudt om te controleren hoe vaak werknemers “ik” of “ik” zeiden in vergaderingen en andere correspondentie.
Waarom? Omdat hij beweert dat er een “directe relatie” bestaat tussen hoe vaak iemand deze woorden gebruikt, vergeleken met het aantal woorden dat ze in het algemeen gebruiken, en de waarschijnlijkheid dat ze op een bepaald moment in de toekomst vermoeidheid zullen ervaren.
Toxiciteit en vermoeidheid? Tinybuild-baas beweert dat ze ‘hetzelfde’ zijn
Met name suggereert Nichiporchik ook dat de AI-tool kan worden gebruikt om “problematische spelers in het team” te identificeren en ze te vergelijken met “A-spelers” door te zoeken naar degenen die veel praten tijdens vergaderingen of die veel typen. Hij noemt deze werknemers “tijdvampieren”, omdat ze vanuit zijn oogpunt in wezen tijdverspillers zijn, en hij merkt op: “Als die persoon eenmaal niet bij het bedrijf of het team is, duurt de vergadering 20 minuten en krijgen we vijf keer meer tijd. “
Op een gegeven moment, suggereert Nichiporchik, werd AI gebruikt om een studioleider te identificeren die zich niet op een “goede plek” bevond en om hem te helpen een burn-out te voorkomen. Op het eerste gezicht lijkt dit misschien een overwinning, maar de CEO suggereert verder dat “giftige mensen meestal mensen zijn die overwerkt zijn”, eraan toevoegend: “Ze zijn hetzelfde.”
Afbeelding via Why Now Gaming / Develop
Giftigheid gelijkstellen aan burn-out is op zijn best misleidend, maar nog verontrustender is het feit dat Nichiporchik eerder in het gesprek sprak over het verwijderen van dubieuze spelers uit het bedrijf om de productiviteit te verhogen. In dit geval zouden dat blijkbaar ook degenen zijn die aan een burn-out lijden.
Aan het einde van zijn toespraak zei Nichiporchik dat bedrijven moeten proberen om AI-tools op een positieve manier te gebruiken en te voorkomen dat werknemers “het gevoel krijgen dat ze worden bespioneerd”. Het is een zorgvuldig geformuleerd advies dat het mogelijk is om uw werknemers te bespioneren, maar alleen als u ze niet toestaat het “gevoel” te hebben alsof ze bespioneerd worden.
Game-ontwikkelaar nam contact op met Tinybuild voor meer informatie over hoe het AI op de werkplek gebruikt.
Update (14-07-23): Reageer op het originele verhaal voor Why Not Gaming op TwitterNichiporchik beweert dat sommige van de dia’s in zijn presentatie uit hun verband zijn gerukt, en suggereert dat het gebruik van AI op de werkplek “niet gaat over het identificeren van probleemmedewerkers”, maar eerder “het bieden van HR-tools om mensen te identificeren en te voorkomen dat ze een burn-out krijgen”.
Nichiporchik wijst vervolgens naar een andere dia in de presentatie, waarop staat: “99 procent van de tijd dat je burn-out identificeert, is het al te laat.” Hij merkt ook op dat de titeldia voor het gedeelte ‘Kunstmatige intelligentie voor personeelszaken’ is verwisseld voor een nieuwe dia met de tekst ‘Kunstmatige intelligentie om burn-out te voorkomen’, die hij omschrijft als ‘subtieler’.
“De ethiek van dergelijke processen is zeker twijfelachtig, en deze vraag kwam naar voren tijdens de Q&A na de presentatie”, vervolgt Nichiporchik, waarbij hij opmerkt dat het omzetten van werknemersgebabbel in een AI-tool in een poging om de prestaties en mentale toestand van werknemers te beoordelen is ethisch twijfelachtig. . “Daarom zeg ik ‘spiegelgebied te zwart’. Dat deel was hypothetisch. Wat je kunt doen om burn-out te voorkomen.”
De CEO sloot zijn Twitter-thread door feedback te vragen aan de aanwezigen van Develop: Brighton die de presentatie in “volledige context” bekeken.
Hij zei, voordat hij verklaarde dat de berichtgeving van Why Now Gaming afkomstig is van “een plaats van haat”:
updaten (07/14/23): In een apart antwoord dat rechtstreeks naar Why Now Gaming werd gestuurd, zei Nichiporchik dat de HR-afdeling van zijn pitch gewoon “virtueel” was en dat Tinybuild geen AI-tools gebruikt om werknemers te monitoren.
De verklaring luidt: “Het HR-gedeelte van mijn presentatie was hypothetisch, vandaar de Black Mirror-referentie. Ik had het duidelijker kunnen maken door uit de context te kijken.” “We monitoren geen werknemers en gebruiken geen AI om problemen te identificeren. De presentatie onderzocht hoe AI-tools kunnen worden gebruikt, en sommige daarvan komen op griezelig terrein. Ik wilde onderzoeken hoe ze voorgoed kunnen worden gebruikt.”
“Tvaholic. Zombie-geek. Toegewijde reisbeoefenaar. Introvert. Gecertificeerde communicator.”