Google sluit tijdelijk de mogelijkheid af van zijn Gemini AI-tool om foto's van mensen te maken na historische fouten

Google sluit tijdelijk de mogelijkheid af van zijn Gemini AI-tool om foto's van mensen te maken na historische fouten

Afbeeldingscredits: Kenzo Tripoillard /Getty-afbeeldingen

Google zegt dat het de mogelijkheid van Gemini, de toonaangevende AI-modelsuite, om afbeeldingen van mensen te genereren tijdelijk heeft opgeschort, terwijl het werkt aan het updaten van de technologie om de historische nauwkeurigheid van resultaten die afbeeldingen van mensen bevatten te verbeteren.

in mail Op sociale mediaplatform

“Terwijl we dit doen, onderbreken we het maken van foto's van mensen en zullen we binnenkort een verbeterde versie opnieuw uitbrengen”, voegde ze eraan toe.

Google lanceerde eerder deze maand zijn Gemini-tool voor het maken van foto's. Maar voorbeelden van het genereren van onevenredige beelden van historische mensen hebben hun weg gevonden Op sociale media De afgelopen dagen hebben beelden van de Founding Fathers van de Verenigde Staten als Indiaans, zwart of Aziaat tot kritiek en zelfs spot geleid.

Schrijf in bericht op LinkedInDe in Parijs gevestigde durfkapitalist Michael Jackson sloot zich vandaag aan bij de menigte en noemde de AI van Google een ‘onzinparodie op DEI’. (DEI staat voor ‘Diversity, Equity, and Inclusion.’)

in Gisteren op X geplaatstGoogle bevestigde dat het ‘zich ervan bewust was’ dat de kunstmatige intelligentie ‘onnauwkeurige informatie produceerde in sommige door historische beelden gegenereerde afbeeldingen’ en voegde daaraan toe in een verklaring: ‘We werken eraan om dit soort afbeeldingen onmiddellijk te verbeteren.’ Het genereren van Al-afbeeldingen van Gemini spreekt een breed scala aan mensen aan. Dit is over het algemeen een goede zaak, omdat mensen over de hele wereld het gebruiken. Maar hier slaat het de plank mis.”

READ  Mario Kart 8 Deluxe Booster Course Pass Wave 2 is nu beschikbaar

Generatieve AI-tools produceren output op basis van trainingsgegevens en andere parameters, zoals modelgewichten.

Deze tools hebben vaak kritiek gekregen omdat ze op meer stereotiepe manieren bevooroordeelde resultaten produceren Expliciete seksuele beelden van vrouwen Of door te reageren op claims Functies met een hoge status en afbeeldingen van blanke mannen.

Een eerder door Google geproduceerd hulpmiddel voor AI-beeldclassificatie veroorzaakte in 2015 verontwaardiging toen het zwarte mannen ten onrechte als gorilla's classificeerde. Het bedrijf beloofde echter het probleem op te lossen Bedrade Een paar jaar later werd gemeld dat de ‘oplossing’ een pure oplossing was: Google zou eenvoudigweg voorkomen dat de technologie gorilla’s zou herkennen.

Een reactie achterlaten

Je e-mailadres zal niet getoond worden. Vereiste velden zijn gemarkeerd met *