DALL-E 3: de nieuwe generatie van kunstmatige intelligentie die beelden kan creëren op basis van tekst. Nu beschikbaar voor ChatGPT plus klanten


OpenAI, de organisatie achter het bekende ChatGPT, heeft op donderdag aangekondigd dat het zijn nieuwste tekst-naar-afbeelding generator, DALL-E 3, beschikbaar maakt voor ChatGPT Plus en Enterprise klanten. Deze klanten kunnen het nieuwe DALL-E 3 model gebruiken binnen de ChatGPT app, een chatbot die met mensen kan praten en afbeeldingen kan maken op basis van hun verzoeken.
DALL-E 3 is een verbeterde versie van DALL-E 2, die vorige maand werd onthuld. DALL-E 2 kon al indrukwekkende afbeeldingen maken van allerlei dingen, zoals een avocado in de vorm van een stoel, of een kat met een hoed op. Maar DALL-E 3 gaat nog een stap verder: het laat gebruikers toe om langere en meer visueel beschrijvende teksten te schrijven voor de afbeelding generator. Zo kunnen ze bijvoorbeeld vragen om een foto van een kasteel in de lucht, omringd door wolken en vogels, of een schilderij van een tijger die een gitaar speelt.
DALL-E 3 is al toegevoegd aan Bing Chat en Bing Image Generator, waardoor Microsoft's platform het eerste is dat het publiek toegang geeft tot het model - zelfs nog voor ChatGPT. OpenAI zegt dat het een veiligheidsmaatregel heeft voorbereid voor het model, dat schadelijke afbeeldingen moet voorkomen.
Maar die maatregel is niet waterdicht gebleken. Sommige gebruikers hebben afbeeldingen gemaakt van het World Trade Center als SpongeBob SquarePants en andere personages die vliegtuigen naar de gebouwen sturen. Zelfs nadat Microsoft bepaalde teksten blokkeerde, konden andere eenvoudige omwegen vergelijkbare resultaten opleveren.
Tekst-naar-afbeelding generatoren zoals Midjourney, Stable Diffusion, en oudere DALL-E versies hebben allemaal hun eigen aandeel in controverse gehad. De technologie heeft outputted auteursrechtelijk beschermd beeldmateriaal, niet-consensuele naakten, veranderde etniciteit van onderwerpen, en foto-realistische misrepresentaties van publieke figuren.
Dit roept vragen op over de ethische en sociale gevolgen van deze krachtige AI-modellen. Hoe kunnen we ervoor zorgen dat ze niet worden misbruikt voor kwaadaardige doeleinden? Hoe kunnen we de privacy en de rechten van de mensen die op de afbeeldingen verschijnen beschermen? Hoe kunnen we de creativiteit en diversiteit van de menselijke kunstenaars respecteren?
Dit zijn enkele van de uitdagingen waar OpenAI en andere AI-onderzoekers mee te maken hebben als ze deze nieuwe technologieën ontwikkelen en delen met de wereld. Het is duidelijk dat er meer onderzoek en dialoog nodig is om deze problemen aan te pakken en te voorkomen dat AI een bron van schade wordt in plaats van een bron van inspiratie.