Bias uit generatieve AI halen is goed en belangrijk

blog ongevraagd-advies

Bias uit generatieve AI halen is goed en belangrijk

Mijn ongevraagd advies van deze week gaat over AI blunders. Je vindt alle Ongevraagde Adviezen via deze Spotify playlist of via BNR, deze editie beluister je meteen hier:

Felienne, twee AI blunders de afgelopen week. Zullen we bij OpenAI beginnen? 

Ja, ik was even op vakantie en GPT sloeg meteen op hol! Verschillende gebruikers gaven aan dat er alleen onzin uit kwam, zinnen achterstevoren, en dingen die wel klonken als Engels maar niets betekenen, zoiets:

(Bron: https://community.openai.com/t/gpt-is-giving-me-really-crazy-answers-since-today-issue-has-been-resolved/644348)

Foutje, moet kunnen baas?

Het meest boeiende aan dit verhaal was niet zozeer dat software wel eens een foutje bevat, dat gebeurt nu eenmaal, en waarschijnlijk heeft er bij openAI iemand aan en instelling zitten knoeien die dat niet had moeten doen. Wat nu echt boeiend was, was de reactie van openAI! Die zeiden namelijk dit:

Weg was opeens alle bladibla over Artificial General Intelligence en een machine die echt heus snapt waarover hij uitvoert! Nee joh, ChatGPT is gewoon een computerprogramma dat random woordjes uitspuugt, op basis van waarschijnlijkheden! Laat dat nu precies zijn wat sceptici zoals ik al maandenlang aan iedereen uit proberen te leggen. Het zal waarschijnlijk 0 impact hebben op wat het grote publiek denkt maar het voelt toch als een soort erkenning!

En dan over naar Gemini, de AI formerly known as Bard

Ja, ook die vloog uit de bocht de afgelopen week, maar op een andere manier. Ik heb het al vaak gehad over de bias in algoritmen, dat als je bijvoorbeeld een plaatje van een directeur of van een brandweerman zoekt, je bijna altijd een man krijg, en bijna altijd een wit iemand. Zelfs als dat de wereld van nu weerspiegelt (en dat is natuurlijk in heel veel landen niet zo) dan wil je dat misschien toch niet, omdat je graag een goed beeld geeft van de wereld die je wilt.

Google probeerde iets tegen die bias in te programmeren, maar dat ging net iets verder dan je misschien wilt, bijvoorbeeld kwam er een zwarte vrouwelijke paus uit, of zwarte Nazi’s.

Dit laat ten eerste weer eens zien hoe moeilijk het is om een goede AI te maken, en dat bias er niet zomaar uit gehaald kan worden. 

Maar het roept ook interessante vragen op over wat een AI eigenlijk zou moeten doen. Zwarte nazi’s waren er misschien inderdaad nooit, maar een zwarte of vrouwelijke paus, waarom is dat eigenlijk een “fout” antwoord? Als een AI creatief is en moet helpen bij het maken van nieuwe ideeën, waarom zou dit niet kunnen? Dat is zeker iets om over na te denken. 

Dus mijn advies is aan Google: ga zo door met het uitbannen van bias, dat zorgt voor een wereld zoals die zou kunnen zijn, en zorgt er ook voor dat mensen zelf moeten blijven nadenken!

Tagged
Back To Top