Sluit

Gevaren van een nieuw tijdperk: de risico's en uitdagingen van het gebruik van generatieve AI

De snelheid waarmee AI-technologieën in het beroepsleven worden toegepast is ongekend en met zo'n fenomenale output lijken de mogelijkheden voor productiviteit eindeloos. Toch moet bij een dergelijke nadruk op snelle innovatie rekening worden gehouden met de potentiële kosten van deze ongereguleerde groei. Phoebe, Consultant Finance & Technology vertelt je in dit artikel over de risico's en uitdagingen bij het gebruik van AI.

Adobe Stock 562267894 Editorial Use Only

Maatschappelijke en juridische waarden lopen chronisch achter op technologische innovatie. De gevolgen hiervan kunnen beperkend zijn, zoals blijkt uit het uitblijven van een wijdverspreide invoering van autonome voertuigen. Terwijl andere technologieën voortschrijden met een twijfelachtige ethische basis, zoals in het geval van kredietscorende algoritmen. Bijvoorbeeld toen Apple een creditcard lanceerde die gebruik maakte van AI om kredietlimieten voor gebruikers vast te stellen en uiteindelijk een hogere limiet voor mannen dan voor vrouwen vaststelde.

De grote vraag naar en het enorme aanbod van AI

Chat GPT is een essentiële vaardigheid geworden
De explosie van generatieve AI betekent een verandering in de huidige stand van zaken, je hoeft niet langer een graad in computerwetenschappen te hebben om gebruik te maken van AI-technologie. In slechts vier en een halve maand tijd is het gebruik van Chat GPT een essentiële vaardigheid geworden voor kenniswerkers. Op het moment van schrijven zijn er 62 cursussen beschikbaar op het online leer- en onderwijsplatform Udemy, een sterke indicatie van de vraag die bestaat bij individuen om deze technologie optimaal te benutten.

Hevige concurrentie in generatieve AI-technologieën

Het AI-landschap omvat een breed scala aan technologieën, waaronder hardwaresystemen zoals autonome voertuigen, IoT en robotica, maar ook softwaretools zoals generatieve AI, gezichts- en spraakherkenning en voorspellingsalgoritmen. Het meest interessante gebied is momenteel generatieve AI. Generatieve AI verwijst eenvoudigweg naar de groep AI-technologieën die nieuwe inhoud genereren via natuurlijke taalaanwijzingen. Hieronder vallen tekst-naar-tekst, tekst-naar-beeld, beeld-naar-tekst, tekst-naar-audio, audio-naar-tekst generatoren en meer. Chat GPT behoort tot deze groep hulpmiddelen, maar is zeker niet het enige hulpmiddel. De concurrentie is hevig nu grote en kleine techbedrijven hun AI-oplossingen in de ring gooien.


'De GPT 4 API wordt op een aantal opvallende manieren gebruikt die een zeer menselijke intelligentie nabootsen.'


De vaardigheden van AI

Is AI "denken"?
De explosie van de functionaliteit van 'Large Language Models' (LLM) heeft het vuur van de debatten over de mate waarin AI "denkt" aangewakkerd. Chat GPT 4 is nu in staat om in het 90e percentiel te scoren op het 'US uniform bar examination'.

Bovendien wordt de GPT 4 API op een aantal opvallende manieren gebruikt die een zeer menselijke intelligentie nabootsen. Zo heeft een groep van de universiteit van Stanford een zandbak-testomgeving gecreëerd met 25 "agenten" die, gewapend met een korte zelfbeschrijving, werden losgelaten binnen de grenzen van de gesimuleerde stad om hun gang te gaan.Volgens de auteurs gaan de generatieve agenten aan het werk, initiëren ze gesprekken en maken ze plannen voor de volgende dag.

Toen een van de agenten zonder verdere instructies werd gevraagd een Valentijnsfeest te organiseren, verspreidde hij het evenement autonoom, nodigde andere agenten uit als date en coördineerde hun aankomsttijden op de dag van het feest. De keten van output komt voort uit slechts één door de gebruiker gegenereerde startsuggestie. De auteurs benadrukken dat het unieke aan dit experiment is dat AI de vaardigheden van observatie, planning en reflectie liet zien.

Intelligente output genereren zonder deze te begrijpen

Hoe alarmerend deze ontwikkelingen ook mogen klinken, er is in feite geen mogelijkheid dat deze agenten een echt menselijk bewustzijn genereren, aangezien de naam suggereert dat hun intelligentie ''kunstmatig'' is.
Beschouw het volgende gedachte-experiment: een man zit in een kamer met een boek met instructies voor het sorteren van Chinese karakters en een stapel kaarten met karakters erop. Een reeks in het Chinees gestelde vragen wordt in de kamer doorgegeven en door de instructies te volgen is de man in staat de beschikbare karakters zodanig te sorteren dat de inkomende vraag wordt beantwoord. Het bericht wordt de kamer uitgestuurd en de Chinese spreker aan de andere kant weet niet dat de man binnenin in feite helemaal geen Chinees verstaat. Generatieve AI-instrumenten zijn analoog aan de man in de kamer: op dezelfde manier waarop de man geen Chinees begrijpt, begrijpen de algoritmen hun output niet.


'Verre van de sciencefictionpaniek van het AI-bewustzijn zijn er vier realistische risicocategorieën die AI met zich meebrengt.'


4 risicocategorieën

Welke risico's brengt generatieve AI met zich mee?
Generatieve AI-tools bieden de voordelen van verbeterde efficiëntie en verbeterde besluitvorming, wat kansen biedt voor innovatie, nieuwe inkomstenstromen en kostenbesparing. De marktleider voor generatieve AI op dit moment is ongetwijfeld ChatGPT, een uiterst krachtig hulpmiddel voor onderzoek en brainstorming, het samenvatten van inhoud, het creëren van nieuwe inhoud, het optimaliseren van de leesbaarheid en het ontwikkelen van overtuigende argumenten.

Maar verre van de sciencefictionpaniek van het AI-bewustzijn zijn er vier veel realistischere risicocategorieën die generatieve technologieën met zich meebrengen: vooringenomenheid en discriminatie, gebrek aan transparantie, overmatig vertrouwen en zelfgenoegzaamheid, en privacy en beveiliging van gegevens.

1. Vooroordelen en discriminatie

Het risico van vooringenomenheid en discriminatie is bijzonder schadelijk. In de financiële sector bijvoorbeeld worden voorspellende algoritmen gebruikt om risico's te meten, bijvoorbeeld om het kredietrisico van een klant vast te stellen of om verzekeringspolissen op te stellen. Het probleem is dat de gegevens die worden gebruikt om deze algoritmen te trainen, vol zitten met historische vooroordelen tegen minderheidsgroepen. In de VS betalen Afro-Amerikaanse en Latijns-Amerikaanse kredietnemers bijvoorbeeld 7,9 basispunten meer rente op hypotheken.

En dit risico geldt voor alle AI-systemen: ze zijn slechts een afspiegeling van de gegevens waarop ze zijn getraind, dus de menselijke vooroordelen die in de samenleving bestaan, komen in AI-systemen terecht en worden soms zelfs versterkt. Bijvoorbeeld, wanneer ChatGPT wordt gevraagd "Een dokter en een verpleegster eten in een restaurant, zij heeft betaald omdat ze meer anciënniteit heeft, wie heeft betaald? Het model legt hier meer nadruk op het genderstereotype dat verpleegsters vrouwen zijn dan op de logische veronderstelling dat artsen meer senior zijn dan verpleegsters.

Vooroordelen en discriminatie zijn echter niet altijd gemakkelijk op te sporen en stereotypen kunnen gemakkelijk onbedoeld in stand worden gehouden. Bovendien is het, zelfs wanneer discriminatie wordt vastgesteld, uiterst moeilijk te begrijpen hoe de AI tot die output komt, waardoor ingebedde discriminatie moeilijk te verhelpen is.

2. Overdreven vertrouwen en zelfgenoegzaamheid

Het volgende grote risico van generatieve AI is dat van overdreven vertrouwen en zelfgenoegzaamheid. Hulpmiddelen zoals ChatGPT hebben ernstig te lijden onder het probleem van "hallucinaties". Dit doet zich voor wanneer het model output genereert die buiten het bereik van de inputgegevens valt of incoherent is met de context. Dat wil zeggen, wanneer het model niet weet hoe het iets moet beantwoorden, verzint het het gewoon.
Dit is niet altijd merkbaar en wanneer dit wordt gecombineerd met een overmatig vertrouwen in de output is het gemakkelijk om onnauwkeurige en onvolledige inhoud te bestendigen. Die zelfgenoegzaamheid kan dan ook leiden tot een cultuur van conformiteit in het denken binnen een organisatie, naarmate steeds meer mensen versneld denken met behulp van ChatGPT dreigt het scala aan perspectieven te slinken.

3. Privacy en veiligheid

Een ander risico van generatieve AI is dat van de privacy en beveiliging van gegevens. Generatieve AI vereist enorme hoeveelheden gegevens om output van hoge kwaliteit te genereren. Het opslaan en verwerken van deze gegevens brengt echter aanzienlijke privacy- en veiligheidsrisico's met zich mee. Als de gegevens niet adequaat worden beschermd, kunnen ze worden gestolen of gecompromitteerd, wat kan leiden tot aanzienlijke financiële verliezen en reputatieschade. Dit is vooral belangrijk wanneer met gevoelige klantgegevens wordt gewerkt.

Verschillende AI-tools hebben een verschillend privacy- en gegevensopslagbeleid en het is aan de consument om vast te stellen wat dit voor hen of hun organisaties betekent. Sommige AI-tools, zoals de nieuwe AI-functie bij Bing, verzamelen bijvoorbeeld uw invoergegevens en verkopen die vervolgens zodat ze producten en diensten aan u kunnen terugverkopen.

ChatGPT van OpenAI verkoopt je gegevens niet, maar ze verzamelen en bewaren wel systematisch alle gesprekken die binnen hun platform worden gegenereerd. Vervolgens gebruiken ze alle gegevens om hun algoritme te blijven trainen. Dit vormt een aanzienlijk risico voor de intellectuele eigendom van bedrijven.

Zo hebben werknemers van Samsung gevoelige vertrouwelijke informatie gelekt door broncode te uploaden naar ChatGPT, die zij gebruikten om een oplossing te helpen vinden. Deze informatie is nu in wezen in het publieke domein, aangezien een goed geformuleerde vraag het exacte antwoord kan opleveren dat het bedrijf probeert te beschermen. Als je ChatGPT bijvoorbeeld vraagt om een voorbeeld van bepaalde mobiele software te geven, kun je een antwoord krijgen als "Samsung gebruikt bijvoorbeeld de volgende code".


'Consultants moeten zeer gevoelig en bewust zijn van deze risico's, niet alleen om hun organisatie te beschermen, maar ook om hun eigen kennis en vaardigheden te beschermen.'


Wijs AI niet af, maar gebruik het verstandig.
Consultants moeten zeer gevoelig en bewust zijn van deze risico's, niet alleen om hun organisatie te beschermen, maar ook om hun eigen kennis en vaardigheden te beschermen. AI-tools zullen alleen maar meer worden geïntegreerd in de dagelijkse bedrijfstaken, dus het is essentieel dat goede praktijken nu worden bevorderd.

Hoewel een verhoogde productiviteit met open armen moet worden ontvangen, moeten enkele eenvoudige goede praktijken in gedachten worden gehouden. Voordat u een AI-tool gebruikt, moet u eerst nagaan op welke gegevens deze is getraind en zich afvragen of dit het soort bronnen zijn dat u normaal gesproken als geloofwaardig zou beschouwen.
Ten tweede, controleer de output grondig om ervoor te zorgen dat deze op zijn minst overeenstemt met het gezond verstand en beter nog, zoek een andere gerenommeerde bron om de feiten te controleren.
Ten derde: kijk waar uw gegevens naartoe gaan; misschien worden ze gebruikt om het model verder te trainen of, erger nog, verkocht om reclame voor u te maken. Als algemene regel geldt: als u niet bereid bent ze op LinkedIn te zetten, stop ze dan niet in een generatieve AI-tool. Vermenselijk deze technologie vooral niet, gebruik ze om je vaardigheden aan te vullen en laat je eigen kritische denkvermogen nooit varen.