
Wie heeft er nog nooit van gehoord ChatGPT, deze generatieve kunstmatige intelligentie, in staat om met complexe teksten te reageren op vragen van internetgebruikers? De release in december 2022 van deze software, ontworpen door het bedrijf OpenAI, leidde tot een groot aantal artikelen, tussen visioenen van catastrofe en utopie, en veroorzaakte paniek in de media, zoals geïllustreerd door de open brief van maart 2023 waarin wordt gevraagd om een moratorium op de ontwikkeling van dit soort systemen, ondertekend door duizend onderzoekers.
Zoals blijkt uit een studie van de Columbia Journalism Review, de paniek begon niet in december 2022 met het evenement gelanceerd door OpenAI, maar in februari 2023 met de aankondigingen van Microsoft en Google, elk daarheen vanuit hun chatbot geïntegreerd in hun zoekmachine (respectievelijk Bing Chat en Bard) . Media-aandacht vertroebelt de informatie en richt zich meer op de mogelijke vervanging van mensen dan op de werkelijke concentratie van AI-eigendom in de handen van een paar bedrijven.
Zoals elke paniek in de media (de meest recente zijn die op de virtuele realiteit en metaverse), het doel en effect ervan is om een openbaar debat te creëren waardoor andere actoren dan die van de media en de digitale wereld er gebruik van kunnen maken. Voor media- en informatiegeletterdheid (MIL) staat er veel op het spel wat betreft sociale en schoolinteracties, ook al is het nog te vroeg om de gevolgen van deze taalmodellen voor het onderwijs te meten. algemeen publiek.
Evenwijdig met regelgevende beleidsacties, stelt het EMI burgers in staat zichzelf te beschermen tegen de risico's die gepaard gaan met het gebruik van deze hulpmiddelen, door hun kritisch denken te ontwikkelen en passende en verantwoorde gebruiksstrategieën te volgen. Algo-geletterdheid, dit deelgebied van MIL dat nadenkt over wat gegevens met de media doen, maakt het mogelijk om deze leessleutels toe te passen op AI. Hier zijn vier richtingen waarin MIL ons kan helpen bij het navigeren door deze ketens van algoritmische interacties, van hun producties tot hun publiek.
Houd rekening met de geopolitiek van AI
Het zijn de bedrijven die de zoekmachines en daarmee de toegang tot informatie beheersen, Google en Microsoft, die het meest te winnen hebben bij de ontwikkeling van generatieve AI. Ze zijn op Amerikaanse wijze georganiseerd als een duopolie, met een (valse) uitdager, Open AI LP. Het is eigenlijk de commerciële tak van het aanvankelijk non-profit OpenAI-lab (grotendeels gefinancierd door Microsoft).
Een ander verhaal kan worden verteld, vooral door de media, dat van de ongelooflijke concentratie van macht en geld door een zeer klein aantal bedrijven in de Silicon Valley. Ze geven zichzelf het monopolie op de toegang tot informatie en tot alle producties die daaruit voortkomen. Ze voeden de frontale concurrentie tussen de Verenigde Staten en China over dit onderwerp. De strategie van Google en Microsoft is inderdaad bedoeld om het kleed onder de voeten van de Chinese overheid weg te trekken, die zich niet verbergt haar ambities voor de ontwikkeling van AI.
De optie van een pauze of een moratorium is een luchtkasteel, geconfronteerd met wat het equivalent is van een wapenwedloop. De uitvinders zelf, als berouwvolle tovenaarsleerlingen, waaronder Sam Altman, de algemeen directeur van OpenAI, stelden in mei 2023 voor "AI-governance". Maar zou het niet in de hoop zijn dat ze niet de dupe worden van overheidsregulering die hen zou ontgaan en hun commerciële bedoelingen zou ondermijnen? De Europese Unie heeft hierop geanticipeerd door een AI-regulering om het gebruik van deze nieuwe digitale evolutie te reguleren.
Vraag de kwaliteit van de aangeleverde teksten en afbeeldingen
Niet alles wat plausibel is, is noodzakelijkerwijs zinvol. De AI die de ChatGPT-software aanstuurt, doet suggesties op basis van vragen en ze verschijnen snel... in een vrij stijlvolle en verzorgde taal! Maar dit kan fouten opleveren, zoals hij besefte, tot zijn ergernis, een New Yorkse advocaat die een dossier vol valse juridische adviezen en valse juridische citaten.
Wees dus op uw hoede voor door AI gegenereerde pseudowetenschap. De aangeboden inhoud kan vooroordelen hebben omdat ze afkomstig zijn van de exploitatie van enorme databases. Dit zijn onder meer datasets met allerlei soorten bronnen… inclusief sociale media! De nieuwste gratis versie van ChatGPT is gebaseerd op data die begin 2022 stopt, dus niet echt op de hoogte van de actualiteit.
Veel van deze databases komen uit Engelstalige landen, met de bijbehorende algoritmische vooroordelen. ChatGPT loopt zelfs het risico verkeerde informatie te creëren en zichzelf te lenen voor kwaadwillig gebruik of de overtuigingen te versterken van degenen die het gebruiken.
Het moet daarom worden gebruikt zoals elk ander instrument, zoals een woordenboek om onderzoek mee te doen, een ontwerp uit te werken... zonder het geheimen en persoonlijke gegevens toe te vertrouwen. Het is een goed advies om de chatbot te vragen zijn bronnen te overleggen, maar zelfs dat is geen garantie voor de afwezigheid van filters, de chatbot heeft de neiging om een lijst met bronnen te produceren die op citaten lijken, maar niet allemaal echte referenties zijn.
Verder mogen we de copyright problemen die binnenkort in actie komt.
Pas op voor denkbeelden rond AI
De voorwaardeintelligentie artificielle past niet bij hetgeen onder a valt voorgetrainde gegevensverwerking (de betekenis van het acroniem GPT voor generatieve voorgetrainde transformator).
Dit antropomorfisme, dat ons ertoe brengt gedachten, creativiteit en gevoelens toe te schrijven aan een niet-menselijke agent, is op twee punten negatief. Het herinnert ons aan alle angstaanjagende mythen die waarschuwen voor de niet-levensvatbaarheid van elke porositeit tussen de levenden en de niet-levenden, van de Golem tot Frankenstein, met de angst voor het uitsterven van het menselijk ras. Het dient het serene begrip van het werkelijke nut van deze grootschalige transformatoren. Sciencefiction helpt niet om wetenschap te begrijpen. En dus om ethische, economische en politieke ijkpunten te formuleren.
Deze denkbeelden, hoe actief ze ook mogen zijn, moeten worden gedemystificeerd. De zogenaamde “black box” van generatieve AI is in principe vrij eenvoudig. Grootschalige taalmodellen zijn algoritmen die zijn getraind om de codes van geschreven (of visuele) taal te reproduceren. Ze doorzoeken duizenden teksten op internet en zetten een input (bijvoorbeeld een reeks letters) om in een output (de voorspelling voor de volgende letter).
Wat het algoritme met zeer hoge snelheid genereert, is een reeks waarschijnlijkheden, die u kunt controleren door dezelfde zoekopdracht opnieuw uit te voeren en te zien dat uw resultaten niet hetzelfde zijn. Geen magie, ook geen gevoeligheid, zelfs als de gebruiker het gevoel heeft een "gesprek" te hebben, een ander woord uit het menselijke vocabulaire.
En het kan leuk zijn, omdat de BabyGPT AI is gemaakt door de New York Times, bezig met kleine gesloten corpora, om te laten zien hoe schrijf als Jane Austen, William Shakespeare of JK Rowling. Zelfs ChatGPT laat zich niet voor de gek houden: op de vraag hoe hij zich voelt, antwoordt hij ronduit dat hij daar niet voor geprogrammeerd is.
Varieer met de tools
Het AI-publiek, vooral op school, moet daarom kennis en vaardigheden ontwikkelen rond de risico's en kansen van dit soort zogenaamde gespreksrobots. Naast het begrijpen van de mechanismen van automatische verwerking van informatie en desinformatie, lenen andere voorzorgsmaatregelen zich voor onderwijs:
-
pas op voor het monopolie van de online zoekopdracht, zoals gericht door Bing Chat en Google Bard, door met elkaar te concurreren, dus door regelmatig meerdere zoekmachines te gebruiken;
-
labels, kleurcodes en andere markeringen vereisen om aan te geven dat een document is geproduceerd door een AI of met zijn hulp is ook gezond verstand en sommige media hebben hier al op geanticipeerd;
-
verzoeken dat producenten reverse-engineering toepassen om AI's te produceren die AI monitoren. dat is nu al het geval GPTZero ;
-
een gerechtelijke procedure starten, geval van ChatGPT "hallucinatie"- - nog een antropomorfe term om een fout in het systeem aan te duiden!
-
En vergeet niet dat hoe meer u ChatGPT gebruikt, in de gratis en betaalde versie, hoe meer u helpt om het te verbeteren.
Op educatief gebied prijzen EdTech-marketingoplossingen de voordelen van AI om leren te personaliseren, gegevensanalyse te vergemakkelijken, de administratieve efficiëntie te verhogen, enz. Maar deze statistieken en statistieken kunnen op geen enkele manier de validatie van verworven vaardigheden en de producties van jonge mensen vervangen.
Hoe intelligent het ook beweert te zijn, AI kan de behoefte van studenten niet vervangen om hun kritisch denken en hun eigen creativiteit te ontwikkelen, om zichzelf te trainen en te informeren door hun bronnen en middelen te beheersen. Terwijl EdTech, met name in de Verenigde Staten, zich haast om AI in klaslokalen te introduceren, van basisschool tot hoger onderwijs, blijft de waakzaamheid van leraren en besluitvormers van essentieel belang om de centrale missies van scholen en universiteiten te behouden. Zo kan collectieve intelligentie kunstmatige intelligentie overnemen.
Divina Frau-Meigs, hoogleraar informatie- en communicatiewetenschappen, Historische auteurs The Conversation France
Dit artikel is opnieuw gepubliceerd vanaf The Conversation onder Creative Commons-licentie. Lees deorigineel artikel.
Afbeelding tegoed: Shutterstock / Pixeljager