Social media platform Facebook ligt onder vuur. Volgens een klokkenluider misleidt Facebook haar gebruikers wat het zegt te doen tegen haat zaaiende uitlatingen, geweld en desinformatie.
Met het algoritme pusht het bedrijf vooral berichten die woede, ergernis, etc. oproepen. Deze berichten zouden voor meer clicks zorgen en dus meer advertentie inkomsten, aldus de klokkenluider. Volgens klokkenluider Frances Haugen is winst voor Facebook veel belangrijker dan het algemeen maatschappelijke belang.
Frances Haugen werkte twee jaar als productmanager voor Facebook. Ze stapte in het voorjaar van 2021 op, maar nam veel interne onderzoeken mee en speelde die door aan de Wall Street Journal, die daar uitvoerig over berichtte. Ze gaf een interview op de Amerikaanse televisie en getuigde voor een commissie van het Amerikaanse Congres. Volgens haar is ze ook een vriend ‘kwijtgeraakt.’ Hij radicaliseerde door berichten die hij op Facebook las.
Volgens Haugen weet Facebook hoe schadelijk sommige berichten kunnen zijn die in de tijdlijn van haar gebruikers verschijnen. En het bedrijf past het algoritme, wat bepaalt wat een gebruiker ziet, regelmatig aan. Zo krijgen jonge tienermeisjes op Instagram content voorgeschoteld dat voor hen schadelijk kan zijn. Volgens Haugen blijkt uit interne onderzoeken dat Facebook, het moederbedrijf van Instagram, dit weet, maar er niets aan doet. Profit before people. Winst en advertentiekosten gaan voor het belang van jonge mensen die makkelijk zijn te beïnvloeden, althans dat is wat Haugen beweert.
Data science werkt ook met algoritmes. Een model is de uitkomst van een algoritme getraind op data. Als men bijvoorbeeld wil weten hoe men het snelst van A naar B komt, voert men data in en een model gaat op basis van die data voorspellen of men beter kan gaan lopen of beter de bus of de trein kan nemen. Facebook beschikt over heel veel data van haar gebruikers. Alleen kiest Facebook er voor sommige uitkomsten niet te tonen of aan te passen. Facebook maakt niet gebruik van één simpel algoritme, maar een combinatie van rankings op basis van verschillende modellen. Achter al die modellen zitten algoritmes. Ook zorgt Facebook ervoor in welke volgorde een gebruiker content krijgt te zien. Het is de bedoeling dat een gebruiker zo lang mogelijk op het platform blijft.
De interne onderzoeken van Facebook laten volgens de klokkenluider zien dat ze sommige content schadelijk is. Maar vervolgens doet men er niets aan. Het doet denken aan de tabaksindustrie die al decennia wist dat sigaretten verslavend zijn en kan leiden tot kanker, maar dit verzweeg.
Facebook heeft ontzettend veel data over zijn gebruikers. De vraag is hoe je dat model vervolgens inzet. Kies je voor om juist berichten rondom bijvoorbeeld complottheorieën prominent te laten verschijnen of juist niet? Responsible AI, of ook wel trustworthy AI genoemd, zal mogelijk ervoor zorgen dat er vaker verantwoording moeten worden afgelegd of bedrijven wel ethisch omgaan met de data en hoe ze algoritmes ontwikkelen.
Explainable Artificial Intelligence (XAI) is kunstmatige intelligentie (AI) waarbij de resultaten van de oplossing door mensen begrepen kunnen worden. XAI kan helpen om de gebruikerservaring van een product of dienst te verbeteren door de eindgebruikers te helpen vertrouwen dat AI goede beslissingen neemt. Bij Facebook is de vraag of dat voldoende gebeurt. Het doel van XAI is om uit te leggen wat er is gedaan, wat er op dit moment gebeurt en wat er vervolgens in de toekomst wordt gedaan en om de informatie te delen waarop die acties zijn gedaan. Maar Facebook doet daar wel onderzoek naar, maar brengt dat nooit naar buiten. Door een klokkenluider zijn er zaken naar buiten gekomen over hoe Facebook opereert.
De samenwerking tussen algoritmes en mensen, hangt af van vertrouwen. Als mensen de voorschriften van algoritmes willen aanvaarden, moeten ze die algoritmes vertrouwen. Volgens Haugen schaadt Facebook dat vertrouwen. Onvolledigheid in het verschaffen van informatie schaadt het vertrouwen en vormt een belemmering voor eenvoudige oplossingen voor optimalisatie. De vraag is of Facebook haar platform wel wil optimaliseren en bijvoorbeeld nepnieuws wil bestrijden.
Een transparantie project, het DARPA XAI-programma, heeft tot doel om modellen te produceren die uitlegbaar en begrijpelijk zijn voor mensen zonder dat dit teveel ten koste gaat van de AI-prestaties. Menselijke gebruikers zouden in staat moeten zijn om de redeneringen van een AI algoritme te begrijpen (zowel in real-time als achteraf), en zouden in staat moeten zijn om te bepalen wanneer AI te vertrouwen is en wanneer AI gewantrouwd moet worden. Een andere toepassing van XAI is ook gebruikt voor systemen die de inputs en outputs van een systeem monitoren, met als doel te controleren of het systeem zich houdt aan ethische en sociaal-juridische waarden. Er is dus een boel mogelijk om er voor te zorgen dat ook een algoritme zich aan de ethische en morele regels van onze maatschappij houdt.
De Europese Commissie komt met regulering en wetgeving. Nu AI een steeds grotere rol gaat spelen in de maatschappij zullen er antwoorden moeten komen op de vraag wat ethisch verantwoord is. Hoe zorgen we ervoor dat transparantie, vertrouwen en rechtvaardigheid een onderdeel blijven in een maatschappij die steeds verder digitaliseert en waar algoritmes beslissingen nemen? Daarom kwam de Europese Commissie met de Artificial Intelligence Act.
De documenten van Facebook die klokkenluider Haugen naar buiten heeft gebracht zorgen ervoor dat de discussie over regulering van big tech en wetgeving over hoe algoritmes en AI worden ingezet weer oplaait.
Het debat over de vraag over wat ethisch verantwoord is en wat niet, en of er vergaande regulering en wetgeving moet komen is dan ook nog lang niet voorbij.
DIKW Intelligence
Wattbaan 1
3439 ML Nieuwegein