‘Quit ChatGPT’, met die boodschap legden activisten, onder wie schrijver en historicus Rutger Bregman, afgelopen week een bom onder OpenAI, het bedrijf achter ’s werelds bekendste AI-model. De aanleiding voor de boycot vond plaats op 27 februari: Anthropic, het bedrijf dat ChatGPT-concurrent Claude oprichtte, weigerde om het Amerikaanse ministerie van Defensie toegang te geven tot zijn AI-modellen voor grootschalige surveillance van Amerikanen en de productie van autonome wapens. Terwijl het bedrijf werd geroemd om zijn morele principes, besloot OpenAI-ceo Sam Altman de deal van het Pentagon wél te accepteren.
VU adviseert Copilot
Het ethisch handelen van een bedrijf, zoals OpenAI, kan een reden zijn om zijn AI-model links te laten liggen. In de zoektocht naar een alternatief is het goed om te bedenken wat je belangrijk vindt: wil je het beste AI-model, hecht je waarde aan duurzaamheid of wil je vooral dat je privacy gewaarborgd is?
Studenten en medewerkers van de VU mogen zelf kiezen welke AI-tool ze gebruiken, al adviseert de VU om Copilot te gebruiken. Omdat de computersystemen van de VU op Microsoft draaien – net als de meeste Nederlandse universiteiten en overheidsinstanties – is diens AI-tool Copilot gratis beschikbaar voor studenten en medewerkers. Copilot draait onder meer op de modellen van ChatGPT, waarvan Microsoft aandeelhouder is. Volgens de VU kun je met je VU-account gebruikmaken van Copilot in een privacytechnisch veilige omgeving. Je gegevens komen dan niet buiten de VU en zijn niet in te zien door Microsoft.
Privacy als kernwaarde
Heeft privacy jouw topprioriteit en wil je dat zelfs de VU niet met je data kan meekijken? Zoek dan een AI-model dat privacy in de kern ingebouwd heeft. Zelfs als bedrijven beloven je data niet met overheden te delen, kunnen ze door een rechter gedwongen worden dit toch te doen. Tenzij het technisch gezien onmogelijk is om die data te achterhalen.
Dat is het geval bij Confer, het nieuwe geesteskind van Signal-oprichter Moxie Marlinspike. Met Confer weet je zeker dat niemand je data kan inzien, omdat het bedrijf dezelfde end-to-end encryptie gebruikt als Signal. Hierdoor kunnen zelfs medewerkers van het bedrijf niet bij je gegevens. Het model is open source, zodat iedereen ‘onder de motorkap’ kan kijken.
Een andere chatbot die privacy hoog in het vaandel heeft staan is Lumo, van de makers van het in Zwitserland gevestigde Proton Mail. Het bedrijf, bekend van hun beveiligde e-mailservice, gebruikt dezelfde encryptie voor zijn AI-model als voor zijn mailapplicatie. Lumo heeft als bijkomend voordeel dat het bedrijf Europees is.
Tot slot is Le Chat van het Franse bedrijf Mistral het noemen waard, een andere Europese chatbot. Het bedrijf profileert zich als hét Europese alternatief voor Amerikaanse AI-modellen. Omdat Mistral in Europa gevestigd is, houdt het zich aan de AVG-weg en de AI-wet van de EU en slaat het gegevens van gebruikers in Europa op. Waar data-opslag voor trainingsdoeleinden en personalisatie bij de meeste AI-tools automatisch aanstaat, laat Le Chat gebruikers dit expliciet kiezen. Daarnaast heeft de chatbot een incognitomodus, waarbij chats na 10 minuten inactiviteit automatisch verwijderd worden. Volgens Android Planet loopt Le Chat achter op grote spelers zoals ChatGPT, Claude en Google’s Gemini, al is de chatbot voor eenvoudige taken, zoals het schrijven van teksten, meer dan geschikt.
Duurzame AI bestaat niet
Vind je duurzaamheid belangrijk, dan is er misschien maar één conclusie: gebruik AI zo min mogelijk. Iedere vraag of opdracht kost rekenkracht en daarmee energie, naar schatting zo’n vijf tot tien keer zoveel als een reguliere zoekopdracht via Google. Bovendien zijn er grote hoeveelheden energie nodig voor het trainen en optimaliseren van AI-modellen, in de meeste gevallen fossiele energie. MIT-onderzoekers verwachten dat datacenters, die grotendeels voor AI gebruikt worden, in 2026 net zo veel stroom verbruiken als Rusland en Japan. Verder verbruiken datacenters veel water, zowel om computerhardware te koelen als voor de opwekking van elektriciteit. VU-wetenschapper Alex De Vries-Gao berekende onlangs dat AI-systemen grofweg net zo veel water verbruiken als dat we wereldwijd in één jaar aan flessenwater drinken: zo’n 400 miljard liter.
Wil je toch AI gebruiken, maar dan zo duurzaam mogelijk? Gebruik het dan spaarzaam en kies voor een model dat gericht is op duurzaamheid, zoals het Nederlandse GreenPT. De servers draaien op hernieuwbare energie, de restwarmte wordt gebruikt voor wijkverwarming en de modellen zijn geoptimaliseerd om zo energiezuinig mogelijk te zijn.
Ben je op zoek naar de sweetspot van de beste kwaliteit en de minste milieu-impact? Volgens onderzoek uit 2025 van de University of Rhode Island zijn ChatGPT en Claude Sonnet de AI-modellen met de hoogste ‘eco-efficiëntie’: ze geven de beste resultaten in verhouding tot hun ecologische voetafdruk.
Moreel kompas
Waar Rutger Bregman Claude noemde als mogelijk alternatief voor ChatGPT vanwege de morele keuzes van het achterliggende bedrijf Anthropic, ziet VU-hoogleraar Frank van Harmelen minder uitgesproken verschillen tussen de grote AI-bedrijven. Zo zei hij afgelopen week tegen RTL Nieuws dat “OpenAI een schoolvoorbeeld is van een groot techbedrijf dat zich onverantwoord gedraagt” en dat “Open AI het slechtste jongetje van een slechte klas is.” Volgens Van Harmelen gaan andere AI-bedrijven, denk aan Google’s Gemini, ook lang niet altijd goed om met zaken als veiligheid en regulering. Zo bleek afgelopen week dat het Amerikaanse leger Claude gebruikte om doelwitten in Iran te selecteren.
Hadden julllie niet ook Gemini van Google moeten noemen? Als ik Gemini gebruik en ik ben ingelogged met mijn VUnetID, dan staat daar keurig: “Your Vrije Universiteit chats aren’t used to improve our models.”. https://gemini.google.com/