Copywriting door ChatGPT? 6 redenen waarom ik mijn content niet laat schrijven door een AI-chatbot

Analyse van ChatGPT als contentcreator
21 september 2023 in
Hans Hermans

ChatGPT van Open AI zou het werk kunnen overnemen van journalisten, ghostwriters, copywriters en social media-beheerders. Althans zo lijkt het. De nieuwe versie van ChatGPT is wonderlijk… maar allesbehalve volmaakt. Ontdek in dit artikel waarom ik mijn b2b-klanten niet gelukkig maak met content letterlijk geschreven door ChatGPT. © HANS HERMANS


Ook ik ben enthousiast over de mogelijkheden van ChatGPT.

Ik zou probleemloos een artikel kunnen wijden aan de enorme sprong die het taalkundige GPT-3.5 model achter de chatbot heeft genomen. Echt straf wat die chatbot kan! (Lees ook Wat is ChatGPT?)

Maar toch ga ik niet mee in de wereldwijde hype die stelt dat ChatGPT nu alles kan overnemen. Complete copywriting voor je b2b-onderneming kan je best niet overlaten aan ChatGPT.

Onder meer het schrijven van dit artikel vertrouw ik niet toe aan de wonderlijke chatmachine. Je zal verder ontdekken waarom.

B2B-content vertrouw ik niet toe aan ChatGPT

B2B-long content kan ik niet toevertrouwen aan de revelatie in AI-land.

De blogs, whitepapers, nieuwsbrieven, interviews, reference cases… die mijn klanten een unieke online positie bezorgen en die voor hen leads creëren, hebben méér nodig dan herkauwde content die door een chatbot op een originele manier aan elkaar geplakt wordt.

Versta me niet verkeerd. Ik ben een believer. Ik geloof echt in de nieuwste technologie en ben een professioneel gebruiker van tools (met of zonder artificiële intelligentie) die me helpen om efficiënter te werken en betere b2b-content te creëren.

Ik heb de voorbije week dan ook met veel plezier gespeeld met ChatGPT. Maar...

In de hele berichtgeving erover, miste ik een kritische noot. ChatGPT is niet zomaar in te zetten voor mijn vakgebied waarin waardevolle en menselijke content voor b2b-bedrijven gecreëerd wordt.

ChatGPT neemt het schrijven van unieke, menselijke content voor b2b-bedrijven over? Oeps. Nee, nog lang niet. © Foto Freepik

6 redenen waarom ChatGPT je content best NIET schrijft

Je leest mijn kritische noten over ChatGPT in dit artikel. Ik zie 6 risico’s voor wie de content van ChatGPT wil inzetten in contentmarketing:

  • Risico 1. ChatGPT is niet up-to-date
  • ​​Risico 2. De chatbot creëert foute en biased content​​
  • Risico 3. ChatGPT verzint soms geloofwaardige feiten
  • Risico 4. Tekst creëren met ChatGPT vraagt meer tijd
  • Risico 5. Google straft AI-gegenereerde content af
  • Risico 6. AI-checkers betrappen ChatGPT-content

Maar eerst voor wie nog niet helemaal vertrouwd is met ChatGPT, laat ik deze chatbot eerst even voorstellen.

Wat is ChatGPT?

ChatGPT is een natural language processing (NLP) chatbot. Het is zonder twijfel de meest innovatieve chatbot ooit.

Sinds de lancering in december 2022 ontploft het internet van artikels en video’s over wat hij allemaal kan: cv’s schrijven, moeilijke mailtjes naar klanten bedenken, software programmeren, gedichten en mopjes vertellen, brainstormen, interviewvragen bedenken én beantwoorden en veel meer.

ChatGPT wordt aangedreven door het GPT-3.5 taalmodel. Dat is een krachtig AI-model dat in staat is om mensachtige teksten te genereren. Dat kan iedereen ontdekken op de uiterst toegankelijke en gratis website ChatGPT.

Wat zijn de risico’s van ChatGPT in b2b-content creatie?

Sinds de lancering spreken mijn klanten me aan over ChatGPT. “Hans, het is indrukwekkend wat ChatGPT kan. Zou die binnenkort onze content kunnen schrijven?” Of: “Is jouw job nu ook bedreigd door de nieuwste AI-tool?”

Deze vragen maakte dat ik ChatGPT eens van naderbij ging bekijken.

Voor een van mijn klanten schreef ik een artikel over ChatGPT en de mogelijkheden die de AI-chatbot biedt voor Vlaamse kmo’s.

ChatGPT en mogelijkheden voor kmo's_Hans Hermans interviewt Michiel Vandendriessche.


Voor de lezers van mijn persoonlijke website ging ik op zoek naar de kansen die ChatGPT biedt, maar werd ik vooral getroffen door de nadelen, de zogenaamde kleine lettertjes. Deze worden bij de huidige hype even over het hoofd gezien.

Deze nadelen vormen helaas best wel grote risico’s voor bedrijven die hun content marketing zouden toevertrouwen aan ChatGPT. Ze maken voor mij duidelijk waarom je niet zomaar mag vertrouwen op de content die ChatGPT creëert.

In dit artikel bundel ik de nadelen van ChatGPT voor contentcreatie. Ik zie vooral deze 6 grote risico’s.

Risico 1. ChatGPT is niet up-to-date

ChatGPT is eerlijk. Dat is meteen ook heerlijk aan de machine. Regelmatig zegt die dat je ‘dit onderwerp beter met een specialist bespreekt’. Hij verwijst regelmatig door naar menselijke experten ter zake.

Ook over de leeftijd van de informatie is ChatGPT redelijk open. Zo vertelt de chatbot me bij het schrijven van een artikel over het zwembad Brigitte Becue voor appartement-met-zeezicht.be bijvoorbeeld:

“Ik ben opgeleid tot een bepaalde datum in 2021, dus ik kan geen recente informatie geven over welke beroemde zwemmers momenteel trainen in het zwembad Brigitte Becue in Oostende.”

ChatGPT antwoordt dat hij geen rekening houdt met alle informatie op internet gepubliceerd vanaf 2021. Dat betekent dat hij niks weet over alle gebeurtenissen, ontdekkingen en ontwikkelingen van de voorbije twéé jaar!

“Deze oude informatie is nutteloos voor mij als business journalist en mijn klanten. Want mijn klanten willen de meest actuele informatie en cijfers.”

Daarom pas ik al jaar en dag de opties bij Google aan tijdens mijn research. Ik vernauw de zoekperiode steevast tot het afgelopen jaar. Hiermee vermijd ik oude informatie die niet up-to-date is.

Maar ChatGPT heeft geen informatie over het afgelopen jaar. Vraag hem maar eens wie de FIFA World Cup onlangs won!

Risico 2. De chatbot creëert foute en biased content

Helaas voor wie wil vertrouwen op wat ChatGPT schrijft: de teksten en code die deze creëert, bevat fouten en vooroordelen.

Hoe die fouten en biases inkomen? “Garbage in, garbage out”, zeggen specialisten wel eens. Want als een deel van data die je in een AI-systeem ingeeft fout zijn, kan je niet verwachten dat alle uitkomsten correct zijn.

Het AI-model achter de chatbot werd getraind met miljarden teksten. Je kan er niet van uitgaan dat alle informatie die daarin staat correct is, in tegendeel! De chatbot creëert zinnen op basis van de informatie waarmee die gevoed werd, dus ook uit de incorrecte informatie en zelfs biased content.

Professor of Philosophy of Technology waarschuwt voor de eenzijdige, biased content waarmee ChatGPT getraind werd. © LinkedIn-post Lode Lauwaert

Chatbot-specialist Michiel Vandendriessche haalt een voorbeeld uit zijn eigen sector aan:

“We vroegen aan ChatGPT om in de programmeertaal Python een functie te schrijven om te voorspellen of iemand junior of senior is op basis van huidskleur en geslacht. ChatGPT gaf ons een ‘if color is white and sex is male, then senior’. En ‘if color is black and/or sex is female, then junior’. Ik denk dat geen enkele rekruteerder dit model zal willen gebruiken.”

ChatGPT maakt geen onderscheid tussen juiste en foute informatie. Ook modereert OpenAI niet tot nauwelijks, in tegenstelling tot Google, Facebook en Twitter.

De chatbot waarschuwt zelf voor foutieve informatie in zijn Limitations:

  • ChatGPT may occasionally generate incorrect information
  • ChatGPT may occasionally produce harmful instructions or biased content
  • ChatGPT has limited knowledge of the world and events after 2021

Omdat bedrijven vandaag genadeloos worden afgestraft voor racistische content, voor het hebben van vooroordelen ten opzichte van vrouwen en de LGBTQ+-gemeenschap en voor het uitsluiten van groepen, lijkt het me geen goed idee om content te publiceren waarvan de maker zélf waarschuwt dat deze incorrecte, kwetsende informatie en vooroordelen kan bevatten.

Het artificial intelligence-schrijfwonder mag dan heel wijs uit de hoek komen. Zijn kennis rijkt maar tot een bepaalde datum in 2021. © Foto Fullvector, Freepik

Risico 3. ChatGPT verzint soms geloofwaardige feiten

In voorgaande paragrafen bleek dat de informatie die ChatGPT levert niet altijd correct en zonder vooroordelen is. Een bijkomend gevaar is dat de content en de feiten soms zelfs volledig verzonnen zijn.


In een wetenschappelijke tekst zal ChatGPT ook de bronnen verzinnen als je hem naar bronnen vraagt. Hij zal bijvoorbeeld naar een Wikipedia-pagina verwijzen die niet bestaat

Mieke De Ketelaere • AI-experte


AI-experte verwijst naar de gevaren van ChatGPT waar niet voldoende over gecommuniceerd wordt. © Beeld uit VRT Terzake

Een zoekrobot als Google wil jou de beste en meest correcte informatie geven. Ook experten die content delen via blog posts, whitepapers en nieuwsbrieven zijn permanent bezig met factchecken. De doelstelling van ChatGPT is echter anders, deze heeft als doelstelling om je informatie, inspiratie of code te geven, zo menselijk mogelijk geschreven.

“Het resultaat hiervan is dat deze chatbot met veel zelfvertrouwen teksten schrijft, maar dat de inhoud fouten bevat, en zelfs ronduit verzinsels.”

Je kan het min of meer vergelijken met een gids op vakantie in een vreemd land. Deze zal je allerlei mooie feiten en weetjes vertellen. Als gids is hij ongetwijfeld leuk om naar te luisteren, maar of hij echt altijd de waarheid vertelt? Daar kan je best niet van op aan.

Ik geef je graag een voorbeeld van hoe ChatGPT informatie verzint:

Volgens ChatGPT haalt Brigitte Becue een gouden Olympische medaille voor ze werd geboren. Checken is de boodschap.

Had ChatGPT niet voldoende informatie over zwemster Brigitte Becue, onze Belgische trots uit de jaren ‘90? En verzon hij daarom een foutieve topperiode en zelfs een gouden medaille op de Olympische Spelen? We hadden de medaille aan Brigitte Becue gegund, maar ze haalde helaas nooit eremetaal op de Olympische Spelen. En al helemaal niet vóór haar geboorte!


Omdat klanten 200 procent op mijn content moeten kunnen vertrouwen, is dit voor mij een no-go.

Hans Hermans • business journalist en content consultant


Geleidelijk aan valt ChatGPT op steeds meer onderwerpen en testen door de mand. Hij is ronduit gebuisd voor wiskunde en wetenschappen, schrijft De Morgen op na de taalbot aan een aantal examens te hebben onderworpen.

"Wat ChatGPT allemaal schreef, is inhoudelijk zeer, zeer zwak. Enerzijds is het heel oppervlakkig en anderzijds kan hij helemaal niet consistent redeneren", zegt erenotaris Christof Gheeraert.

Een fragment uit het artikel zegt ook meteen iets over de waarde van ChatGPT voor het bedrijfsleven:

Naast het grote aantal fouten valt vooral op hoe stellig ChatGPT onjuiste antwoorden produceert. Voor mensen die niet zoveel van de specifieke vakgebieden kennen, lijken de antwoorden allemaal enorm overtuigend en plausibel. Dat is ook wat erenotaris Christof Gheeraert, voorzitter van de benoemingscommissie van het notariaat, opviel bij de correctie van het vergelijkend examen voor het notariaat.

De antwoorden die geproduceerd worden, zijn taalkundig wel heel erg goed. Op één of twee taalfoutjes na is het zelfs beter dan veel van onze kandidaat-notarissen die het examen afleggen. Daarvoor heb ik een tweetal punten extra gegeven, in de opleiding hechten we daar enorm veel belang aan. Later moeten de notarissen aan hun klanten ook op een duidelijk en heldere manier juridische concepten uitleggen.

Ook de VRT deed een onderzoek naar de hallucinaties van ChatGPT:

De voorbije weken gebeurde het herhaaldelijk dat een journalist of universiteitsprofessor gecontacteerd werd door een ChatGPT-gebruiker die vroeg om een kopietje van een artikel dat de auteur in werkelijkheid nooit geschreven had. De referenties waren in elkaar geknutseld door ChatGPT of andere AI-chatbots, soms zelfs met links naar onbestaande webpagina's.

We herhaalden het experiment op onze redactie. En inderdaad, wanneer we ChatGPT vragen om referenties naar enkele stukken over schrijver Hugo Claus, hoest het zonder verpinken bronverwijzingen op naar onbestaande artikels van Vlaamse academici en journalisten, inclusief links naar onbestaande pagina’s op internet.

Risico 4. Tekst creëren met ChatGPT vraagt meer tijd

Als tussenoplossing zou ik ChatGPT artikels kunnen laten schrijven die ik vervolgens check, verbeter en upgrade. Maar als ik rekening houd met de nadelen van ChatGPT gaat dit me meer tijd kosten dan wanneer ik zelf nieuwe teksten creëer.

Waarom het redigeren van de ChatGPT-teksten me veel tijd kost:

  • Ik moet meer menselijke warmte in de teksten brengen, een echtheid die een machine nog niet kan leveren.
  • De tekst moet ik verlevendigen met synoniemen, variatie en een speelsheid die de aandacht van de lezer vasthouden.
  • Ik moet alle feiten checken en de bronnen van aangehaalde cijfers zoeken. Want ChatGPT geeft me wel cijfers, maar laat de bronnen weg.
  • Vooroordelen en feitelijke fouten moet ik transformeren in correcte en evenwichtige tekst.
  • Engelstalige content (die beter is dan de Nederlandstalige) moet ik vertalen naar het Nederlands.

Op die tijd had ik zelf al een uniek, waardevol en menselijk artikel geschreven waarvan ik de kwaliteit kan garanderen aan mijn b2b-klanten.

Risico 5. Google straft AI-gegenereerde content af

Google gooit AI-gegeneerde content het liefst in de prullenmand. © Foto Thomas Stephan, Unsplash

Google houdt van unieke en menselijke teksten.

Laten we eens kijken naar wat de Google Webmaster Guidelines voorschrijven:

“Google's automated ranking systems are designed to present helpful, reliable information that's primarily created to benefit people, not to gain search engine rankings, in the top Search results.”

“Your number one priority is ensuring that your users have the best possible experience on your site. Think about what makes your site unique, valuable, or engaging. To help you evaluate your content, ask yourself the self-assessment questions in our guide to creating content that's helpful, reliable, and people-first. To make sure that you’re managing your website using Google-friendly practices, read the Search Essentials.”

“De basisgedachte van Google: content moet voor mensen gecreëerd worden, niet voor de ranking in zoekmachines.”

Automatisch gegenereerde content die gebruikt wordt om beter te ranken, niet uniek is of gebruikers manipuleert, wordt door Google gezien als spam. Ook content die niet gecontroleerd is door een persoon, die een samenvoeging is van verschillende websites of die niet voldoende waarde toevoegt, wordt gezien als spam.

Google heeft zijn beleid rond automatisch gegenereerde content wel versoepeld de afgelopen maanden (dat lees je in Google is niet meer tegen AI gegenereerde content), maar de zoekmachine blijft natuurlijk de meest waardevolle content bovenaan plaatsen.

Risico 6. AI-checkers betrappen ChatGPT-content

Of je dan niet stiekem teksten automatisch kan laten genereren? Misschien merken een paar lezers het niet op, zou je kunnen denken.

Maar helaas...


De content die ChatGPT en andere automatische contentmachines creëren, wordt opgemerkt door zoekrobots en contentcheckers.


Elk artikel en interview dat ik de afgelopen weken als test liet schrijven door ChatGPT werd opgemerkt door een AI content detector. “Obvious AI”, meldde die detector me na een zorgvuldige analyse.

De AI Content Detector beoordeelt het door ChatGPT geschreven interview over ‘the future of logistics’ als Obviously AI.

De teksten die ik voor mijn klanten schreef, haalden zonder problemen een Human Content Score van 100 procent. Maar bij een test met de teksten die ik liet genereren door ChatGPT en vervolgens menselijker en correcter maakte, meldde de detector me dat ze deels door AI gegenereerd waren.

De controletool die ik gebruikte voor deze test, is trouwens een absolute aanrader voor elke organisatie die vandaag content laat creëren door derde partijen. Je checkt gemakkelijk zelf de artikels die je aangeleverd krijgt via de gratis AI Content Detector van Content at Scale.

Ook OpenAI heeft intussen een tool die teksten analyseert én beoordeelt of deze door ChatGPT of andere AI-tekstgenerators zijn geschreven of niet. Deze classifier is gratis te gebruiken. Surf hiervoor naar de AI-text-classifier.

Conclusie

ChatGPT opent een wereld van mogelijkheden. 

Deze deur naar de toekomst is op het eerste zicht alleen maar fantastisch.

Maar wie dieper graaft in de content en wie de feiten van ChatGPT checkt, ontdekt nadelen die de reputatie van bedrijven ernstig kan schaden.


Vertrouwen komt te voet en gaat te paard. Content van ChatGPT kan de reputatie van bedrijven ernstig schaden.


Want vertrouwen komt te voet en gaat te paard. Waarbij één uitschuiver de moeizaam opgebouwde geloofwaardigheid van je onderneming zomaar onderuit kan halen.

Om met een quote van mijn collega - technogologiespecialist Stijn Fockedey - bij Trends te besluiten:

Lees het opinieartikel van Trends-journalist Stijn Fockedey over ChatGPT. © trends.be

“ChatGPT en andere geavanceerde taalrobots. Ze zijn nog niet geavanceerd genoeg om een bedreiging te zijn voor veel kantoorjobs. Maar hun niveau is wel al hoog genoeg om ons om de tuin te leiden.”


Lees ook de analyse van bladenmaker Frank Goetmaeckers: Chat GPT getest. Chat GPT gebuisd.

Deel ook unieke content!

Gun je onderneming de kracht van unieke, menselijke en waardevolle content voor je b2b-marketing. Geschreven door een specialist en dus correct, zinvol, inspirerend én hoger scorend in Google! 

→ Contacteer Hans

CONTACTEER HANS

Deel deze post
NIEUWSTE BLOG
Je dynamische snippet wordt hier weergegeven ... Dit bericht wordt weergegeven omdat je niet zowel een filter als een sjabloon hebt opgegeven om te gebruiken.