OpenAI dévoile une technologie IA révolutionnaire pour modérer instantanément les contenus à grande échelle – Préparez-vous à être stupéfait !



OpenAI et son modèle IA GPT-4 pour la modération de contenu à grande échelle

Sommaire :

OpenAI et son modèle IA GPT-4 pour la modération de contenu à grande échelle

OpenAI veut aider à résoudre un problème que sa technologie a contribué à exacerber…

OpenAI ambitionne de résoudre le problème de la modération des contenus préjudiciables à grande échelle avec son modèle IA GPT-4.

La société d’intelligence artificielle OpenAI est convaincue que sa technologie pourrait aider à résoudre l’un des problèmes les plus latents du web, à savoir la modération de contenu à grande échelle. Selon l’entreprise, son modèle IA GPT-4 qui alimente ChatGPT pourrait remplacer des dizaines de milliers de modérateurs « humains », tout en étant presque aussi précis et plus cohérent.

Les avantages de l’approche de modération de contenu par OpenAI

  • Un étiquetage plus cohérent des contenus préjudiciables: Les modérateurs peuvent interpréter les règles différemment et passer beaucoup de temps pour assimiler les changements de politique, tandis qu’un grand modèle de langage est consistant dans son jugement et assimile instantanément les règles.
  • Élaboration plus rapide d’une nouvelle politique: GPT-4 peut prétendument contribuer à l’élaboration d’une nouvelle politique en seulement quelques heures, alors que les processus de rédaction, d’étiquetage, de collecte des commentaires et d’affinage prennent généralement des semaines.
  • Amélioration des conditions de travail des modérateurs: Le travail des modérateurs peut être pénible et traumatisant, ce qui peut peser sur leur santé mentale. L’utilisation de l’IA permettrait de limiter leur exposition à des contenus préjudiciables.

Les limites de l’IA dans la modération de contenu

Néanmoins, si OpenAI semble présenter son approche comme nouvelle et révolutionnaire, l’IA est utilisée dans la modération de contenu depuis des années. Les grandes plateformes comme Meta, YouTube ou TikTok utilisent déjà des algorithmes pour modérer une grande partie des contenus nuisibles et illégaux. Ces plateformes admettent ouvertement qu’une modération parfaite du contenu à grande échelle est somme toute impossible. Les modérateurs humains comme les machines peuvent se tromper et, même avec un faible pourcentage d’erreur, il y a toujours des millions de messages nuisibles qui passent à travers les mailles du filet.

En outre, certaines zones grises comme les contenus trompeurs, erronés et agressifs (qui ne sont pas nécessairement illégaux) posent un véritable challenge aux systèmes automatisés. Il en va de même pour la satire ou les images et vidéos qui documentent des crimes ou des brutalités policières par exemple.

La contradiction d’OpenAI

Le plus ironique dans cette histoire est qu’OpenAI joue un peu au pompier pyromane puisque la société souhaite aider à résoudre un problème que sa propre technologie a contribué à exacerber. En effet, l’arrivée d’IA génératives comme ChatGPT ou DALL-E a grandement facilité la création et la diffusion de fausses informations sur les réseaux sociaux.

Aymeric du blog Les meilleures comparatifs et avis