
Des LLMs « débridés » ou volontairement conçus sans limites pourraient « démocratiser l'accès à des connaissances dangereuses à une échelle sans précédent », alertent des chercheurs qui recommandent toute une série d'actions pour rendre les modèles de langage plus robustes.