Back to Question Center
0

Semalt: Un homme qui a édité trois millions d'articles Wiki

1 answers:

Dans le cadre de cet article, Oliver King, le Customer Success Manager de Semalt, vous parlera du logiciel de Svenker Johansson qui a créé avec succès des millions d'articles sur Wikipédia, et comment il est devenu l'un des éditeurs les plus célèbres et prolifiques de ce site web encyclopédique. Ce professeur de physique suédois est largement connu sous le nom de Lsj. Il a créé Lsjbot, un éditeur automatisé de Wikipédia, qui a aidé Svenker à créer de nombreux articles sur Wikipédia pour sa version suédoise.

Jusqu'à présent, Lsjbot a été capable de créer trois millions d'articles à travers une variété de versions de Wikipedia et accumulé plus de dix millions de modifications individuelles - nihola cargo bikes. Johansson dit que la tâche principale est de créer des articles sur les différentes espèces d'animaux et de plantes, et la plupart de ses contrôles sont liés à cette tâche seulement. Il y avait des moments où Wikipédia avait juste quelques robots, mais Johansson affirme qu'ils sont de plus en plus importants de nos jours et devraient faire partie de la machinerie de Google et de Wikipedia.

Cependant, il y a des limites à ce que nous pouvons faire avec les bots. Les bots sont importants car ils aident à maintenir beaucoup de travail et à créer divers articles sur Wikipedia. Sa version anglaise contient des millions d'articles publiés, et les bots sont utilisés pour réparer le vandalisme dans une large mesure. Partout dans le monde, on les retrouve en train de réparer et de mettre à jour les anciens documents, d'archiver les discussions existantes, de modifier les catégories d'articles de Wikipédia et d'ajouter des dates exactes aux rapports de problèmes manuels.

Les robots écrivent-ils l'histoire de la NASA?

L'un des principaux dangers de cette approche est les articles se terminant par l'histoire de la NASA. Beaucoup de gens croient que les robots ont créé ces articles et beaucoup de programmes automatiques ont été impliqués dans leur publication. En 2008, un algorithme connu sous le nom de ClueBot II a réussi à écrire quinze mille articles sur les astéroïdes. Il a simplement réécrit les données publiques et converti les informations de la base de données de la NASA en articles Wikipedia. Ces articles ont été édités par les robots, qui ont changé leurs tags et les ont reliés les uns aux autres pour backlinks . Ces robots ont même changé les versions anglaises des articles Wikipedia en versions chinoises. En 2012, cette création a été défaite, et les êtres humains ont fait tout le travail.

Les robots ou les robots passent par des processus d'approbation spéciaux

Erik Moller, directeur adjoint et contributeur de la Wikimedia Foundation, qui est responsable de la supervision du site Web, a fourni quelques exemples à propos de Cluebot. Il dit qu'une politique globale régit l'utilisation de robots ou de bots sur Wikipedia. Il a dit au Guardian que tous les robots ne sont pas éligibles pour travailler sur cette encyclopédie géante en raison de leurs propriétés, fonctionnalités et options limitées. La plupart des bots passent par la procédure d'approbation stricte où les déterminations sont faites par les humains si les tâches qu'ils exécutent sont significatives ou non. Les robots qui effectuent rarement les tâches inutiles sont soit désapprouvés instantanément ou fermés toute leur vie.

Moller admet également que les données structurées de Wikipédia et de ses projets sont maintenues de diverses manières, ce qui aide à garder les choses à jour et réduit les risques d'erreurs humaines lors de la mise à jour et de l'importation manuelle des chiffres.

Wikipedia est l'un des sites qui ont beaucoup d'articles. Johansson a défendu la pratique consistant à créer des millions d'articles en disant qu'il a fait un usage judicieux des robots et des robots et les a fait approuver par les autorités supérieures avant de les utiliser sur Wikipedia.

November 26, 2017