Science et curation : nouvelle pratique du Web 2.0 | Immunology | Scoop.it

Internet permet de publier et d’échanger chaque jour des milliards de données, auxquelles accèdent plus de 2 milliards de personnes dans le monde. Cette masse d’information rend difficile, lorsque l’on mène une recherche, de différencier le bruit de fond des informations pertinentes et utiles. De plus ces recherches sont chronophages et peuvent dépasser largement le temps que nous avons à y consacrer. Aujourd’hui, Google et les moteurs de recherche spécialisés comme Google Scholar reposent sur des algorithmes éprouvés. Mais ces algorithmes sont-ils suffisamment en phase avec le besoin des utilisateurs ? Et si le web avait besoin du cerveau humain pour trier et mettre en avant les informations pertinentes et non pas une information basée sur la « popularité » et des opérations lexicales et sémantiques ?


Via MyScienceWork, Fondation MSH