Approches Interdisciplinaires du Web

Suivez les évenements liés au projet de master AIW

Archives de la catégorie ‘Uncategorized

Le master AIW fait sa rentrée

leave a comment »

la rentrée du master AIW s’effectuera mardi prochain, le 15 septembre,
à 17h au CRI

Cette réunion sera l’occasion de découvrir le master pour ceux qui le souhaitent.
Pour ceux qui souhaitent participer aux séminaires AIW, cette réunion permettra de rencontrer les autres participants afin d’identifier des centres d’intérêt communs.

En espérant vous voir nombreux mardi.

Written by François

13 septembre 2009 at 7:38  

Publié dans Uncategorized

Modélisation des réseaux sociaux de l’Internet

with one comment

Parmi les multiples papiers d’analyse des réseaux sociaux, on peut commencer par retenir quatre travaux exemplaires de ce qui se fait en la matière dans ICWSM.

L’argument développé par Indala Kahanda et Jennifer Neville de Purdue University est important. Leur idée est d’identifier les liens forts au sein du paquet indifférencié de ceux que nous appelons "amis" sur les plateformes relationnelles ("Using Transactional Information to Predict. Link Strength in Online Social Networks"). Ils montrent qu’il est possible de prédire les liens forts (mesurés dans leur analyse par le classement des "top friends" par l’utilisateur) à partir des événements transactionnels entre les utilisateurs (commenter une photo, être dans un groupe commun, écrire sur le wall). Pour démontrer la validité de cette méthode d’identification des liens forts, Indala Kahanda et Jennifer Neville testent quatre types de modélisation différents : la similarité des attributs (comparer des éléments communs du profil des utilisateurs), la connectivité topologique (le nombre d’amis en commun entre deux membres), la connectivité transactionnelle (le nombre de transactions (écrire sur le wall, être dans le même groupe, photos taggués) entre deux membres, et la dynamique de connectivité transactionnelle (le nombre de transactions entre deux membres relativement à l’ensemble des transactions avec le réseau de la personne). Les auteurs montrent que la dernière méthode donne les meilleurs résultats et offre une prédiction très pertinente de la force du lien entre deux utilisateurs. Ils appliquent leur modèle sur le réseau Facebook de l’université de Purdue composé de 56 061 utilisateurs ayant chacun en moyenne 46 amis et 81 en médiane. Parmi les meilleurs prédicteurs de la force du lien, c’est le fait d’écrire sur le wall d’un autre qui constitue le meilleur indicateur.

Une équipe de chercheurs de l’Université de l’Arizona ("A Social Identity Approach to Identify Familiar Strangers in a Social Network", Nitin Agarwal, Huan Liu, Sudheendra Murthy, Arunabha Sen, and Xufei Wang) propose un travail très algorithmique pour identifier les "familiar stranger" dans un grand réseau. Le "familiar stranger" est cet inconnu que vous croisez tous les jours dans le train sans lui adresser la parole mais qui est toujours en train de lire un livre que vous avez lu ou que vous aimeriez lire. Vous faites quotidiennement le même parcours, vous avez probablement les mêmes habitudes de lecture, il est probable que vous pourriez facilement sympathiser ou au moins tenir une conversation avec lui. Nitin Agarwal et al. proposent un algorithme qui, en dotant chaque nœuds d’un ensemble de propriétés dont on peut mesurer la similarité, permet d’identifier ces "familiar strangers" que l’on ne peut pas voir dans un réseau, parce qu’ils ne sont pas nos voisins.

Comment décider qu’un blog est "influential" ? Comment à l’intérieur d’une communauté de blogs thématiques, décider des blogs qu’il faut lire ? C’est à cette question que propose de répondre l’algorithme BlogRank développé à l’Université du Michigan par Ahmed Hassan et Dragomir Radev ("Content Based Recommendation and Summarization in the Blogosphere"). Leur idée est que l’on peut identifier et classer les meilleurs blogs sur un thème donné à partir de la similarité de contenu entre les posts de différents blogs. Cette sélection par le contenu est complétée par des informations permettant de mesurer le rythme et la fréquence des posts sur les blogs identifiés. Cette solution est plus efficace qu’un classement à partir d’algorithmes basés sur les liens (du type PageRank ou HITS) car les blogs ont un tissu de lien plus faible que les sites. Les auteurs ont expérimenté leurs outils sur un set de données du TREC Blog Track. Ce test montre que leur technique de ranking des blogs à partir de la similarité de contenu est performante.

Le papier certainement le plus novateur en matière de théorie des graphes est celui de Michaela Götz, Jure Leskovec, tout deux de l’université de Cornell, et de Mary McGlohon et Chsristos Faloutsos, de Carnegie Mellon. Il montre la très grande créativité de Jure Leskovec qui depuis quelques temps a publié un ensemble de travaux essentiels dans l’analyse de la dynamique des graphes. La présentation d’ICWSM propose la première modélisation de la dynamique des blogs qui parviennent à tenir ensemble propriétés topographiques et dynamiques. ("Modeling Blogs Dynamics").  Cette modélisation (nommé ZC pour "Zero Crossing") permet de créer automatiquement des réseaux dynamiques de blogs de grande échelle reproduisant quelques unes des propriétés principales de la blogosphère réelle : la distribution en loi de puissance des liens entrants, le principe d’attachement préférentiel ("richer get richer") et la "burstiness" (explosivité) de la création des liens autour de certain nouveaux posts. Impossible de résumer ici l’algorithme des auteurs qui se lit très facilement (élégance et simplicité sont les principes revendiqués par les auteurs). Il suffit de dire que les auteurs distinguent deux types de réseaux, celui des blogs et celui des posts, et qu’ils proposent un arbre de parcours allant de la création d’un post vers sa citation par un autre selon des principes de choix.

à suivre…

Written by docardon

7 juin 2009 at 1:52  

Publié dans Uncategorized

Tag(s) associé(s) :

« Approches Interdisciplinaires du Web » pour sortir de la crise… et préparer le monde de demain !

with one comment

L’essor de la société numérique

Des facettes essentielles de nos vies dépendent du numérique et du web. L’éducation, les loisirs, la sociabilité, le travail, une part croissante de ces activités est maintenant menée en ligne. La France s’est dotée d’un secrétaire d’Etat chargé de la Prospective, de l’Evaluation des politiques publiques et du Développement de l’économie numérique. Mais il est déjà urgent d’aller plus loin encore en parlant de « société numérique », comme le suggère Nathalie Kosciusko-Morizet dans un entretien accordé à La Tribune1.

Les changements rapides liés au développement du web promettent beaucoup. Par exemple un meilleur accès de chacun aux soins et à l’éducation, de meilleures conditions de travail, une plus grande maîtrise de notre impact sur la planète. Ils promettent aussi beaucoup pour l’avancement de notre compréhension du monde et de la société. Le web représente la société numérisée, une quantité d’information massive qui peut être étudiée et comprise avec des méthodes nouvelles. Ainsi, l’étude de réseaux sociaux par des informaticiens ; l’étude quantitative de la dynamique d’évolution de la science, via les bases de données scientifiques disponibles en ligne ; ou encore le suivi précis de patients et le recueil de données médicales à grande échelle grâce à des réseaux sociaux comme patientslikeme.

Les frontières entre disciplines deviennent poreuses. Les concepts cruciaux pour l’étude et la compréhension de la société on-line ne sont pas cloisonnés dans une discipline : créativité, confiance, discernement, réputation, respect de la vie privée, modes de gouvernance, élaboration collective, propriété, régulation, universalité et respect des différences culturelles, facilité d’usage et d’accès, … Ces notions sont essentielles pour mieux comprendre le web et son impact sur la société, car elles formalisent les propriétés qui émergent des interactions entre la technologie et ses utilisateurs.

Une formation pour les acteurs et créateurs du web de demain

Nous croyons qu’il est urgent de créer une formation pour les acteurs et créateurs du web de demain. Pour cela, le Centre de Recherche Interdisciplinaire (Paris Descartes) et la Cantine ont lancé un projet de master “Approches Interdisciplinaires du Web” (AIW) en septembre 2008. Master expérimental, puisque n’étant pas accrédité pour le moment, il fédère néanmoins une centaine de personnes abonnées à la newsletter hebdomadaire, et une vingtaine de participants réguliers, autour de cinq clubs de réflexion (Web et Sciences Sociales, Approches Interdisciplinaires de l’Information, Histoire du Web, Manipulation de données et un atelier “technique”). Un cycle de conférences mensuelles autour des « Sciences du Web » se déroulant à La Cantine a également été lancé depuis fin mars 2009 à l’attention du « grand public averti ». Ces activités nourrissent une réflexion sur le contenu pédagogique du futur master ; nous entreprenons en effet des démarches pour accréditer la formation.

Nous proposons de créer une formation scientifique et interdisciplinaire, rassemblant des étudiants passionnés par le numérique et les nouvelles technologies et leurs applications. Ce master consistera en une année « propédeutique » avec acquisition de méthodes scientifiques et de connaissances de base sur les enjeux du web vu par les différentes disciplines. La deuxième année sera dédiée aux stages, ainsi qu’aux travaux et projets personnels : analyse de sujets interdisciplinaires en groupes, écriture de projets de recherche et réalisation de projets web. Le master s’inscrira dans une dynamique internationale, puisque de nombreuses initiatives similaires éclosent en Amérique du Nord, Europe et Asie (voir plus loin). Nous voulons que des pollinisations croisées (sous formes d’échanges, de projets communs, de séminaires…) se mettent en place entre ces cursus. Nous voulons aussi abolir les frontières entre master « pro » et master « recherche », comme recommandé par le rapport Jolion sur le grade de master. La démarche scientifique doit être généralisée dans l’enseignement, en tant qu’elle apporte des méthodes rigoureuses pour comprendre des objets complexes ; elle permet aussi de réintroduire une réflexion profonde et multi-facettes sur le web, réflexion qui manque à l’heure où innovation rime avec immédiateté et réactivité.

En résumé, des savoirs pointus dans une discipline acquis en licence, une ouverture aux concepts et méthodes d’autres disciplines, une large place donnée au travail personnel et à la réalisation de projets permettront aux étudiants d’acquérir l’attitude heuristique et fondamentalement interdisciplinaire, et la capacité à l’innovation continue requises pour créer le web de demain2,3.

Dans le monde de la recherche et de l’enseignement supérieur français, cependant, porter un tel projet n’est pas facile. D’après nos rencontres avec les responsables de masters existant, créer une telle formation met de un an et demi (master mention économie appliquée spécialité Industries de réseau et économie numérique, Paris 6, 10 et 11, Telecom, X) à plusieurs années (master 2 “modélisation des systèmes complexes” IXXI – ENS Lyon, parcours et bientôt vraie spécialité). Pourquoi de tels délais ? Avant d’être approuvé par le ministère de la recherche et de l’enseignement supérieur, un programme de master doit obtenir l’aval d’au moins une Unité de Formation et de Recherche (UFR). De quoi dépend ce soutien ? Souvent, les projets de formation sont en compétition pour obtenir l’aval de l’UFR (c’est le cas, par exemple, au sein de l’UFR d’informatique de Paris 7). Le choix se fait principalement, d’après les témoignages que nous avont recueillis, selon deux critères : d’abord l’argent que va rapporter une formation à l’UFR (les formations professionnelles, par exemple, rapportent en général plus d’argent). Ensuite, de façon naturelle, l’UFR porte les formations qui sont soutenues par la majorité de leur personnel. Cette structure favorise la mise en place de projets “classiques” et monodisciplinaires. Elle ne favorise pas l’innovation, les paris sur le futur et la pluridisciplinarité4. Ces difficultés sont de plus multipliées si le master est porté par plusieurs UFR, ce qui est souvent souhaitable pour un master interdisciplinaire.

De nombreux enseignants et chercheurs rencontrés se sont montré enthousiastes vis-à-vis de notre projet, et ont proposé leur contribution. Néanmoins, et pour toutes les raisons suscitées, aucun d’entre eux n’a voulu prendre le risque de s’investir pour porter le dossier, ses chances de réussite étant estimées trop minces.

Un précédent : le cas de la science des systèmes complexes

D’autres champs d’étude interdisciplinaires ont eu du mal à s’épanouir en France par le passé : c’est manifestement le cas de la science des systèmes complexes. Le Santa Fe Institute5, pionnier de ce mouvement, a été créé en 1984. La bannière « science des systèmes complexes » rassemble des disciplines (biologie, écologie, climatologie, sociologie…) dont les objets ont en commun certaines caractéristiques (grand nombre de composants, interactions non-linéaires…), et a permis de mettre au point un faisceau de méthodes d’étude et de concepts applicables sur tous ces objets (simulation individu-centrée, théorie du chaos, … – sensibilité aux conditions initiales, auto-organisation, graphes petit monde…).

En France, le “Réseau National des Systèmes Complexes” (RNSC) a été créé en novembre 2005 seulement. Une recherche rapide sur la base de données thomson/reuters permet de retracer par années l’occurence de l’expression “complex system” dans les publications scientifiques :L'expression complexe systeme dans les publications scientifiques

Le RNSC est composé de l’Institut des Systèmes Complexes Paris Ile de France, et de Institut des Systèmes Complexes Lyon Rhône Alpes. Il existe donc des stuctures administratives (le RNSC est un Groupement d’Intérêt Scientifique ou GIS) permettant de créer des instituts pour la recherche transdisciplinaire. Mais force est de constater que rien n’est prévu pour proposer des formations (nous avons déjà parlé plus haut de l’unique master en « modélisation des systèmes complexes » en France, créé à l’IXXI).
Richard Riley, ancien secrétaire d’état à l’éducation aux Etats-Unis, a notoirement prédit en 2004 que les « 10 métiers les plus demandés en 2010 n’existent pas aujourd’hui ». Nous n’allons pas aussi loin, mais il nous semble néanmoins que les changements sociétaux vont s’accélérer dans les prochaines années grâce au progrès technique, et notamment à l’irruption massive du numérique dans tous les domaines de la vie. Les étudiants d’aujourd’hui ont donc besoin de formations innovantes, qui leur offrent des méthodes pour « apprendre à apprendre », et qui transcendent les distinctions traditionnelles entre disciplines.

Retour au web

Cela fait quinze ans que le web est adopté par le grand public et personne ne maîtrise vraiment son développement . Des initiatives diverses éclosent pour étudier rigoureusement ce qu’est le Web aujourd’hui, en comprendre tous les aspects visibles et invisibles et guider son évolution pour qu’il serve au mieux l’humanité.
Tim Berners-Lee et d’autres chercheurs du MIT et de l’université de Southampton ont lancé en 2006 le projet Web Sciences Research Initiative 6 ; Georgia Tech et son initiative “New face of computing”7 s’orientent vers les usages et les aspects sociaux de l’informatique pour concevoir un monde meilleur ; enfin, le réseau international iSchools 8 (se destine à l’étude des usages de l’information dans la société numérique. L’esprit de ces projets est très bien repris dans l’article de Ben Schneiderman paru en 2007, «Web Science: A Provocative Invitation to Computer Science ».

Ne soyons pas à la traîne. Dans un champ qui promet de se renouveler techniquement, de se complexifier socialement, et d’influencer tous les aspects de la vie économique, politique, sociale et individuelle, nous avons plus que jamais besoin d’un projet pédagogique et scientifique innovant pour former les acteurs et créateurs du monde de demain, et concrétiser les formidables promesses du web.

François Blanquart


Quelques notes et compléments d’information

1. Nathalie Kosciusko Morizet : “Je ne suis pas seulement le Ministre du réseau, du débit, du nombre de mégabits qui arrivent chez vous, mais aussi de l’usage que vous voulez en faire. Mon titre est ambigu : derrière le développement de l’économie numérique, il y a aussi la société numérique” dans son entretien à la Tribune.

2. Le rapport « France numérique 2012 » pour le développement de l’économie numérique insiste d’ailleurs sur la nécessité d’ « attirer les meilleurs étudiants dans les STIC (sciences et technologies de l’information et de la communication) »

3. Edgar Morin : « Les problèmes fondamentaux et/ou globaux que nous devons affronter en tant qu’ individus et citoyens nécessitent l’association de savoirs divers en une connaissance complexe. Rousseau disait de son élève : "je veux lui apprendre à vivre". La mission de l’université serait d’aider les étudiants à affronter les problèmes de leur vie individuelle, sociale et civique. Bertrand Russell disait : "Qu’est-ce qui fait qu’un enfant de 5 ans éveillé et curieux devient un adolescent stupide et ennuyeux."Et il répondait : "Quinze années d’éducation britannique." » dans une interview au Monde.

3. Sur la créativité et la « dictature de la majorité » : L’influence de la composition des groupes et des processus de décision sur la créativité a été notamment étudiée par Charlan Jeanne Nemeth de l’université de Berkeley. Elle est l’auteur de nombreuses publications de références dans le domaine, qui montrent notamment que la présence d’une majorité dans un groupe favorise la pensée convergente dans la prise de décision, car les membres du groupe se concentrent sur les idées qu’ils ont en commun. Pour encourager les idées originales et les solutions innovantes, il est même souhaitable que des personnes du groupe se fassent « avocat du diable » en défendant les points de vue opposés à la majorité (une technique largement utilisée dans les réunions de groupe quand des solutions inventives sont requises)

5. Santa Fe Institute : "The Santa Fe Institute is devoted to creating a new kind of scientific research community, one emphasizing multi-disciplinary collaboration in pursuit of understanding the common themes that arise in natural, artificial, and social systems”

6. Web Science Research Initiative : “Since its inception, the World Wide Web has changed the ways scientists communicate, collaborate, and educate. There is, however, a growing realization among many researchers that a clear research agenda aimed at understanding the current, evolving, and potential Web is needed. If we want to model the Web; if we want to understand the architectural principles that have provided for its growth; and if we want to be sure that it supports the basic social values of trustworthiness, privacy, and respect for social boundaries, then we must chart out a research agenda that targets the Web as a primary focus of attention”

7. Georgia Tech’s new face of computing : “At the College of Computing at Georgia Tech, we’re creating the social and scientific computing breakthroughs that are revolutionizing life in the real-world. By doing this, the College cultivates tomorrow’s leaders and sets the agenda for the future of technology and improving how we live, work and play. CoC’s inclusive outlook, unconventional approach to education and renowned technological expertise breeds an environment of innovation that’s ahead of its time.”

8. iSchools : “The iSchools take it as given that expertise in all forms of information is required for progress in science, business, education, and culture. This expertise must include understanding of the uses and users of information, the nature of information itself, as well as information technologies and their applications

Written by clairefilou

5 mai 2009 at 3:34  

Publié dans Uncategorized

FET09: Barabasi en vedette américaine

with one comment

Alain Berthoz du Collège de France a ouvert la session d’aujourd’hui. Le titre de son exposé indiquait qu’il allai parler de multidisciplinarité autour des neurosciences mais il a surtout parlé neurosciences, sa spécialité.  Il a survolé le grand nombre de travaux dans lesquels il était impliqué. Même si l’ensemble était un peu décousu, il en ressortait quelque chose d’important: il y avait bien comme dans beaucoup d’autres présentations à FET09 des photos de ce qui se passait à l’intérieur du cerveau, mais ce n’était pas que fascination pour les techniques imagerie cérébrale, il y avait aussi une compréhension de ce que l’on y voyait. A titre, d’exemple je citerais l’activation corrélé de la zone de la vision et de la zone chargée de la réception des signaux en provenance du vestibule. Le vestibule est un accéléromètre (encore un sixième sens) situé dans l’oreille interne. Cette corrélation, qui est pertinente pour le maintient de l’équilibre, explique, en autres, pourquoi il y a sensation de vertige à la simple vue d’un précipice.

Une salamandre mécanique se promène dans les couloirs

Une salamandre mécanique se promène dans les couloirs

Albert-Lazlo Barabasi, était très clair et pédagogique. Il n’essayait pas d’impressionner il voulait que le public comprenne. Il étudie actuellement la mobilité des personnes. Pour cela une méthode scientifique limpide:

  1. mesurer, observer, collecter des données
  2. émettre des hypothèses, bâtir des modèles
  3. faire « tourner les modèles » (ie simuler) et voir si cela correspond aux données
  4. affiner les modèles
  5. prédire

La collecte des données s’est faite de plusieurs manières:
des volontaires ont porté des capteurs GPS en permanence pendants plusieurs mois, c’est très contraignant et l’échantillon était trop petit (Barabasi et ses étudiants pour l’essentiel).
Des billets de 1 dollar, portent une inscription enjoignant celui qui le trouve à en reporter la position. Les billets étant transportés par les gens c’est donc bien une mesure de leur mobilité.
Les opérateurs de téléphonie mobile suivent à la trace tous les téléphone allumés, mais ils n’enregistrent pas toutes les données, seulement la position au moment d’un appel. Barabasi a pu obtenir des fichiers anonymisés.
Anecdote: pour illustrer ses données d’opérateurs il a montré l’animation Urban Mobs de Orange et FaberNovel.
Un modèle de déplacement qui semblait coller avec les données est le vol de Lévy. Dans un mouvement brownien la distance de déplacement par unité de temps suit une loi de Gauss. C’est à dire que la distance parcourue par unité de temps oscille autour d’une moyenne. Dans un vol de Lévy, distance de déplacement par unité de temps suit une loi de puissance, la plupart des déplacements se font sur de courtes distances et certains déplacements sont beaucoup plus importants. On reste pendant des heures à son domicile se déplacent de quelques mètres, puis brutalement on va au travail parcourant une distance mille fois plus grande après plusieurs semaines de ce régime on prend l’avion pour aller à l’autre bout de la planète. Bonne nouvelle (pour Barabasi) ce modèle colle aux données mais il a du pour cela le détailler: la distance moyenne des personnes varie aussi selon une loi de puissance: la plupart des gens ne ce déplace pas beaucoup mais un très petit nombre se déplace vraiment beaucoup.

Utilisant son modèle, il étudie la propagation des virus dans les téléphones mobiles qui sont très nombreux (600 espèces) mais peu répandus et fait une prédiction: la première épidémie de virus (de trojan horse) pour téléphones mobiles se produira quand 10% des téléphones auront le même système d’exploitation. Actuellement se chiffre est inférieur à 5%.

Prochaine étape, essayer de généraliser, de comprendre d’où viens le vol de Lévy, qui apparait dans de nombreux phénomènes. Les mouvements des yeux, par exemple, suivent un vol de Lévy.

Une grande leçon de science: mesures, théorie, vérification de la théorie, prédiction. La sociologie peut donc aussi être une science exacte, une science dure.

les musiciens du Multimodal Brain Orchestra avant le concert

les musiciens du Multimodal Brain Orchestra avant le concert

Une anecdote: dans une salle où l’on discutait singularité technologique, une femme a posé cette question: que faire pour nous préserver pour que nous restions comme Dieu nous à créé ? Incongru dans une conférence scientifique… Mais qui est l’expression d’une réaction courante face à l’hypothèse de la singularité: la peur de la disparition de l’humain. Et pourtant, rien ne perd, rien ne crée, tout se transforme. Lavoisier.

Written by joaquinkeller

24 avril 2009 at 9:52  

Publié dans Uncategorized

FET09: Beaucoup de cerveaux

leave a comment »

Il y avait de nombreuses sessions en parallèle et de très nombreuses présentations, un échantillon:
Henrik Ehrsson, un jeune chercheur célèbre, a ouvert la journée par une présentation d’expériences sur la proprioception. La proprioception est ce sens méconnu, le sixième donc, qui permet d’identifier son corps et la position de celui-ci. Pour cela Ehrsson crée des illusions de proprioception, comme on dit illusions d’optique. Pas de matériel sophistiqué, une main en caoutchouc vaguement réaliste et un pinceau. Au bout d’un moment le sujet de l’expérience croit, en dépit du bon sens, que sa main c’est celle en caoutchouc. Au point que quand on tape avec un marteau sur la fausse main, le sujet sursaute (et hurle quelquefois).  Ehrsson et la main en caoutchoucBien entendu, on oubliera pas comme c’est la coutume maintenant de prendre quelques photos de ce qui se passe à l’intérieur du cerveau au cas où l’on pourrait en tirer quelque chose.
Photo du cerveau
Jeannette Wing – Computational thinking and thinking about computing.

Wing est une très bonne oratrice, mais la elle n’était pas très convaincante pour promouvoir son idée que tout le monde doit apprendre dès l’enfance à penser comme un informaticien (elle fait référence à un livre connu d’introduction à la programmation « How to think like a computer scientist »). Vous pouvez toujours lire son argumentaire dans ce pdf.
Par contre, elle lance une question pour les chercheurs en informatique qui me semble très pertinente et que je relaye ici: à quelles questions fondamentales auxquelles l’informatique doit répondre ?

Sa réponse à elle:

  • Qu’est-ce qui est calculable ?
  • Est-ce que P = NP ?
  • Qu’est-ce que l’intelligence ?
  • Qu’est-ce que l’information ?
  • Peut-on construire simplement des systèmes complexes ?

Chers lecteurs, je vous encourage à commenter sur ses questions et à polémiquer.

La musique et le cerveau.
Philip Ball un écrivain anglais a introduit la session, avec une série de questions:
Quelle est l’utilité de la musique ?
Qu’est-ce qui fait que la musique est agréable ou désagréable ?
Comment les musiciens font pour se synchroniser et jouer ensemble ?
J’étais gêné par la première question. La musique est universelle chez les humains, mais semble n’avoir aucune utilité. Il doit y avoir une utilité cachée.  Comme si tout ce que faisait les humains était « utile » la guerre est-elle « utile » ? J’ai rephrasé la question en: quelle est la fonction (sélectionnée par l’évolution car utile à la survie) qui fait que la musique peut être appréciée, peut exister ? Un peu comme la capacité des chasseurs à reconnaître les traces de pas aurait été utilisée pour la lecture (voir les neurones de la lecture de Stanilas Dehaene).
Ensuite les intervenants ont tour à tour présentés leur travaux, un peu toujours sur le même modèle: on fait écouter (ou jouer) de la musique à des humains et on observe leur cerveau… et on en déduit pas grand chose. Des petits pas. Déçu mais c’est encourageant, il reste de belles de questions de recherche pour les jeunes générations.

Interface cerveau-machine (brain computer interface)
Plusieurs intervenants et démos sur le sujet, une bonne dizaine en tout. Ça progresse très fort. Avec ou sans chirurgie intracrânienne.  Le principe bien rôdé est toujours le même, on capte des signaux dans le cerveau et le cerveau (l’humain ?) apprends à contrôler et à émettre à volonté ces signaux. Le bon mot d’un chercheur russe de l’université de Novossibirsk: jusqu’à présent le cerveau n’avais qu’un canal de sortie: les muscles. Ce qui est moins connu c’est l’apparition de canaux d’entrée, exemple d’un septième sens: en implantant un aimant sous la peau d’un doigt, là ou la sensibilité est maximum, on gagne la capacité à détecter, à regarder, des champs magnétiques. C’est beau les champs magnétiques (cf Soupault et Breton – Les champs magnétiques, 1919).

Interface cerveau-machine portable

Written by joaquinkeller

22 avril 2009 at 9:46  

Publié dans Uncategorized

FET09: singularité technologique et organisation de la recherche

with one comment

Entrecoupées de discussions (peu passionnantes) sur le management de la recherche, trois présentations techniques excellentes :

  • Henry Markram, Shaping the 21st Century Science & Society
  • Anton Zeilinger, Quantum Information: The New Frontier
  • Ehud Shapiro, A word processor for DNA

Henry Markram a fait une présentation classique de l’hypothèse de la singularité avec un  niveau de crédibilité élevé puisqu’il travaille comme -je le disait hier- à la réalisation d’une des prédictions, à savoir la simulation complète et détaillé d’un cerveau humain. La méthode est la suivante: on scanne très précisément le cerveau, molécule par molécule, puis l’on reproduit ce que l’on à vu. Cela peut s’avérer insuffisant et il faudra peut être procéder aussi à une simulation de la croissance et des processus d’apprentissage du cerveau. Mais si l’on est capable de faire ce que propose Markram on pourra dérouler le procédé dans le temps et cela permettra alors d’observer puis simuler les phases d’apprentissage.
Plus générique, Markram indique que les méthodes scientifiques évoluent par l’usage d’une informatique dont la puissance croit de manière exponentielle. Il distingue 3 éléments:
L’acquisition des données est automatisée ce qui produit des volumes de plus en plus importants. Il cite comme exemple les espèces dont on a séquencé le génome qui sont aujourd’hui au nombre de 700. La croissance exponentielle de la quantité d’ADN séquencé lui fait prédire que l’ensemble des organismes de la planète (tout les humains, tout les animaux, toutes les bactéries, etc…) auront leur ADN connu base par base d’ici à deux à trois décennies.
La capacité de calcul et de traitement de très grands volumes de données permets des simulations et des corrélations statistiques (machine learning) dans proportions et des domaines jamais atteints auparavant.
L’informatisation du fonctionnement de la science, publication, collaboration, enseignement, en décuple la productivité.
Ces trois mutations, induites par l’informatique, sont en train de produire une révolution scientifique plus radicale que la première, celle du 17ème siècle, qui faisait suite à l’invention de l’imprimerie.
A ceux qui pensent que qu’il est téméraire d’annoncer de pareil changements, il cite

Popular Mechanics, March 1949 :

Where a calculator on the ENIAC is equipped with 18,000 vacuum tubes and weighs 30 tons, computers in the future may have only 1,000 vaccuum tubes and perhaps weigh 1.5 tons.

Anton Zeilinger connu pour ses travaux sur la cryptographie quantique, une application directe de la téléportation quantique. A fait une présentation très claire sur l’état d’avancement de la recherche en information quantique. Il est sceptique sur la possibilité dans un futur proche de faire du calcul quantique même s’il n’exclut pas que cela puisse être le résultat d’une avancée spectaculaire de la physique quantique qui est pour lui probable tant la théorie est aujourd’hui incomplète. Il pense d’ailleurs que les avancées dans le domaine viendront d’une approche informationnelle.
La cryptographie quantique, qui permet la transmission sans interception possible de clés de cryptage, est une application en bonne voie: une expérience de transmission crypté entre deux îles des Canaries est cours de montage.
Cette présentation a été aussi l’occasion d’un satisfecit européen, les européens étant largement en avance sur leurs collègues américains.
Ehud Shapiro, comme pour répondre à Henry Markram, a présenté un éditeur d’ADN. La machine d’Ehud Shapiro fonctionne ainsi: le chercheur en biologie décrit les modifications qu’il veut apporter à des séquences d’ADN (concaténation, ajout de bases, etc…) dans un langage appelé ADNpl (pl pour programing language). Le code ADNpl sert à produire les commandes pour l’ensemble des robots de la  chaine. Les robots se mettent en branle (vidéos fascinantes du ballet des robots) pour faire en huit heures ce qui prenait auparavant des semaines de travail répétitif et ennuyeux à des équipes de laborantins. L’automatisation de la science en marche.
Retour sur les discussions politiques.  Tout le monde est d’accord il faut plus d’argent (tiens donc) et laisser plus de liberté aux jeunes chercheurs de définir leurs sujets de recherches -peu crédible venant de cette assemblée de mandarins. Plus crédible à FET09, la promotion de la multidisciplinarité et de la transdisciplinarité comme vecteurs d’innovation. Ma compréhension du lexique: multidisciplinaire ça veut dire des chercheurs de diverses disciplines travaillant ensemble. Et transdisciplinaire ça veut dire que les frontière entre disciplines s’estompent ou même que la notion de discipline disparaît.

De multiples sessions avec des managers de la recherche, des prix nobels vieillissants et des commissaires européens, des discussions qui ronronnent. En fin de journée un coup d’éclat de l’américaine Jeannette Wing qui pense que la recherche ne peut pas se manager, que la « purpose-driven research » n’est pas efficace. Assise entre Mario Campolargo, commissaire européen et Michel Cosnard président de l’INRIA c’est osé. Cela déclenche une petite polémique et quelques mines outragées. Jeannette Wing enfonce le clou et donne l’exemple d’un certain programme de recherche fondamentale de Stanford, financé par la NSF, qui avait pour principaux contributeurs les étudiants Serguei Brin et Larry Page.

Written by joaquinkeller

21 avril 2009 at 10:29  

Publié dans Uncategorized

Ce que le Web mobile fait aux systèmes de réputation…

with one comment

 L’ambition de David Karpf dans sa présentation était de décrire un cadre théorique pour observer et analyser les effets du développement du Web Mobile sur les formes de mobilisation collectives, via l’étude des systèmes de réputation/recommandation. Ceci l’amène à nous proposer le scénario d’une  réunion idéale : il était une fois 2014, année du triomphe de la sagesse de la foule contre la tyrannie des enquiquineurs …

La réputation et la porosité de la frontière off-line/online

D. Karpf se propose de réexaminer la thèse contenue dans le livre d’Howard Rheingold, "Smart Mobs". Depuis 2002 sont apparus les systèmes de tagging, et l’Iphone, qui a largement contribué à diffuser l’usage du Web Mobile, ce qui rend d’autant plus saillantes les questions de l’articulation des actions collectives en ligne et hors ligne. Il le fait au travers d’une analyse prospective et normative de l’usage des systèmes de réputation/recommandation dans le Web Mobile. 

La réputation d’une personne est "un ensemble d’évaluations communautaires complexes, dépendantes du contexte et basées sur des activités passées" • Une évaluation communautaire: la réputation vaut pour un groupe de personnes données, un réseau, organisé en fonction d’intérêt(s) commun(s) • Complexes, car elles sont (aussi) dépendantes des segmentations auxquelles donnent lieu l’espace et du temps • Basées sur des activités passées : ce que D. Karpf nomme "l’ombre du futur".

Les systèmes de réputation distribués quant à eux sont des modes de production d’un classement au regard des buts d’une communauté donnée, au moyen d’outils techniques de production ou de recueil, d’analyse et de mise en forme des données, comme, par exemple, les systèmes de recommandation. Trois points sont importants pour analyser ces systèmes. 1° La qualité des proxies utilisés. Grosso Modo, la pertinence des données produites ou prises en compte pour établir le classement. D. Karpf classe ces données selon leur coût de production (du point de vue de l’utilisateur), du simple recueil du flot des données (qui ne nécessite aucun effort particulier — ce que fait google), jusqu’aux formes de retours produits par les utilisateurs (ebay), en passant par l’expérience intégrée dans l’usage du service (par exemple, le commentaire sur un blog). 2° La quantité de données utilisée. Plus les données sont nombreuses, meilleure sera la recommandation. L’enjeu est donc de favoriser la participation en diminuant le coût de transaction associé à la production des données. 3° La qualité des algorithmes. Il s’agit de convertir les données en un produit utile. Un système de recommandation est toujours construit selon un but déterminé à l’avance: favoriser tel comportement, décourager tel autre ; la valeur d’un algorithme est relative.

On peut alors caractériser les effets du Web Mobile sur les systèmes de recommandation:

1° La commodité des terminaux contribue à faire de l’usage d’internet, du classement et de la participation un élément de l’expérience vécue . Autrement dit, et pour reprendre l’échelle présentée plus haut, la production de retour peut être de plus en plus intégrée à l’expérience d’usage :  Noter le lieu fait partie du plaisir de la visite. En cela, il rend de plus en plus poreuses les frontières entre activités en ligne ou hors ligne.

2° En diminuant les coûts de transaction associés à leur production, il permet une augmentation considérable à la fois de la nature et de la quantité des données produites, et rend possible un usage plus massif des systèmes de recommandations. 

"Real people, real reviews" : L’exemple de Yelp.

Yelp est un site américain d’évaluation des lieux de loisirs (principalement mais pas uniquement: des services publics comme la santé ou l’enseignement sont présents sur le site) qui associe un système de localisation à la production communautaire de contenus : "Yelp est un réservoir pour la sagesse locale". Et cela fonctionne très bien. D’un côté, la géolocalisation facilite l’usage des contenus, augmente leur pertinence et leur valeur. De l’autre, la possibilité nouvelle pour les utilisateurs de contribuer à la plateforme immédiatement ( dans une queue, les transports..) rend la production de ces contenus elle-même plus aisée.

La réputation en ligne, pour améliorer l’action collective "dans la vraie vie"

L’auteur propose d’améliorer les formes d’actions collectives en favorisant le déroulement et l’évaluation des réunions, via l’usage simultané des systèmes d’évaluation en ligne. Ainsi, durant une réunion, chacun pourrait exprimer son avis sur les diées proposées et débattues, sur l’intérêt et l’engagement des participants, etc. L’idée sous-jacente est empruntée à Zack Exley, qui s’occupa un temps de la plateforme MoveOn : "La tyrannie des enquiquineurs vient du fait que, en dehors des temps de crise, ça ne vaut tout simplement pas le coup pour les personnes mures et réfléchies de supporter toutes ces choses indignes qui, dans n’importe quelle organisation politique, vont de pair avec l’engagement et le maintien d’un leadership. Ce principe garantit que dans la moindre association de pétanque locale, d’anciens combattants ou comité démocratique de telle ville, la direction est assurée par des enquiquineurs, ceux dont l’ego se satisfait des jeux de pouvoirs mesquins et insignifiants, et qui ont le temps nécessaire à cela". En ouvrant un espace parallèle de discussion, ouvert et facilement accessible, qui aurait cette particularité de déboucher sur un produit concret, une autre forme de légitimation, les systèmes de recommandations pourraient favoriser l’émergence d’idées nouvelles, l’engagement des personnes "mûres et réfléchies" tout en laissant les volontaires gérer les aspects organisationnels…

De larges questions en suspens

Pour clore son intervention, D. Karpf mentionne quatre types d’effets non souhaités auxquels il convient de rester particulièrement vigilant.

1° Les inégalités d’accès à l’internet mobile. Pour l’instant assez peu développé, on se demande si la diffusion de l’iphone se fera selon le modèle qui a prévalu à celui du Blacberry (large diffusion dans une frange de la population, mais limitée à cette frange) ou de l’appareil photo, désormais disponible sur quasiment tous les modèles. C’est d’autant plus important, que le type de données produites favorise un certain type d’utilisateurs, selon un cercle vicieux/vertueux, en fonction du point de vue. En matière de mobilisation collective, et selon le système proposé ici, ce ne serait rien de moins que la démocratie qui serait en jeu.

2° La réduction des coûts de transaction facilite aussi les comportements négatifs et répréhensibles.

3° Dès lors que les personnes augmentent leur niveau d’activité sur le web,notamment en l’emportant avec elles, sans parler de la géolocalisation, les enjeux autour de la protection de la vie privée prennent une nouvelle dimension.

4° Dans une perspective plus micro, il conviendrait encore d’examiner quels sont les capacités des humains à s’impliquer parallèlement dans plusieurs contextes, en mesurer les avantages mais aussi les inconvénients, pour pouvoir choisir un mode d’organisation ad hoc.

 

David Karpf est doctorant et travaille sur les effets d’Internet sur les associations politiques au département de sciences politiques de l’université de Pennsylvanie.


Références:

Karpf, David (2009) Why Bowl Alone When You Can Flashmob the Bowling Alley?: Implications of the Mobile Web for Online-Offline Reputation Systems. In: Proceedings of the WebSci’09: Society On-Line, 18-20 March 2009, Athens, Greece.

Written by clairefilou

3 avril 2009 at 12:45  

La science du web et les réseaux sociaux

leave a comment »

Les réseaux sociaux dans les sciences du WebAu coeur des web sciences, il y a, entres autres, la volonté de comprendre le Web comme structure-processus continuel d’élaboration d’un réseau, de réseaux, et pour cela, produire de la connaissance via l’interdisciplinarité.
Or, les réseaux, objets communs à différentes disciplines (principalement, l’informatique, les mathématiques et la sociologie, à quoi Noshir Contractor devait ajouter la psychologie et les sciences comportementales), constituent une invitation à explorer cette approche. Imbrication entre les niveaux d’analyses, processus de construction, de développement puis de dégénérescence des liens, circulation de l’information, autant de questions qui font des réseaux sociaux, du réseau comme mode d’approche de la réalité, un objet d’étude en même temps qu’un moyen d’affirmation pour les sciences du web, un lieu où l’interdisciplinarité dont on a tellement discuté pourrait s’incarner. La manière dont ils ont été abordés lors de cette conférence dit énormément sur l’enthousiasme que génère le projet, en même temps que sur les défis qui sont les siens.

La session "social networking"

C’était une session consacrée aux réseaux sociaux : ces choses, dans les web sciences, comme ailleurs, peuvent être de nature diverses: des graphes, d’abord, omniprésents, bien au delà de cette session, objets d’analyses, produits par des informaticiens et des mathématiciens. Mais  au-delà de l’analyse des graphes, cela renvoie à un courant de l’analyse sociologique dit "structural", car il cherche à étudier les effets sur les acteurs de leur position dans le tissu social. Ce sont aussi tous les réseaux sociaux bien connus du Web, facebook, twitter, flickR, my space… qui sont à la fois des outils de mise en relation et de communication, et des réseaux de relations entre des humains (dit autrement, par rapport au téléphone et aux modes de communications classiques, ils rendent visible certaines des relations qui existent entre les personnes qui les utilisent pour communiquer), et qui peuvent supporter toutes sortes d’approches. Bien sûr ces trois dimensions ont toutes à voir les unes avec les autres, il est intéressant de les présenter ensemble. Pourtant, le caractère assez décousu de cette session, au final, laisse une impression mitigée…

D’abord, il fut question de modélisation de graphes de terrains, ("complex networks", en anglais). Trente minutes, durant lesquels de jeunes chercheurs en informatique/mathématiques tentèrent d’exposer tous les avantages que présente selon eux l’utilisation d’une fonction de kernel dans la modélisation d’un réseau. L’idée générale, mais dont l’explicitation dépasse largement mes compétences, est que ces graphes permettent de mieux faire apparaître des phénomènes de clusterisation et de hiérarchisation, difficiles à générer. Des questions?  Trop sans doute, aucune ne fut posée. C’était le matin du troisième jour, il est vrai. Mais quand même, on ne peut pas s’empêcher de se dire que l’interdisciplinarité, au coeur du projet de web sciences, si importante, semble-t-il lorsque l’on en vient à construire des graphes pour analyser des phénomènes sociaux a un long chemin devant elle.

Une désertion, ensuite, et l’expérience du petit monde ne fut pas re-détaillée. Mais elle fonctionne aussi, toujours, sur le web, dit le papier. Sur internet comme ailleurs, avec six intermédiaires seulement, vous pouvez joindre n’importe qui.

Alors, Barbie Clarke, de l’université de Cambridge, quand elle a commencé à parler des pratiques des enfants sur internet, avait salle acquise. Cette psychologue de formation s’inscrit dans la lignée des travaux de danah boyd sur les usages des réseaux sociaux par les enfants. Durant deux ans, elle a conduit une série d’entretiens et d’observations ethnographiques avec vingt-huit jeunes adolescents (âgés de 13 ans environ) du sud de l’Angleterre, pour questionner les effets de l’usage de ces plate-formes sur la construction de l’identité. A cet âge, les relations amicales en sont un élément important : "Be Friend for Ever" (soyons amis pour toujours, le titre de la présentation de B. Clarke) c’est l’expression employée par les ados qui dit leur engagement dans ces relations en ligne. Ces sites leur permettent de questionner leur identité avec une grande liberté, due au fait que c’est un "espace public" à la maison: les réseaux sociaux les rendent capables de s’émanciper de certaines contraintes (spatiales surtout) et de maintenir en ligne un très grand nombre de relations (et dans lesquelles ils s’engagent d’avantage que les adultes selon B. Clarke), le tout en jouant avec leur image.

Son intervention, bien que ce n’était pas directement son propos, pose un très grand nombre de questions sur la manière dont, très concrètement, Internet et les usages des sites de réseaux sociaux font évoluer les pratiques de sociabilité juvéniles: quels sont les différences entre les filles et les garçons? en fonction du milieu social d’origine? de la mobilité? Comment les relations en ligne et hors ligne s’articulent-elles? A quels genres d’inégalités les adolescents qui n’ont pas accès à ces sites sont-ils confrontés? Et l’on voudrait alors voir les réseaux de relations de ces adolescents, pouvoir les comparer entre eux…

Noshir Contractor, à chaque question son réseau

Noshir Contractor : Multidimensional Networks in the semantic web/web 2.0

Noshir Contractor : Multidimensional Networks in the semantic web/web 2.0

Après cette session, si vous aviez accordé un minimum de crédit aux discours alléchants sur l’entrelacement des niveaux d’analyse, la compréhension (et non plus la seule description) des phénomènes macroscopiques, la manière dont les machines influent sur les réseaux de relations qui les empruntent (et vice versa) alors,"rien de neuf sous le soleil"et vous étiez déçu. Sur quoi, les travaux de Noshir Contractor, professeur à l’université de Northwestern, directeur d’un groupe de recherche appelé SONIC (Science Of Networks In Communities — science des réseaux dans les communautés), sont apparus comme une grande respiration. Spécialiste des sciences comportementales, il a jeté, sous les yeux du public enchanté, l’esquisse d’une approche structurale animée d’un maître-mot : compréhension. Cette volonté de construire des réseaux porteur de sens, de se demander ce qu’est cette structure que l’on est en train d’établir, de ne pas séparer la formulation des hypothèses du recueil et la mise en forme des données engendre des approches très créatives. Et, dans une certaine mesure, on pourrait dire qu’elle débouche sur l’émancipation des graphes de la tutelle exclusive des informaticiens. Dans l’étude des phénomènes de grande échelle, on a souvent l’impression que les informaticiens sont rois. A eux, la production des données, et le développement des outils d’analyse qui vont avec, après quoi les sociologues tireront de ce petit kit les conclusions qu’ils pourront…

L’exemple de l’étude de la circulation de l’information lors de la procédure déployée pour le cyclone Katrina montre qu’il est possible de produire des réseaux conçus dès l’origine pour questionner des hypothèses. Par exemple, dans le cas de la circulation de l’information dans des cas de procédures d’urgence, N.Contractor et son équipe ont établi le réseau spatialement situé de la diffusion des informations, avec des noeuds de nature différentes (personnes, institutions, concept…). Ainsi l’approche structurale n’est plus une fin en soi, mais permet jusqu’à l’élaboration de recommandations, ici sur le nécessaire renforcement de la position de telle structure dont la centralité déclinante (donnée structurale) ne lui permettait plus d’exercer les missions qui lui ont été confiées (données plus qualitatives).

Le principal point d’interrogation concerne les échelles de l’analyse. Est-on systématiquement condamné à arbitrer entre analyse de données à grande échelle et l’attention accordée au sens? Approches structurale et qualitative sont-elles toujours conciliables? 

La question reste ouverte. Cependant, dès lors que l’on considère que tout, dans la société, est potentiellement réseau, que les réseaux sont donc toujours une construction abstraite, et si la science du web a vraiment pour ambition de comprendre la manière dont fonctionne le Web pour se doter d’une capacité d’action, probablement,  elle n’a pas le choix, et il lui faudra articuler ces deux modes d’approches ; pour cela, concevoir les réseaux —aussi— comme des outils de formulation d’hypothèses, c’est à dire les construire à partir de questions de recherche et non plus seulement en fonction des données déjà disponibles. C’est en tous cas ce que prône la présentation de N. Contractor, très enthousiasmante bien que trop peu détaillée pour répondre aux questions qu’elle a soulevées. Mais sans doute, il serait injuste de reprocher à la première conférence de science du web d’avoir posé des jalons en formes d’interrogations plus tôt que d’avoir su y répondre…

 

Références:

Mihail, Milena and Amanatidis, Yorgos and Young, Stephen (2009) "Kernel Models for complex netowrks", In: Proceedings of the WebSci’09: Society On-Line, 18-20 March 2009, Athens, Greece.

Zhang, Lei and Tu, Wanqing (2009), "Six degrees of separation in online society", In: Proceedings of the WebSci’09: Society On-Line, 18-20 March 2009, Athens, Greece.

Clarke, Barbie (2009), "Be friend for ever: the way in wich young adolescents are using social networking sites to maintain friendships and explore identity", In: Proceedings of the WebSci’09: Society On-Line, 18-20 March 2009, Athens, Greece.

Le présentation de Noshir Contractor: "Web Science, an exploratorium for understanding and enabling social networks"

Written by clairefilou

2 avril 2009 at 6:55  

Publié dans Uncategorized

Folksonomy et web sémantique : convergence ?

with 6 comments

La table-ronde "Tags and Search" de Web Science09 a tenu toutes ses promesses. En réunissant des papiers portant sur le tagging et dautres proposant des modèles de recherche dinformation dans les réseaux sociaux à partir doutils du web sémantique, les organisateurs ont choisit de ne pas ignorer les oppositions de stratégies de recherche qui fondent lintérêt de lespace interdisciplinaire des web science. Ces deux démarches sont-elles conciliables ? Parlent-elles de la même chose ? Comment articuler le désordre assumé de la folksonomy et le souci damélioration (et de rationalisation) des recherches du web sémantique ? De fait, les papiers proposés cherchent tous à porter des améliorations aux formes simples, efficaces, mais aussi désordonnées, redondantes et parfois très insatisfaisantes de la folksonomy. Mais, à lévidence, les chemins pris pour faciliter cette convergence sont très différents.

Le papier proposé par les universités de Southampton et de Postdam propose une première piste darticulation très respectueuse du fonctionnement de la folksonomy. Il sagit simplement daméliorer les techniques didentification des meilleurs taggeurs. Ching-man Au Yeung, Michael Noll, Nicholas Gibbins, Christoph Meinel et Nigel Shadbolt ("On Measuring Expertise in Collaborative Tagging Systems") proposent un algorithme dont lambition est limitée, mais qui paraît très performant. Ils suggèrent une solution assez élégante pour distinguer les experts dans une population de taggueurs. Ces derniers, soulignent-ils, ne se définissent pas seulement par le nombre de tags attribués à des articles de bonne qualité, mais par la capacité de lexpert à être un des premiers à découvrir et à valoriser les documents de qualité. Ils proposent un algorithme permettant didentifier différents types dexperts et de spammeurs (SPEAR : SPamming-resistant Expertise Analysis and Ranking). A partir dune évaluation expérimentale dun échantillon de tags de del.icous, les auteurs montrent que leur algorithme permet de distinguer les experts (et surtout différentes formes dexpertise) mais aussi disoler les spammers. Leurs outils permet donc de produire un tri et un ordonnancement entre les taggeurs dun document et de rendre beaucoup plus pertinente et riche la recherche des meilleurs annotateurs de bons documents.

Cest en revanche une toute autre stratégie que déploient Alexandre Passant, Matthias Samwald, John G. Breslin et Stefan Decker de luniversité de Galway, ce haut lieu de la recherche européenne en web sémantique, et lInstitute for Evolution and Cognition Research autrichien. Il sagit cette fois de poser sur les réseaux sociaux une architecture intégrant un ensemble doutils "légers" du web sémantique construit autour de larchitecture RDF/OWL. A travers la construction de Social Semantic Information Spaces (SSIS), lambition des auteurs est rien moins que de créer un "Interlinked Online Information Society" en fédérant les informations extraites des réseaux sociaux.

Le système proposé fait converger les différents langages du web sémantique en y intégrant des modèles adaptés à la capture des réseaux sociaux sur le web comme FOAF ou SIOC (Semantically-Interlinked On-line Communities ontology développé à Gallway). Le développement rapide de linitiative du "Web of Data" visant à connecter entre elles de grandes bases de connaissance publiques pour les mettre au format RDF rend ainsi envisageable un déploiement enfin consistant des outils du web sémantique. Cest en tout cas ce que les auteurs espèrent…

Reste beaucoup de questions en suspend. Les tenants de ce projet de généralisation des machines du web sémantique vers les plateformes du web 2.0 font comme si les réseaux sociaux étaient un système dinformation à rechercher (ce qui se conçoit bien, notamment pour les réseaux sociaux dentreprise). Mais, à bien y regarder, il est probable que l’on trouve plus de conversations que dinformations dans les réseaux sociaux et il nest pas du tout sûr que la demande des utilisateurs soient daugmenter la capacité de moteur de recherche plus "intelligent" à les retrouver, eux et leurs productions.

Written by docardon

20 mars 2009 at 8:46  

Publié dans Uncategorized

Le marché de la religion et l’effet "longue traîne"

leave a comment »

Le web modère-t-il ou favorise-t-il les opinions extrémistes ? Depuis le livre de Cas Sunstein, Republic.com, ce débat sous-tend de nombreuses recherches des chercheurs en sciences politiques qui se préoccupent du web. Kieron OHara de luniversité de Southampton et David Stevens de luniversité de Nottingham reviennent sur cette question dans un papier présenté à Web Science09 en prenant lextrémisme religieux comme fil rouge. Cette question, expliquent les auteurs, peut être reformulé dans les termes dun débat entre Hume et Smith. Le premier soutenait quun marché libre des croyances favoriserait les opinions extrêmes, puisque les nouveaux entrants pour se faire remarquer et attirer des pratiquants doivent développer des formules extrêmes et différenciantes. A linverse, Adam Smith dans La richesse des nations soutenait quune libéralisation du marché religieux favoriserait la modération et la domination des religions centrales et modérées. Les religions non-établies dans un marché ouvert doivent se policer pour entrer en relations compétitives avec leurs rivales.

OHara et Stevens plongent ce vieux débat dans le modèle de la "longue traîne" développée par Chris Anderson. En abaissant fortement les coûts de lengagement extrémiste, le web favoriserait (cétait la thèse de Cas Sunstein) les opinions extrêmes et les petites communautés sectaires. Le web offrirait ainsi plus de visibilité aux niches religieuses sectaires, tout en maintenant une centralité forte aux marques religieuses à forte notoriété. Lexercice proposé par les auteurs est habile et séduisant, même sils napportent aucune vérification empirique.

Ils proposent cependant une hypothèse originale. En sappuyant sur lidée (avancée dans les débats sur la longue traîne par Salganik et al) que les systèmes de recommandation "centralisent" le marché alors que labsence de recommandation entre usagers allonge la traîne, les auteurs soutiennent que toute mise en discussion des idées des groupes religieux sectaires (incluant des liens vers leur site) contribuent à les réduire. Cest souvent parce quils parviennent à sisoler dans une "niche" fermée sans contact et point de comparaison avec les autres marques religieuses présentes sur le marché que les sectes parviennent à prospérer… Conclusion, il suffirait dinstaller un système de recommandation de croyances basés sur du filtrage collaboratif pour réduire à peu de chagrin les sectes les plus illuminées !

Written by docardon

19 mars 2009 at 3:01  

Publié dans Uncategorized

Tag(s) associé(s) : ,

Suivre

Recevez les nouvelles publications par mail.