Approches Interdisciplinaires du Web

Suivez les évenements liés au projet de master AIW

Archive for the ‘Compte-rendus’ Category

Duncan Watts, "Using the Web to do Social Science" (ICWSM09)

with 5 comments

Duncan Watts, Keynote Speaker à ICWSM09, a proposé un exposé très revigorant, centré sur ce que les études des larges données du Web(2) apportent aux sciences sociales. Le Web est certes un phénomène fascinant en soi, dont les usages et produits foisonnants méritent d’être étudiés pour eux-mêmes. Mais selon Watts, c’est surtout un outil extrêmement puissant pour les recherches en sciences sociales, dans la mesure où il fournit des données d’observation sur les comportements des individus et leurs interactions, que l’on peut enregistrer en temps réel sur des populations très importantes.
Watts force légèrement le trait pour souligner la révolution que représente pour lui l’apparition de ces données pour les sciences sociales, qui historiquement manquent cruellement de data. Comme le télescope, les grandes données du Web permettent de voir l’invisible, ce qu’on était auparavant contraint de laisser de côté faute de moyen adéquat d’observation. En particulier, alors qu’on était "autrefois" contraint de laisser de côté l’étude des interactions à grande échelle, au prix d’une séparation entre micro et macro, les données offertes par le web offrent une image de ce territoire inconnu.
Watts a ensuite illustré le fonctionnement de cette approche à travers 4 recherches conduites au cours des trois dernières années. Elles sont d’une pertinence inégale en matière de sociologie générale, mais illustrent bien l’ambition de profiter de la richesse des données et des possibilités d’expérimentation du web pour produire des résultats de sociologie générale.

La première recherche, centrée sur des problématiques de sociologie des réseaux, s’interroge sur la formation des liens sociaux. A partir du recueil de l’ensemble des échanges d’email (14M) entre les 45 000 étudiants d’une université durant une année scolaire, les auteurs (Watts et Kossinets) s’efforcent de répondre à deux questions :
– quels facteurs influent sur la formation ou la dissolution d’un lien ? Dans quelle mesure les individus sont-ils contraints par la structure sociale existante dans l’établissement de leurs relations ?
– comment évoluent respectivement la structure sociale globale et la position des individus dans le réseau ?
A la première question, les auteurs vérifient que l’établissement d’un lien est d’autant plus probable que les nœuds sont peu éloignés dans le réseau : des personnes ayant un ami commun (distance = 2) ont 30 fois plus de chances de se lier que ceux ayant un ami d’ami en commun (distance = 3). De même, le fait de partager des cours augmente logiquement la probabilité de se lier : *3 si les individus ont par ailleurs un ami commun, *140 s’ils n’en ont pas. Enfin, on peut mesurer le poids respectif des deux facteurs : dans l’ensemble, l’effet d’une connaissance partagée supplémentaire est plus fort que celle d’un cours. Encore une fois, ces résultats ne sont pas surprenants, mais ils ont le mérite d’être assis sur des données d’échelle significative.
A la seconde question, les auteurs répondent que la structure d’ensemble du réseau, abstraction faite de quelques variations saisonnières, est globalement stable du point de vue des principaux indicateurs (distribution des degrés, taille de la composante principale, etc.). En revanche, la position des individus n’est pas du tout la même sur l’ensemble des périodes. Les individus au centre de la sociabilité étudiante ne sont pas les mêmes au début et à la fin de l’année scolaire ; les ponts entre cliques (les fameux liens faibles) ont tendance à se renforcer et à perdre leur spécificité ; etc.
L’article de Science : http://research.yahoo.com/pub/2770

La seconde recherche porte sur la demande des biens culturels, et l’effet de l’influence sociale sur la répartition de cette demande. Notamment, les auteurs (Watts, Salganik et Dodds) se demandent dans quelle mesure les indicateurs de succès, traduisant les goûts des autres consommateurs, peuvent fonctionner comme une prophétie auto-réalisatrice (l’article commence par une longue discussion de Merton et de l’effet-Matthieu). Les auteurs mènent une expérimentation à partir d’un site de musique en ligne réunissant des groupes inconnus. Les visiteurs du site doivent écouter et noter une chanson pour pouvoir la télécharger gratuitement. Certains visiteurs, au moment de faire leur choix, connaissent le nombre de téléchargements dont cette chanson a déjà fait l’objet (donc une forme faible et contrôlée d’influence sociale), d’autres non. L’expérience est répétée plusieurs fois.
Les auteurs observent tout d’abord qu’il y a un effet de l’influence sociale : au niveau individuel, la probabilité de télécharger une chanson augmente avec son rang dans le top download. En conséquence, dans les expériences avec influence sociale, les inégalités entre le succès des chansons (mesuré par le nombre de downloads) sont beaucoup plus fortes ; de même, la variabilité des résultats entre les différentes expériences est beaucoup plus forte dans les cas avec influence sociale que dans les expériences où les jugements des individus sont indépendants.
Les auteurs se livrent également à une modulation intéressante : dans certaines expériences avec influence sociale, ils inversent complètement, à mi-parcours, l’ordre de popularité des chansons. La 1re devient 48ème, la 2nde 47ème, ainsi de suite. Ils observent que, progressivement, la "meilleure chanson" déchue retrouve progressivement sa popularité, laissant supposer une qualité intrinsèque ; symétriquement, la dernière devenue première voit sa popularité stagner. En revanche, pour la majorité des chansons du classement autres que les extrêmes, l’effet de l’inversion est durable : on observe donc un effet important de la manipulation de l’information, sauf pour des chansons "intrinsèquement" excellentes.
Les auteurs reconnaissent que ces résultats expérimentaux ne sont pas directement transposables au marché réel, sur lesquels les sources d’influence sont beaucoup plus nombreuses (le groupe de pairs, les multiples formes de marketing, l’action des intermédiaires et des prescripteurs, la pluralité des classements, etc.); autrement dit, la situation expérimentale (un consommateur face à 48 chansons inconnue) est assez éloignée du marché réel. Ils défendent néanmoins l’intérêt de la démarche en ce qu’elle permet de mettre en évidence un effet-matthieu pur, et d’affirmer que le classement fonctionne presque comme une prophétie auto-réalisatrice, à laquelle n’échappent que quelques très bonnes chansons.
Les articles : http://research.yahoo.com/pub/2768 et http://research.yahoo.com/pub/2769 (le premier est très clair et très lisible même pour les allergiques aux stats).

La troisième recherche s’inscrit dans le champ de la sociologie politique et de la sociologie de la communication. Watts part des constats empiriques contradictoires quant à l’évolution de la distribution des opinions : certains chercheurs estiment qu’on observe une ségrégation croissance des opinions aux Etats-Unis (Bishop, 2008), tandis que des sociologues mettent en avant les indices d’une évolution contraire (DiMaggio, etc.). On manque en général de données pour conclure à l’une ou l’autre thèse.
Afin d’apporter des éléments au débat, Watts et son équipe ont recueilli un ensemble de données comportant : les opinions de A sur X ; les opinions de B (ami de A) sur X ; les opinions de A sur l’opinion de B sur X. Pour ce faire, ils ont développé une application Facebook (Friend sense app), et ont les réponses de 2500 individus. Ils disposent au final de 1200 dyades complètes (opinions et perceptions).
Sans surprise, ils vérifient que les opinions des amis sont plus proches que celle des étrangers : les individus ont tendance à se lier à des gens d’opinions similaires. Mais elles ne sont pas si similaires qu’ils le croient : l’homophilie perçue est bien supérieure à l’homophilie réelle. En cas de désaccord, seuls 40% des individus sont conscients de ce désaccord, tandis que les 60% restants estiment à tort que leurs amis sont d’accord avec eux. Ce pourcentage n’est modifié que de 6 points si les amis déclarent discuter de politique.
L’interprétation de ce phénomène reste très ouverte. Il ne s’agit pas d’évitement du conflit, puisque les individus ne sont pas conscients des désaccords ; il faut sans doute plutôt interroger le fonctionnement de l’amitié et les supports de la sociabilité ordinaire.
Le lien vers la recherche en cours : http://research.yahoo.com/pub/2768

La dernière recherche porte sur le lien entre rémunération et productivité. Watts discute ici les théories du salaire d’efficience, selon lesquelles un meilleur salaire stimule la productivité.
Le dispositif d’enquête repose ici sur Mechanical Turk, la plateforme de crowdsourcing d’amazon. Elle permet de proposer des petites tâches de toutes sortes pour des rémunérations variables (et très faibles).  L’expérimentation consiste à proposer la même tâche – du classement de photos selon leur degré de similarité – à des rémunérations différentes, et de mesurer leur productivité respective. Les participants remplissent également un questionnaire.
On observe que les participants en font plus quand ils sont mieux payés, mais que cela n’accroît pas la précision de leur travail, au contraire. On vérifie également que, quelque soit le niveau de rémunération, les individus s’estiment toujours sous-payés (mais ils n’ont peut-être pas tort, étant donné les niveaux de rémunération proposés). Dans l’ensemble, cette recherche est moins convaincante (au-delà de ses implications politiques douteuses…), ne serait-ce que parce qu’elle oublie ce qui justifie la théorie du salaire d’efficience : une incertitude sur la qualité des travailleurs, compensée par une relation durable et incarnée entre un employeur et un employé.

En conclusion, Watts a esquissé un bilan rapide de l’état de cette nouvelle science (plutôt de cette nouvelle façon de faire des sciences sociales) : malgré l’avancement très rapide de la science des réseaux, on est encore loin d’une "social science 2.0", qui puisse comprendre les phénomènes macro en partant des interactions. Pour avancer, il ne suffit pas d’accumuler les données de réseaux, mais plutôt organiser en fonction de questionnements précis la collecte de données sur de larges populations d’individus, et l’évolution au cours du temps de leurs interactions et de leurs comportements.
En forme de boutade, il estime que cet avancement ne devrait pas être trop difficile, dans la mesure où les sciences informatiques ne montrent en général que peu d’intérêt pour l’élaboration des questions – et beaucoup pour la collecte et l’analyse des données, et devraient donc accueillir favorablement celles que leurs proposent les sciences sociales.

Written by jsbeuscart

9 juin 2009 at 3:54  

Publié dans Compte-rendus

Tagged with

ICWSM, la conférence des web sciences ?

leave a comment »

San José, California, 17-20 mai 2009. La troisième conférence d’ICWSM (International conference on weblogging and social media) constitue l’occasion idéale pour faire le point sur ce rapprochement typiquement "web science", qui a vu informaticiens férus de théorie des graphes, spécialistes du data mining et du traitement automatique des langues, psychologues et sociologues se réunir pour partager leurs recherches portant sur les blogs et les sites de réseaux sociaux. Après la très rapide croissance des travaux dans le domaine, ICWSM est entré dans un âge de maturité. La conférence est désormais reconnue, les gros sponsors (Google, Facebook, Nielsen et Microsoft) sont là, les papiers proposés sont de plus en plus nombreux (17% des propositions retenues par le comité scientifique). Le moment est donc venu de se demander comment fonctionne ce nouveau carrefour disciplinaire. Quels en sont les objets de recherche ? Comment les différentes approches disciplinaires s’accrochent aux principaux enjeux de recherche du domaine ? Certains participants ont déjà bloggué la conférence en direct ici ou ici. Mais, avec Jean-Samuel Beuscart, nous proposons de revenir sur quelques axes thématiques de la conférence en proposant nos vues croisées sur les papiers présentés.

Une impression d’ensemble un peu mitigée, d’abord. La participation à la conférence était à peu près identique à celle de 2008. Mais la qualité des papiers y était sans doute plus faible. Certes les travaux présentés étaient généralement d’un grand intérêt, d’une grande sophistication parfois, mais peu de pépites ou de regards originaux, comme l’étude dynamique de la transformation des principes de gouvernance de Wikipédia qui avait marqué la conférence de 2008 (Ivan Beschastnikh, Travis Kriplean, David McDonald, "Wikipedian Self-Governance in Action: Motivating the Policy Lens"). Par ailleurs, la domination des approches formelle ou de modélisation algorithmique, qui certes a toujours caractérisé la communauté ICWSM, semblait d’autant plus évidente cette année que les papiers proposant des approches en termes d’usages ou de sciences sociales (principalement en psychologie) étaient plutôt "faibles". Pas de grandes nouveautés ou de papier remarquable dans ce domaine, ce qui traduit la faible implication des travaux de sociologues et d’économistes dans cet espace disciplinaire. Seuls les psychologues s’y sont introduits sans apporter cependant des choses très novatrices. Pourtant, si les sciences sociales n’ont pas (encore) su prendre place dans ce carrefour disciplinaire (préférant souvent préserver leur indépendance dans des espaces parallèles), un des effets les plus intéressant de la constitution de la communauté ICWSM est la bien meilleure prise en compte d’hypothèses "réalistes" sur le comportement des utilisateurs dans les approches linguistique ou de théorie des graphes.

Le millésime 2009 d’ICWSM fait en effet apparaître sur les différents axes thématiques de la communauté un approfondissement et une bien meilleure prise en compte des usages dans la construction des hypothèses de recherche et la conception de nouveaux algorithmes ou de nouveaux services. En analyse des opinions (sentiment analysis), les difficultés à résoudre sont désormais abordées de front en évitant les naïvetés qui faisaient précédemment de chaque analyse lexicographique une proposition de service. En théorie des graphes, ce sont les aspects dynamiques qui sont désormais au cœur de l’analyse. Les travaux sur la détection de communautés prennent désormais en compte la possibilité pour le même individu d’appartenir à plusieurs communautés. Souvent moquée par les spécialistes de l’Information retrieval (IR), la folksonomy se voit enfin reconnaître sa pertinence et des recherches pour articuler le tagging par les utilisateurs et des outils sémantiques plus sophistiqués sont élaborées. Bref, si les sciences sociales n’arrivent pas à tenir leur place dans ICWSM, on peut au moins se féliciter du fait que les autres disciplines se sont mises à l’écoute des utilisateurs et des usages pour faire avancer leur champ de recherche.

à suivre…

Written by docardon

2 juin 2009 at 9:20  

Publié dans Compte-rendus

FET09: La science au delà de la fiction

leave a comment »

banner_large_horiz

Demain, la conférence FET09, Future and Emerging Technologies 2009 aka « science beyond fiction », la science au delà de la fiction… Eh oui la science va souvent plus loin que l’imagination.

Prenons par exemple, le premier intervenant de la conférence, Henry Markram directeur du projet Blue Brain. Le projet conjoint IBM et de l’EPFL Blue Brain vise à construire un modèle du cerveau humain et à faire « tourner » ce modèle. L’objectif est de simuler le cerveau molécule par molécule, la simulation doit être réaliste, aussi ressemblante que possible au fonctionnement d’un vrai cerveau.

blue-brain

Le « blue » de Blue Brain, fait référence à Deep Blue, le premier ordinateur à avoir battu aux échecs le champion du monde, un humain à l’époque. Rappelons nous, le champion du monde aux échecs passait dans l’imaginaire collectif pour l’humain le plus intelligent de la planète.

Ray Kurzweil, le pape de la Singularité, prédit qu’en 2029, il sera possible de faire tourner un cerveau humain dans un ordinateur de moins de 1000$. Bien entendu, grâce à Henry Markram et avec un superordinateur des laboratoires d’IBM cela devrait être possible avant, probablement dans 10 ans ou moins. Voilà le genre de travaux de recherche que l’on trouve à fet09. Pas de quoi s’ennuyer.

L’objectif affiché de la conférence est -je traduis- de permettre aux chercheurs, aux « décideurs » (policy makers), aux représentants de l’industrie et aux journalistes scientifiques de discuter des frontières de la science d’aujourd’hui, des technologies de demain et leurs impacts sur la société.

C’est ainsi que s’annonce cette conférence, multidisciplinaire et politique, le premier ministre tchèque et la commissaire européenne à la société de l’information, feront l’introduction (emphatique j’imagine) à une série de présentations qui mêlent biologie, informatique, physique, économie, sciences sociales, musique…

Written by joaquinkeller

20 avril 2009 at 5:28  

Publié dans blog, Compte-rendus

Cartographie du web sémantique

with 2 comments

J’ai été très excité quand j’ai regardé la vidéo de Tim Berners-Lee à TED parlant des “linked data”, annoncées comme le web du futur. Toutes ces données aux formats diverses, éparpillées aux quatre coins du web seraient codées selon un format standard, et liées les unes aux autres, exactement comme les pages html du web classique ! J’ai levé les bras et crié “Raw data now !” avec enthousiasme à l’appel de Tim Berners-Lee. Il nous promettait de soigner le cancer, de découvrir de nouveaux médicaments, de comprendre le web, l’économie et, enfin, le monde !

Nous le désirions ardemment, ce web des données. Mais à Athènes, les présentations sur le sujet n’ont pas été à la hauteur de notre envie. Je vous livre ici un compte rendu de la session sur le “Web of data”. Ces réflexions sont inspirées principalement par l’article de Yuzhong Qu et al., de l’institut de Science du Web de l’université de Nanjing en Chine.

Cet article dresse une véritable géographie du web sémantique actuel. Les auteurs utilisent le moteur de recherche sémantique Falcons (jouez un peu avec, c’est assez amusant). Ce moteur permet de collecter les documents écrits en format rdf/xml. Le rdf (resource description framework) est un modèle de description des ressources, sous forme de triplets {sujet, prédicat, objet}. Par exemple, {Lionel Messi, is a, Football Player} selon dbpedia. Ou {Lionel Messi, knows, Thierry Henry} selon friends of a friends. Que sont au juste dbpedia ou friends of a friends (foaf) ? Ce sont en fait des projets qui proposent des vocabulaires, c’est à dire qu’ils suggèrent des objets et des prédicats pour décrire les sujets. Ce sont des vocabulaires RDF car ils permettent de coder la description des sujets selon le format RDF. Foaf, par exemple, est spécialisé dans la description des personnes et des relations qu’elles entretiennent entre elles.

Les objets peuvent être des classes (c’est à dire, désigner un ensemble d’objets aux propriétés communes). Ainsi, la classe Football_Player contient entre autres Thierry Henry et Lionel Messi. Avec leurs données, les chercheurs considèrent le graphe des associations entre classes. Considérons les triplets  suivants :
{Lionel Messi, is a, Football Player}
{FC Barcelona, is a, Football Club}
{Lionel Messi, plays in, FC Barcelona}

Ces trois triplets sont résumés par les auteurs par deux classes : Football Player et FC Barcelona, qui seront liées entre elles. Les liens sont plus ou moins forts selon le nombre de triplets rdf qui établissent des liens entre les deux classes considérées.

Les chercheurs parviennent donc à extraire un jeu de 11.7 millions de fichiers RDF/XML contenant 596 millions de triplets. Le chiffre de 11.7 millions est à comparer aux 20 milliards de pages web indexées par les meilleurs moteurs de recherche. La quantité d’informations codées en RDF est donc non négligeable. Ces données comportent au total 56631 classes.
Les chercheurs calculent ensuite une série de statistiques, classiques dans l’étude des graphes de terrain. De façon plus intéressante, ils dessinent également le graphe des associations entre classes, qui représente en fait une carte du web sémantique.
Premier constat : toutes les classes ne sont pas connectées. C’est à dire que certains vocabulaires ne sont utilisées que pour certaines ressources qui sont complètement isolées des autres. Toutes les données ne sont pas liées ! Il y a donc encore des efforts à faire pour atteindre ce web des "linked data" auquel Berners-Lee nous a fait rêver ! Il y a néanmoins une composante principale qui rassemble 96.16% des objets décrits. En voici le graphe :

Associations entre les classes du web sémantique

En bleu, le vocabulaire FOAF s’étale au centre du graphe. Il a beaucoup de liens vers d’autres graphes et joue un rôle fédérateur. En rouge et en bas à droite, le vocabulaire développé pour YAGO est très isolé. Ce projet vise à développer une base de connaissances généraliste sémantique, et est développé au Max Planck Institute. Il est étonnant qu’il soit si peu lié avec d’autres comme DBPedia, que l’on voit ici en vert pomme. DBPedia a pour but de structurer l’information de Wikipédia ; le vocabulaire DBpedia  a une position plus centrale que YAGO, comporte plus de liens vers l’extérieur mais forme quand même une communauté bien groupée.

Cette cartographie du web sémantique révèle donc deux choses. D’abord, un paradoxe : les auteurs ont collecté les données RDF, c’est à dire celles générées par les personnes qui adhèrent au dogme "W3C – RDF". Ces personnes sont donc supposées vouloir un web sémantique universel, écrit dans un langage unique. Pourquoi, alors, YAGO et DBpedia, deux projets de classification généralistes, sont-ils si peu liés l’un à l’autre ?
Ensuite, le constat suivant : dans les 10 vocabulaires les plus fréquents, à part les 3 principaux vocabulaires suscités, nous trouvons 7 autres vocabulaires qui sont assez spécialisés. Nous trouvons par exemple un wiki sémantique sur l’architecture ou encore une base de données biologiques. Pas étonnant, donc, que ceux-là soient isolés.

Je suis très néophyte dans le domaine du web sémantique, je ne m’avancerai donc pas trop dans mes interprétations. Je dirai simplement que notre "web of data" est finalement quelque chose d’assez décevant. A quoi ressemble donc le paysage du web sémantique à l’heure actuelle ? Quelques projets à ambition fédératrice semblent entretenir des relations plutôt concurrentes et hostiles (pas un seul lien direct entre les classes de YAGO et celles de DBpedia !). Et ici ou là, nous apercevons les traces laissées par des bibliothécaires spécialistes, qui n’ont finalement d’autre ambition que de faire un peu de tri dans les données générées par leurs disciplines (projets par ailleurs fort utiles, par exemple pour les scientifiques).

Le rêve de Tim Berners-Lee, qui est celui d’un monde numérisé et structuré, nous parait donc bien loin… et l’usage qu’on pourrait faire des données de projets comme Friend of a friend, par exemple, bien mystérieux… Nous essaierons, dans le prochain post, de nous attacher aux usages que l’on peut avoir du web des données, en commentant quelques applications qui nous ont été présentées à websci09.

PS : n’hésitez pas à me reprendre, ou à proposer des compléments ; je n’y connais pas grand chose au web sémantique mais serais très content d’en apprendre plus !

Written by François

3 avril 2009 at 9:27  

Publié dans Compte-rendus

Le Web et le futur de l’éducation

with one comment

Le centre Hellenic Cosmos le soir

Le centre Hellenic Cosmos le soir

La relation entre le web et l’éducation peut et doit être une association à bénéfice réciproque. Julia Minguillon, du département informatique et médias de l’Université Libre de Catalogne, nous le démontre à travers l’histoire et le futur de la rencontre entre web et éducation.
L’UOC, université qui propose uniquement de l’enseignement à distance, compte en 2009 34 000 étudiants, et propose des enseignements en catalan, espagnol et anglais débouchant sur 20 diplômes différents. En 1994, elle ne comptait que 200 étudiants pour 2 diplômes. Ces chiffres reflètent les changements énormes qui ont eu lieu durant ces 15 dernières années.
Pendant longtemps, le e-learning a été vu comme un parent pauvre des systèmes d’éducation classiques. De moindre qualité, l’enseignement à distance permet ce "apprendre quand je veux, où je veux" ; l’étudiant classique a une quarantaine d’année, a un emploi. Il reçoit des contenus, mais il est isolé, et n’a pas d’interactions avec des professeurs ou d’autres étudiants.
Désormais, grâce à l’apparition du web 2.0, le statut du e-learning a changé. Il s’appelle désormais web-based learning. Les mots d’ordre en sont : personnalisation, abondance de contenu, liberté. L’interaction est placée au coeur de l’apprentissage. Cette direction est promue par le processus de Bologne (qui vise à créer une European Higher Education Area).
Dans le futur, les ressources pour l’éducation seront disponibles pour tous. L’apprentissage sera centré sur la capacité à créer des liens entre les objets (c’est le connectivisme). Le méta-apprentissage, c’est à dire l’ "apprendre à apprendre" deviendra essentiel. Et l’apprentissage devra se faire tout au long de la vie.

Minguillon mentionne (trop) rapidement le fait que c’est la technologie qui permet l’apparition de ces nouvelles formes d’apprentissage.  Au delà de ce rôle passif de permission, je crois que la technologie est surtout une formidable force d’entraînement. C’est peut être l’observation de nouveaux usages sur internet (construction collaborative de savoirs et d’outils, vagabondage et sérendipité,  évaluation collective des contenus) qui permet aujourd’hui la réactivation des théories sur l'"apprentissage actif" ou "métaapprentissage" (voir par exemple le knowledge building). Si l’on considère également les capacités d’accueil limitées des universités  classiques, et l’afflux massif de nouveaux étudiants* dans les prochaines années dans les pays en développement, il devient évident que nous  devons dès maintenant prendre un tournant radical et imaginer de nouvelles formes d’éducation utilisant à plein les possibilités du web.

* Un petit chiffre calculé à la louche : en France, d’après le ministère, environ 1.78 millions de personnes sont engagées dans des études supérieures (environ 1 habitant sur 40). En Inde,  c’est le cas de seulement une personne sur 100 (il y a 10 millions d’étudiants Indiens répartis dans plus de 300 universités). Dans une vingtaine d’année, si l’Inde a atteint un niveau de développement comparable au nôtre, elle comptera 40 millions d’étudiants (1 sur 40 de ses 1.5 milliards d’habitants). Ce seront donc 30 millions de nouveaux étudiants auxquels l’Inde devra faire face. Si les systèmes d’éducation ne changent pas, alors l’Inde devra construire une université à la capacité d’accueil de 30000 étudiants toutes les semaines pendant les 20 prochaines années.

Written by François

20 mars 2009 at 11:10  

Tim Berners Lee a la pêche

with one comment

p10500061

On l’a vu en vrai, Tim Berners-Lee, inventeur du web. Dans la grande salle de conférence du Hellenic Cosmos, devant le président grec, le ministre de la culture, le gratin athénien et les participants de websci09, il a parlé pendant une heure du Web, depuis son invention jusqu’à la création de la "World Wide Web Foundation" en 2008.

Son discours était bien rodé, il parlait vite, parfois il bafouillait un peu, en tout cas il avait l’air très excité par son sujet. "10 puissance 11 pages web, imaginez, autant que de neurones dans un cerveau humain. Maintenant, on boit un verre de vin, le nombre de neurones diminue. Le web, lui, grandit, et grandit de plus en plus vite".

Il a conclu son discours en parlant de la webfoundation, qui a pour but de promouvoir un web "libre et ouvert".

Enfin, il a grimpé les escaliers de l’auditorium quatre à quatre pour tendre son micro à l’auditeur qui a posé la première question ("est-ce que l’on crée un Big Brother ?").

Après les questions, le président de la république héllénique s’en va, suivi par une bonne partie de l’auditoire.  Il nous reste une présentation de Josep Sifakis, puis le cocktail de bienvenue … brochettes, boulettes de viande, vin blanc grec et discussions…

p1050004

Written by François

18 mars 2009 at 9:54  

Comprendre l’impact du web sur la littérature scientifique (une synthèse de l’après-midi)

with one comment

Ce qu’il faut souligner, c’est la très grande variété des préoccupations des uns et des autres: de la dimension cognitive de l’outil, aux inquiétudes d’une doctorante quant à la diffusion de ses idées, une tentative de synthétiser  toutes ces idées…

Idéalement, cet outil devrait rendre disponibles toutes les productions scientifiques, directement, sans délai, sans distinction de lieu, et gratuitement, cela change le rapport du scientifique à sa production. Une visée de court  terme (on écrit un papier, puis un autre, et on s’empresse d’oublier les premiers),une  pensée autour de  questions simplifiées, conçues pour être traitées en un papier, etc.

Autre point crucial: le web rend lisible  le réseau des publications scientifiques, les liens entre elles, définis à partir de données fondées sur le sens, le contenu des papiers, la connaissance produite elle-même. les relations qu’entretiennent les publications entre elles, un genre de réflexivité liée à la nature de l’outil de diffusion, n’est pas dénué de toute signification; elles peuvent avoir leur importance dans l’émergence de nouvelles idées, cet retracer les réseaux des publications peut aider…

D’un autre côté, les relations entre les publications scientifiques sont aussi (d’abord?) des relations entre humains, guidées par des liens affinitaires, des projets en cours: c’est un contexte particulier, très "réel", non lisible directement dans le contenu des papiers et que pourtant il faut connaître dès que l’on prétend faire de la recherche: On peut donc dire que le web contribue à décontextualiser la production scientifique. 

Le constat, aujourd’hui, c’est que l’on ne tire pas suffisamment profit des opportunités offertes par cet outil.

Il ne s’agit pas de privilégier un contexte sur l’autre, mais de devenir capable d’articuler ces deux choses. Concrètement, Leslie Carr ( de l’université de Southampton) propose une synthèse provocante et stimulante ( Why the web never took off in scholarly communication?) en s’interrogeant sur le cas des pages personnelles des chercheurs.

D’abord, il souligne que le Web change le rapport du scientifique à sa discipline, à la science. En rendant virtuellement toute la "littérature" scientifique d’un domaine accessible, on donne du crédit à l’idée qu’il existe quelque chose comme une littérature d’un domaine. En fait, cette chose ne va pas de soit; les productions scientifiques sont situées, dans le temps et dans l’espace, dans un contexte social. On produit du savoir en un temps en un lieu donné, avec des personnes données. Qu’il soit parfois utile de pouvoir dépasser ce contexte ne signifie pas qu’il faille à tout prix chercher à l’oublier.

Dans le cas des pages personnelles des chercheurs, il invite à la responsabilité. Sur le web, il ne s’agit pas seulement d’une logique de consommation (je souhaite atteindre facilement toutes les publications d’une personne) ou de promotion (il ne s’agit plus seulement de communiquer sur les contenus produits, mais de rendre accessibles ces mêmes contenus) ; c’est est un outil-projet participatif, c’est à chacun de veiller à l’accessibilité du contenu qu’il produit.

Précisément, les pages personnelles des chercheurs constituent le lieu privilégié où pourraient s’articuler ces deux contextes, réel et sémantique : il est très dommage qu’elles soient souvent délaissées…

Written by clairefilou

18 mars 2009 at 4:30  

Suivre

Recevez les nouvelles publications par mail.