Ce que j’ai appris dans ma classe de gestion des connaissances #UOKM

big-data

Digital Humanities, Cloud Computing, Big Data, algorithmes, Knowledge Management… Que de concepts abstraits qui, il y a encore quelques mois, lorsque je suis entré dans le local 11161 du bâtiment Desmarais de l’Université d’Ottawa, n’avaient pas plus de sens pour moi qu’un traité philosophique écrit en vieux français du XVème siècle ! Le concept-même du cours de Gestion des connaissances ne m’évoquait rien de concret et, par son intitulé, présentait à lui seul tout un défi. Sans m’en rendre compte, je prenais part en réalité à une aventure scolaire qui allait m’ouvrir de nombreuses portes sur des domaines qui m’étaient jusqu’alors totalement inconnus. Grâce à de nombreuses lectures hebdomadaires proposées par notre chef d’orchestre, Pierre Lévy[i], nous avons progressivement pu découvrir à quoi les termes cités ci-dessus se référaient et connaître les positions actuelles des spécialistes en matière des gestions des connaissances et autres concepts liés. De plus, chacun des étudiants ayant pris part à l’expérience était tenu de contribuer à l’élaboration du cours : en partageant des écrits traitant des sujets évoqués ci-dessus, sur le groupe Facebook de la classe (et éventuellement sur Twitter via #UOKM).

Knowledge Management

En fait, la gestion des connaissances (ou Knowledge Management) trouve sa source au niveau individuel : chaque participant doit tenter de faire un tri cohérent et efficace (appelé ‘curation’) sur l’ensemble des domaines auxquels il s’intéresse afin de ne pas être noyé dans un océan d’information. On parle alors de Personal Knowledge Management. Une manière judicieuse de nous plonger concrètement dans la matière de ce cours revenait à nous faire appliquer la curation sur les nombreux articles rencontrés via un site prévu à cet effet : Scoop It (je vous invite d’ailleurs à retrouver mon Scoop It de curation sur : http://www.scoop.it/u/quentin-willems).

scoopit

Collective Intelligence

Selon Pierre Lévy, « l’espace public du XXIe siècle se caractérise non seulement par une liberté d’expression accrue et mais aussi par une nouvelle possibilité de choix de sources d’informations »[ii]. Sans en être consciente, la majorité de la population qui manipule quotidiennement les outils numériques participe à la création de savoir. En effet, le développement ce que l’on appelle l’intelligence collective, qui correspond au domaine auquel je me suis le plus intéressé, permet à chacun des citoyens de devenir un créateur de contenu et de s’exprimer sur des sujets qui l’intéressent. Et pour beaucoup de chercheurs, dont Jamie Yap, pour qu’une intelligence de ce type, basée sur la collaboration et la participation, puisse se développer: «Knowledge management requires a rethink, given the growing advancement and ubiquity of technologies such as data analytics, social media and smart devices, to help contain and harvest knowledge scattered throughout an organization »[iii].

Comme je l’ai déjà évoqué il y a quelques semaines, dans un article présent sur ce blog[iv], Michael Nielsen a tenté de prouver l’efficacité de la participation citoyenne et donc de l’intelligence créée par un ensemble de participants à un sujet précis. Et le meilleur exemple de la création collective de contenu est l’encyclopédie en ligne, tant décriée depuis sa formation : Wikipédia. Celle-ci part de l’idée qu’il est possible pour tout un chacun de contribuer à la création de connaissances et à la mémoire collective et que le savoir se crée grâce à la connexion entre les individus: « The notion that it is connections between people that is really important is key »[v]. De là, vont alors se développer une série de disciplines comme le connectivisme qui se base sur le même principe fondamental que l’intelligence collective : la conversation entre les parties prenantes est considéré comme une « nouvelle approche pour comprendre et promouvoir le dialogue »[vi].

Dans le milieu professionnel, l’idée de promouvoir le partage de connaissances a été également appliquée au monde entrepreneurial : des auteurs comme Ikujiro Nonaka se sont intéressés de près à la manière dont le savoir se crée entre les membres d’une organisation, ce que Pierre Lévy qualifie de « conversation créatrice »[vii]. Á la base de tout cela, il est indispensable de créer un médium unificateur, un endroit affectivement reconnaissable et accueillant dans lequel l’individu se sente en confiance et qui lui donne envie de participer à l’échange et à la construction de savoir. Nonaka nomme ce lieu propice Ba et le définit comme « un ensemble de conditions permettant de fonder une communauté cognitive, intellectuelle, mentale, entre des individus qui vont partager non seulement des connaissances, mais aussi des cultures »[viii].

Des montagnes de données

Il nous est rapidement apparu évident que toute cette initiative créatrice allait peu à peu s’accumuler pour constituer une quantité prodigieuse de textes, d’articles, de tableaux, de chiffres… En bref, de données. Et cette immense quantité d’informations porte le nom de Big Data, expression familière pour beaucoup d’entre nous mais dont peu connaissaient la signification réelle. Certains spécialistes voient le Big Data comme le « new oil » (le nouveau carburant nécessaire pour faire avancer le savoir) du XXIème siècle, mais présentant l’avantage d’être abondant et renouvelable. Et comme le signale Clay Dillow : « As oil did at the beginning of the last century, big data is going to drive economies in the century ahead»[ix]. De nombreux auteurs s’accordent sur le fait que le Big Data va changer la face du monde, si ce n’est déjà fait. C’est d’ailleurs le titre d’un ouvrage de référence écrit par Mayer Schönberger et Cukier selon qu’il serait une « révolution qui transformera notre manière de vivre, de travailler et de penser ». La preuve en est que, dans une interview accordée à Wired, Cukier déclarait que « we’ve already change the way in which we think in a quantified way about everything »[x].

Word Cloud "Big Data"

D’autres sommités en la matière, que nous avons croisés lors de nos recherches, à l’instar d’Alex Pentland, pensent également que l’expansion du Big Data va changer notre façon de fonctionner, de réfléchir : « There are not a lot of things that are really novel. But with the coming of Big Data, we are going to be operating very much out of our old, familiar ballpark »[xi].

Construction collective du savoir

Par la suite, toujours dans l’optique de participer tous ensemble à la création de savoir en amenant chacun notre pierre à l’édifice,  nous avons été invités à consulter des ouvrages traitant des concepts qui gravitent autour de la gestion de connaissances (et de ses dévirées évoquées plus haut) et à en présenter un bref condensé aux autres membres du groupe. Une partie de ces livres proposaient en fait une vision opposée au positivisme que j’ai mentionné antérieurement autour du Big Data et, par conséquent, de l’Internet (qui en est le principal pourvoyeur). Certains scientifiques considèrent en effet que l’on a tendance à sacraliser l’entité Internet de manière excessive et que cela pourrait être nuisible à notre société. Ces derniers s’attaquent alors aux dérives qu’amènent une telle sacralisation, comme le solutionisme que l’on peut voir comme « « The propensity to view ‘the Internet’ as a source of wisdom and policy advice that transforms it from a fairly uninteresting set of cables and network routers into an exciting and seductive ideology »[xii] et à laquelle ils s’opposent fermement.

Digital Humanities

Mais pour revenir aux conséquences positives de l’expansion du Big Data et de la philosophie numérique, nous avons été confrontés à ce que l’on appelle les Digital Humanities. Celles-ci sont en fait le penchant numérique des Humanities, connues aussi sous le nom de Sciences Humaines. Mais en quoi consistent-elles exactement? Concrètement, « they are, therefore, an occasion to rethink and extend the Humanities through new materials, methods and hermeneutics. Furthermore, they represent an opportunity to redefine our relationship to society »[xiii]. De plus, selon Matthew Kirschenbaum elles sont aussi: « a field of study, research, teaching, and invention concerned with the intersection of computing and the disciplines of the humanities »[xiv]. Et cette discipline est appelée à évoluer de manière exponentielle dans les années à venir: «Although participants seemed to be excited about the potential of digital humanities »[xv], à condition que le monde académique en tant qu’instance créatrice de savoir, évolue au même rythme, ce qui ne semble pas être le cas : « The widening gap between flourishing digital practices and their institutional acknowledgment represent a threat for the academic community as a whole and for young scholars in particular »[xvi].

DH

Un code commun pour tout le monde

Le plus grand défi actuel qui circule autour du Big Data, des Digital Humanities etc. est la gestion et le partage cohérents et intelligents de ces montagnes d’informations. Toutefois, le souci principal que rencontrent les spécialistes qui tentent de mettre au point un système international – qui permettrait d’encoder des données dans n’importe quelle langue vers un langage universel – est justement la complexité des langues naturelles. Tout cela est affaire de linguistique : le problème se situe en fait dans la structure-même de la langue : les symboles (premier niveau) utilisés pour formuler des concepts (second niveau) qui conduisent à des idées (troisième et dernier niveau) s’avèrent être diamétralement différents selon la langue dans laquelle on s’exprime. Pour pallier à cet obstacle, Pierre Lévy propose le développement du langage IEML[xvii] (Information Economy MetaLanguage). Ce code (composé d’une grammaire et d’un dictionnaire) se présentant sous forme d’algorithmes (qui définissent les relations sémantiques entre les différentes données permettra) de dessiner le réseau sémantique interne à un texte cible. Ensuite, il serait possible de construire les réseaux de relations existant avec d’autres textes et finalement, le système donnera la traduction du texte dans la langue naturelle souhaitée: « IEML (ou tout autre système ayant les mêmes propriétés) va démocratiser la catégorisation et l’analyse automatique de l’océan de données »[xviii].

Mettre en place des structures pour accueillir cette nouvelle révolution

Conscientes de l’émergence de ces nouveaux domaines et du potentiel émancipateur des Big Data, du Cloud Computing et de tout ce qui entoure ces concepts, de nombreuses compagnies s’entament actuellement à développer des outils ad hoc. L’exemple d’Amazon fut évoqué à de nombreuses reprises dans notre cours : en plus d’être un des plus grands pourvoyeurs mondiaux en termes de vente en ligne, Amazon se présente comme l’un des plus grands défenseurs et manipulateurs (au bon sens du terme) du Big Data. Selon Matt Wood, Web Services Chief Data Scientist chez Amazon, « Collaboration is the future (…) Once data makes its way to the cloud, it opens up entirely new methods of collaboration where researchers or even entire industries can access and work together on shared datasets too big to move around »[xix].

Un tel essor ne peut évidemment pas non plus se faire sans l’apparition de nouvelles professions qui soient chargées de l’encadrement et de la gestion des nouveaux horizons. L’une des plus émergentes est celle de data scientist dont la mission principale revient à donner du sens à de l’information rendue incompréhensible par sa taille, en repérant l’information intéressante grâce à de la curation efficace. Ce qui tire parfois de la magie, au vu des quantités d’informations que ces professionnels parviennent à traiter simultanément : « Simply put, data scientists are the magicians of the 21st century »[xx], déclare Shraddha Uchil.

Des avis divergents…

Comme je l’ai déjà signalé antérieurement, malgré les nombreux avantages et perspectives que représente le développement de l’intelligence collective (et des autres domaines auxquels nous nous sommes intéressés), certains auteurs tirent la sonnette d’alarme par rapport aux risques inhérents à un tel essor: « While Big Data is an excellent primer on the opportunities of the field, it’s thin on the risks, overall»[xxi]. De nombreux spécialistes qui ont étudié l’implication sociale du Big Data se sont rendus compte que malgré son côté révolutionnaire, ce concept remettait en question un des fondements de la société démocratique : la privacy. Et le moins que l’on puisse dire, c’est que la régulation qui a été imaginée pour assurer la préservation de la vie privée de chacun est complexe à installer: « Despite the efforts of European regulators to protect citizens’ personal data, predictive analytics has made it too easy to piece together information about individuals regardless of the law »[xxii]. Selon Evgeny Morozov, John Naughton et de nombreux autres blogueurs, ce sont souvent les grandes mécaniques – qui brassent énormément d’information (comme Google ou Facebook) – qui sont souvent les groupes auxquels les spécialistes s’attaquent car « Facebook and Google are only the two best known examples in the contemporary economy that appropriates (…), and exploits common goods (…) which are created by needed for human survival »[xxiii]). Par exemple, « Facebook sells the users’s data commodity to advertising clients »[xxiv] en leur proposant en échange une utilisation gratuite du réseau social qu’ils font miroiter comme étant l’élément indispensable à la vie sociale de l’individu. Et, étant donné le caractère global de l’Internet (Rallet et Rochalandet parlent de l’ « extraterritorialité juridique »[xxv] de la toile), il est très difficile de mettre en place des lois contraignantes (la justice ne faisant, en général, autorité qu’à un niveau national). Et apparaissent alors des solutions vagues et peu convaincantes : « Faute de pouvoir codifier une norme de vie privée qui est en mutation, la régulation devrait se donner comme objectif d’accorder des droits de compensation aux personnes qui s’estiment victimes d’exploitations de leurs données personnelles »[xxvi]. Mais qu’en est-il quand elles sont utilisées à notre insu ? Doit-on tolérer une plus grande intrusion dans notre vie privée pour favoriser le développement de ces concepts ? Ces questions restent en suspens à l’heure actuelle.

Bref, il faut de tout pour faire un monde…

Comme vous aurez pu le constater dans ce bref résumé, de nombreux points de vue sur des domaines étroitement liés ont été abordés durant cette session. Outre le fait de nous avoir permis de découvrir des notions méconnues – et pourtant d’une importance capitale pour le développement de notre société – ce cours a suscité notre recul critique, notre aptitude à ne pas prendre tout ce qu’on lit pour acquis et à nous poser les bonnes questions. Comme cet article l’évoque de manière assez criante, la société actuelle se redessine littéralement avec l’avènement du Big Data qui, grâce aux entités qui tentent de les développer, est mis au service de la création d’une intelligence collective et démocratique. Avec leurs bienfaits et leurs méfaits, qu’on le veuille ou non, ces concepts se développent et  font partie intégrante de notre quotidien. Ce cours m’a permis de prendre conscience de leur existence et de savoir ce qu’on en disait, ce qui est un premier pas dans la gestion de mes connaissances personnelles !


[i] Chercheur et philosophe français, Pierre Lévy est l’un des auteurs contemporains les plus productifs au niveau de l’étude de l’impact d’Internet sur notre société (plus de 10 ouvrages à son actif à l’heure actuelle). Titulaire de la Chaire de Recherche du Canada en Intelligence collective et professeur en Communication à l’Université d’Ottawa depuis 2002, il est très présent sur la toile et propose à ses étudiants des cours en lien avec l’évolution technologique contemporaine (par l’utilisation de groupes Facebook, de tweets et de bien d’autres réseaux sociaux en vogue)

Pierre-Levy

[ii] LEVY P. (2011), La sphère publique du XXIe siècle, pdf en ligne, p.3, consulté le 28/11/2013, http://www.ieml.org/IMG/pdf/La_sphere_publique_du_21e_siecle.pdf

[iii] YAP J. (2012), Knowledge management needs a rethink, article en ligne, consulté le 30/11/2013, http://www.zdnet.com/knowledge-management-needs-a-rethink-7000007892/

[v] PENTLAND A. (2012), Reinventing society in the wake of big data, interview en ligne, consultée le 28/11/2013, http://www.edge.org/conversation/reinventing-society-in-the-wake-of-big-data

[vi] RAVENSCROFT A. (2011), Dialogue and Connectivism: A New Approach to Understanding and Promoting Dialogue-Rich Networked Learning, article en ligne, consulté le 28/11/2013, http://www.irrodl.org/index.php/irrodl/article/view/934/1676

[vii] LEVY P. (2011), La Sphère Sémantique, Hermès-Lavoisier, Londres-Paris, p.87

[viii] HEUTE J. (2008), Du concept de communauté à celui de « ba » Le groupe comme dispositif d’innovation, article en ligne, consulté le 19 octobre 2013, http://jean.heutte.free.fr/spip.php?article98

[ix] DILLOW C. (2013), The big data employment boom, article en ligne, consulté le 28/11/2013, http://tech.fortune.cnn.com/2013/09/04/big-data-employment-boom/

[x] MCMILLAN R. (2013), The Big-Data Interview: Making Sense of the New World Order, interview en ligne, consultée le 28/11/2013, http://www.wired.com/wiredenterprise/2013/03/big-data/

[xi] PENTLAND A. (2012), Ibidem

[xii] MOROZOV E. (2013), To save everything, click here – The folly of technological solutionism, Public Affairs, New York, p.25.

[xiii] DHI PARIS, Young Researchers in Digital Humanities: A Manifesto, article en ligne, consulté le 29/11/2013, http://dhdhi.hypotheses.org/1855?lang=fr_FR

[xiv] KIRSCHENBAUM M. (2010), What Is Digital humanities and What’s It Doing in English Departments?, pdf en ligne, consulté le 29/11/2013, p.2, http://mkirschenbaum.files.wordpress.com/2011/01/kirschenbaum_ade150.pdf

[xv] DIGITAL SCHOLARSHIP IN THE HUMANITIES (2011), Getting Started in the Digital Humanities, article en ligne, consulté le 29/11/2013, http://digitalscholarship.wordpress.com/2011/10/14/getting-started-in-the-digital-humanities/

[xvi] DHI PARIS, Ibidem

[xvii] LEVY P. (2013), Le programme de recherche IEML, article en ligne, consulté le 30/11/2013, http://www.ieml.org/spip.php?rubrique49&lang=fr

[xviii] LEVY P. (2013), Le médium algorithmique, pdf en ligne, consulté le 29/11/2013, http://pierrelevyblog.files.wordpress.com/2013/02/00-le_medium_algorithmique.pdf

[xix] HARRIS D. (2012), Why Amazon thinks big data was made for the cloud, article en ligne, consulté le 29/11/2013, http://gigaom.com/2012/11/30/why-amazon-thinks-big-data-was-made-for-the-cloud/

[xx] UCHIL S. (2013), What exactly do data scientists do?, article en ligne, consulté le 29/11/2013, http://www.dnaindia.com/lifestyle/report-what-exactly-do-data-scientists-do-1879572

[xxi] DOCTOROW C. (2013), Big Data: A Revolution That Will Transform How We Live, Work, and Think, article en ligne, consulté le 30/11/2013, http://boingboing.net/2013/03/08/big-data-a-revolutio.html

[xxii] NAUGHTON J. (2013), Why big data has made your privacy a thing of the past, article en ligne, consulté le 30/11/2013, http://www.theguardian.com/technology/2013/oct/06/big-data-predictive-analytics-privacy

[xxiii] FUCHS C. (2012), The political economy of Privacy on Facebook, Uppsala University, Uppsala, p.155

[xxiv] FUCHS C. (2012), Ibidem, p.143

[xxv] RALLET A. & ROCHELANDET F. (2011), La régulation des données personnelles face au web relationnel : une voie sans issue ?, Réseaux, p.24

[xxvi] RALLET A. & ROCHELANDET F. (2011), Ibidem, p.45

Publicités

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s