Ce numéro de la revue Réseaux rappelle clairement les enjeux actuels en sciences sociales : ce domaine de recherche est passé brusquement d'une situation de pénurie de données ou, du moins, d'une situation où les données étaient difficiles à assembler, à une situation où les données sont apparemment massives, disponibles et facile d'accès. Mais, loin de l'Eldorado promit par les hérauts du big data, cette masse de données n'est pas sans poser problème : la plupart du temps, les données ne sont pas directement exploitables, elles doivent être triés, filtrés, organisés ; elles reflètent des points de vue particuliers qui ne sont pas obligatoirement ceux visés par le chercheur en science sociales ; enfin, elles peuvent être partielles ou biaisées. Nous garderons ces difficultés en tête lors de cette étude mais nous nous focaliserons surtout sur le cas des données textuelles : celles-ci constituent une source incomparable de connaissances mais offrent dans le même temps les plus grandes difficultés d'accès. En effet, comme chacun le sait, un texte ne saurait être assimilé à une masse de connaissances directement exploitable par la machine. Il faut dans un premier temps prévoir des traitements complexes pour identifier l'information pertinente, la normaliser, la catégoriser et éventuellement la mettre en contexte. Alors seulement l'ordinateur ou l'expert sera capable d'en tirer parti pour mener à bien ses analyses. Mais comment procéder pour extraire l'information pertinente de la masse textuelle ? Quels outils utiliser ? Pour quelle pertinence ? Ces questions sont ouvertes et n'ont pas de réponse immédiate et évidente : cet article présentera un aperçu rapide des techniques et des possibilités actuelles. Plusieurs études ont pointé la frustration des chercheurs en sciences sociales face à ce problème : les textes sont effectivement là, présents et disponibles sur la Toile, mais leur