Validation d'un Atelier TXM dans le cadre d'une Ecole Doctorale

Les participants aux ateliers TXM comptent de nombreux doctorants, de différentes disciplines des SHS (lettres, linguistique, histoire, géographie, sociologie, etc.). En effet, l'atelier forme à une méthodologie et à des outils pour la préparation et l'analyse d'un corpus de données, qu'il s'agisse d'oeuvres littéraires, d'entretiens d'enquête, d'articles de presse, d'articles scientifiques, de documents anciens, etc.

Pour les doctorants

Procédure de validation d'un atelier TXM au titre de votre Ecole Doctorale

Nous commençons tout juste à essayer de répondre à cette demande. Dans l'immédiat, nous vous proposons de :

  • demander une attestation de présence ;
  • indiquer à votre directeur de thèse votre intention de suivre l'atelier et voir avec lui si cela pourrait être validé. Vous pouvez lui communiquer pour information un lien vers cette page.

Liste des Ecoles Doctorales avec lesquelles nous sommes déjà en contact

  • Lyon 2, ED 3LA (arts, lettres, langues étrangères, linguistique et sciences du langage) : les ateliers TXM peuvent être validés au titre des formations de spécialité (pour lesquelles 80h sont à réaliser dans le courant de la thèse) -attention, ce n'est pas un des trois modules de formation transversale. La validation des 80 h de spécialité ne passe pas par l'ED mais par le/la directeur-trice de thèse qui atteste que la formation a été suivie (c'est à lui / elle qui faut fournir l'attestation) : ensuite le directeur signe simplement la fiche bilan annuelle finalement transmise à l'ED par le doctorant.
  • Lyon 2, ED 483 Sciences sociales (mondes anciens, histoire, histoire de l’art, sociologie, anthropologie, géographie, aménagement, urbanisme, architecture, science politique, démographie et ergonomie) : validation en cours d'instruction, contactez votre directeur de thèse.

Pour les Ecoles Doctorales et les directeurs de Thèse

Exemples de questionnements possibles avec un logiciel comme TXM

Etant donné un corpus (de textes philosophiques, d'entretiens semi-directifs transcrits, d'articles de presse sur un sujet donné,…) :

  • tel mot est-il attesté ? (fortement/faiblement) ? thèmes dominants ? de quelle manière parle-t-on de tel thème ? que veut dire au juste tel mot, a-t-il en fait différents emplois ?
  • quelles sont les manières de dire qui reviennent de façon récurrente ? (phraséologie,…) Est-ce qu'il y a un positionnement particulier de tel motif dans le déroulement du texte ? Est-ce qu'il y a des évolutions au fil du temps ?
  • contrastes : quelles sont les mots, les traits linguistiques, qui sont caractéristiques de telle partie du corpus ? (période, auteur,…)
  • peut-on esquisser une typologie du corpus, comment s'organise-t-il du point de vue de son contenu textuel ?

Aspects des ateliers TXM liés à la formation à la recherche

  • acquisition ou enrichissement de sa capacité à travailler sur des corpus numérisés :
    • disposer d'un environnement de préparation et d'analyse de données textuelles sur sa machine
      • le logiciel est gratuit, multiplateforme (tourne sur Mac, PC windows et linux)
      • l'atelier est l'occasion d'aider à finaliser l'installation et les réglages spécifiques utilisateur
    • apprendre à utiliser le logiciel en comprenant le sens des différents choix possibles ;
  • pertinence de l'approche textométrique pour la recherche en sciences humaines :
    • les données textuelles originales restent au centre de l'analyse, on le les perd pas de vue, on n'est pas obligé de passer par un recodage ;
    • minimisation des a priori : on “fait parler” le corpus par rapport à lui-même (le corpus définit le contexte par rapport auquel caractériser les textes ou extraits textuels).
    • robustesse du traitement (le logiciel peut fonctionner même si la langue utilisée n'est pas lexicalement ou grammaticalement correcte, ex. transcription d'oral, données issues d'une reconnaissance optique de caractères) ; ouverture à des données dans de multiples langues (codage Unicode, possibilité de travailler avec ou sans analyse linguistique automatique selon que les ressources disponibles).
    • l'utilisateur garde la conduite de l'interprétation, et les interprétations peuvent être diversifiées selon les points de vue : on n'est pas dans un fonctionnement “boîte noire” générant automatiquement “le résultat”, “la synthèse” du corpus.
    • l'automatisation est mise au profit de la systématicité des investigations (repérages et décomptes précis et complets), de l'ancrage de l'analyse dans des données attestées, de la capacité à considérer globalement un grand volume de données, de la souplesse du cheminement de recherche (facilité de tester différentes hypothèses, de faire évoluer une piste de recherche).
    • complémentairement à une analyse traditionnelle, les calculs peuvent suggérer de nouvelles pistes de lecture des textes, c'est le côté exploratoire de la méthode. Voir par exemple l'article “Herméneutique numérique” de Damon Mayaffre sur l'Astrolabe : http://www.uottawa.ca/academic/arts/astrolabe/articles/art0031.htm/Hermeneutique.htm
  • sensibilisation aux apports et aux limites du numérique, dimension réflexive de la démarche et contribution à une réflexion critique
    • principes de fonctionnement d'un analyseur morphosyntaxique (treetagger : algorithme d'apprentissage), et compréhension des facteurs de qualité ou d'erreurs de l'étiquetage des textes résultant ;
    • rôle de l'utilisateur vs “faire tourner” un logiciel : le logiciel effectue les calculs demandés mais la pertinence de l'analyse dépend de l'utilisateur : choix des bons points d'entrée, des commandes ou de l'enchaînement de commandes adapté à la problématique, interprétation des résultats produits. On expérimente que c'est en alliant l'expertise disciplinaire et l'expertise méthodologique (textométrie) que l'on peut faire une bonne analyse.
    • l'interprétation d'un tableau de nombres (comme les Spécificités), d'un graphique (comme la Progression), d'une cartographie lexicale (comme celles issues de l'AFC) ne peut absolument pas être intuitive. Il y a des règles d'interprétation qu'il faut connaître et maîtriser (ex. significativité mathématique des valeurs, orientation arbitraire des axes d'analyse factorielle), faute de quoi les conclusions tirées pourront être erronées (on l'observe sur des exemples).
    • la textométrie donne un rôle essentiel à la contextualisation : contexte d'un texte dans un corpus, d'un mot dans un paragraphe, etc. Les étudiants sont amenés à prendre conscience des effets et des limites des choix de sélection et de codage, qui ont un effet direct sur le sens et l'intérêt des analyses possibles. Autrement dit, “les données ne sont pas données”…

Et si ce petit argumentaire vous donne envie de découvrir également la textométrie et TXM, les ateliers TXM sont ouverts à tous, non seulement aux étudiants mais aussi aux chercheurs, enseignants-chercheurs, ingénieurs…

Organisation des ateliers

Informations détaillées sur la page des Ateliers TXM.

En savoir plus, nous contacter

public/ecoles_doctorales.txt · Dernière modification: 2014/07/17 20:25 par slh@ens-lyon.fr