AbstractExtractor
De Dbpedia.fr.
(→Installation : draft) |
|||
Ligne 23 : | Ligne 23 : | ||
- | == Installation == | + | == Installation du miroir wiki == |
Voir https://github.com/dbpedia/extraction-framework/wiki/Extraction-Instructions#abstract-extraction | Voir https://github.com/dbpedia/extraction-framework/wiki/Extraction-Instructions#abstract-extraction | ||
+ | |||
+ | * initialisation de la bd MySQL (export MYSQL_HOME, correction script pour mysql_install_db). | ||
+ | * execution du processus d'import par scala | ||
== Mode d'emploi == | == Mode d'emploi == |
Version du 6 septembre 2013 à 14:25
Génère deux triplets par articles correspondant à un résumé court et un résumé long de l'article.
Sommaire |
Triplets générés
short_abstract_fr.nt | ||
---|---|---|
dbr:[NomPage] | rdfs:comment | texte |
long_abstract_fr.nt | ||
---|---|---|
dbr:[NomPage] | dbpedia-owl:abstract | texte |
Installation du miroir wiki
Voir https://github.com/dbpedia/extraction-framework/wiki/Extraction-Instructions#abstract-extraction
- initialisation de la bd MySQL (export MYSQL_HOME, correction script pour mysql_install_db).
- execution du processus d'import par scala
Mode d'emploi
Pour fonctionner cet extracteur doit interroger l'API mediawiki d'une image de wikipédia. De par le nombre d'appels à l'API (une par article), il n'est pas possible d'interroger l'API de fr.wikipédia.org, il faut installer une version locale.
Les explications sont fournies dans le répertoire abstractExtraction du dépôt dbpedia.hg.sourceforge.net/hgweb/dbpedia/dbpedia/
Chargement des données dans le wiki
- Charger les outils fournis par DBpedia (peu importe le répertoire)
hg clone http://dbpedia.hg.sourceforge.net:8000/hgroot/dbpedia/dbpedia
- Télécharger les fichiers suivants dans un répertoire [racine dumps]/frwiki/[YYYYMMDD]/ et les décompresser :
- frwiki-[YYYYMMDD]-pages-articles.xml.bz2
- frwiki-[YYYYMMDD]-categorylinks.sql.gz
- frwiki-[YYYYMMDD]-imagelinks.sql.gz
- frwiki-[YYYYMMDD]-image.sql.gz
- frwiki-[YYYYMMDD]-langlinks.sql.gz
- frwiki-[YYYYMMDD]-templatelinks.sql.gz
Ces fichiers se trouvent à l'adresse http://dumps.wikimedia.org/frwiki/[YYYYMMDD] où [YYYYMMDD] représente une date, p.ex. 20120917 représente le 17 septembre 2012.
- Pour initialiser les tables de la base de données de Wikimédia, il faut aussi télécharger le fichier http://svn.wikimedia.org/svnroot/mediawiki/trunk/phase3/maintenance/tables.sql dans [racine dumps].
TODO: expliquer l'utilisation de clean.sh et import.sh
$ ./clean.sh [racine dumps] fr $ ./import.sh '[repertoire racine dumps]' '' 'user=[compteMysql]&password=[mdpCompteMysql]' '--user=[compteMysql] --password=[mdpCompteMysql]' '[BDMysql]' 'fr'
Remarque: Pour obtenir du texte à partir du code wiki des articles de wikipédia, l'extracteur interroge le parseur de mediawiki. Il n'est pas nécessaire que l'article lui-même soit chargé dans le mediawiki interrogé. En revanche si des modèles sont utilisés, il est nécessaire que les pages modèles correspondantes aient été chargées pour que le mediawiki puisse générer leur rendu.
Á vérifier, mais à priori, il suffit juste de charger les pages de modèles (pages dont le titre commence par Modèle:, Template: en anglais) dans le wiki pour que l'extraction des abstracts fonctionne. Pour cela substituer le fichier frwiki-[YYYYMMDD]-pages-articles.xml par le résultat de l'extraction des page modèles à l'aide de Outil:WPDumpExtraction:
$ mv frwiki-[YYYYMMDD]-pages-articles.xml / frwiki-[YYYYMMDD]-pages-articles-complete.xml $./WPDumpExtraction.pl "<title>Modèle:" 0 0 / frwiki-[YYYYMMDD]-pages-articles-complete.xml > frwiki-[YYYYMMDD]-pages-articles.xml
Installation du Wiki
- décompresser le fichier [rep depôt dbpedia]/bstractExtraction/mw-modified.tar.gz dans un répertoire accessible par le serveur web.
- TODO: vérifier les droits d'accès aux fichiers
- TODO: Ajuster les paramètres de Localhost.php