My work on Chinese Grammar Wiki

Ericounet 0ffe562bfd reset of the repository преди 2 години
Anki 0ffe562bfd reset of the repository преди 2 години
Couvertures 0ffe562bfd reset of the repository преди 2 години
Epub 0ffe562bfd reset of the repository преди 2 години
Liste-mots-formatés 0ffe562bfd reset of the repository преди 2 години
MD 0ffe562bfd reset of the repository преди 2 години
Programmes 0ffe562bfd reset of the repository преди 2 години
ancien 0ffe562bfd reset of the repository преди 2 години
.gitignore 0ffe562bfd reset of the repository преди 2 години
README.md 0ffe562bfd reset of the repository преди 2 години
gogs.txt 0ffe562bfd reset of the repository преди 2 години

README.md

Grammar Wiki

Progression:

  • Grammar A1: (vocabulary list, phrases list, audio and Anki packages) 100%
  • Grammar A2: (vocabulary list, phrases list, audio and Anki packages) 100% (epub needs some formatting: basic formatting done: 100%, total: 90%
  • Grammar B1: wip
  • Grammar B2: wip

cover

Vous trouverez là mes travaux sur les données du site Grammar Wiki.

J'ai récupéré les données pour refaire mes propres ebooks au format epub, et créer des listes de travail.

Ces listes sont au format .CSV; j'ai ajouté les textes en écriture traditionnelle.

À partir de ces listes, j'ai récupéré le vocabulaire utilisé dans les phrases et associé les sons correspondants. pour cela, j'ai utilisé les sources audio du site Shtooka. J'ai une copie de ces données sur mon site Yojik.

Les sons manquants ont été générés gràce à "text to speech" de Google Tm (avec un script).

J'ai généré également la prononciation des phrases car il n'ay vavait pas d'audio correspondante.

Vous trouverez donc tout le matériel utilisé, les fichiers .cvs, l'audio, les programmes javascript pour compléter ces fichiers ainsi que les scripts permettant de récupérer les sons audio à partir des api de Google Tm.

Les données sont disponibles sous plusieurs formats: .csv, json et xml ainsi que texte dans certians cas (les sons à produire, par exemple.)

Les programmes de traitement on été écrits en javascript/nodejs.

Des paquets Anki ont été créés pour le niveau A1 et A2, pour les phrases et le vocabulaire extrait des phrases grâce à une extension Anki (et retravaillé ensuite.)