LibriSpeech

Meta-Description

  • Date de publication : 2015
  • Auteurs : Vassil Panayotov, Guoguo Chen, Daniel Povey, Sanjeev Khudanpur
  • Institution : Center for Language and Speech Processing & Human Language Technology Center of Excellence The Johns Hopkins University, Baltimore, MD, USA
  • Papier de référence : Librispeech: An ASR corpus based on public domain audio books

Description des Données

  • Type de tâche : Reconnaissance Automatique de la Parole
  • Type de données : Texte + Audio
  • Intention du dataset : Ce dataset est destiné à faire du speech-to-text, à partir de plusieurs centaines d’heures d’enregistrements de livres audio.
  • Détails des données :
    • Entraînement : Environ 1000h d’audio
    • Développement : 5h d’audio
    • Test : 5h d’audio

Laisser un commentaire