• čeština
    • English
  • English 
    • čeština
    • English
  • Login
View Item 
  •   Repository Home
  • Závěrečné práce
  • dizertační práce
  • Fakulta informačních technologií
  • 2018
  • View Item
  •   Repository Home
  • Závěrečné práce
  • dizertační práce
  • Fakulta informačních technologií
  • 2018
  • View Item
JavaScript is disabled for your browser. Some features of this site may not work without it.

"Semi-supervised" trénování hlubokých neuronových sítí pro rozpoznávání řeči

Semi-Supervised Training of Deep Neural Networks for Speech Recognition

Thumbnail
View/Open
Posudek-Oponent prace-568_o1.pdf (603.0Kb)
Posudek-Oponent prace-568_o2.pdf (208.7Kb)
Posudek-Vedouci prace-568_s1.pdf (986.1Kb)
final-thesis.pdf (2.303Mb)
review_128171.html (1.687Kb)
thesis-1.pdf (1.364Mb)
Author
Veselý, Karel
Advisor
Burget, Lukáš
Referee
Ircing, Pavel
Lamel, Lori
Grade
P
Altmetrics
Metadata
Show full item record
Abstract
V této dizertační práci nejprve prezentujeme teorii trénování neuronových sítí pro rozpoznávání řeči společně s implementací trénovacího receptu 'nnet1', který je součástí toolkitu s otevřeným kódem Kaldi. Recept se skládá z předtrénování bez učitele pomocí algoritmu RBM, trénování klasifikátoru z řečových rámců s kriteriální funkcí Cross-entropy a ze sekvenčního trénování po větách s kriteriální funkcí sMBR. Následuje hlavní téma práce, kterým je semi-supervised trénování se smíšenými daty s přepisem i bez přepisu. Inspirováni konferenčními články a úvodními experimenty jsme se zaměřili na několik otázek: Nejprve na to, zda je lepší konfidence (t.j. důvěryhodnosti automaticky získaných anotací) počítat po větách, po slovech nebo po řečových rámcích. Dále na to, zda by konfidence měly být použity pro výběr dat nebo váhování dat - oba přístupy jsou kompatibilní s trénováním pomocí metody stochastického nejstrmějšího sestupu, kde jsou gradienty řečových rámců násobeny vahou. Dále jsme se zabývali vylepšováním semi-supervised trénování pomocí kalibrace kofidencí a přístupy, jak model dále vylepšit pomocí dat se správným přepisem. Nakonec jsme navrhli jednoduchý recept, pro který není nutné časově náročné ladění hyper-parametrů trénování, a který je prakticky využitelný pro různé datové sady. Experimenty probíhaly na několika sadách řečových dat: pro rozpoznávač vietnamštiny s 10 přepsaným hodinami (Babel) se chybovost snížila o 2.5%, pro angličtinu se 14 přepsanými hodinami (Switchboard) se chybovost snížila o 3.2%. Zjistili jsme, že je poměrně těžké dále vylepšit přesnost systému pomocí úprav konfidencí, zároveň jsme ale přesvědčení, že naše závěry mají značnou praktickou hodnotu: data bez přepisu je jednoduché nasbírat a naše navrhované řešení přináší dobrá zlepšení úspěšnosti a není těžké je replikovat.
 
In this thesis, we first present the theory of neural network training for the speech recognition, along with our implementation, that is available as the 'nnet1' training recipe in the Kaldi toolkit. The recipe contains RBM pre-training, mini-batch frame Cross-Entropy training and sequence-discriminative sMBR training. Then we continue with the main topic of this thesis: semi-supervised training of DNN-based ASR systems. Inspired by the literature survey and our initial experiments, we investigated several problems: First, whether the confidences are better to be calculated per-sentence, per-word or per-frame. Second, whether the confidences should be used for data-selection or data-weighting. Both approaches are compatible with the framework of weighted mini-batch SGD training. Then we tried to get better insight into confidence calibration, more precisely whether it can improve the efficiency of semi-supervised training. We also investigated how the model should be re-tuned with the correctly transcribed data. Finally, we proposed a simple recipe that avoids a grid search of hyper-parameters, and therefore is very practical for general use with any dataset. The experiments were conducted on several data-sets: for Babel Vietnamese with 10 hours of transcribed speech, the Word Error Rate (WER) was reduced by 2.5%. For Switchboard English with 14 hours of transcribed speech, the WER was reduced by 3.2%. Although we found it difficult to further improve the performance of semi-supervised training by means of enhancing the confidences, we still believe that our findings are of significant practical value: the untranscribed data are abundant and easy to obtain, and our proposed solution brings solid WER improvements and it is not difficult to replicate.
 
Keywords
Hluboké neuronové sítě, rozpoznávání řeči, semi-supervised trénování se smíšenými daty s přepisem i bez přepisu, Kaldi, nnet1, Deep neural networks, speech recognition, semi-supervised training, Kaldi, nnet1
Language
angličtina (English)
Study brunch
Výpočetní technika a informatika
Composition of Committee
Date of defence
2018-04-03
Process of defence
Result of the defence
práce byla úspěšně obhájena
Persistent identifier
http://hdl.handle.net/11012/187318
Source
VESELÝ, K. "Semi-supervised" trénování hlubokých neuronových sítí pro rozpoznávání řeči [online]. Brno: Vysoké učení technické v Brně. Fakulta informačních technologií. 2018.
Collections
  • 2018 [8]
Citace PRO

Portal of libraries | Central library on Facebook
DSpace software copyright © 2002-2015  DuraSpace
Contact Us | Send Feedback | Theme by @mire NV
 

 

Browse

All of repositoryCommunities & CollectionsBy Issue DateAuthorsTitlesSubjectsThis CollectionBy Issue DateAuthorsTitlesSubjects

My Account

LoginRegister

Statistics

View Usage Statistics

Portal of libraries | Central library on Facebook
DSpace software copyright © 2002-2015  DuraSpace
Contact Us | Send Feedback | Theme by @mire NV