Material Artefact Generation

Loading...
Thumbnail Image
Date
ORCID
Mark
C
Journal Title
Journal ISSN
Volume Title
Publisher
Vysoké učení technické v Brně. Fakulta informačních technologií
Abstract
Ne vždy je jednoduché získání dostatečně velké a kvalitní datové sady s obrázky zřetelných artefaktů, ať už kvůli nedostatku ze strany zdroje dat nebo složitosti tvorby anotací. To platí například pro radiologii, nebo také strojírenství. Abychom mohli využít moderní uznávané metody strojového učení které se využívají pro klasifikaci, segmentaci a detekci defektů, je potřeba aby byla datová sada dostatečně velká a vyvážená. Pro malé datové sady čelíme problémům jako je přeučení a slabost dat, které způsobují nesprávnou klasifikaci na úkor málo reprezentovaných tříd. Tato práce se zabývá prozkoumáváním využití generativních sítí pro rozšíření a vyvážení datové sady o nové vygenerované obrázky. Za použití sítí typu Conditional Generative Adversarial Networks (CGAN) a heuristického generátoru anotací jsme schopni generovat velké množství nových snímků součástek s defekty. Pro experimenty s generováním byla použita datová sada závitů. Dále byly použity dvě další datové sady keramiky a snímků z MRI (BraTS). Nad těmito dvěma datovými sadami je provedeno zhodnocení vlivu generovaných dat na učení a zhodnocení přínosu pro zlepšení klasifikace a segmentace.
Even in the age of big data, some high-quality data sets of images with distinct artefacts are hard to obtain, either due to the source being limited or due to annotation difficulty. This applies for multiple areas such as engineering and radiology. Current state of the art methods for classification and defect detection require large well-balanced data sets to be feasible. For small data sets we face the issue of overfitting and data paucity which cause models to misclassify data in favor of over-represented classes. Part of this work deals with finding a suitable method for generating realistic images for given datasets and experiments with mitigating overfitting and data paucity by generating new images based the original dataset using Conditional Generative Adversarial Networks (CGAN) and heuristic annotation generator. Three datasets were used overall during this project. Threads dataset was used during the image generation experiments phase due to it's complexity in structure. Subsequently, two additional CGAN networks have been trained, one for Ceramics and the other for brain scans from BraTS dataset. Ceramics and BraTS was later used to evaluate the effect of generated data on training classification and segmentation networks.
Description
Citation
RONČKA, M. Material Artefact Generation [online]. Brno: Vysoké učení technické v Brně. Fakulta informačních technologií. 2019.
Document type
Document version
Date of access to the full text
Language of document
en
Study field
Inteligentní systémy
Comittee
doc. Ing. František Zbořil, Ph.D. (předseda) prof. RNDr. Milan Češka, CSc. (místopředseda) Ing. David Bařina, Ph.D. (člen) Ing. Michal Bidlo, Ph.D. (člen) doc. Ing. Lukáš Burget, Ph.D. (člen) prof. RNDr. Ing. Miloš Šeda, Ph.D. (člen)
Date of acceptance
2019-06-20
Defence
Student nejprve prezentoval výsledky, kterých dosáhl v rámci své práce. Komise se poté seznámila s hodnocením vedoucího a posudkem oponenta práce. Student následně odpověděl na otázky oponenta a na další otázky přítomných. Komise se na základě posudku oponenta, hodnocení vedoucího, přednesené prezentace a odpovědí studenta na položené otázky rozhodla práci hodnotit stupněm C. Otázky u obhajoby: Please explain the problem with your Threads data set mentioned in the technical report - qualitative issues with annotations. Why did you choose this data set for the basic comparison of different image generation techniques? What are the three channels in your 3 channel IoU metric? Did you compare results when data sets extended with just augmentation and data sets extended with just synthetic images were used for training?
Result of defence
práce byla úspěšně obhájena
Document licence
Standardní licenční smlouva - přístup k plnému textu bez omezení
DOI
Collections
Citace PRO