(Bachelor/Master) Training und experimentelle Untersuchung der Güte deutscher Sprachgenerierungsmodelle

Moderator: Aktive Fachschaft

Forumsregeln
Auch ohne Registrierung können Beiträge in diesem Unterforum geschrieben werden.
tsteuer
Neuling
Neuling
Beiträge: 4
Registriert: 19. Jun 2020 13:43

(Bachelor/Master) Training und experimentelle Untersuchung der Güte deutscher Sprachgenerierungsmodelle

Beitrag von tsteuer »

Die Knowledge Media Gruppe bei KOM bietet eine Masterarbeit Für Studierende des FB20 Informatik oder FB18 ETIT.

Die Arbeit kann zu einem flexiblen Zeitraum begonnen werden.

Zielsetzung

Moderne Sprachgenerierungsmodelle wie GPT-2 können Texte mit verblüffender Ähnlichkeit zu von Menschen geschriebenen Texten verfassen. Dies ist im Bildungskontext nützlich, um beispielsweise faktische oder Verständnisfragen zu Texten zu generieren. Je nach gewählter Modelarchitektur schreibt ein Modell hierbei einen gegebenen Text einfach fort (Open Domain Modelle) oder man kann das Model zusätzlich bereits während des Trainings auf eine bestimmte Ausgabeform konditionieren (Seq2Seq Modelle). Jedoch sind moderne Modelle in der Regel auf großen englischsprachigen Webkorpora trainiert und können nicht ohne weiteres deutsche Texte generieren. Ziel dieser Thesis ist es deshalb, die Übertragbarkeit solcher Verfahren auf die deutsche Verarbeitungssprache zu untersuchen (z.B. durch existierte deutsche Korpora oder übersetzte Korpora).

Weitere informationen: https://www.kom.tu-darmstadt.de/teachin ... ef879d4a4f

Zurück zu „Abschlussarbeiten“