Projekt Aufgabe 7 b

Moderator: Data Mining und Maschinelles Lernen

hanneswernery
Windoof-User
Windoof-User
Beiträge: 25
Registriert: 30. Dez 2012 15:26

Projekt Aufgabe 7 b

Beitrag von hanneswernery »

Hallo

habe ich die Aufgabenstellung richtig verstanden, dass ich 3 verschiedene Algorithmen verwende:
  • AdaBoost mit J48,
    Bagging mit J48,
    RandomForest
Oder soll RandomForest auch ein mal mit AdaBoost, ein mal mit Bagging verwendet werden, also 4 Algorithmen:
  • AdaBoost mit J48,
    Bagging mit J48,
    AdaBoost mit RandomForest
    Bagging mit RandomForest
Hannes

eneldo
Sonntagsinformatiker
Sonntagsinformatiker
Beiträge: 220
Registriert: 19. Mai 2006 13:06
Kontaktdaten:

Re: Projekt Aufgabe 7 b

Beitrag von eneldo »

Hallo,

ersteres. Die anderen Optionen wären auch interessant, man müsste allerdings zwei Parameter variieren (Anzahl Iterationen und Anzahl Bäume), was die Analyse etwas komplex macht.

Gruß

bttf
Mausschubser
Mausschubser
Beiträge: 76
Registriert: 9. Nov 2011 14:04

Re: Projekt Aufgabe 7 b

Beitrag von bttf »

Hallo,

ich tue mich auch gerade an dieser Aufgabe schwer und zwar an dem Teil "Wie interpretieren Sie die Entwicklung der erzielten Genauigkeiten?"

Können wir einen Tipp bekommen, mit welcher Schrittweite wir die Anzahl der Iterationen / Bäume erhöhen sollen, um interessante Ergebnisse zu bekommen? Ich hab es erst mit 50, 100, 150, ... , 300 Iterationen versucht, aber egal ob 50 oder 200 Iterationen, in dieser Größenordnung unterscheiden sich die Ergebnisse offenbar sogut wie gar nicht mehr, egal welchen der drei Datensätze ich hernehme. Dann hab ich es in Zweierschritten probiert (2, 4, ... , 20) und zuletzt mit Fünferschritten (5, 10, ... , 30). Das Problem das ich jetzt habe ist, dass ich die Ergebnisse halt ziemlich "langweilig" finde und nicht so recht weiß, was man da noch groß rein interpretieren soll. Nach ein bis zwei Schritten bei der Erhöhung der Anzahl der Iterationen pendeln sich die Ergnisse schon bei Werten ein, die sich auch mit weiterem Erhöhen der Iterationen im Grunde nicht ändern. Der einzige Fazit, der sich mir da erschließt, ist der, dass die Ensemble-Methoden insgesamt besser abschneiden als J48 allein, aber die Entwicklung der erzielten Genauigkeiten ist halt völlig banal. Mach ich irgendwas falsch? :mrgreen:

eneldo
Sonntagsinformatiker
Sonntagsinformatiker
Beiträge: 220
Registriert: 19. Mai 2006 13:06
Kontaktdaten:

Re: Projekt Aufgabe 7 b

Beitrag von eneldo »

Hallo,

generell kann man im Vorhinein bei solchen Untersuchungen nur selten wissen, in welchen Parameterbereichen "Interessantes", z.b. eine weitere Verbesserung, oder ein plötzlicher Abfall, zu erwarten ist. Deshalb bietet es sich an, anfangs größere Schritte zu machen, auch mit exponentiell wachsenden Schrittlängen (1,2,5,10 ...). Wenn man dann sieht, daß sich Änderungen in einem der Bereiche produzieren, kann man weiter "reinzoomen", so wie Du es für die niedrigen Werte gemacht hast.

Die einzige konkrete Empfehlung, die ich geben kann, ohne den konkreten Datensatz zu kennen, ist, auch höhere Iterationszahlen zu untersuchen um auch hier mögliche Entwicklungen auszuschließen. Ob man dann etwas Interessantes findet oder nicht hängt eben stark vom Datensatz ab. Man sollte deshalb auch nicht überinterpretieren.

Gruß

Antworten

Zurück zu „Data Mining und Maschinelles Lernen“