Nee, denke nicht.muackerl hat geschrieben:muss ich a0 = (1111) und ho = (1111) normaliesieren bevor ich a1 und h1 berechne?
Klausur SS08
Moderator: Web Mining
Re: Klausur SS08
Re: Klausur SS08
Das zeigt das (schlechte) Beispiel in der VL. a0 = (1,1...,1)^T und h0 = (1,1...,1)^Th4ck4 hat geschrieben:Nee, denke nicht.muackerl hat geschrieben:muss ich a0 = (1111) und ho = (1111) normaliesieren bevor ich a1 und h1 berechne?
Re: Klausur SS08 Aufgabe 2
Und im Vergleich zu was? Muss ja irgendein Maß haben, um zu wissen, was 100% sind.h4ck4 hat geschrieben: Confidence: (Prozentuale) Zuversichtlichkeit/Wahrscheinlichkeit, dass wenn ein Customer die Menge A gekauft hat auch die Menge B gekauft hat.
Support: (Prozentuale) Zuversichtlichkeit/Wahrscheinlichkeit, dass wenn ein Customer alle Artikel aus der Mengenvereinigung (A+B) gekauft hat.
Je höher die Werte für Confidence sind, desto aussagekräftiger ist deine Association Rule.

-
- Endlosschleifenbastler
- Beiträge: 158
- Registriert: 8. Okt 2007 15:38
- Wohnort: Dreieich
- Kontaktdaten:
Re: Klausur SS08 Aufgabe 5
Die Ergebnisse habe ich auch.h4ck4 hat geschrieben:Klausur SS08, Aufgabe 05
(a)
Knoten - Neighbor - Predicted class
d1 - d5 - B
d2 - d3 - A
d3 - d2 - A
d4 - d5 - B
d5 - d1 - A
d6 - d7 - C
d7 - d6 - C
d8 - d7 - C
d9 - d4 - B
(b)
acc = 2/3
Bei der b) soll man aber noch Recall und Precision für jede Klasse ausrechnen.
Da habe ich:
A)
R = 2/3
P = 2/3
B)
R = 1/2
P = 1/3
C)
R = 3/4
P = 1 <- Hier bin ich mir aber unsicher!!!
Matrix würde bei mir etwa so aussehen
Code: Alles auswählen
| A B C <- IST Zustand
----------------
A| 2 1 0 | 3
B| 1 1 0 | 2
C| 0 1 3 | 4
----------------
^| 3 3 3 | 9
|
Soll Zustand
Re: Klausur SS08 Aufgabe 5
Same here. Precision sagt ja nur was darüber aus, wie viele richtige Ergebnisse in der Menge der Predictions waren. Da alle Dokumente, für die C predicted wurde, auch C die richtige Klasse war, sind es 100%.MaMaj hat geschrieben:
Die Ergebnisse habe ich auch.
Bei der b) soll man aber noch Recall und Precision für jede Klasse ausrechnen.
Da habe ich:
A)
R = 2/3
P = 2/3
B)
R = 1/2
P = 1/3
C)
R = 3/4
P = 1 <- Hier bin ich mir aber unsicher!!!
Matrix würde bei mir etwa so aussehen
Code: Alles auswählen
| A B C <- IST Zustand ---------------- A| 2 1 0 | 3 B| 1 1 0 | 2 C| 0 1 3 | 4 ---------------- ^| 3 3 3 | 9 | Soll Zustand
Re: Klausur SS08
a1 und h1 muss ich doch mit h0 und a0 berechnen
denn ich kann doch nicht h1 mit ao und dann a1 mit h1 berechnen?
denn ich kann doch nicht h1 mit ao und dann a1 mit h1 berechnen?
Re: Klausur SS08 Aufgabe 2
?sqrtsben hat geschrieben:Und im Vergleich zu was? Muss ja irgendein Maß haben, um zu wissen, was 100% sind.h4ck4 hat geschrieben: Confidence: (Prozentuale) Zuversichtlichkeit/Wahrscheinlichkeit, dass wenn ein Customer die Menge A gekauft hat auch die Menge B gekauft hat.
Support: (Prozentuale) Zuversichtlichkeit/Wahrscheinlichkeit, dass wenn ein Customer alle Artikel aus der Mengenvereinigung (A+B) gekauft hat.
Je höher die Werte für Confidence sind, desto aussagekräftiger ist deine Association Rule.
Naja, die Werte sind prozentual/relative zu verstehen.
z.B. Confidence = 1 = 100% heißt: Jeder Customer, der die Menge A gekauft hat, hat auch Menge B gekauft.
In den Formel siehste ja am Nenner zu was das im Verhältnis steht.
Re: Klausur SS08
Wäre dann nicht P1, P2 -> P4 eine bessere Regel? Ohne die Rechnung wirklich kapiert zu haben, hat doch jeder, der P1 und P2 gekauft hat, auch P3 gekauft und sonst keiner.
-
- Endlosschleifenbastler
- Beiträge: 158
- Registriert: 8. Okt 2007 15:38
- Wohnort: Dreieich
- Kontaktdaten:
Re: Klausur SS08 Aufgabe 5
Also wenn ich sage, dass ein Dokument als C klassifiziert wurde und ich schaue es mir an und es ist auch wirklich C, dann geht das direkt positiv in die Precision von C ein.sqrtsben hat geschrieben:Same here. Precision sagt ja nur was darüber aus, wie viele richtige Ergebnisse in der Menge der Predictions waren. Da alle Dokumente, für die C predicted wurde, auch C die richtige Klasse war, sind es 100%.MaMaj hat geschrieben:
Die Ergebnisse habe ich auch.
Bei der b) soll man aber noch Recall und Precision für jede Klasse ausrechnen.
Da habe ich:
A)
R = 2/3
P = 2/3
B)
R = 1/2
P = 1/3
C)
R = 3/4
P = 1 <- Hier bin ich mir aber unsicher!!!
Matrix würde bei mir etwa so aussehen
Code: Alles auswählen
| A B C <- IST Zustand ---------------- A| 2 1 0 | 3 B| 1 1 0 | 2 C| 0 1 3 | 4 ---------------- ^| 3 3 3 | 9 | Soll Zustand
Wenn ich aber ein Dokument finde welches (wie hier) als B klassifiziert wurde, aber eigentlich C sein soll, dann macht es der Precision von C nichts, wirkt sich aber negativ auf die Precision von B aus. Richtig?
Mich hat nämlich die 1 in der untersten Zeile verwirrt....
Zuletzt geändert von MaMaj am 16. Jul 2012 14:38, insgesamt 2-mal geändert.
Re: Klausur SS08
Doch. Wo steht denn, dass du die vorherigen Werte zwischenspeichern sollst? Hubs und Authorities beeinflussen/verstärken sich wechselseitig.muackerl hat geschrieben:a1 und h1 muss ich doch mit h0 und a0 berechnen
denn ich kann doch nicht h1 mit ao und dann a1 mit h1 berechnen?
Die Folien sind an dieser Stelle aber nicht wirklich deutlich ...
Re: Klausur SS08 Aufgabe 5
Richtig. Du kannst einfach für R die Zeilen betrachten (also die Zahl der korrekten Matches und dann hinten durch die Summe teilen) und umgekehrt für P die Spalten (korrekte Matches / Summe unten).MaMaj hat geschrieben: Also wenn ich sage, dass ein Dokument als C klassifiziert wurde und ich schaue es mir an und es ist auch wirklich C, dann geht das direkt positiv in die Precision von C ein.
Wenn ich aber ein Dokument finde welches (wie hier) als B klassifiziert wurde, aber eigentlich C sein soll, dann macht es der Precision von C nichts, wirkt sich aber negativ auf die Precision von B aus. Richtig?
Mich hat nämlich die 1 in der untersten Zeile verwirrt....
Re: Klausur SS08
C = 1, S = 0.4sqrtsben hat geschrieben:Wäre dann nicht P1, P2 -> P4 eine bessere Regel? Ohne die Rechnung wirklich kapiert zu haben, hat doch jeder, der P1 und P2 gekauft hat, auch P3 gekauft und sonst keiner.
Hat eigentlich dieselben Maße^^ Würde auch als Beispiel gehen (bei meinem Verständnis von der Sache).
Ob das jetzt eine gute Assoziation-Regel weiß ich nicht genau. Confidence ist auf jeden Fall sehr hoch, daher ja. Was genau der Support-Wert über die Regel aussagt (ob der hoch oder niedrig sein muss), weiß ich leider nicht.
-
- Endlosschleifenbastler
- Beiträge: 158
- Registriert: 8. Okt 2007 15:38
- Wohnort: Dreieich
- Kontaktdaten:
Re: Klausur SS08
Aufgabe 5 c / d)
Bei Macro avg-Recall habe ich auch 23/36
Bei Macro avg-Precision habe ich allerdings 13/18
Rechnung: (2/3 + 1/2 + 3/3) / 3 = (5/3 + 1/2) / 3 = ((10 + 3)/6) / 3 = 13/18 -> 0,722
Ich kriege nämlich keine symmetrische Matrix, obwohl die Klassifizierungen bei mir überein stimmen.
Schul daran ist die C 2x2 Matrix.
Da ist
C-C: 3 (Vier Dokumente sollten C sein, drei sind es geworden)
C-nichtC: 1 (Vier Dokumente sollten C sein, einer ist es nicht geworden)
nicht-C-C: 0 (Fünf Dokumente sollten nicht C sein, keiner wurde C)
nicht-C-nichtC: 5 (Fünf Dokumente sollen nicht C, fünf wurden als nicht-C erkannt)
Wo ist mein Denkfehler?
Bei Macro avg-Recall habe ich auch 23/36
Bei Macro avg-Precision habe ich allerdings 13/18
Rechnung: (2/3 + 1/2 + 3/3) / 3 = (5/3 + 1/2) / 3 = ((10 + 3)/6) / 3 = 13/18 -> 0,722
Ich kriege nämlich keine symmetrische Matrix, obwohl die Klassifizierungen bei mir überein stimmen.
Schul daran ist die C 2x2 Matrix.
Da ist
C-C: 3 (Vier Dokumente sollten C sein, drei sind es geworden)
C-nichtC: 1 (Vier Dokumente sollten C sein, einer ist es nicht geworden)
nicht-C-C: 0 (Fünf Dokumente sollten nicht C sein, keiner wurde C)
nicht-C-nichtC: 5 (Fünf Dokumente sollen nicht C, fünf wurden als nicht-C erkannt)
Wo ist mein Denkfehler?
Re: Klausur SS08
Ich hab mir da auch einen abgebrochen und beschlossen, dass ich die richtigen Werte für C/C, C/nichtC und nichtC/c berechnet habe und danach einfach ausgerechnet, was unten links hin muss. (also bei jeweils Summe 9 bei den anderen Konfusionsmatrizen => Summe muss 27 sein). Dementsprechend steht dann unten rechts 15 - du musst ja für jede Klasse den Wert bestimmen (also drei Mal!)MaMaj hat geschrieben:Aufgabe 5 c / d)
Bei Macro avg-Recall habe ich auch 23/36
Bei Macro avg-Precision habe ich allerdings 13/18
Rechnung: (2/3 + 1/2 + 3/3) / 3 = (5/3 + 1/2) / 3 = ((10 + 3)/6) / 3 = 13/18 -> 0,722
Ich kriege nämlich keine symmetrische Matrix, obwohl die Klassifizierungen bei mir überein stimmen.
Schul daran ist die C 2x2 Matrix.
Da ist
C-C: 3 (Vier Dokumente sollten C sein, drei sind es geworden)
C-nichtC: 1 (Vier Dokumente sollten C sein, einer ist es nicht geworden)
nicht-C-C: 0 (Fünf Dokumente sollten nicht C sein, keiner wurde C)
nicht-C-nichtC: 5 (Fünf Dokumente sollen nicht C, fünf wurden als nicht-C erkannt)
Wo ist mein Denkfehler?
Re: Klausur SS08
Deine Rechnung oben ist eigentlich richtig, aber dein Wert für Precision von B ist 1/2 und müsste eigentlich 1/3 sein.MaMaj hat geschrieben:Aufgabe 5 c / d)
Bei Macro avg-Recall habe ich auch 23/36
Bei Macro avg-Precision habe ich allerdings 13/18
Rechnung: (2/3 + 1/2 + 3/3) / 3 = (5/3 + 1/2) / 3 = ((10 + 3)/6) / 3 = 13/18 -> 0,722
Ich kriege nämlich keine symmetrische Matrix, obwohl die Klassifizierungen bei mir überein stimmen.
Schul daran ist die C 2x2 Matrix.
Da ist
C-C: 3 (Vier Dokumente sollten C sein, drei sind es geworden)
C-nichtC: 1 (Vier Dokumente sollten C sein, einer ist es nicht geworden)
nicht-C-C: 0 (Fünf Dokumente sollten nicht C sein, keiner wurde C)
nicht-C-nichtC: 5 (Fünf Dokumente sollen nicht C, fünf wurden als nicht-C erkannt)
Wo ist mein Denkfehler?
Dann würdest du auf einen avg-Precisionvon 2/3 kommen.
B -B
B 1 1
-B 2 5
P(B) = a/a+b = 1/(1+2)