Klausur SS08

Moderator: Web Mining

h4ck4
Mausschubser
Mausschubser
Beiträge: 91
Registriert: 18. Mai 2009 20:50
Kontaktdaten:

Re: Klausur SS08

Beitrag von h4ck4 »

muackerl hat geschrieben:muss ich a0 = (1111) und ho = (1111) normaliesieren bevor ich a1 und h1 berechne?
Nee, denke nicht.

sqrtsben
Windoof-User
Windoof-User
Beiträge: 33
Registriert: 17. Sep 2010 15:46

Re: Klausur SS08

Beitrag von sqrtsben »

h4ck4 hat geschrieben:
muackerl hat geschrieben:muss ich a0 = (1111) und ho = (1111) normaliesieren bevor ich a1 und h1 berechne?
Nee, denke nicht.
Das zeigt das (schlechte) Beispiel in der VL. a0 = (1,1...,1)^T und h0 = (1,1...,1)^T

sqrtsben
Windoof-User
Windoof-User
Beiträge: 33
Registriert: 17. Sep 2010 15:46

Re: Klausur SS08 Aufgabe 2

Beitrag von sqrtsben »

h4ck4 hat geschrieben: Confidence: (Prozentuale) Zuversichtlichkeit/Wahrscheinlichkeit, dass wenn ein Customer die Menge A gekauft hat auch die Menge B gekauft hat.
Support: (Prozentuale) Zuversichtlichkeit/Wahrscheinlichkeit, dass wenn ein Customer alle Artikel aus der Mengenvereinigung (A+B) gekauft hat.

Je höher die Werte für Confidence sind, desto aussagekräftiger ist deine Association Rule.
Und im Vergleich zu was? Muss ja irgendein Maß haben, um zu wissen, was 100% sind. :)

MaMaj
Endlosschleifenbastler
Endlosschleifenbastler
Beiträge: 158
Registriert: 8. Okt 2007 15:38
Wohnort: Dreieich
Kontaktdaten:

Re: Klausur SS08 Aufgabe 5

Beitrag von MaMaj »

h4ck4 hat geschrieben:Klausur SS08, Aufgabe 05

(a)
Knoten - Neighbor - Predicted class
d1 - d5 - B
d2 - d3 - A
d3 - d2 - A
d4 - d5 - B
d5 - d1 - A
d6 - d7 - C
d7 - d6 - C
d8 - d7 - C
d9 - d4 - B

(b)
acc = 2/3
Die Ergebnisse habe ich auch.

Bei der b) soll man aber noch Recall und Precision für jede Klasse ausrechnen.

Da habe ich:

A)
R = 2/3
P = 2/3

B)
R = 1/2
P = 1/3

C)
R = 3/4
P = 1 <- Hier bin ich mir aber unsicher!!!

Matrix würde bei mir etwa so aussehen

Code: Alles auswählen

 | A  B  C <- IST Zustand
----------------
A| 2  1  0 | 3
B| 1  1  0 | 2
C| 0  1  3 | 4
----------------
^| 3  3  3 | 9
|
Soll Zustand

sqrtsben
Windoof-User
Windoof-User
Beiträge: 33
Registriert: 17. Sep 2010 15:46

Re: Klausur SS08 Aufgabe 5

Beitrag von sqrtsben »

MaMaj hat geschrieben:
Die Ergebnisse habe ich auch.

Bei der b) soll man aber noch Recall und Precision für jede Klasse ausrechnen.

Da habe ich:

A)
R = 2/3
P = 2/3

B)
R = 1/2
P = 1/3

C)
R = 3/4
P = 1 <- Hier bin ich mir aber unsicher!!!

Matrix würde bei mir etwa so aussehen

Code: Alles auswählen

 | A  B  C <- IST Zustand
----------------
A| 2  1  0 | 3
B| 1  1  0 | 2
C| 0  1  3 | 4
----------------
^| 3  3  3 | 9
|
Soll Zustand
Same here. Precision sagt ja nur was darüber aus, wie viele richtige Ergebnisse in der Menge der Predictions waren. Da alle Dokumente, für die C predicted wurde, auch C die richtige Klasse war, sind es 100%.

muackerl
Neuling
Neuling
Beiträge: 6
Registriert: 15. Jul 2012 22:20

Re: Klausur SS08

Beitrag von muackerl »

a1 und h1 muss ich doch mit h0 und a0 berechnen

denn ich kann doch nicht h1 mit ao und dann a1 mit h1 berechnen?

h4ck4
Mausschubser
Mausschubser
Beiträge: 91
Registriert: 18. Mai 2009 20:50
Kontaktdaten:

Re: Klausur SS08 Aufgabe 2

Beitrag von h4ck4 »

sqrtsben hat geschrieben:
h4ck4 hat geschrieben: Confidence: (Prozentuale) Zuversichtlichkeit/Wahrscheinlichkeit, dass wenn ein Customer die Menge A gekauft hat auch die Menge B gekauft hat.
Support: (Prozentuale) Zuversichtlichkeit/Wahrscheinlichkeit, dass wenn ein Customer alle Artikel aus der Mengenvereinigung (A+B) gekauft hat.

Je höher die Werte für Confidence sind, desto aussagekräftiger ist deine Association Rule.
Und im Vergleich zu was? Muss ja irgendein Maß haben, um zu wissen, was 100% sind. :)
?

Naja, die Werte sind prozentual/relative zu verstehen.
z.B. Confidence = 1 = 100% heißt: Jeder Customer, der die Menge A gekauft hat, hat auch Menge B gekauft.

In den Formel siehste ja am Nenner zu was das im Verhältnis steht.

sqrtsben
Windoof-User
Windoof-User
Beiträge: 33
Registriert: 17. Sep 2010 15:46

Re: Klausur SS08

Beitrag von sqrtsben »

Wäre dann nicht P1, P2 -> P4 eine bessere Regel? Ohne die Rechnung wirklich kapiert zu haben, hat doch jeder, der P1 und P2 gekauft hat, auch P3 gekauft und sonst keiner.

MaMaj
Endlosschleifenbastler
Endlosschleifenbastler
Beiträge: 158
Registriert: 8. Okt 2007 15:38
Wohnort: Dreieich
Kontaktdaten:

Re: Klausur SS08 Aufgabe 5

Beitrag von MaMaj »

sqrtsben hat geschrieben:
MaMaj hat geschrieben:
Die Ergebnisse habe ich auch.

Bei der b) soll man aber noch Recall und Precision für jede Klasse ausrechnen.

Da habe ich:

A)
R = 2/3
P = 2/3

B)
R = 1/2
P = 1/3

C)
R = 3/4
P = 1 <- Hier bin ich mir aber unsicher!!!

Matrix würde bei mir etwa so aussehen

Code: Alles auswählen

 | A  B  C <- IST Zustand
----------------
A| 2  1  0 | 3
B| 1  1  0 | 2
C| 0  1  3 | 4
----------------
^| 3  3  3 | 9
|
Soll Zustand
Same here. Precision sagt ja nur was darüber aus, wie viele richtige Ergebnisse in der Menge der Predictions waren. Da alle Dokumente, für die C predicted wurde, auch C die richtige Klasse war, sind es 100%.
Also wenn ich sage, dass ein Dokument als C klassifiziert wurde und ich schaue es mir an und es ist auch wirklich C, dann geht das direkt positiv in die Precision von C ein.
Wenn ich aber ein Dokument finde welches (wie hier) als B klassifiziert wurde, aber eigentlich C sein soll, dann macht es der Precision von C nichts, wirkt sich aber negativ auf die Precision von B aus. Richtig?
Mich hat nämlich die 1 in der untersten Zeile verwirrt....
Zuletzt geändert von MaMaj am 16. Jul 2012 14:38, insgesamt 2-mal geändert.

twww
Neuling
Neuling
Beiträge: 8
Registriert: 17. Mär 2011 16:33

Re: Klausur SS08

Beitrag von twww »

muackerl hat geschrieben:a1 und h1 muss ich doch mit h0 und a0 berechnen

denn ich kann doch nicht h1 mit ao und dann a1 mit h1 berechnen?
Doch. Wo steht denn, dass du die vorherigen Werte zwischenspeichern sollst? Hubs und Authorities beeinflussen/verstärken sich wechselseitig.
Die Folien sind an dieser Stelle aber nicht wirklich deutlich ...

sqrtsben
Windoof-User
Windoof-User
Beiträge: 33
Registriert: 17. Sep 2010 15:46

Re: Klausur SS08 Aufgabe 5

Beitrag von sqrtsben »

MaMaj hat geschrieben: Also wenn ich sage, dass ein Dokument als C klassifiziert wurde und ich schaue es mir an und es ist auch wirklich C, dann geht das direkt positiv in die Precision von C ein.
Wenn ich aber ein Dokument finde welches (wie hier) als B klassifiziert wurde, aber eigentlich C sein soll, dann macht es der Precision von C nichts, wirkt sich aber negativ auf die Precision von B aus. Richtig?
Mich hat nämlich die 1 in der untersten Zeile verwirrt....
Richtig. Du kannst einfach für R die Zeilen betrachten (also die Zahl der korrekten Matches und dann hinten durch die Summe teilen) und umgekehrt für P die Spalten (korrekte Matches / Summe unten).

h4ck4
Mausschubser
Mausschubser
Beiträge: 91
Registriert: 18. Mai 2009 20:50
Kontaktdaten:

Re: Klausur SS08

Beitrag von h4ck4 »

sqrtsben hat geschrieben:Wäre dann nicht P1, P2 -> P4 eine bessere Regel? Ohne die Rechnung wirklich kapiert zu haben, hat doch jeder, der P1 und P2 gekauft hat, auch P3 gekauft und sonst keiner.
C = 1, S = 0.4

Hat eigentlich dieselben Maße^^ Würde auch als Beispiel gehen (bei meinem Verständnis von der Sache).

Ob das jetzt eine gute Assoziation-Regel weiß ich nicht genau. Confidence ist auf jeden Fall sehr hoch, daher ja. Was genau der Support-Wert über die Regel aussagt (ob der hoch oder niedrig sein muss), weiß ich leider nicht.

MaMaj
Endlosschleifenbastler
Endlosschleifenbastler
Beiträge: 158
Registriert: 8. Okt 2007 15:38
Wohnort: Dreieich
Kontaktdaten:

Re: Klausur SS08

Beitrag von MaMaj »

Aufgabe 5 c / d)

Bei Macro avg-Recall habe ich auch 23/36
Bei Macro avg-Precision habe ich allerdings 13/18

Rechnung: (2/3 + 1/2 + 3/3) / 3 = (5/3 + 1/2) / 3 = ((10 + 3)/6) / 3 = 13/18 -> 0,722

Ich kriege nämlich keine symmetrische Matrix, obwohl die Klassifizierungen bei mir überein stimmen.

Schul daran ist die C 2x2 Matrix.

Da ist

C-C: 3 (Vier Dokumente sollten C sein, drei sind es geworden)
C-nichtC: 1 (Vier Dokumente sollten C sein, einer ist es nicht geworden)
nicht-C-C: 0 (Fünf Dokumente sollten nicht C sein, keiner wurde C)
nicht-C-nichtC: 5 (Fünf Dokumente sollen nicht C, fünf wurden als nicht-C erkannt)

Wo ist mein Denkfehler?

sqrtsben
Windoof-User
Windoof-User
Beiträge: 33
Registriert: 17. Sep 2010 15:46

Re: Klausur SS08

Beitrag von sqrtsben »

MaMaj hat geschrieben:Aufgabe 5 c / d)

Bei Macro avg-Recall habe ich auch 23/36
Bei Macro avg-Precision habe ich allerdings 13/18

Rechnung: (2/3 + 1/2 + 3/3) / 3 = (5/3 + 1/2) / 3 = ((10 + 3)/6) / 3 = 13/18 -> 0,722

Ich kriege nämlich keine symmetrische Matrix, obwohl die Klassifizierungen bei mir überein stimmen.

Schul daran ist die C 2x2 Matrix.

Da ist

C-C: 3 (Vier Dokumente sollten C sein, drei sind es geworden)
C-nichtC: 1 (Vier Dokumente sollten C sein, einer ist es nicht geworden)
nicht-C-C: 0 (Fünf Dokumente sollten nicht C sein, keiner wurde C)
nicht-C-nichtC: 5 (Fünf Dokumente sollen nicht C, fünf wurden als nicht-C erkannt)

Wo ist mein Denkfehler?
Ich hab mir da auch einen abgebrochen und beschlossen, dass ich die richtigen Werte für C/C, C/nichtC und nichtC/c berechnet habe und danach einfach ausgerechnet, was unten links hin muss. (also bei jeweils Summe 9 bei den anderen Konfusionsmatrizen => Summe muss 27 sein). Dementsprechend steht dann unten rechts 15 - du musst ja für jede Klasse den Wert bestimmen (also drei Mal!)

twww
Neuling
Neuling
Beiträge: 8
Registriert: 17. Mär 2011 16:33

Re: Klausur SS08

Beitrag von twww »

MaMaj hat geschrieben:Aufgabe 5 c / d)

Bei Macro avg-Recall habe ich auch 23/36
Bei Macro avg-Precision habe ich allerdings 13/18

Rechnung: (2/3 + 1/2 + 3/3) / 3 = (5/3 + 1/2) / 3 = ((10 + 3)/6) / 3 = 13/18 -> 0,722

Ich kriege nämlich keine symmetrische Matrix, obwohl die Klassifizierungen bei mir überein stimmen.

Schul daran ist die C 2x2 Matrix.

Da ist

C-C: 3 (Vier Dokumente sollten C sein, drei sind es geworden)
C-nichtC: 1 (Vier Dokumente sollten C sein, einer ist es nicht geworden)
nicht-C-C: 0 (Fünf Dokumente sollten nicht C sein, keiner wurde C)
nicht-C-nichtC: 5 (Fünf Dokumente sollen nicht C, fünf wurden als nicht-C erkannt)

Wo ist mein Denkfehler?
Deine Rechnung oben ist eigentlich richtig, aber dein Wert für Precision von B ist 1/2 und müsste eigentlich 1/3 sein.
Dann würdest du auf einen avg-Precisionvon 2/3 kommen.
B -B
B 1 1
-B 2 5

P(B) = a/a+b = 1/(1+2)

Antworten

Zurück zu „Web Mining“