Dm uitwerkingen wc3

2
DM2007 model theorie-opgaven week 3 1. Verdeel de numerieke temperatuurdata bij het voorbeeld van 1R in groepen met een grootte van min- stens 2 en vergelijk uw verdeling met de standaarddiscretisatie en die met een minimale groepsgrootte van 3. Welke van de drie heeft uw voorkeur? Indelingen (1/2 punt) Geen beperking groepsgrootte, errorrate: 1/14 (pas op bij 72!) yes no yes yes yes no no yes yes yes no yes yes no Groepsgrootte minimaal 2, errorrate: 4/14 (meerdere goede antwoorden) yes no yes yes yes no no yes yes yes no yes yes no yes no yes yes yes no no yes yes yes no yes yes no Groepsgrootte minimaal 3, errorrate: 5/14 (meerdere goede antwoorden) yes no yes yes yes no no yes yes yes no yes yes no yes no yes yes yes no no yes yes yes no yes yes no Voorkeur: groepsgrootte 1 heeft het meest last van overfitting en groepsgrootte 3 heeft de hoogste errorrate (op de trainingsdata). We kiezen groepsgrootte 2. (1/2 punt) 2. Reken voor de nominale weerdata uit wat de waarschijnlijkheid is op spelen en op niet spelen voor de attribuutwaarden (sunny, hot, high, false) volgens de statistische methode gebaseerd op de Bayesregel. (1 punt) Met behulp van Tabel 4.2, (bladzijde 89, tweede editie): likelyhood van yes = P (O=s|y)P (T=h|y)P (H=h|y)P (W=f|y)P (P=y) = 2 9 · 2 9 · 3 9 · 6 9 · 9 14 =0.0071 likelyhood van no = P (O=s|n)P (T=h|n)P (H=h|n)P (W=f|n)P (P=n) = 3 5 · 2 5 · 4 5 · 2 5 · 5 14 =0.027 P (yes|E) = 0.0071 0.0071 + 0.027 = 21% P (no|E) = 0.027 0.0071 + 0.027 = 79% 3. Bij de traininginstanties van de weerdata staat een instantie (sunny, hot, high, false) met klasse “no” (Tabel 1.2). Leg uit waarom bij de vorige opgave de kans op niet spelen desondanks kleiner is dan 100%. De voorspelling van Naive Bayes is gebaseerd op de kans dat bij individuele attribuutwaar- den klasse ”no” optreedt. De kans 100% voor klasse ”no” kan alleen worden voorspeld als hier bij minstens 1 van de vier attributenwaarden van de testinstantie altijd klasse ”no” optreedt. Bij deze testinstantie is dit niet het geval. 4. Bij de weerdata (Tabel 1.2) wordt de waarde van het windattribuut voor de trainingsinstantie (sunny, hot, high, false) vervangen door OnbekendeWaarde. Wat voor invloed heeft dit op de kansen op de attribuutwaarden van Outlook, Temperature, Humidity en Wind? Laat zien wat de vier windkansen (eerst 6/9, 3/9, 2/5 en 3/5, Tabel 4.2) zijn na deze verandering. De kansen voor Outlook, Temperature en Humidity en de kansen voor Windy in combinatie met Play=yes blijven hetzelfde maar de kansen voor Windy in combinatie met Play=no ver- anderen: 1/4 en 3/4 (eerst 2/5 en 2/5, zie Tabel 4.2, bladzijde 89, tweede editie).

Transcript of Dm uitwerkingen wc3

Page 1: Dm uitwerkingen wc3

DM2007 model theorie-opgaven week 3

1. Verdeel de numerieke temperatuurdata bij het voorbeeld van 1R in groepen met een grootte van min-stens 2 en vergelijk uw verdeling met de standaarddiscretisatie en die met een minimale groepsgroottevan 3. Welke van de drie heeft uw voorkeur?

• Indelingen (1/2 punt)

– Geen beperking groepsgrootte, errorrate: 1/14 (pas op bij 72!)yes no yes yes yes no no yes yes yes no yes yes no

– Groepsgrootte minimaal 2, errorrate: 4/14 (meerdere goede antwoorden)yes no yes yes yes no no yes yes yes no yes yes noyes no yes yes yes no no yes yes yes no yes yes no

– Groepsgrootte minimaal 3, errorrate: 5/14 (meerdere goede antwoorden)yes no yes yes yes no no yes yes yes no yes yes noyes no yes yes yes no no yes yes yes no yes yes no

• Voorkeur: groepsgrootte 1 heeft het meest last van overfitting en groepsgrootte 3 heeftde hoogste errorrate (op de trainingsdata). We kiezen groepsgrootte 2. (1/2 punt)

2. Reken voor de nominale weerdata uit wat de waarschijnlijkheid is op spelen en op niet spelen voor deattribuutwaarden (sunny, hot, high, false) volgens de statistische methode gebaseerd op de Bayesregel.(1 punt)

Met behulp van Tabel 4.2, (bladzijde 89, tweede editie):

likelyhood van yes = P (O=s|y)P (T=h|y)P (H=h|y)P (W=f|y)P (P=y)

=29· 29· 39· 69· 914

= 0.0071

likelyhood van no = P (O=s|n)P (T=h|n)P (H=h|n)P (W=f|n)P (P=n)

=35· 25· 45· 25· 514

= 0.027

P (yes|E) =0.0071

0.0071 + 0.027= 21%

P (no|E) =0.027

0.0071 + 0.027= 79%

3. Bij de traininginstanties van de weerdata staat een instantie (sunny, hot, high, false) met klasse “no”(Tabel 1.2). Leg uit waarom bij de vorige opgave de kans op niet spelen desondanks kleiner is dan100%.De voorspelling van Naive Bayes is gebaseerd op de kans dat bij individuele attribuutwaar-den klasse ”no” optreedt. De kans 100% voor klasse ”no” kan alleen worden voorspeldals hier bij minstens 1 van de vier attributenwaarden van de testinstantie altijd klasse ”no”optreedt. Bij deze testinstantie is dit niet het geval.

4. Bij de weerdata (Tabel 1.2) wordt de waarde van het windattribuut voor de trainingsinstantie (sunny,hot, high, false) vervangen door OnbekendeWaarde. Wat voor invloed heeft dit op de kansen op deattribuutwaarden van Outlook, Temperature, Humidity en Wind? Laat zien wat de vier windkansen(eerst 6/9, 3/9, 2/5 en 3/5, Tabel 4.2) zijn na deze verandering.De kansen voor Outlook, Temperature en Humidity en de kansen voor Windy in combinatiemet Play=yes blijven hetzelfde maar de kansen voor Windy in combinatie met Play=no ver-anderen: 1/4 en 3/4 (eerst 2/5 en 2/5, zie Tabel 4.2, bladzijde 89, tweede editie).

Page 2: Dm uitwerkingen wc3

5. Reken voor de nominale weerdata uit wat de waarschijnlijkheid is op spelen en op niet spelen voorde attribuutwaarden (overcast, cool, normal, false) volgens de statistische methode gebaseerd op deBayesregel na het toepassen van add-one-smoothing (sectie 4.2, blz. 91 van de 2e editie). (1 punt)

Met behulp van Tabel 4.2, (bladzijde 89, tweede editie):

likelyhood van yes = P (O=o|y)P (T=c|y)P (H=n|y)P (W=f|y)P (P=y)

=4 + 19 + 3

· 3 + 19 + 3

· 6 + 19 + 2

· 6 + 19 + 2

· 9 + 114 + 2

= 0.035

likelyhood van no = P (O=o|n)P (T=c|n)P (H=n|n)P (W=f|n)P (P=n)

=0 + 15 + 3

· 1 + 15 + 3

· 1 + 15 + 2

· 2 + 15 + 2

· 5 + 114 + 2

= 0.0014

P (yes|E) =0.035

0.035 + 0.0014= 96%

P (yes|E) =0.0014

0.035 + 0.0014= 4%

6. Bereken de waarde van de probability density function voor de temperatuur 66 als bekend is dat erniet gespeeld wordt. Opgelet: in de functie in het boek (blz 93 van de 2e editie) ontbreekt een mintekenvoor de exponent van e!

Met behulp van Tabel 4.4, (bladzijde 93, tweede editie): µ = 74.6, σ = 7.9

f(t = 66|no) =1

σ√

2π· e−(

(t−µ)2

2σ2 )

=1

7.9√

2π· e−(

(66−74.6)2

2·7.92)

= 0.028

7. Welke taak probeert TAR2 zo goed mogelijk uit te voeren?De TAR2 treatment learner zoekt naar een minimale verzameling van verschillen tussentraininginstanties, en probeert een klein en simpel model te leren door alleen essentiele ver-schillen te gebruiken. (1 punt)

8. Leg uit wat in het artikel wordt bedoeld met Lift.Lift is het relatieve verschil dat extra kennis heeft op de correctheid bij de uitvoering van eentaak, in vergelijking met de aprioricorrectheid (correctheid zonder extra kennis). (1 punt)

9. Leg uit waarom in figuur 2, A2 beter is dan zowel A1 als C2.

• Beter dan A1: geen high-risk incidenten en minder incidenten in totaal (1/2 punt)

• Beter dan C2: bijna zelfde performance, maar met veel eenvoudiger regels (1/2 punt)

10. Wat is de voornaamste boodschap van het artikel? Bent u het hier mee eens? Waarom?In de praktijk zijn grote modellen met vele duizenden regels of bomen met duizenden ver-takkingen niet nuttig voor mensen om van te leren. Treatment learning kan kleinere mod-ellen genereren die daarvoor meer geschikt zijn. (1/2 punt). Eigen mening (1/2 punt)