Skip to article frontmatterSkip to article content
Site not loading correctly?

This may be due to an incorrect BASE_URL configuration. See the MyST Documentation for reference.

Input notebookยถ

Algemene instructiesยถ

  • Je geeft je antwoord telkens na de โœ๏ธ. Na de ๐Ÿ”‘ kan je beschrijven hoe je tot dit antwoord kwam (gebruik de cel nummers in de input notebook ter referentie).

  • Er wordt enkel naar de beschrijving bij ๐Ÿ”‘ gekeken indien je antwoord bij โœ๏ธ fout is.

Q1ยถ

โ“ Met welke soort taak hebben we hier te maken?

โœ๏ธ
Klassificatie van tekst (sentiment analyse)

๐Ÿ”‘

De target variabele heeft 2 niveaus die overeenkomen met positieve en negatieve recensies.

classes = ["Negative", "Positive"]

Q2ยถ

โ“ Met welke soort van model wordt hier gewerkt?

โœ๏ธ
Een Transformer model (DistilBERT)

๐Ÿ”‘

Zie model = AutoModelForSequenceClassification.from_pretrained("distilbert-base-uncased", num_labels=2) en de output van print(model). Dit toont dat er een transformer blok aanwezig is.

Q3ยถ

โ“ Hoeveel parameters heeft het model?

โœ๏ธ
66955010

๐Ÿ”‘

Wordt getoond in de output van cel 10 waar het model wordt geladen: Total number of trainable parameters: 66,955,010

Q4ยถ

โ“ Met welke soort ervaring wordt er hier geleerd?

โœ๏ธ
Supervised learning (fine-tuning)

๐Ÿ”‘

Er zijn target waarden (labels) aanwezig in de dataset die aangeven of een recensie positief of negatief is. Deze worden gebruikt om de loss te berekenen tijdens het fine-tunen.

Q5ยถ

โ“ Na hoeveel inputs worden gewichten aangepast tijdens de training?

โœ๏ธ
16

๐Ÿ”‘

Dit is de batch size: zie batch_size = 16

Q6ยถ

โ“ Hoe vaak heeft het model de trainingsdata gezien tijdens het trainen?

โœ๏ธ
2

๐Ÿ”‘

Dit is het aantal epochs: zie epochs = 2

Q7ยถ

โ“ Welke verliesfunctie wordt hier gebruikt?

โœ๏ธ
Cross Entropy Loss

๐Ÿ”‘

De loss wordt automatisch berekend door het model zelf wanneer we labels meegeven: Loss function (CrossEntropyLoss is used internally by the model).

Q8ยถ

โ“ Welk optimalisatie algoritme wordt hier gebruikt?

โœ๏ธ
AdamW (Adam met weight decay)

๐Ÿ”‘

Zie optimizer = torch.optim.AdamW(model.parameters(), lr=learning_rate).

Q9ยถ

โ“ Met welke stapgrootte wordt er tijdens de optimalisatie gewerkt?

โœ๏ธ
2e-5

๐Ÿ”‘

Zie learning_rate = 2e-5 en optimizer = torch.optim.AdamW(model.parameters(), lr=learning_rate). Deze kleine learning rate is typisch voor het fine-tunen van pre-trained transformers.

Q10ยถ

โ“ Welke score metrics worden hier bekeken?

โœ๏ธ
Accuracy
Precision
Recall
F1-score

๐Ÿ”‘

Q11ยถ

โ“ Hoe worden de text inputs aan het model doorgegeven?

โœ๏ธ
Via een tokenizer.

๐Ÿ”‘
zie tokenizer = AutoTokenizer.from_pretrained(model_name)