Input notebookยถ
Algemene instructiesยถ
Je geeft je antwoord telkens na de โ๏ธ. Na de ๐ kan je beschrijven hoe je tot dit antwoord kwam (gebruik de cel nummers in de input notebook ter referentie).
Er wordt enkel naar de beschrijving bij ๐ gekeken indien je antwoord bij โ๏ธ fout is.
Q1ยถ
โ Met welke soort taak hebben we hier te maken?
โ๏ธ
Klassificatie van tekst (sentiment analyse)
๐
De target variabele heeft 2 niveaus die overeenkomen met positieve en negatieve recensies.
classes = ["Negative", "Positive"]Q2ยถ
โ Met welke soort van model wordt hier gewerkt?
โ๏ธ
Een Transformer model (DistilBERT)
๐
Zie model = AutoModelForSequenceClassification.from_pretrained("distilbert-base-uncased", num_labels=2) en de output van print(model). Dit toont dat er een transformer blok aanwezig is.
Q3ยถ
โ Hoeveel parameters heeft het model?
โ๏ธ
66955010
๐
Wordt getoond in de output van cel 10 waar het model wordt geladen: Total number of trainable parameters: 66,955,010
Q4ยถ
โ Met welke soort ervaring wordt er hier geleerd?
โ๏ธ
Supervised learning (fine-tuning)
๐
Er zijn target waarden (labels) aanwezig in de dataset die aangeven of een recensie positief of negatief is. Deze worden gebruikt om de loss te berekenen tijdens het fine-tunen.
Q5ยถ
โ Na hoeveel inputs worden gewichten aangepast tijdens de training?
โ๏ธ
16
๐
Dit is de batch size: zie batch_size = 16
Q6ยถ
โ Hoe vaak heeft het model de trainingsdata gezien tijdens het trainen?
โ๏ธ
2
๐
Dit is het aantal epochs: zie epochs = 2
Q7ยถ
โ Welke verliesfunctie wordt hier gebruikt?
โ๏ธ
Cross Entropy Loss
๐
De loss wordt automatisch berekend door het model zelf wanneer we labels meegeven: Loss function (CrossEntropyLoss is used internally by the model).
Q8ยถ
โ Welk optimalisatie algoritme wordt hier gebruikt?
โ๏ธ
AdamW (Adam met weight decay)
๐
Zie optimizer = torch.optim.AdamW(model.parameters(), lr=learning_rate).
Q9ยถ
โ Met welke stapgrootte wordt er tijdens de optimalisatie gewerkt?
โ๏ธ
2e-5
๐
Zie learning_rate = 2e-5 en optimizer = torch.optim.AdamW(model.parameters(), lr=learning_rate). Deze kleine learning rate is typisch voor het fine-tunen van pre-trained transformers.
Q11ยถ
โ Hoe worden de text inputs aan het model doorgegeven?
โ๏ธ
Via een tokenizer.
๐
zie tokenizer = AutoTokenizer.from_pretrained(model_name)