Mitigazione del Catastrophic Forgetting nell'apprendimento incrementale per Large Language Models

SHAKYA, MUDITA
2023/2024

2023
Mitigating Catastrophic Forgetting in Task-Incremental Learning for Large Language Models
File in questo prodotto:
File Dimensione Formato  
Master_Thesis_Mudita_Shakya.pdf

accesso solo dalla rete interna

Descrizione: This thesis investigates the impact of task-incremental learning using parameter-efficient fine-tuning methods on the retention of the innate capabilities and task-specific capabilities of Large Language Models.
Dimensione 6.6 MB
Formato Adobe PDF
6.6 MB Adobe PDF   Contatta l'autore

I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
Il download dei file è consentito soltanto per chi si collega da rete interna o da proxy.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.12319/17075