Skip to content

Generarea de Text

2 posts with the tag “Generarea de Text”

Înțelegerea Adaptării cu Rang Mic - Low-Rank Adaptation (LoRA): Revoluționarea Fine-tuning-ului pentru Modele Mari de Limbaj (LLMs)

Explorarea Adaptării cu Rang Mic pentru Ajustarea Eficientă a Modelului

Acest articol explorează Adaptarea cu Rang Mic (LoRA), o tehnică transformatoare pentru ajustarea eficientă a modelelor mari de limbaj (LLM) precum GPT-4 și Stable Diffusion. Prin reducerea sarcinii computaționale a adaptării acestor modele, LoRA permite procese de antrenare mai rapide și mai rentabile. Vom acoperi principiile sale, avantajele și aplicațiile practice, precum și vom oferi un ghid de implementare practică folosind biblioteci Python.

Modelele de Limbaj Fundamentale Apple Intelligence

Modelele de limbaj fundamentale ale Apple pentru alimentarea Apple Intelligence pe iOS, iPadOS și macOS

Apple a dezvoltat modele de limbaj fundamentale pentru a îmbunătăți Apple Intelligence pe iOS, iPadOS și macOS. Aceste modele constau dintr-o versiune on-device cu 3 miliarde de parametri și o variantă mai puternică bazată pe server, ambele concepute pentru eficiență și versatilitate optimă. Procesul de antrenament implică pre-antrenament de bază pe 6.3 trilioane de token-uri, urmat de continuarea pre-antrenamentului cu lungimi de secvență mai mari și extinderea contextului. Pentru post-antrenament, se utilizează fine-tuning supervizat și învățare prin întărire din feedback-ul uman (RLHF), folosind tehnici avansate precum comitetul de predare iterativ (iTeC) și descendența prin oglindire cu estimarea leave-one-out (MDLOO). Modelele sunt specializate suplimentar folosind adaptoare LoRA, făcându-le bine adaptate pentru aplicații on-device. Rezultatele benchmark indică faptul că modelul AFM-on-device depășește modelele open-source mai mari, în timp ce modelul AFM-server concurează cu GPT-3.5. Ambele modele excelează în evaluările de siguranță, subliniind angajamentul Apple față de practici responsabile în domeniul AI.