Sie möchten in die Welt der Large Language Models eintauchen? Dieses handliche Buch hilft Ihnen, das nötige Grundlagenwissen aufzubauen, um das Innenleben von LLMs zu verstehen und erste praktische Erfahrungen zu sammeln. Es führt Schritt für Schritt in die Sprachmodellierung ein, beginnend mit Machine Learning und neuronalen Netzen über RNNs und Transformern bis zu aktuellen LLM-Architekturen.
Bestseller-Autor Andriy Burkov - bekannt für seine »Hundred-Page«-Reihe zu Machine-Learning-Themen - macht die komplexen Ideen leicht zugänglich, indem er gut verständliche Erklärungen der Mathematik, zahlreiche Illustrationen und den Python-Code ausgewogen einsetzt. Auf der Website zum Buch finden Sie direkt ausführbare Codeschnipsel und PyTorch-Implementierungen in Jupyter Notebooks, die die Konzepte perfekt veranschaulichen.
Es wurden noch keine Bewertungen abgegeben. Schreiben Sie die erste Bewertung zu "Language Models kompakt" und helfen Sie damit anderen bei der Kaufentscheidung.