Plus d’un million de livres, à portée de main !
Bookbot

Lewis Tunstall

    Natural Language Processing mit Transformern
    Przetwarzanie języka naturalnego z wykorzystaniem transformerów. Budowanie aplikacji językowych za pomocą bibliotek Hugging
    • Modele transformacyjne zmieniły sposób przetwarzania języka naturalnego. Rewolucja rozpoczęła się w 2017 roku, kiedy zaprezentowano światu tę architekturę sieci neuronowej. Kolejnym przełomem okazały się repozytoria modeli, takie jak biblioteka Transformers zespołu Hugging Face, która umożliwia łatwe pobranie wstępnie wytrenowanego modelu, jego konfigurację i użytkowanie. Poznaj niesamowite możliwości: wszędzie tam, gdzie jest mowa lub tekst, istnieją zastosowania NLP. Tę książkę docenią praktycy: inżynierowie uczenia maszynowego i analitycy danych, poszukujący sposobu praktycznego zaadaptowania modeli transformacyjnych do swoich potrzeb. Autorzy skupili się na praktycznej stronie tworzenia aplikacji językowych, a w poszczególnych rozdziałach ujęto wszystkie najważniejsze zastosowania transformerów w NLP. Zaczniesz od łatwych w użyciu potoków, następnie przystąpisz do pracy z tokenizatorami, klasami modeli i interfejsu Trainer API, pozwalającymi na trenowanie modeli do konkretnych zastosowań. Dowiesz się również, jak zastąpić interfejs Trainer biblioteką Accelerate, która zapewnia pełną kontrolę nad pętlą treningową i umożliwia trenowanie dużych transformerów od zera!

      Przetwarzanie języka naturalnego z wykorzystaniem transformerów. Budowanie aplikacji językowych za pomocą bibliotek Hugging
    • Leistungsfähige State-of-the-Art-Sprachanwendungen mit vortrainierten Transformer-Modellen haben die NLP-Welt revolutioniert. Dieses Buch bietet einen fundierten und praxisnahen Überblick über die wichtigsten Methoden und Anwendungen im aktuellen NLP. Verfasst von den Gründern von Hugging Face, der Plattform für vortrainierte Transformer-Modelle für TensorFlow und PyTorch, ermöglicht es Ihnen, jeden Programmierschritt in Jupyter Notebooks nachzuvollziehen. Transformer haben sich als die vorherrschende Architektur im Natural Language Processing etabliert und liefern herausragende Ergebnisse. Data Scientists und Programmierer*innen lernen, wie sie NLP-Modelle mit Hugging Face Transformers, einer Python-basierten Deep-Learning-Bibliothek, trainieren und skalieren können. Anwendungsbeispiele sind maschinelles Schreiben von Nachrichtenartikeln, Verbesserung von Google-Suchanfragen und Chatbots. Die Autoren erklären die Funktionsweise von Transformer-basierten Modellen und deren Integration in Anwendungen. Sie erfahren, wie man Transformer für Aufgaben wie Textklassifizierung, Named Entity Recognition und Question Answering optimiert. Zudem wird gezeigt, wie man Transformer für sprachenübergreifendes Transfer Learning und reale Anwendungsfälle mit wenigen gelabelten Daten anwendet. Techniken wie Distillation, Pruning und Quantisierung helfen bei der Optimierung für das Deployment, während das Training von Grund auf und die Skalierun

      Natural Language Processing mit Transformern