University of Washington Kostenlose Online-Ausbildung

Maschinelles Lernen: Clustering & Retrieval

Beschreibung

Fallstudien: Ähnliche Dokumente finden

Ein Leser interessiert sich für einen bestimmten Nachrichtenartikel und Sie möchten ähnliche Artikel finden, die Sie empfehlen können. Was ist der richtige Begriff von Ähnlichkeit? Was ist außerdem, wenn es Millionen anderer Dokumente gibt? Müssen Sie jedes Mal, wenn Sie ein neues Dokument abrufen möchten, alle anderen Dokumente durchsuchen? Wie gruppieren Sie ähnliche Dokumente? Wie entdecken Sie neue, aufkommende Themen, die in den Dokumenten behandelt werden?

In dieser dritten Fallstudie, in der ähnliche Dokumente gefunden werden, werden Sie auf Ähnlichkeit basierende Algorithmen zum Abrufen untersuchen. In diesem Kurs untersuchen Sie auch strukturierte Darstellungen zur Beschreibung der Dokumente im Korpus, einschließlich Clustering- und gemischter Mitgliedschaftsmodelle wie der latenten Dirichlet-Zuweisung (LDA). Sie implementieren Expectation Maximization (EM), um die Dokumentcluster zu lernen und zu erfahren, wie Sie die Methoden mit MapReduce skalieren.

Lernergebnisse: Am Ende dieses Kurses können Sie:
-Erstellen Sie ein Dokumentabrufsystem mit k-nächsten Nachbarn.
-Identifizieren Sie verschiedene Ähnlichkeitsmetriken für Textdaten.
-Reduzieren Sie Berechnungen in der Suche nach k-nächsten Nachbarn mithilfe von KD-Bäumen.
-Produzieren Sie ungefähre nächste Nachbarn mit ortsabhängigem Hashing.
-Vergleichen und kontrastieren Sie überwachte und unbeaufsichtigte Lernaufgaben.
-Cluster Dokumente nach Thema mit k-Mitteln.
-Beschreiben Sie, wie Sie k-means mit MapReduce parallelisieren.
- Untersuchen Sie probabilistische Clustering-Ansätze anhand von Mischungsmodellen.
- Passen Sie eine Mischung aus Gaußschen Modellen unter Verwendung der Erwartungsmaximierung (EM) an.
- Führen Sie eine gemischte Mitgliedschaftsmodellierung mithilfe der latenten Dirichlet-Zuordnung (LDA) durch.
-Beschreiben Sie die Schritte eines Gibbs-Samplers und wie Sie dessen Ausgabe verwenden, um Schlussfolgerungen zu ziehen.
-Vergleichen und kontrastieren Sie Initialisierungstechniken für nicht konvexe Optimierungsziele.
-Implementieren Sie diese Techniken in Python.

Preis: Kostenlos anmelden!

Sprache: Englisch

Untertitel: Englisch, Koreanisch, Arabisch

Maschinelles Lernen: Clustering & Retrieval - Universität von Washington