TRAINIEREN EINES KI-MODELLS ZUR KATEGORISIERUNG VON SPIELEBEWERTUNGEN

BEREITGESTELLTE DIENSTLEISTUNG: Text Annotation

VERÖFFENTLICHT: 20.03.2023

LESEZEIT: 2 min

Kundenprofil:

Branche: Unterhaltungsmedien

Land: Kanada

Unternehmensgröße: 1.001-5.000 Mitarbeiter

Beschreibung des Kunden:

Der Kunde unseres Partners ist in mehr als 30 Ländern tätig und hat es sich zur Aufgabe gemacht, originelle und unvergessliche Erlebnisse für Gamer zu entwickeln. Ihre inkonischen Franchises sind weltweit bekannt und faszinieren Millionen Menschen.

Art der Annotation:

Beschreibung des Projekts

Wir arbeiteten indirekt über unseren Partner mit dem Kunden zusammen. Der Kunde unseres Partners hatte ein KI-Modell entwickelt, das Bewertungen von Gamern prüft, die ihre Spiele spielen. Die Bewertungen sollten dabei in „positiv“, „neutral“, „negativ“ und „unklar“ kategorisiert werden. Die Ergebnisse der Auswertungen sollten genutzt werden, um die Zufriedenheit der Gamer mit den Spielen weiter zu verbessern.

Ausgangslage

Das bestehende KI-Modell konnte Bewertungen bereits verarbeiten. Es musste aber besser trainiert werden, um tiefere Erkenntnisse aus den Bewertungen der Spieler erlangen zu können. Hierfür besaß der Kunde unseres Partners einen großen Trainingsdatensatz bestehend aus 19 Teilen mit 900 Dateien. Alle Bewertungen mussten als „positiv“, „neutral“, „negativ“ oder „unklar“ annotiert werden. Für eine bessere Genauigkeit des KI-Modells musste die Kategorisierung durch unsere Data Annotatoren sehr genau ausfallen.

Warum Mindy Support

Mindy Support pflegte zu diesem Zeitpunkt bereits eine langjährige Beziehung zu dem Partner des Kunden. Da wir uns als zuverlässiger Data Annotation Dienstleister erwiesen hatten, wurden wir dem Kunden ohne groß nachzudenken vorgestellt und an der Text Annotation beteiligt.

Bereitgestellte Data Annotation Lösung

Mindy Support stellte ein Data Annotation Team aus drei Annotatoren zusammen, die zunächst einige Beispiele erstellten, wie die Daten annotiert werden könnten. Dies geschah im Vorfeld, da die Menge an Daten, die annotiert werden sollten, sehr umfangreich war. Jeder Data Annotator erhielt 17.100 Dateien, die annotiert werden mussten. Dank unserer langjährigen Erfahrung und Professionalität gelang dies in wenigen Monaten. Insgesamt verbrachten wir mehr als 900 Stunden an dem Projekt und erreichten dabei einen Konsensanteil von 90%. Es wurden auch neu erstellte Daten annotiert. Zu den verwendeten Methoden zählten Entity Annotation, Entity Linking, Sentiment Analyse und viele andere.

Ergebnisse

  • 17.100 pro Data Annotator annotierte Dateien
  • Projektumfang von 900 Stunden
  • Konsensanteil von 90%

INHALTSVERZEICHNIS

    Bleiben Sie mit unseren neuesten Updates verbunden, indem Sie unseren Newsletter abonnieren.

      ✔︎ Well done! You're on the list now

      SPRECHEN SIE MIT UNSEREN EXPERTEN ÜBER IHR AI/ML-PROJEKT

      KONTAKTIEREN SIE UNS