LexiGuard - Klassifizierung von toxischen Kommentaren
Data Science & AI|Purvi Parmar|May 17, 2024
Wozu dient das Abschlussprojekt?
Bekämpfung von Online-Toxizität und Förderung eines gesunden Dialogs. Wir beabsichtigen, eine API zu entwickeln, die die Toxizität von Kommentaren bewertet und Moderatoren in digitalen Kanälen unterstützt. Für Unternehmen, NGOs und Einzelpersonen nutzbringend, hilft es, sicherere Online-Interaktionen zu gewährleisten, indem es einen toxischen Kommentar-Klassifizierer und ein Dashboard für Moderatoren bietet, um Gespräche effizient zu verwalten.
Wie sieht das Abschlussprojekt aus?
