TEXT SCULPTOR ™ ist ein Zusammenfassungsextraktor, der von Juicycode unter Verwendung der Transformers-Architektur entwickelt und mit dem BART-Modell trainiert wurde.
Mit der rasanten Entwicklung der künstlichen Intelligenz und der Deep-Learning-Technologie wurden auf dem Gebiet der Verarbeitung natürlicher Sprache bedeutende Durchbrüche erzielt. Die Textzusammenfassung als wichtige Anwendung der Verarbeitung natürlicher Sprache hat die Fähigkeit, eine große Menge an Textinformationen in prägnante Punkte zu destillieren und so Lesezeit zu sparen und die Effizienz der Informationsbeschaffung zu verbessern. In vielen Bereichen, z. B. bei Nachrichten, wissenschaftlichen Forschungsberichten, Unternehmensberichten und anderen Szenarien, hat die Technologie der Textzusammenfassung ein breites Anwendungsspektrum und eine große Marktnachfrage.
Ziel dieses Projekts ist es, ein Verfahren zur Extraktion von Textzusammenfassungen auf der Grundlage eines vortrainierten BART-Modells zu entwickeln und zu implementieren, das eine effiziente und genaue Extraktion englischer Zusammenfassungen durch die Verwendung der Transformers-Architektur und Feinabstimmung der Trainingstechniken ermöglicht. Das Projekt verwendet eine benutzerfreundliche, in PyQt5 geschriebene Schnittstelle, die die Funktionen der Trainingsverwaltung, der Verlaufsbetrachtung und -visualisierung sowie des Modelltests implementiert, um den Bedürfnissen der verschiedenen Benutzer im Prozess der Textzusammenfassung gerecht zu werden. Gleichzeitig setzt das Projekt die Multi-Threading-Technologie ein, um ein Blockieren der Schnittstelle zu vermeiden und eine schnelle Reaktion des Programms zu gewährleisten.
TEXT SCULPTOR ™ extrahiert vortrainierte Modelle auf der Grundlage von Zusammenfassungen wie bart-large-cnn, bart-base usw. für ein fein abgestimmtes Training zur Optimierung der Modellleistung für bestimmte Nutzungsszenarien. Im Quellcode wird eine GPU (dedizierte Grafikkarte) für das Training des Modells verwendet. Es ist bekannt, dass das Training nicht abgeschlossen werden kann, wenn der dedizierte Speicher der GPU kleiner oder gleich 6 GB ist.
Version | Update |
2023.1 | Implementierung von Verfahren zur Ergänzung von Schulungs- und Testschnittstellen |



