TEXT SCULPTOR™はJuicycodeがTransformersアーキテクチャを使用して開発した要約抽出ツールで、BARTモデルで学習されます。
人工知能とディープラーニング技術の急速な発展に伴い、自然言語処理の分野で大きなブレークスルーがもたらされた。テキスト要約は、重要な自然言語処理アプリケーションとして、大量のテキスト情報を簡潔なポイントに抽出する能力を持っているため、読書時間を節約し、情報取得の効率を向上させる。ニュースレポート、科学研究論文、企業報告書など多くの場面で、テキスト要約技術は幅広い応用価値と市場需要を持っている。
このプロジェクトの目的は、Transformersアーキテクチャを使用し、学習技術を微調整することで、効率的で正確な英語要約抽出を実現する、事前学習済みBARTモデルに基づくテキスト要約抽出手順を設計し実装することである。このプロジェクトでは、PyQt5で書かれたユーザフレンドリーなインターフェースを採用し、テキスト要約抽出プロセスにおける様々なユーザのニーズを満たすために、学習管理、履歴の表示と可視化、モデルテストの機能を実装している。同時に、このプロジェクトはマルチスレッド技術を採用し、インターフェースのブロッキングを回避し、プログラムの迅速な応答を保証する。
TEXT SCULPTOR™は、bart-large-cnn、bart-baseなどの要約に基づき、事前に訓練されたモデルを抽出し、特定の使用シナリオに合わせてモデルのパフォーマンスを最適化するための微調整を行います。ソースコードでは、モデルのトレーニングにGPU(専用グラフィックカード)が使用されています。GPUの専用メモリが6GB以下の場合、学習が完了しないことが知られています。
バージョン | 更新 |
2023.1 | トレーニングとテストのインターフェイスを追加する手順を導入する |



