Đăng nhập
 
Tìm kiếm nâng cao
 
Tên bài báo
Tác giả
Năm xuất bản
Tóm tắt
Lĩnh vực
Phân loại
Số tạp chí
 

Bản tin định kỳ
Báo cáo thường niên
Tạp chí khoa học ĐHCT
Tạp chí tiếng anh ĐHCT
Tạp chí trong nước
Tạp chí quốc tế
Kỷ yếu HN trong nước
Kỷ yếu HN quốc tế
Book chapter
Bài báo - Tạp chí
(2024) Trang: 100-111
Tạp chí: International Conference on Information Technology and Its Applications
Liên kết:

Our investigation aims to propose a high-performance abstractive text summarization model for Vietnamese languages. We based on the transformer network with a full encoder-decoder to study the high-quality features of the training data. Next, we scaled down the network size to increase the number of documents the model can summarize in a time frame. We trained the model with a large-scale dataset, including 880,895 documents in the training set and 110, 103 in the testing set. The summarizing speed for the testing set significantly improves with 5.93 hours when using a multiple-core CPU and 0.31 hours on a small GPU. The numerical test results of F1 are also close to the state-of-the-art with 51.03% in ROUGE-1, 18.17% in ROUGE-2, and 31.60% in ROUGE-L.

Các bài báo khác
2024 (2024) Trang: 1-18
Tạp chí: Vietnam Journal of Computer Science
20 (2022) Trang: 309-316
Tạp chí: Journal of information and communication convergence engineering
141 (2023) Trang: 489-501
Tạp chí: Lecture Notes on Data Engineering and Communications Technologies
Harish Sharma, Vivek Shrivastava, Kusum Kumari Bharti, Lipo Wang (2023) Trang: 65-77
Tạp chí: Lecture Notes in Networks and Systems
1925 (2023) Trang: 273-288
Tạp chí: Communications in Computer and Information Science
In Hamido Fujita · Philippe Fournier-Viger · Moonis Ali · Yinglin Wang (2022) Trang: 737-746
Tạp chí: Lecture Notes in Computer Science
(2020) Trang: 180-187
Tạp chí: Hội nghị KHCN Quốc gia lần thứ XIII về Nghiên cứu cơ bản và ứng dụng Công nghệ thông tin (FAIR), Nha Trang, 2020
 


Vietnamese | English






 
 
Vui lòng chờ...