🧤Thai Natural Language Processing with Python
Thai NLP
Tokenization Engine
ในการตัดคำภาษาไทย Thai Word Segmentation จะต้องใช้ Dictionary-based ของภาษาไทยในการตัดคำ ซึ่งก็จะประกอบไปด้วย Tokenization Engine ที่ใช้ในการตัดคำ ได้แก่ newmm, longest, multi_cut, pyicu, deepcut, tcc และ etcc
Get Started
ทำการสร้าง Virtual Environment
ทำการติดตั้ง Package
ทำการสร้างไฟล์ thai_nlp.py
ทำการรัน thai_nlp.py
จะแสดงผลลัพธ์ของการตัดคำ Word Tokenization
อ่านเพิ่มเติม : https://bit.ly/2mQIeou, https://bit.ly/2nJyP2h, https://bit.ly/2pf9UnN, https://bit.ly/2mQqr0y
Last updated
Was this helpful?