Design Overview

มาทำความรู้จักส่วนประกอบและโครงสร้างของสิ่งที่จะใช้งานกันเถอะ

หลังจากที่เราทราบกันบ้างแล้วในการทำงานของตัว FPGA ที่เราจะใช้กันในวันนี้เราสามารถปรับโครงสร้างภายในเพื่อสร้างการทำงานเฉพาะอย่างได้โดยในวันนี้เราจะพูดถึงโมดูลฮาร์ดแวร์ที่ออกแบบในการประมวลผล AI โดยโมดูลนั้นเรียกว่า DPU [Deep processing unit] เป็นโมดูลที่ทำหน้าที่ในการประมวลผล AI ให้เร็วขึ้น เพราะว่าปกติในการทำงานของ AI จะใช้งานสิ่งที่เรียกว่า CNN หรือการ Convolution Neural Network เพื่อทำงานของ AI

Tips

ผู้ทดลองที่สนใจในเรื่อง CNN อยากให้มาทำความเข้าใจการทำงานของ AI ที่เป็น CNN, RNN และ Fast RNN เพื่อทำความเข้าใจก่อนมาเริ่มแลปนะครับ [Link]

โดยการทำงานลักษณะนี้จะใช้การประมวลผลเยอะมากทำให้เกิดเวลาในการทำงานสูงเมื่อใช้เพียง CPU หรือ GPU แต่พอเรามาใช้งานกับฮาร์แวร์โมดูลที่ทำงานเฉพาะอย่าง DPU มันจะเร็วขึ้นมากเพราะมันไม่ต้องแปลภาษาในการทำงาน เปรียบเสมือนเราสั่งให้มันทำงานแล้วเครื่องเข้าใจทันที ไม่ได้ผ่า่นการแปลภาษาเหมือนภาษาระดับสูงในการใช้งานเครื่อง สำหรับผู้ทดลองที่อยู่ในคอร์สของทางมหาวิทยาลัยเราจะได้ลงลึกเกี่ยวกับการทำงาน AI ในช่วงครึ่งหลัง

โดยถ้าพูดถึงการออกแบบภายในชิพ FPGA จะมีการทำงานคร่าวดังภาพ

โดยการทำงานจะแบ่งออกเป็นสองส่วนดังภาพในส่วนของ APU [a single cpu] จะทำงานเกี่ยวกับการคอมไพล์โปรแกรมรับคำสั่งแปลงภาษาการทำงาน และตัว DPU จะไปประมวลผลการทำ CNN ของ AI และรับผลลัพธ์ผ่าน AXI bus แล้วมาแสดงผลผ่านทาง APU ออกไปทาง Displayport

Last updated

Assoc. Prof. Wiroon Sriborrirux, Founder of Advance Innovation Center (AIC) and Bangsaen Design House (BDH), Electrical Engineering Department, Faculty of Engineering, Burapha University