Design Overview
มาทำความรู้จักส่วนประกอบและโครงสร้างของสิ่งที่จะใช้งานกันเถอะ
Last updated
มาทำความรู้จักส่วนประกอบและโครงสร้างของสิ่งที่จะใช้งานกันเถอะ
Last updated
Assoc. Prof. Wiroon Sriborrirux, Founder of Advance Innovation Center (AIC) and Bangsaen Design House (BDH), Electrical Engineering Department, Faculty of Engineering, Burapha University
หลังจากที่เราทราบกันบ้างแล้วในการทำงานของตัว FPGA ที่เราจะใช้กันในวันนี้เราสามารถปรับโครงสร้างภายในเพื่อสร้างการทำงานเฉพาะอย่างได้โดยในวันนี้เราจะพูดถึงโมดูลฮาร์ดแวร์ที่ออกแบบในการประมวลผล AI โดยโมดูลนั้นเรียกว่า DPU [Deep processing unit] เป็นโมดูลที่ทำหน้าที่ในการประมวลผล AI ให้เร็วขึ้น เพราะว่าปกติในการทำงานของ AI จะใช้งานสิ่งที่เรียกว่า CNN หรือการ Convolution Neural Network เพื่อทำงานของ AI
Tips
ผู้ทดลองที่สนใจในเรื่อง CNN อยากให้มาทำความเข้าใจการทำงานของ AI ที่เป็น CNN, RNN และ Fast RNN เพื่อทำความเข้าใจก่อนมาเริ่มแลปนะครับ [Link]
โดยการทำงานลักษณะนี้จะใช้การประมวลผลเยอะมากทำให้เกิดเวลาในการทำงานสูงเมื่อใช้เพียง CPU หรือ GPU แต่พอเรามาใช้งานกับฮาร์แวร์โมดูลที่ทำงานเฉพาะอย่าง DPU มันจะเร็วขึ้นมากเพราะมันไม่ต้องแปลภาษาในการทำงาน เปรียบเสมือนเราสั่งให้มันทำงานแล้วเครื่องเข้าใจทันที ไม่ได้ผ่า่นการแปลภาษาเหมือนภาษาระดับสูงในการใช้งานเครื่อง สำหรับผู้ทดลองที่อยู่ในคอร์สของทางมหาวิทยาลัยเราจะได้ลงลึกเกี่ยวกับการทำงาน AI ในช่วงครึ่งหลัง
โดยถ้าพูดถึงการออกแบบภายในชิพ FPGA จะมีการทำงานคร่าวดังภาพ
โดยการทำงานจะแบ่งออกเป็นสองส่วนดังภาพในส่วนของ APU [a single cpu] จะทำงานเกี่ยวกับการคอมไพล์โปรแกรมรับคำสั่งแปลงภาษาการทำงาน และตัว DPU จะไปประมวลผลการทำ CNN ของ AI และรับผลลัพธ์ผ่าน AXI bus แล้วมาแสดงผลผ่านทาง APU ออกไปทาง Displayport