Iterative error re-establishment to improve neural network cost function for imbalanced data learning

Thesis (M.Sc.)--Chulalongkorn University, 2011

Saved in:
Bibliographic Details
Main Author: Perasut Rungcharassang (Author)
Other Authors: Chidchanok Lursinsap (Contributor), Chulalongkorn University. Faculty of Science (Contributor)
Format: Book
Published: Chulalongkorn University, 2013-09-16T10:12:48Z.
Subjects:
Online Access:http://cuir.car.chula.ac.th/handle/123456789/35925
Tags: Add Tag
No Tags, Be the first to tag this record!

MARC

LEADER 00000 am a22000003u 4500
001 repochula_35925
042 |a dc 
100 1 0 |a Perasut Rungcharassang  |e author 
245 0 0 |a Iterative error re-establishment to improve neural network cost function for imbalanced data learning 
246 3 3 |a การตั้งค่าความผิดพลาดใหม่แบบวนซ้ำเพื่อปรับปรุงฟังก์ชันค่าใช้จ่ายของโครงข่ายประสาทสำหรับการเรียนรู้ข้อมูลแบบไม่ดุล 
260 |b Chulalongkorn University,   |c 2013-09-16T10:12:48Z. 
500 |a http://cuir.car.chula.ac.th/handle/123456789/35925 
520 |a Thesis (M.Sc.)--Chulalongkorn University, 2011 
520 |a A new training algorithm to enhance the accuracy of minority class in imbalanced data learning problem was proposed. This algorithm is based on the observation that the cause of lower accuracy is due to the domination of the error terms, i.e. the square of difference between the target and the actual output, computed by those data in majority class in the cost function. To resolve this domination, our cost function is re-established at each epoch based on the errors of the data in minority and majority classes. Any datum whose corresponding term in the cost function produces an error less than 0.05 is removed from cost function. Otherwise, it is put back into the cost function. Our algorithm adopting multilayer perceptron and Levenberg-Marquardt (LM) as the learning algorithm was compared with classical LM and the recent algorithm RAMOBoost on 15 well-known benchmarks. The experimental results of our approach produced higher accuracy than the other approaches in 13 cases with faster training speed. 
520 |a ในงานวิจัยนี้ได้นำเสนอ ขั้นตอนวิธีการสอนใหม่เพื่อเพิ่มความแม่นยำของกลุ่มส่วนน้อยสำหรับปัญหาการเรียนรู้ข้อมูลไม่ดุล ขั้นตอนวิธีนี้ได้จากการสังเกตว่าสาเหตุของค่าความแม่นยำต่ำเนื่องจากอิทธิพลของพจน์ค่าคลาดเคลื่อน ซึ่งคำนวณได้จากผลต่างของเป้าหมายกับข้อมูลส่งออกที่แท้จริงทั้งหมดยกกำลังสอง โดยข้อมูลในกลุ่มส่วนน้อยเหล่านั้นในฟังก์ชันค่าใช้จ่าย เพื่อแก้ปัญหานี้ฟังก์ชันค่าใช้จ่ายจะถูกตั้งค่าใหม่ที่แต่ละรอบขึ้นอยู่กับค่าผิดพลาดของข้อมูลในกลุ่มส่วนน้อยและกลุ่มส่วนมาก ข้อมูลใดๆที่คำนวณค่าผิดพลาดได้น้อยกว่า 0.05 จะถูกคัดออกไปจากฟังก์ชันค่าใช้จ่าย ข้อมูลที่เหลือให้ใส่กลับเข้าไปในฟังก์ชันค่าใช้จ่าย ขั้นตอนวิธีการสอนใหม่นี้ถูกเปรียบเทียบกับวิธีเลเวนเบิร์ก-มาร์ควอดท์และวิธีลาโมบูสท์ บนชุดข้อมูลมาตรฐาน 15 ชุด จากผลการทดลองแสดงให้เห็นถึงความแม่นยำของวิธีการนี้ที่สูงขึ้นกว่าวิธีการอื่นๆใน 13 ตัวอย่าง พร้อมทั้งมีความเร็วในการสอนเร็วขึ้นอีกด้วย 
540 |a Chulalongkorn University 
546 |a en 
690 |a Neural networks (Computer science) 
690 |a Algorithms 
690 |a Imbalanced Problem 
690 |a นิวรัลเน็ตเวิร์ค (คอมพิวเตอร์) 
690 |a อัลกอริทึม 
655 7 |a Thesis  |2 local 
100 1 0 |a Chidchanok Lursinsap  |e contributor 
100 1 0 |a Chulalongkorn University. Faculty of Science  |e contributor 
787 0 |n http://doi.org/10.14457/CU.the.2011.74 
856 4 1 |u http://cuir.car.chula.ac.th/handle/123456789/35925