สารบัญ:
- พิจารณาแบบจำลองทางจิตวิทยา
- วิธีที่ดีในการแสดงวิธีใช้การวิเคราะห์ปัจจัยคือการเริ่มต้นด้วยชุดข้อมูล Iris
- ถ้า SVD สามารถใช้กับความแปรปรวนร่วมกันได้สำเร็จคุณอาจสงสัยว่าเหตุใดคุณจึงไม่สามารถนำไปใช้กับความแปรปรวนทั้งหมดได้ การใช้เมทริกซ์เริ่มต้นที่มีการปรับเปลี่ยนเล็กน้อยความสัมพันธ์ทั้งหมดในข้อมูลอาจลดลงและบีบอัดในลักษณะเดียวกับที่ SVD ทำ
- ขั้นตอนการขอรับ PCA ค่อนข้างคล้ายกับการวิเคราะห์ปัจจัยความแตกต่างคือคุณไม่ได้ระบุจำนวนคอมโพเนนต์ที่ต้องการแยกออก คุณตัดสินใจภายหลังว่าจะเก็บองค์ประกอบกี่ส่วนหลังจากตรวจสอบแอตทริบิวต์ explain_variance_ratio_ ซึ่งให้ข้อมูลเชิงปริมาณของค่าข้อมูลแต่ละองค์ประกอบที่แยกออกมา ตัวอย่างต่อไปนี้แสดงวิธีการทำงานนี้:
วีดีโอ: สอน SQL เบื้องต้น: การเพิ่มข้อมูลเข้าไปในตารางด้วยคำสั่ง INSERT 2024
นักวิทยาศาสตร์ข้อมูลสามารถใช้ Python เพื่อทำการวิเคราะห์องค์ประกอบและองค์ประกอบหลักได้ SVD ทำงานโดยตรงกับค่าตัวเลขในข้อมูล แต่คุณยังสามารถแสดงข้อมูลเป็นความสัมพันธ์ระหว่างตัวแปร คุณลักษณะแต่ละรูปแบบมีรูปแบบบางอย่าง คุณสามารถคำนวณความแปรปรวนเป็นค่าความแปรปรวนได้โดยประมาณ ความแปรปรวนมากขึ้นข้อมูลมีอยู่ภายในตัวแปรมากขึ้น
นอกจากนี้หากคุณวางตัวแปรไว้ในชุดคุณสามารถเปรียบเทียบความแปรปรวนของตัวแปรสองตัวแปรเพื่อพิจารณาว่าความสัมพันธ์เหล่านี้มีความสัมพันธ์กันซึ่งเป็นตัววัดความรุนแรงที่มีค่าใกล้เคียงกัน
การตรวจสอบความสัมพันธ์ทั้งหมดที่เป็นไปได้ของตัวแปรกับตัวแปรอื่น ๆ ในชุดคุณสามารถตรวจสอบว่าคุณอาจมีความแปรปรวนสองแบบดังนี้
-
ความแปรปรวนเฉพาะ: ความแปรปรวนบางค่าไม่เหมือนใคร ตัวแปรภายใต้การตรวจสอบ ไม่สามารถเชื่อมโยงกับสิ่งที่เกิดขึ้นกับตัวแปรอื่น ๆ
-
ความแปรปรวนร่วมกัน: มีการแชร์ความแปรปรวนบางอย่างกับตัวแปรอื่น ๆ อย่างน้อยหนึ่งตัวสร้างข้อมูลซ้ำซ้อนในข้อมูล ความซ้ำซ้อนหมายความว่าคุณสามารถหาข้อมูลเดียวกันโดยมีค่าต่างกันเล็กน้อยในคุณสมบัติต่างๆและในหลาย ๆ ข้อสังเกต
แน่นอนขั้นต่อไปคือการหาสาเหตุของความแปรปรวนร่วม พยายามที่จะตอบคำถามดังกล่าวรวมถึงการกำหนดวิธีการจัดการกับความแปรปรวนที่ไม่ซ้ำกันและแชร์นำไปสู่การสร้างปัจจัยและการวิเคราะห์องค์ประกอบหลัก
พิจารณาแบบจำลองทางจิตวิทยา
นานก่อนที่จะมีการคิดขั้นตอนวิธีการเรียนรู้ด้วยเครื่องจักรจำนวนมาก psychometrics ระเบียบวินัยในด้านจิตวิทยาที่เกี่ยวกับการวัดทางด้านจิตใจพยายามหาทางออกทางสถิติเพื่อวัดขนาดได้อย่างมีประสิทธิภาพ ในบุคลิกภาพ บุคลิกภาพของมนุษย์เช่นเดียวกับด้านอื่น ๆ ของมนุษย์ไม่สามารถวัดได้โดยตรง ตัวอย่างเช่นไม่สามารถวัดได้อย่างแม่นยำว่าบุคคลใดมีความลับหรือชาญฉลาด แบบสอบถามและการทดสอบทางจิตวิทยาชี้เฉพาะค่าเหล่านี้
นักจิตวิทยารู้เรื่อง SVD และพยายามนำไปใช้กับปัญหา ความแปรปรวนร่วมกันดึงดูดความสนใจของพวกเขา: ถ้าตัวแปรบางอย่างเกือบเหมือนกันพวกเขาควรจะมีสาเหตุที่เหมือนกันพวกเขาคิดว่า นักจิตวิทยาสร้างการวิเคราะห์ปัจจัย เพื่อทำภารกิจนี้! แทนที่จะใช้ SVD โดยตรงกับข้อมูลพวกเขานำไปประยุกต์ใช้กับเมทริกซ์ที่สร้างใหม่ซึ่งติดตามความแปรปรวนร่วมกันโดยหวังว่าข้อมูลทั้งหมดจะควบแน่นและเรียกคืนคุณสมบัติที่มีประโยชน์ใหม่ ๆ เรียกว่า tors . กำลังมองหาปัจจัยที่ซ่อน
วิธีที่ดีในการแสดงวิธีใช้การวิเคราะห์ปัจจัยคือการเริ่มต้นด้วยชุดข้อมูล Iris
จากขนแกะ ชุดข้อมูลนำเข้า load_iris จาก sklearn การสลายตัวการนำเข้า FactorAnalysis iris = load_iris () X, y = ม่านตา ข้อมูลม่านตา ปัจจัยเป้าหมาย = FactorAnalysis (n_components = 4, random_state = 101) พอดี (X)
หลังจากโหลดข้อมูลและเก็บข้อมูลคุณสมบัติการคาดการณ์ทั้งหมดแล้วคลาส FactorAnalysis จะถูกเตรียมใช้งานพร้อมกับขอให้ค้นหาสี่ปัจจัย ข้อมูลจะถูกติดตั้งแล้ว คุณสามารถสำรวจผลลัพธ์โดยการสังเกตคอมโพเนนต์_แอตทริบิวต์ซึ่งจะส่งกลับค่าอาร์เรย์ที่มีการวัดความสัมพันธ์ระหว่างปัจจัยที่สร้างขึ้นใหม่ไว้ในแถวและคุณลักษณะดั้งเดิมที่วางไว้ในคอลัมน์
ที่จุดตัดของแต่ละปัจจัยและคุณลักษณะจำนวนบวกระบุว่ามีสัดส่วนบวกระหว่างสอง; ตัวเลขเชิงลบแทนชี้ให้เห็นว่าพวกเขาแตกต่างและหนึ่งเป็นตรงกันข้ามกับอื่น ๆ
คุณจะต้องทดสอบค่าที่แตกต่างกันของ n_components เนื่องจากไม่สามารถทราบได้ว่ามีปัจจัยใดบ้างที่มีอยู่ในข้อมูล ถ้าอัลกอริทึมเป็นสิ่งจำเป็นสำหรับปัจจัยมากกว่าที่มีอยู่จะสร้างปัจจัยที่มีค่าต่ำในอาร์เรย์ components_
pandas นำเข้าเป็น pd print pd DataFrame (factor. components_ คอลัมน์ = iris. feature_names) ความยาวปลาดาว (ซม.) ความกว้างของก้าน (ซม.) ความยาวกลีบดอก (ซม.) ความกว้างของกลีบ (ซม.) 0 0. 707227 -0 153147 1. 653151 0. 701569 1 0. 114676 0. 159763 -0. 045604 -0 014052 2 0. 000000 -0 000000 -0 000000 -0 000000 3 -0 000000 0. 000000 0.000000 -0 000000
ในการทดสอบในชุดข้อมูล Iris ตัวอย่างเช่นปัจจัยที่เป็นผลลัพธ์ควรเป็นค่าสูงสุด 2, ไม่ใช่ 4 เนื่องจากมีเพียงสองปัจจัยที่มีความเกี่ยวข้องกับคุณลักษณะดั้งเดิมเท่านั้น คุณสามารถใช้ทั้งสองปัจจัยนี้เป็นตัวแปรใหม่ในโครงการของคุณเนื่องจากแสดงถึงคุณลักษณะที่มองไม่เห็น แต่มีความสำคัญซึ่งข้อมูลที่มีอยู่ก่อนหน้านี้มีเพียงคำแนะนำเท่านั้น
การใช้ส่วนประกอบไม่ใช่ปัจจัย
ถ้า SVD สามารถใช้กับความแปรปรวนร่วมกันได้สำเร็จคุณอาจสงสัยว่าเหตุใดคุณจึงไม่สามารถนำไปใช้กับความแปรปรวนทั้งหมดได้ การใช้เมทริกซ์เริ่มต้นที่มีการปรับเปลี่ยนเล็กน้อยความสัมพันธ์ทั้งหมดในข้อมูลอาจลดลงและบีบอัดในลักษณะเดียวกับที่ SVD ทำ
ผลลัพธ์ของกระบวนการนี้ซึ่งค่อนข้างคล้ายกับ SVD เรียกว่า
การวิเคราะห์องค์ประกอบหลัก (PCA) คุณลักษณะที่สร้างขึ้นใหม่มีชื่อว่า ส่วนประกอบ ตรงกันข้ามกับปัจจัยองค์ประกอบไม่ได้อธิบายว่าเป็นสาเหตุของโครงสร้างข้อมูล แต่เป็นข้อมูลที่ปรับโครงสร้างเพียงอย่างเดียวดังนั้นคุณจึงสามารถดูข้อมูลเหล่านี้เป็นผลรวมที่ยอดเยี่ยมของตัวแปรที่เลือก สำหรับการใช้งานด้านวิทยาศาสตร์ข้อมูล PCA และ SVD ค่อนข้างคล้ายกัน อย่างไรก็ตามเนื่องจาก PCA ไม่ได้รับผลกระทบจากขนาดของคุณสมบัติดั้งเดิม (เนื่องจากใช้มาตรการความสัมพันธ์ที่มีค่าระหว่าง -1 และ +1) และ PCA มุ่งเน้นที่การสร้างความสัมพันธ์ระหว่างตัวแปรจึงนำเสนอผลลัพธ์ที่แตกต่างจาก SVD.
การลดมิติข้อมูล
ขั้นตอนการขอรับ PCA ค่อนข้างคล้ายกับการวิเคราะห์ปัจจัยความแตกต่างคือคุณไม่ได้ระบุจำนวนคอมโพเนนต์ที่ต้องการแยกออก คุณตัดสินใจภายหลังว่าจะเก็บองค์ประกอบกี่ส่วนหลังจากตรวจสอบแอตทริบิวต์ explain_variance_ratio_ ซึ่งให้ข้อมูลเชิงปริมาณของค่าข้อมูลแต่ละองค์ประกอบที่แยกออกมา ตัวอย่างต่อไปนี้แสดงวิธีการทำงานนี้:
จาก sklearn การสลายตัวนำเข้า PCA pandas นำเข้าเป็น pd pca = PCA () พอดี (X) พิมพ์ 'อธิบายความแปรปรวนตามส่วนประกอบ:% s'% pca explain_variance_ratio_ พิมพ์ pd DataFrame (pca. components_ คอลัมน์ = iris feature_names) อธิบายความแปรปรวนตามส่วนประกอบ: [0. 92461621 0. 05301557 0. 01718514 0. 00518309] ความยาวของก้าน (เซนติเมตร) กว้างหน้าท้อง (เซนติเมตร) ความยาวกลีบดอก (ซม.) ความกว้างของกลีบดอก (ซม.) 0 0. 361590 -0 082269 0.856572 0. 358844 1 -0. 656540 -0 729712 0. 175767 0. 074706 2 0. 580997 -0 596418 -0 072524 -0 549061 3 0. 317255 -0 324094 -0 479719 0. 751121
ในการสลายตัวของชุดข้อมูล Iris นี้อาร์เรย์เวกเตอร์ที่อธิบายโดย explain_variance_ratio_ แสดงว่าข้อมูลส่วนใหญ่มีการกระจุกตัวอยู่ในองค์ประกอบแรก (92.5 เปอร์เซ็นต์) ดังนั้นจึงเป็นไปได้ที่จะลดชุดข้อมูลทั้งหมดให้เหลือเพียงแค่สองส่วนประกอบทำให้ลดเสียงรบกวนและข้อมูลซ้ำซ้อนจากชุดข้อมูลเดิมได้