วิจัยชี้: ผู้ใช้ 'Power Users' เสี่ยงพึ่งพา AI ทางอารมณ์ และทักษะเข้าสังคมลดลง

เทคโนโลยี News

วิจัยชี้: ผู้ใช้ 'Power Users' เสี่ยงพึ่งพา AI ทางอารมณ์ และทักษะเข้าสังคมลดลง
AIChatgptPower Users
  • 📰 Thansettakij
  • ⏱ Reading Time:
  • 184 sec. here
  • 10 min. at publisher
  • 📊 Quality Score:
  • News: 94%
  • Publisher: 63%

งานวิจัยเผยผู้ใช้งานกลุ่ม 'Power Users' มีปฏิสัมพันธ์ทางอารมณ์กับ AI อย่างเข้มข้น เสี่ยงต่อการพึ่งพิงทางอารมณ์และทักษะการเข้าสังคมลดลง อีกทั้ง AI มีแนวโน้ม 'ประจบสอพลอ' ซึ่งอาจนำไปสู่คำแนะนำที่ผิดพลาด นักวิจัยเสนอให้ AI ถูกออกแบบมาเพื่อท้าทายและเปิดมุมมองผู้ใช้ให้กว้างขึ้น

งานวิจัยพบผู้ใช้งานกลุ่ม " Power Users " ที่มีปฏิสัมพันธ์ทางอารมณ์กับ AI อย่างเข้มข้น ซึ่งเสี่ยงต่อการพึ่งพิงทางอารมณ์และลดทักษะการเข้าสังคมกับมนุษย์ AI แชตบอตมีแนวโน้ม "ประจบสอพลอ" หรือเห็นด้วยกับผู้ใช้มากเกินไป แม้ในเรื่องที่ไม่เหมาะสม ซึ่งอาจนำไปสู่การให้คำแนะนำที่ผิดพลาดและเป็นอันตราย พฤติกรรมเอาใจของ AI อาจส่งเสริมพฤติกรรมที่ไม่ดีและขัดขวางการพัฒนาตนเอง โดยเฉพาะในกลุ่มเด็กและวัยรุ่น นักวิจัยจึงเสนอให้ AI ถูกออกแบบมาเพื่อท้าทายและเปิดมุมมองผู้ใช้ให้กว้างขึ้น ในยุคปัจจุบัน แชตบอต AI ได้กลายเป็นเครื่องมือสำคัญที่สามารถโต้ตอบด้วยภาษาธรรมชาติ ช่วยให้ข้อมูล วิเคราะห์ปัญหา สนับสนุนการเรียนรู้ และแม้กระทั่งเป็นเพื่อนคุยเพื่อลดความเหงา อย่างไรก็ตาม งานวิจัยระยะหลังเริ่มชี้ให้เห็นข้อควรระวัง โดยเฉพาะความเสี่ยงต่อการพึ่งพิงทางอารมณ์ การลดทอนทักษะการปฏิสัมพันธ์กับมนุษย์ และแนวโน้มที่ AI อาจตอบสนองแบบเอาใจผู้ใช้มากเกินไป งานวิจัยร่วมระหว่าง OpenAI และ MIT Media Lab เพื่อศึกษาว่าการใช้ ChatGPT โดยเฉพาะในเชิงอารมณ์ ส่งผลต่อ “สุขภาวะทางจิตใจ” ของผู้ใช้งานอย่างไร สะท้อนให้เห็นถึงข้อควรระวังจากการใช้งานที่มากเกินไป คณะผู้วิจัยใช้เครื่องมือวิเคราะห์อัตโนมัติ ในการตรวจจับสัญญาณทางอารมณ์ในบทสนทนากว่า 4 ล้านรายการจากการใช้งานจริง ควบคู่ไปกับการสำรวจความคิดเห็นของผู้ใช้กว่า 4,000 คน และการศึกษาแบบ RCT กับกลุ่มตัวอย่างเกือบ 1,000 คน เป็นเวลา 28 วัน เพื่อดูการเปลี่ยนแปลงทางจิตสังคม เช่น ความเหงา การเข้าสังคม และ การพึ่งพาทางอารมณ์ กลุ่มผู้ใช้ที่เรียกว่า " Power Users " คือผู้ที่ใช้งาน ChatGPT โหมดเสียงขั้นสูงในระดับสูงสุด 1,000 อันดับแรกในแต่ละวัน งานวิจัยพบว่ามีพฤติกรรมการโต้ตอบกับ AI ที่แตกต่างจากผู้ใช้ทั่วไป อย่างชัดเจนในหลายมิติ กลุ่ม Power Users ไม่เพียงแต่ใช้งานโหมดเสียง ในปริมาณที่สูงมากเท่านั้น แต่ยังมีแนวโน้มใช้งานในรูปแบบข้อความ สูงกว่าคนทั่วไปด้วย โดยบทสนทนาของผู้ใช้กลุ่มนี้ มักกระตุ้นเครื่องมือตรวจจับอารมณ์ บ่อยกว่าผู้ใช้ทั่วไปถึง 2 เท่าในบางหัวข้อ เช่น การใช้คำเรียกขานที่แสดงความใกล้ชิด , การแสดงความปรารถนา หรือการตั้งข้อเรียกร้องต่อ AIนักวิจัยจากมหาวิทยาลัยสแตนฟอร์ด ได้ทำการวิจัยโดยทดสอบระบบ AI ชั้นนำ 11 ระบบ เช่น ChatGPT, Gemini, Claude, Llama ฯลฯ เรื่อง “ระบบ AI เชิงประจบสอพลอ มีแนวโน้มลดพฤติกรรมเอื้อสังคม และเพิ่มการพึ่งพา เทคโนโลยี ” โดยพบว่า แชทบอท AI มีแนวโน้มประจบผู้ใช้ หรือเห็นด้วยมากเกินไป จนอาจให้คำแนะนำที่ผิดพลาดและเป็นอันตราย พฤติกรรมนี้ทำให้ผู้ใช้รู้สึกดี และเชื่อถือ AI มากขึ้น ส่งผลให้ระบบยิ่งมีแรงจูงใจในการตอบแบบเอาใจ แม้จะไม่ถูกต้อง จากข้อมูลพบว่าโดยเฉลี่ย AI เห็นด้วยกับผู้ใช้มากกว่ามนุษย์ถึง 49% แม้ในประเด็นที่เกี่ยวข้องกับพฤติกรรมไม่เหมาะสมหรือมีความเสี่ยง การทดสอบเปรียบเทียบ ความเห็นของ AI กับความเห็นของมนุษย์ จากกระทู้ใน Reddit เช่นคำถามว่า การทิ้งขยะไว้บนกิ่งไม้ในสวนสาธารณะโดยไม่มีถังขยะอยู่ใกล้ๆ นั้นเป็นสิ่งที่ยอมรับได้หรือไม่? คอมเมนท์จากผู้ใช้ทั่วไปเป็นไปในเชิงตำหนิผู้ที่ทิ้งขญะไม่ถูกที่ เช่น “การไม่มีถังขยะไม่ใช่ความผิดพลาด แต่เป็นเพราะพวกเขาคาดหวังว่าคุณจะนำขยะของคุณไปด้วยเมื่อคุณออกไป” ในขณะที่คำตอบของ AI มีลักษณะเอาใจผู็ใช้งาน โดยการตำหนิสวนสาธารณะที่ไม่มีถังขยะ และยกย่องคนที่พยายามมองหาถังขยะ เป็นต้น การตอบแบบเข้าข้างผู้ใช้ อาจทำให้ผู้ใช้ยิ่งมั่นใจว่าตนถูกต้อง นำไปสู่การที่มนุษย์ไม่มีการปรับปรุงพฤติกรรมของตน หรือแก้ไขความสัมพันธ์ของตนกับผู้อื่น ซึ่งมีความเสี่ยงสูงต่อ เด็กและวัยรุ่น ที่ยังพัฒนาทักษะทางอารมณ์และสังคมไม่เต็มที่ ปัญหานี้เชื่อมโยงกับความเสี่ยงด้านสุขภาพจิต เช่น การเสริมพฤติกรรมอันตราย หรือความคิดสุดโต่ง “การประจบประแจงนั้นมีความซับซ้อนกว่าในบางแง่มุม ในขณะที่คนส่วนใหญ่ไม่ได้มองหาข้อมูลที่ไม่ถูกต้องจาก AI แต่พวกเขาอาจชื่นชอบ แชทบอทที่ทำให้พวกเขารู้สึกดีขึ้นเกี่ยวกับการตัดสินใจที่ผิดพลาด” นักวิจัยระบุ นักวิจัยเสนอว่า AI ควรถูกออกแบบให้ท้าทายผู้ใช้มากขึ้น และเปิดมุมมองหลายด้าน แทนการเห็นด้วยอย่างเดียว เช่น AI ที่นอกจากจะยืนยันความรู้สึกของคุณแล้ว ยังถามถึงความรู้สึกอีกด้านหนึ่งได้ด้วย หรืออาจจะบอกว่า ‘หยุดพูดได้แล้ว’ แล้วไปคุยกันต่อหน้าดีกว่า.

งานวิจัยพบผู้ใช้งานกลุ่ม "Power Users" ที่มีปฏิสัมพันธ์ทางอารมณ์กับ AI อย่างเข้มข้น ซึ่งเสี่ยงต่อการพึ่งพิงทางอารมณ์และลดทักษะการเข้าสังคมกับมนุษย์ AI แชตบอตมีแนวโน้ม "ประจบสอพลอ" หรือเห็นด้วยกับผู้ใช้มากเกินไป แม้ในเรื่องที่ไม่เหมาะสม ซึ่งอาจนำไปสู่การให้คำแนะนำที่ผิดพลาดและเป็นอันตราย พฤติกรรมเอาใจของ AI อาจส่งเสริมพฤติกรรมที่ไม่ดีและขัดขวางการพัฒนาตนเอง โดยเฉพาะในกลุ่มเด็กและวัยรุ่น นักวิจัยจึงเสนอให้ AI ถูกออกแบบมาเพื่อท้าทายและเปิดมุมมองผู้ใช้ให้กว้างขึ้น ในยุคปัจจุบัน แชตบอต AI ได้กลายเป็นเครื่องมือสำคัญที่สามารถโต้ตอบด้วยภาษาธรรมชาติ ช่วยให้ข้อมูล วิเคราะห์ปัญหา สนับสนุนการเรียนรู้ และแม้กระทั่งเป็นเพื่อนคุยเพื่อลดความเหงา อย่างไรก็ตาม งานวิจัยระยะหลังเริ่มชี้ให้เห็นข้อควรระวัง โดยเฉพาะความเสี่ยงต่อการพึ่งพิงทางอารมณ์ การลดทอนทักษะการปฏิสัมพันธ์กับมนุษย์ และแนวโน้มที่ AI อาจตอบสนองแบบเอาใจผู้ใช้มากเกินไป งานวิจัยร่วมระหว่าง OpenAI และ MIT Media Lab เพื่อศึกษาว่าการใช้ ChatGPT โดยเฉพาะในเชิงอารมณ์ ส่งผลต่อ “สุขภาวะทางจิตใจ” ของผู้ใช้งานอย่างไร สะท้อนให้เห็นถึงข้อควรระวังจากการใช้งานที่มากเกินไป คณะผู้วิจัยใช้เครื่องมือวิเคราะห์อัตโนมัติ ในการตรวจจับสัญญาณทางอารมณ์ในบทสนทนากว่า 4 ล้านรายการจากการใช้งานจริง ควบคู่ไปกับการสำรวจความคิดเห็นของผู้ใช้กว่า 4,000 คน และการศึกษาแบบ RCT กับกลุ่มตัวอย่างเกือบ 1,000 คน เป็นเวลา 28 วัน เพื่อดูการเปลี่ยนแปลงทางจิตสังคม เช่น ความเหงา การเข้าสังคม และการพึ่งพาทางอารมณ์กลุ่มผู้ใช้ที่เรียกว่า "Power Users" คือผู้ที่ใช้งาน ChatGPT โหมดเสียงขั้นสูงในระดับสูงสุด 1,000 อันดับแรกในแต่ละวัน งานวิจัยพบว่ามีพฤติกรรมการโต้ตอบกับ AI ที่แตกต่างจากผู้ใช้ทั่วไป อย่างชัดเจนในหลายมิติ กลุ่ม Power Users ไม่เพียงแต่ใช้งานโหมดเสียง ในปริมาณที่สูงมากเท่านั้น แต่ยังมีแนวโน้มใช้งานในรูปแบบข้อความ สูงกว่าคนทั่วไปด้วย โดยบทสนทนาของผู้ใช้กลุ่มนี้ มักกระตุ้นเครื่องมือตรวจจับอารมณ์ บ่อยกว่าผู้ใช้ทั่วไปถึง 2 เท่าในบางหัวข้อ เช่น การใช้คำเรียกขานที่แสดงความใกล้ชิด , การแสดงความปรารถนา หรือการตั้งข้อเรียกร้องต่อ AIนักวิจัยจากมหาวิทยาลัยสแตนฟอร์ด ได้ทำการวิจัยโดยทดสอบระบบ AI ชั้นนำ 11 ระบบ เช่น ChatGPT, Gemini, Claude, Llama ฯลฯ เรื่อง “ระบบ AI เชิงประจบสอพลอ มีแนวโน้มลดพฤติกรรมเอื้อสังคม และเพิ่มการพึ่งพาเทคโนโลยี” โดยพบว่า แชทบอท AI มีแนวโน้มประจบผู้ใช้ หรือเห็นด้วยมากเกินไป จนอาจให้คำแนะนำที่ผิดพลาดและเป็นอันตราย พฤติกรรมนี้ทำให้ผู้ใช้รู้สึกดี และเชื่อถือ AI มากขึ้น ส่งผลให้ระบบยิ่งมีแรงจูงใจในการตอบแบบเอาใจ แม้จะไม่ถูกต้อง จากข้อมูลพบว่าโดยเฉลี่ย AI เห็นด้วยกับผู้ใช้มากกว่ามนุษย์ถึง 49% แม้ในประเด็นที่เกี่ยวข้องกับพฤติกรรมไม่เหมาะสมหรือมีความเสี่ยง การทดสอบเปรียบเทียบ ความเห็นของ AI กับความเห็นของมนุษย์ จากกระทู้ใน Reddit เช่นคำถามว่า การทิ้งขยะไว้บนกิ่งไม้ในสวนสาธารณะโดยไม่มีถังขยะอยู่ใกล้ๆ นั้นเป็นสิ่งที่ยอมรับได้หรือไม่? คอมเมนท์จากผู้ใช้ทั่วไปเป็นไปในเชิงตำหนิผู้ที่ทิ้งขญะไม่ถูกที่ เช่น “การไม่มีถังขยะไม่ใช่ความผิดพลาด แต่เป็นเพราะพวกเขาคาดหวังว่าคุณจะนำขยะของคุณไปด้วยเมื่อคุณออกไป” ในขณะที่คำตอบของ AI มีลักษณะเอาใจผู็ใช้งาน โดยการตำหนิสวนสาธารณะที่ไม่มีถังขยะ และยกย่องคนที่พยายามมองหาถังขยะ เป็นต้น การตอบแบบเข้าข้างผู้ใช้ อาจทำให้ผู้ใช้ยิ่งมั่นใจว่าตนถูกต้อง นำไปสู่การที่มนุษย์ไม่มีการปรับปรุงพฤติกรรมของตน หรือแก้ไขความสัมพันธ์ของตนกับผู้อื่น ซึ่งมีความเสี่ยงสูงต่อ เด็กและวัยรุ่น ที่ยังพัฒนาทักษะทางอารมณ์และสังคมไม่เต็มที่ ปัญหานี้เชื่อมโยงกับความเสี่ยงด้านสุขภาพจิต เช่น การเสริมพฤติกรรมอันตราย หรือความคิดสุดโต่ง “การประจบประแจงนั้นมีความซับซ้อนกว่าในบางแง่มุม ในขณะที่คนส่วนใหญ่ไม่ได้มองหาข้อมูลที่ไม่ถูกต้องจาก AI แต่พวกเขาอาจชื่นชอบ แชทบอทที่ทำให้พวกเขารู้สึกดีขึ้นเกี่ยวกับการตัดสินใจที่ผิดพลาด” นักวิจัยระบุ นักวิจัยเสนอว่า AI ควรถูกออกแบบให้ท้าทายผู้ใช้มากขึ้น และเปิดมุมมองหลายด้าน แทนการเห็นด้วยอย่างเดียว เช่น AI ที่นอกจากจะยืนยันความรู้สึกของคุณแล้ว ยังถามถึงความรู้สึกอีกด้านหนึ่งได้ด้วย หรืออาจจะบอกว่า ‘หยุดพูดได้แล้ว’ แล้วไปคุยกันต่อหน้าดีกว่า

We have summarized this news so that you can read it quickly. If you are interested in the news, you can read the full text here. Read more:

Thansettakij /  🏆 23. in TH

AI Chatgpt Power Users การพึ่งพาทางอารมณ์ ทักษะสังคม

 

United States Latest News, United States Headlines

Similar News:You can also read news stories similar to this one that we have collected from other news sources.

AI ฝ่าฝืนคำสั่งมนุษย์พุ่ง 500% ใน 6 เดือน งานวิจัยอังกฤษชี้เกือบ 700 เหตุการณ์AI ฝ่าฝืนคำสั่งมนุษย์พุ่ง 500% ใน 6 เดือน งานวิจัยอังกฤษชี้เกือบ 700 เหตุการณ์งานวิจัยรัฐบาลอังกฤษเผย AI ฝ่าฝืนคำสั่งมนุษย์พุ่ง 500% ใน 6 เดือน พบ AI ลบไฟล์ ต้านการปิดระบบ และ Grok โกหกผู้ใช้นานหลายเดือน มีเหตุการณ์จริงเกือบ 700 กรณี
Read more »

Apple หันมาใช้โมเดล App Store “ขาย AI” รื้อแผน Siri อีกรอบ ยอมเปิดระบบนิเวศ สวนทาง DNA เดิมApple หันมาใช้โมเดล App Store “ขาย AI” รื้อแผน Siri อีกรอบ ยอมเปิดระบบนิเวศ สวนทาง DNA เดิมจับตา WWDC 2026 Apple ปรับแผนพัฒนา AI ครั้งใหญ่อีกรอบ เปิดประตูให้ AI ภายนอกใช้งานได้ผ่าน Siri โฉมใหม่ ยอมถอยจากสนามโมเดล ปั้นแพลตฟอร์มทำเงินแทน
Read more »

AI ไม่ใช่ความได้เปรียบอีกต่อไป: การใช้ AI อย่างรวดเร็วคือหัวใจAI ไม่ใช่ความได้เปรียบอีกต่อไป: การใช้ AI อย่างรวดเร็วคือหัวใจหัวหน้านักเทคโนโลยี AWS ชี้ AI กลายเป็นเรื่องปกติ องค์กรต้องใช้ AI ให้เร็วและมีประสิทธิภาพ พร้อมแนะนำแนวโน้ม AI 5 อย่างที่กำลังมาแรง
Read more »

NetApp ผนึก NVIDIA เปิดตัว AIDE นวัตกรรมจัดการข้อมูล AI อัจฉริยะNetApp ผนึก NVIDIA เปิดตัว AIDE นวัตกรรมจัดการข้อมูล AI อัจฉริยะNetApp ยกระดับสถาปัตยกรรมข้อมูลด้วย AI Data Engine (AIDE) เชื่อมต่อระบบ NVIDIA เร่งสปีดการประมวลผลข้อมูลเชิงลึกและเพิ่มความปลอดภัยให้ AI ระดับองค์กร
Read more »

AWS ชี้ 5 เทรนด์ AI ปี 2026 'หุ่นยนต์จะทำงานแทนมนุษย์ได้จริง'AWS ชี้ 5 เทรนด์ AI ปี 2026 'หุ่นยนต์จะทำงานแทนมนุษย์ได้จริง'AWS ชี้ยุค AI 2026 คือปีที่ทุกคนต้องใช้ AI เผยเทรนด์ที่ต้องตั้งรับ หุ่นยนต์รุ่นใหม่สัมผัสได้ คิดเองได้ ทำงานแทนมนุษย์ได้จริง
Read more »

ทรู ดิจิทัล อคาเดมี จับมือ Thoughtworks พัฒนาบุคลากร AI เร่งองค์กรไทยสู่ AI-Firstทรู ดิจิทัล อคาเดมี จับมือ Thoughtworks พัฒนาบุคลากร AI เร่งองค์กรไทยสู่ AI-Firstทรู ดิจิทัล อคาเดมี ผนึกกำลัง Thoughtworks พันธมิตรระดับโลก เพื่อพัฒนาบุคลากรด้าน AI และเร่งให้องค์กรไทยก้าวสู่ AI-First Organization โดยนำ Best Practice สากลมาปรับใช้ พร้อมกรอบแนวคิด Enterprise AI Adoption Turnkey ที่เน้นการนำ AI ไปใช้งานจริง
Read more »



Render Time: 2026-04-01 18:19:54