
นักวิทยาศาสตร์ได้ถอดรหัสภาพที่มองเห็นได้จากสมองของสุนัข โดยให้มองก่อนว่าจิตใจของสุนัขสร้างสิ่งที่มองเห็นได้อย่างไร Journal of Visualized Experiments ตีพิมพ์ผลงานวิจัยที่ทำขึ้นที่ Emory University
ผลการวิจัยชี้ให้เห็นว่าสุนัขมีความคุ้นเคยกับการกระทำในสภาพแวดล้อมมากกว่าที่จะเป็นใครหรือทำอะไร
นักวิจัยบันทึกข้อมูลประสาท fMRI สำหรับสุนัขสองตัวที่ตื่นตัวและไม่ถูกจำกัดขณะที่พวกเขาดูวิดีโอในเซสชั่น 30 นาทีสามครั้ง รวมเป็น 90 นาที จากนั้นจึงใช้อัลกอริธึมการเรียนรู้ด้วยเครื่องเพื่อวิเคราะห์รูปแบบในข้อมูลประสาท
Gregory Berns ศาสตราจารย์ด้านจิตวิทยาของ Emory และผู้เขียนบทความที่เกี่ยวข้องกล่าวว่า “เราแสดงให้เห็นว่าเราสามารถติดตามกิจกรรมในสมองของสุนัขได้ในขณะที่กำลังดูวิดีโอ และอย่างน้อยก็สร้างขอบเขตที่จำกัดได้ . “การที่เราสามารถทำได้นั้นน่าทึ่งมาก”
โปรเจ็กต์นี้ได้รับแรงบันดาลใจจากความก้าวหน้าล่าสุดในการเรียนรู้ของเครื่องและ fMRI ในการถอดรหัสสิ่งเร้าทางสายตาจากสมองของมนุษย์ โดยให้ข้อมูลเชิงลึกใหม่ๆ เกี่ยวกับธรรมชาติของการรับรู้ นอกเหนือจากมนุษย์แล้ว เทคนิคนี้ยังใช้กับสายพันธุ์อื่นๆ เพียงไม่กี่ชนิดเท่านั้น รวมถึงไพรเมตบางตัวด้วย
Erin Phillips ผู้เขียนรายงานฉบับแรก ซึ่งทำงานเป็นผู้เชี่ยวชาญด้านการวิจัยใน Canine Cognitive Neuroscience Lab ของ Berns กล่าวว่า “แม้ว่างานของเราจะใช้สุนัขเพียงสองตัวเท่านั้น แต่ก็เป็นการพิสูจน์แนวคิดว่าวิธีการเหล่านี้ใช้ได้ผลกับสุนัข” “ฉันหวังว่าบทความนี้จะช่วยปูทางให้นักวิจัยคนอื่นๆ นำวิธีการเหล่านี้ไปใช้กับสุนัข เช่นเดียวกับในสายพันธุ์อื่นๆ เพื่อให้เราได้รับข้อมูลและข้อมูลเชิงลึกที่มากขึ้นว่าจิตใจของสัตว์ต่างๆ ทำงานอย่างไร”
Phillips ซึ่งเป็นชาวสกอตแลนด์ มาที่ Emory ในฐานะ Bobby Jones Scholar ซึ่งเป็นโครงการแลกเปลี่ยนระหว่าง Emory และ University of St Andrews ปัจจุบันเธอเป็นนักศึกษาระดับบัณฑิตศึกษาด้านนิเวศวิทยาและชีววิทยาวิวัฒนาการที่มหาวิทยาลัยพรินซ์ตัน
Berns และเพื่อนร่วมงานเป็นผู้บุกเบิกเทคนิคการฝึกอบรมเพื่อให้สุนัขเดินเข้าไปในเครื่องสแกน fMRI และนิ่งสนิทและไม่ถูก จำกัด ในขณะที่วัดการทำงานของระบบประสาท ทศวรรษที่ผ่านมา ทีมงานของเขาได้เผยแพร่ภาพสมอง fMRI ภาพแรกของสุนัขที่ตื่นเต็มที่และไม่ถูกควบคุม นั่นเปิดประตูสู่สิ่งที่ Berns เรียกว่า The Dog Project ซึ่งเป็นชุดการทดลองสำรวจจิตใจของสายพันธุ์ที่เก่าแก่ที่สุดในบ้าน
หลายปีที่ผ่านมา ห้องทดลองของเขาได้ตีพิมพ์งานวิจัยเกี่ยวกับวิธีที่สมองของสุนัขประมวลผลการมองเห็น คำพูด กลิ่น และรางวัลต่างๆ เช่น การได้รับคำชมหรืออาหาร
ในขณะเดียวกัน เทคโนโลยีที่อยู่เบื้องหลังอัลกอริธึมคอมพิวเตอร์สำหรับการเรียนรู้ด้วยเครื่องก็พัฒนาขึ้นเรื่อยๆ เทคโนโลยีนี้ช่วยให้นักวิทยาศาสตร์สามารถถอดรหัสรูปแบบการทำงานของสมองของมนุษย์ได้ เทคโนโลยี “อ่านใจ” โดยการตรวจจับภายในรูปแบบข้อมูลสมองของวัตถุหรือการกระทำต่างๆ ที่บุคคลเห็นขณะดูวิดีโอ
“ฉันเริ่มสงสัยว่า ‘เราสามารถใช้เทคนิคที่คล้ายคลึงกันกับสุนัขได้ไหม’” เบิร์นส์เล่า
ความท้าทายแรกคือการสร้างเนื้อหาวิดีโอที่สุนัขอาจสนใจพอที่จะดูเป็นเวลานาน ทีมวิจัยของ Emory ได้ติดเครื่องบันทึกวิดีโอไว้กับไม้กันสั่นและไม้เซลฟี่ ซึ่งช่วยให้พวกเขาสามารถถ่ายภาพนิ่งจากมุมมองของสุนัข ในระดับเอวสูงถึงคนหรือต่ำกว่าเล็กน้อย
พวกเขาใช้อุปกรณ์นี้สร้างวิดีโอครึ่งชั่วโมงเกี่ยวกับชีวิตของสุนัขส่วนใหญ่ กิจกรรมต่างๆ ได้แก่ สุนัขที่ถูกผู้คนลูบคลำและรับการปฏิบัติจากผู้คน ฉากกับสุนัขยังแสดงให้เห็นว่าพวกมันดมกลิ่น เล่น กิน หรือเดินด้วยสายจูง ฉากกิจกรรมแสดงให้เห็นรถยนต์ จักรยาน หรือสกู๊ตเตอร์ที่วิ่งผ่านถนน แมวกำลังเดินอยู่ในบ้าน กวางข้ามทาง; คนนั่ง; คนกอดหรือจูบ คนยื่นกระดูกยางหรือลูกบอลให้กล้อง และคนกิน
ข้อมูลวิดีโอถูกแบ่งตามการประทับเวลาเป็นตัวแยกประเภทต่างๆ รวมถึงตัวแยกประเภทตามวัตถุ (เช่น สุนัข รถยนต์ คน แมว) และตัวแยกประเภทตามการกระทำ (เช่น การดมกลิ่น การเล่น หรือการกิน)
มีเพียงสุนัขสองตัวที่ได้รับการฝึกฝนสำหรับการทดลองใน fMRI เท่านั้นที่มีโฟกัสและอารมณ์ที่จะนอนนิ่งสนิทและดูวิดีโอ 30 นาทีโดยไม่หยุดพัก รวมถึงสามช่วงรวมทั้งหมด 90 นาที เขี้ยว “ซุปเปอร์สตาร์” สองตัวนี้คือเดซี่ สุนัขพันธุ์ผสมที่อาจเป็นส่วนหนึ่งของบอสตัน เทอร์เรียร์ และบูโบะ สุนัขพันธุ์ผสมที่อาจเป็นส่วนหนึ่งของนักมวย
“พวกมันไม่ต้องการอาหารด้วยซ้ำ” ฟิลลิปส์ ผู้ดูแลสัตว์เหล่านี้ระหว่างการทำ fMRI และเฝ้าดูสายตาของพวกมันที่ติดตามในวิดีโอกล่าว “มันน่าขบขันเพราะเป็นวิทยาศาสตร์ที่จริงจัง และต้องใช้เวลาและความพยายามอย่างมาก แต่มันมาจากสุนัขเหล่านี้ที่ดูวิดีโอของสุนัขและมนุษย์ตัวอื่นๆ ที่ทำตัวงี่เง่า”
มนุษย์สองคนยังได้รับการทดลองเดียวกัน โดยดูวิดีโอความยาว 30 นาทีเดียวกันในสามช่วงที่แยกจากกัน ขณะที่นอนอยู่ใน fMRI
ข้อมูลสมองสามารถจับคู่กับตัวแยกประเภทวิดีโอได้โดยใช้การประทับเวลา
อัลกอริทึมการเรียนรู้ด้วยเครื่องหรือโครงข่ายประสาทที่เรียกว่า Ivis ถูกนำไปใช้กับข้อมูล โครงข่ายประสาทคือวิธีการทำการเรียนรู้ของเครื่องโดยให้คอมพิวเตอร์วิเคราะห์ตัวอย่างการฝึกอบรม ในกรณีนี้ โครงข่ายประสาทถูกฝึกให้จำแนกเนื้อหาข้อมูลสมอง
ผลลัพธ์สำหรับมนุษย์สองคนพบว่าแบบจำลองที่พัฒนาโดยใช้โครงข่ายประสาทมีความแม่นยำ 99% ในการทำแผนที่ข้อมูลสมองไปยังตัวแยกประเภทตามวัตถุและการกระทำ
ในกรณีของการถอดรหัสเนื้อหาวิดีโอจากสุนัข โมเดลใช้ไม่ได้กับตัวแยกประเภทวัตถุ อย่างไรก็ตาม มีความแม่นยำ 75% ถึง 88% ในการถอดรหัสการจำแนกประเภทการกระทำสำหรับสุนัข
ผลการวิจัยชี้ให้เห็นถึงความแตกต่างที่สำคัญในการทำงานของสมองของมนุษย์และสุนัข
“มนุษย์เราเป็นพวกชอบวัตถุ” เบิร์นส์กล่าว “คำนามมีมากกว่าคำกริยาในภาษาอังกฤษถึง 10 เท่า เพราะเรามีความหลงใหลในการตั้งชื่อเป็นพิเศษ ดูเหมือนว่าสุนัขจะไม่ค่อยสนใจว่าใครหรือสิ่งที่พวกเขาเห็น และกังวลกับการกระทำของตัวเองมากกว่า”
สุนัขและมนุษย์มีความแตกต่างกันอย่างมากในระบบการมองเห็นของพวกเขา Berns กล่าว สุนัขมองเห็นได้เฉพาะในเฉดสีฟ้าและสีเหลือง แต่มีความหนาแน่นสูงกว่าเล็กน้อยของตัวรับการมองเห็นที่ออกแบบมาเพื่อตรวจจับการเคลื่อนไหว
“มันสมเหตุสมผลดีที่สมองของสุนัขจะต้องได้รับการปรับให้เข้ากับการกระทำเป็นอย่างแรกและสำคัญที่สุด” เขากล่าว “สัตว์ต้องกังวลอย่างมากกับสิ่งที่เกิดขึ้นในสภาพแวดล้อมของพวกเขาเพื่อหลีกเลี่ยงการถูกกินหรือเพื่อติดตามสัตว์ที่พวกเขาต้องการล่าสัตว์ การกระทำและการเคลื่อนไหวเป็นสิ่งสำคัญยิ่ง”
สำหรับฟิลิปส์ การทำความเข้าใจว่าสัตว์ต่างๆ มองโลกอย่างไรนั้นมีความสำคัญต่อการวิจัยภาคสนามในปัจจุบันของเธอว่าการที่สัตว์ล่าเหยื่อกลับคืนสู่สภาพเดิมในโมซัมบิกอาจส่งผลกระทบต่อระบบนิเวศอย่างไร “ในอดีต วิทยาการคอมพิวเตอร์และนิเวศวิทยาไม่ได้มีความทับซ้อนกันมากนัก” เธอกล่าว “แต่แมชชีนเลิร์นนิงเป็นสาขาที่กำลังเติบโตซึ่งเริ่มค้นหาการใช้งานที่กว้างขึ้น รวมถึงในด้านนิเวศวิทยาด้วย”
ผู้เขียนบทความเพิ่มเติม ได้แก่ Daniel Dilks รองศาสตราจารย์ด้านจิตวิทยาของ Emory และ Kirsten Gillette ผู้ซึ่งทำงานในโครงการนี้ในฐานะนักศึกษาระดับปริญญาตรีด้านประสาทวิทยาและชีววิทยาเชิงพฤติกรรมของ Emory Gilette สำเร็จการศึกษาตั้งแต่นั้นมาและขณะนี้อยู่ในหลักสูตรระดับบัณฑิตศึกษาที่ University of North Carolina
Daisy เป็นของ Rebecca Beasley และ Bhubo เป็นของ Ashwin Sakhardande การทดลองของมนุษย์ในการศึกษานี้ได้รับการสนับสนุนโดยทุนจากสถาบันตาแห่งชาติ