تقنية

سماعات

في الأماكن المزدحمة، حيث تمتزج أصوات الموسيقى مع صخب الصحون وتتشابك عشرات المحادثات في آن واحد، يصبح من الصعب جدًا متابعة حديث واحد بوضوح. هذا الوضع يشكل تحديًا حقيقيًا خاصةً للأشخاص الذين يعانون من صعوبات في السمع، إذ يجدون أنفسهم غالبًا في حالة إرهاق مستمر لمحاولة فهم ما يُقال وسط هذا الضجيج المستمر. حتى الشخص العادي قد يشعر بالتوتر والانزعاج في مثل هذه البيئات، حيث تتداخل الأصوات بطريقة تجعل التركيز على الكلام الفردي مهمة صعبة وشاقة.

سماعات
سماعات

في مواجهة هذه المشكلة اليومية، أتى فريق بحثي من جامعة واشنطن بفكرة مبتكرة قد تحدث ثورة في طريقة تفاعلنا مع الصوت في البيئات المزدحمة. فقد أعلن الفريق عن تطوير نوع جديد من السماعات الذكية المدعومة بتقنيات الذكاء الاصطناعي. هذه السماعات ليست مجرد جهاز لسماع الأصوات بشكل أعلى، بل هي قادرة على القيام بمهام أكثر تعقيدًا وذكاءً. أحد أبرز مميزات هذه السماعات هو قدرتها على عزل الأصوات المختلفة في المكان الصاخب، بحيث يمكن للمستخدم التركيز على صوت المتحدث الذي يريد الاستماع إليه فقط، دون أن تتداخل معه الأصوات المحيطة.

التقنية التي تعتمد عليها هذه السماعات تسمح بتحويل تجربة المحادثة في الأماكن المزدحمة إلى تجربة أكثر وضوحًا وخصوصية. فبدلاً من محاولة فرز الأصوات يدويًا أو رفع مستوى الصوت بشكل غير عملي، يمكن للمستخدم ببساطة ارتداء هذه السماعات والاستماع إلى المحادثة المطلوبة بصوت واضح ومستقل عن الخلفية المزدحمة. هذا التطور يمثل خطوة كبيرة للأشخاص الذين يعانون من ضعف السمع أو حتى لأولئك الذين يبحثون عن تجربة صوتية أكثر راحة في البيئات الصاخبة.

ويُشير تقرير نشره موقع “interestingengineering” إلى أن هذه السماعات تختلف اختلافًا جوهريًا عن الحلول التقليدية المعروفة. فالأجهزة السابقة كانت تتطلب ضبطًا يدويًا مستمرًا للتركيز على صوت معين أو لإيقاف الضوضاء المحيطة، وهو ما قد يكون مزعجًا وغير عملي في الحياة اليومية. أما السماعات الجديدة فهي تعتمد على الذكاء الاصطناعي لتحليل الصوت بشكل لحظي، وتحديد الأصوات المراد عزلها أو تضخيمها تلقائيًا، ما يتيح تجربة استماع سلسة وفعالة دون تدخل المستخدم.

هذا الابتكار قد يفتح آفاقًا واسعة ليس فقط في مجال الأجهزة المساعدة للأشخاص ضعاف السمع، بل أيضًا في استخدامات متعددة مثل الاجتماعات الصاخبة والمقاهي المزدحمة أو حتى الحفلات الموسيقية، حيث يرغب البعض في متابعة محادثة معينة دون أن يتشتت بسبب الضوضاء المحيطة. ويعتبر الباحثون أن هذه التقنية تمثل بداية جديدة لعالم الصوتيات الذكية، حيث يمكن للأجهزة أن تفهم البيئة الصوتية المحيطة وتتفاعل معها بشكل ذكي يخدم المستخدم بطريقة شخصية وفريدة.

في المستقبل، من المتوقع أن يتم دمج هذه السماعات مع تطبيقات وأجهزة أخرى لتعزيز تجربة المستخدم أكثر، وربما تشمل تحسينات على مستوى الصوت المكاني والتفاعلي الذي يتيح الشعور بأن الشخص المتحدث بالقرب منك بالرغم من الضوضاء المحيطة. هذه الابتكارات تفتح الباب أمام تحول جذري في الطريقة التي نتعامل بها مع الصوت في حياتنا اليومية، وتجعل تجربة الاستماع إلى محادثة في مكان مزدحم تجربة مريحة وسهلة، بعيدة عن الإحباط والإرهاق الذي كان يرافقها سابقًا.

سماعات جامعة واشنطن الذكية المدعومة بالذكاء الاصطناعي تمثل قفزة نوعية في عالم الصوتيات، فهي تقدم حلاً عمليًا وفعالًا لمشكلة كانت تؤثر على ملايين الأشخاص حول العالم، وتجعل من متابعة الحديث في الأماكن الصاخبة تجربة ممكنة ومرنة وأكثر خصوصية.

النموذج الجديد يتعرف على الأشخاص المشاركين في المحادثة
النموذج الجديد يتعرف تلقائياً على الأشخاص المشاركين في المحادثة ويكتم الأصوات الأخرى التي لا تتماشى مع إيقاع تبادل الأدوار في الكلام.

ويعتمد النظام على نموذجين للذكاء الاصطناعي

الأول يحلل أنماط توقيت الحديث
الثاني يفلتر الأصوات غير المهمة ويعيد صوت المتحدث الحقيقي بشكل فوري

المذهل أن الجهاز يحتاج فقط بين ثانيتين وأربع ثوانٍ لتحديد أطراف المحادثة، بينما يعمل بكفاءة في مجموعات تصل إلى أربعة متحدثين مع المستخدم دون أي تأخير يُذكر.

وقد قدم الباحثون هذا الابتكار في السابع من نوفمبر بمدينة سوتشو الصينية خلال مؤتمر EMNLP المتخصص في معالجة اللغات الطبيعية، كما نشروا الكود البرمجي للنظام بشكل مفتوح.

ويعتقد الفريق أن التقنية ستمهد الطريق لأجيال جديدة من المعينات السمعية وسماعات الأذن والنظارات الذكية.

الذكاء الاصطناعي يتعرف على نبرة الحوار

البروفيسور شايام غولاكوتا المشرف على المشروع أوضح أن الأنظمة السابقة كانت تعتمد على عمليات جراحية لزرع أقطاب في الدماغ بهدف قياس الانتباه السمعي، وهو ما يعد غير عملي للمستخدمين العاديين.

ويضيف غولاكوتا: “اكتشفنا أن نمط تبادل الأدوار في الحوار البشري يمنح خيطاً يمكن للذكاء الاصطناعي تتبعه بدقة دون أي أجهزة مزروعة.”

اختبر الباحثون النظام على أحد عشر مشاركاً وقارنوا تجربتهم مع وبدون الفلاتر الصوتية.

النتيجة كانت مذهلة حيث تضاعف مستوى الصفاء والفهم أكثر من الضعف.

لكن الفريق يعترف بأن المواقف الفوضوية مثل المقاطعات المتكررة أو انضمام أشخاص جدد أثناء الحديث لا تزال تشكل تحدياً.

كما تم تدريب النماذج على اللغات الإنجليزية والماندرينية واليابانية، بينما قد تحتاج لغات أخرى إلى تطوير إضافي.

النموذج الحالي يعتمد على سماعات رأس تجارية ودارات إلكترونية بسيطة، لكن غولاكوتا يؤكد أن التقنية ستتقلص قريباً لتناسب سماعات الأذن أو حتى المعينات السمعية.

وفي دراسة أخرى قدمها الفريق ضمن MobiCom 2025، أثبتوا أن النماذج نفسها يمكن تشغيلها على رقائق صغيرة بالحجم المستخدم في المعينات السمعية التقليدية.

هذه التقنية تمثل خطوة جديدة نحو أجهزة قادرة على فهم نوايا المستخدم والتفاعل معها تلقائياً، لتجعل الضوضاء شيئاً من الماضي وتحول أصعب البيئات الصوتية إلى تجربة نقية وواضحة.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى