مرورگر شما برای نمایش این سایت قدیمی است. برای مشاهده سایت از سایر مرورگرها استفاده نمایید یا جهت بروزرسانی کلیک کنید.

همچنین میتوانید PDF نشریه را از لینک زیر دریافت نمایید.

شماره خبر: 2691006458486134845
دانشمندان می‌گویند فناوری هوش مصنوعی و دید رایانه‌ای هنوز در حدی نیست که همه فرآیند رانندگی را بتوان با اطمینان به خودرو سپرد

مصائب رانندگی بدون راننده

جیتندرا مالک، کسی که سه دهه است در زمینه دید رایانه‌ای تحقیق می‌کند، خودش خودروی تسلا ندارد، اما برای صاحبان این خودرو توصیه‌ای دارد. او می‌گوید: به دلیل آگاهی و دانشی که از دید رایانه‌ای دارم، دست‌هایم را هرگز از روی فرمان خودرو برنمی‌دارم!

دکتر مالک، استاد دانشگاه کالیفرنیا در برکلی، به تصادف مرگباری که در خرداد امسال اتفاق افتاد، اشاره می‌کند. در آن تصادف، یک خودروی الکتریکی تسلا مجهز به سیستم دستیار راننده خودکار، دچار سانحه شده بود. مردی از اوهایو، وقتی خودروی تسلا مدل اس خود را روی حالت خودکار قرار داده بود، به یک تریلی تراکتوری برخورد کرد و کشته شد. قانونگذاران فدرال هنوز در حال تحقیق درباره علت این تصادف هستند، اما به نظر می‌رسد راننده بیش از حد به سیستم خودران تسلا اعتماد کرده بوده است. همین وضعیت نیز می‌تواند در مورد تصادف تسلا در چین ـ که حدود یک ماه پیش گزارش شد ـ هم صحت داشته باشد. خودروسازان دیگر مانند فورد ـ که بتازگی طرح خود مبنی بر تولید خودروهای بدون راننده را تا سال 1400/ 2021 اعلام کرد ـ آهسته به این سمت گام برمی‌دارند و معتقدند فناوری رانندگی بدون گرفتن فرمان، هنوز برای بسیاری از موقعیت‌های ترافیکی مناسب نیست.

فرمان را رها نکنید

شرکت تسلا گفته است فناوری اتوپایلوت (به معنی راننده خودکار) به این معنا نیست که می‌توان تمام مسئولیت راننده انسان را به گردن خودرو انداخت و اوایل این ماه، تلویحا تایید کرد صاحبان تسلا باید به نصیحت دکتر مالک توجه کنند. تسلا همچنین گفته است سامانه اتوپایلوت در حال اصلاح شدن است و به رانندگان در بیشتر مواقع هشدار می‌دهد که دست‌هایشان راروی فرمان نگه دارند. همچنین تسلا، حسگرهای راداری خود را بخوبی تنظیم کرده تا خطرات جاده را دقیق‌تر شناسایی کند و کمتر به دید رایانه‌ای وابسته باشد. محققان در مورد تصادف خردادماه تسلا می‌گویند این تصادف ناشی از ناتوانایی دید رایانه‌ای نبوده است. امروزه، دید رایانه‌ای می‌تواند بسرعت، چهره میلیون‌ها فرد را دقیق تشخیص دهد، سال ساخت و مدل هزاران خودرو را شناسایی کند و گربه‌ها و سگ‌های هر نژاد را به شکلی که هیچ انسانی نمی‌تواند، کاملا بشناسد. با این حال، پیشرفت‌های اخیرکه قابل توجه‌اند، بیشتر در زمینه تشخیص تصویر بوده است. محدودیت بعدی ـ که محققان نیز در آن توافق دارند ـ به طور کلی دانش بصری است. تولید الگوریتم‌هایی که نه‌تنها اشیا، بلکه حرکات و رفتارها را هم درک کند.

هوش مصنوعی در ماشین‌های بدون راننده چطور کار می‌کند؟

به نظر می‌رسد هوش محاسباتی، از هوش انسان تقلید می‌کند. بنابراین علوم رایانه از تشابه و قیاس بهره می‌گیرد. محققان در دید رایانه‌ای برای شرح دو مسیر نویدبخش آینده، دو تشابه ارائه می‌کنند؛ یک کودک و دیگری مغز.

بسیاری از محققان می‌گویند، در مدلی که از روی ویژگی‌های کودک گرفته شده، دربرگیرنده تولید الگوریتم‌هایی است که مانند یک کودک با کمی نظارت، اما بیشتر با تکیه بر خودش می‌آموزد، نه حجم وسیعی از داده‌های آموزشی که در روش فعلی صورت می‌گیرد. بنا به گفته مالک، این علم در روزهای اولیه‌اش به سر می‌برد، اما با روش فعلی می‌توان به سطح بعدی دست یافت. در مدل دیگر، مغز عمدتا همچون استعاره‌ای الهام‌بخش عمل می‌کند. نه این که نقشه جاده‌ای واقعی در اختیار قرار دهد. کارشناسان هوش مصنوعی همیشه می‌گویند دقت کنید هواپیماها واقعا بال نمی‌زنند و ماشین‌ها بسیار متفاوت از سیستم‌های زیستی عمل می‌کنند.

اما توماس پوژی‌یو، دانشمندی در موسسه تحقیقات مغز مک‌گاورن ام‌آی‌تی، با تقلید دیجیتال از ساختار قشر بینایی مغز و حتی نحوه کار کردن و یادگیری‌های آن، در حال ساخت مدل‌های محاسباتی این قشر بینایی است. بنا به گفته دکتر پوژی‌یو، چنانچه او در کارش موفق شود، موفقیت بزرگی در دید رایانه‌ای و به طور کلی یادگیری ماشین، به دست می‌آید. او معتقد است باید از علم اعصاب، نه فقط به منظور موضوعی الهام‌بخش، بلکه به عنوان نوری قوی و روشنایی‌بخش استفاده کرد.

طرح جاه‌طلبانه ایمیج‌نت

طرح ایمیج‌نت (ImageNet)، کاری مشترک بین محققان دو دانشگاه استنفورد و پرینستون، از جاه‌طلبانه‌ترین طرح‌ها تا امروز بوده است. ابتدا، حدود یک میلیارد تصویر بارگیری شد. سپس تصاویر دسته‌بندی، نامگذاری و غربال و بیش از 14میلیون عکس در 22 هزار بخش طبقه‌بندی شد. مثلا، این پایگاه داده‌ها دربرگیرنده بیش از 62 هزار عکس گربه بود. ایمیج‌نت برای خلق عصر رایانه بشدت تلاش کرد و برای دسته‌بندی و نامگذاری عکس‌ها، از 49 هزار نفر از کارکنان مکانیکال ترک، بازار آنلاین جهانی آمازون کمک گرفت.

پایگاه‌های بزرگ تصویر مانند ایمیج‌نت برای آموزش نرم‌افزارهایی که از گره‌های عصب مانند معروف به شبکه‌های عصبی استفاده می‌کنند، به کار گرفته می‌شوند. مفهوم شبکه عصبی محاسباتی به بیش از سه دهه قبل بازمی‌گردد، اما این اواخر به ابزاری قدرتمند تبدیل شده است. تروور دارل، کارشناس دید رایانه‌ای از دانشگاه کالیفرنیا در برکلی می‌گوید: داده‌های موجود و توانایی محاسباتی، در نهایت رسیدن به ایده‌های گذشته را ممکن کرد.

اگر داده‌ها سوخت محسوب شوند، پس شبکه‌های عصبی بخشی از یادگیری ماشین به نام یادگیری عمیق را موجب می‌شوند. این فناوری نه‌تنها موجب پیشرفت دید رایانه‌ای، بلکه شکل‌های دیگر هوش مصنوعی مانند ترجمه زبان و تشخیص کلام شده است. شرکت‌های فناوری میلیاردها دلار سرمایه‌گذاری در تحقیقات هوش مصنوعی انجام داده‌اند تا بتوانند از شرایط بالقوه تجاری بهره بگیرند.

فی‌فی لی، مدیر آزمایشگاه دید رایانه‌ای استفورد، هدایت‌کننده طرح ایمیج‌نت بوده و مطالعات او در پیشرفت‌ها براساس داده‌ها در دید رایانه‌ای پیشگام بوده است، اما به گفته او، روش فعلی محدود است. دکتر لی گفت: این روش به داده‌های آموزشی و بیشتر چیزی که ما انسان‌ها به عنوان آگاهی و زمینه داریم، متکی است.

طرح هوش بصری ImSitu

در کنفرانس اصلی سالانه دید رایانه‌ای که تابستان امسال برگزار شد، شور و هیجان زیادی وجود داشت، اما عمدتا شامل تحقیق‌هایی بود که در این زمینه گام‌های تشویق‌کننده، اما بدون موفقیت بزرگ برداشته بودند. به طور مثال، علی فرهادی، دانشمند علوم رایانه‌ای در دانشگاه واشنگتن و محققی در موسسه هوش مصنوعی آلن، پایگاه داده‌ای از تصاویر ImSitu.org را نشان داد که در متن یا موقعیت شناسایی می‌شدند. او توضیح داد شناسایی براساس تصاویر، اسامی هوش بصری را ارائه می‌کند، در حالی که شناسایی براساس موقعیت، افعال را نشان می‌دهد. مثلا اگر در بخش جست وجوی این وبگاه بنویسید «نوزادان چه می‌کنند؟» تصاویری از نوزادانی را نشان می‌دهد که در حال شیر خوردن، خزیدن، گریه‌کردن و خندیدن هستند، یعنی مجموعه‌ای از افعال، قابل دیدن یا بصری هستند.

تشخیص موقعیت‌ها دید رایانه‌ای را قدرت می‌بخشد، اما پروژه ImSitu هنوز به داده‌هایی وابسته است که به وسیله انسان برای آموزش الگوریتم‌های یادگیری ماشین، نامگذاری شده است. دکتر فرهادی در این باره می‌گوید: ما هنوز از هوش بصری، درک صحنه‌ها و حرکات درست مانند انسان، خیلی خیلی دور هستیم.

دانشمندان می‌گویند میلیون‌ها کیلومتر از تست رانندگی در جاده‌ها و شرایط آب و هوایی گوناگون باید قبل از فروش خودروهای خودران انجام شود. گوگل سال‌هاست در حال آزمایش وسایل نقلیه خود است و آبر در پیتسبورگ در آغاز یک برنامه آزمایشی است.

خودروسازان سراسر دنیا در حال تولید خودروهای خودران هستند و به نظر می‌رسد سال 1400/ 2021، سال معرفی تجاری این خودروها باشد. بتازگی شرکت خودروسازی ب‌ام‌و آلمان اعلام کرده است تا سال 1400/ 2021، با همکاری اینتل و شرکتی دیگر که در زمینه دید رایانه‌ای فعال است، خودروهای بدون راننده را راهی بازار خواهد کرد. این خودروها ابتدا در مراکز شهری و چند سال بعد در همه نقاط، امکان رانندگی بدون دست را فراهم می‌کنند. فورد نیز با یک زمان‌بندی مشابه، برنامه تولید خودروی بدون راننده خود را اعلام کرده است.

گری برداسکی، دانشمندی که روی ماشین‌های خودران کار کرده است، می‌گوید: ما هنوز به این مرحله نرسیده‌ایم که با اطمینان کامل سوار ماشینی بدون راننده شویم، اما پیشرفت‌هایی که صورت می‌گیرد ما را به آن می‌رساند. مجبور نیستیم سال‌های سال صبر کنیم تا برخی از ویژگی‌های هوش مصنوعی از راه برسد. پیش از آن خودروهای خودرانی خواهیم داشت که ایمن‌تر از راننده‌های انسان عمل می‌کنند و زندگی هزاران نفر را نجات می‌دهند.

منبع: نیویورک تایمز