در جهان امروز، هوش مصنوعی در نهایت بسیاری از شرکت ها و صنایع را متحول خواهد کرد. ولی نسبت توسعه آن و اعتماد به آن، در بعضی موارد رابطه معکوس داشته است و در مواردی، عملکرد هوش مصنوعی و یا اشتباهاتش باعث عدم اطمینان برای بکاربردن بیشتر آن شده است. در استفاده از هوش مصنوعی باید ریسک ها، چهارچوب ها و کنترل های مناسب را در نظر گرفت.
بسیاری از شرکت ها از هوش مصنوعی فقط در بخش کم خطر کسب و کار استفاده میکنند. حتی شاید فقط برای بدست آوردن بینشی بیشتر و بهتر برای کسب و کار از هوش مصنوعی استفاده میکنند.
باید توجه داشته باشیم که درست است که فناوری هوش مصنوعی جایگزین تصمیم گیری بشر شده است، ولی بهرحال این کار تحت نظارت انسان انجام می شود. البته این در حالی است که تصمیمگیریِ مستقلِ هوش مصنوعی در ابتدای راه است، اما موارد استفاده برای هوش مصنوعی به سرعت در حال افزایش است. با گذشت زمان، هوش مصنوعی مسئول تصمیم گیری¬های بیشتر و تصمیمات با تأثیرات بزرگتر خواهد بود.
برای درک اهمیت اعتماد در ایجاد سیستمهای هوشِ مصنوعیِ موفق، رهبران تجاری می توانند با بررسی این پنج سوال کلیدی شروع کنند.
برخلاف سایر فناوری ها، هوش مصنوعی به تنهایی خود را با یادگیری از طریق استفاده سازگار میکند، بنابراین تصمیماتی که امروز میگیرد ممکن است با تصمیمات فردا متفاوت باشد. این مهم است که این تغییرات به طور مداوم تحت نظارت قرار گیرند تا تأیید شود، چون این تصمیمات باید همچنان مناسب و با کیفیت باشند و ارزش های شرکت را منعکس کنند.
به عنوان مثال، هنگامی که سیستمهای هوش مصنوعی با استفاده از داده هایی که مدت هاست تغییر نکرده است تصمیم گیری کند باید در نظر بگیرید که چگونه این امر در مورد تصمیمات استخدام یک شرکت صدق میکند. آیا الگوریتم ها اشتباهات گذشته را بازتولید می کنند، حتی اگر فرایندهای تصمیم گیری برای جلوگیری از آنها اجرا شده باشد؟ آیا سیستم از بی عدالتی جلوگیری می کند و قوانین جدید را رعایت می کند؟
نایجل دافی، سرپرست هوش مصنوعی جهانی EY میگوید: "هوش مصنوعی میتواند یک ابزار عالی برای تقویت انسان باشد، اما ما باید محدودیت های آن را درک کنیم."
تصمیمات هوش مصنوعی باید با ارزشهای شرکتی و همچنین هنجارهای اخلاقی و اجتماعی وسیعتری مطابقت داشته باشد، با این حال استانداردهای اخلاقی انسان بر بسیاری از موارد مهم است: خانواده های ما، فرهنگهای ما، ادیان ما، جوامع ما.
اما ما همچنین باید از خود بپرسیم که آیا این سیستمها آنچه را که ما انتظار داریم انجام می دهند یا خیر. استفاده از هوش مصنوعی در حال گسترش است، اما تعداد کمی از سازمانها دارای قابلیت های کافی برای نظارت بر عملکرد هستند. نمونه های زیادی از شرکت هایی وجود دارد که به دلیل سیستم های تصمیم گیریِ خودکار که ضعیف مدیریت شده، ورشکسته شده اند.
یکی از خطراتی که در خراب شدن سیستم هوش مصنوعی میتواند ایجاد شود مربوط به مسائل قانونی، مالی و معتبر است. سیستمهای AI ناموفق میتوانند شامل نقض قوانین مربوط به استخدام و سایر مقررات شوند. در یک مورد، یک شرکت تجاری، 440 میلیون دلار آمریکا را به دلیل نقص نرم افزاری از دست داد - فقط در 45 دقیقه!!!. در مورد دیگر، یک الگوریتم معیوب که توسط یک سرویس اصلی اشتراک گذاری عکس استفاده می شد، عکس حیوانات را به روش های نژادپرستانه برچسب گذاری میکرد.
الگوریتم ها اشتباه پذیر هستند و می توانند به سرعت خراب شوند. هنگام مطالعه الگوریتم هایی که موارد موجود در تصاویر را مشخص می کنند، یک تیم تحقیقاتی دریافتند که با تغییر چند پیکسل در یک عکس، سیستم تصور میکند که یک لاک پشت اسباب بازی، در واقع یک اسلحه است.
اینها دلیل بر عدم استفاده از هوش مصنوعی نیستند. اما آنها هشدارهایی در مورد اهمیت اطمینان و بررسی مداوم هستند که آیا هوش مصنوعی همان کاری را که در ابتدا مورد نظر بوده را، با کنترل ها و فرایندهای دقیق انجام می دهد یا نه.
در مورد هر فناوری جدید، نحوه مدیریت هوش مصنوعی را با استفاده از شیوه های مدیریتی و مدیریت فناوری موجود تعیین کنید و سپس در مورد آنچه باید تکمیل، اصلاح یا تقویت کنید فکر کنید. به عنوان مثال، شاید نیاز به نظارت بیشتر در زمان واقعی، برای سنجش چگونگی پیشرفت هوش مصنوعی و عملکرد آن در محدوده مورد انتظار وجود داشته باشد.
همچنین، مهم است که به هوش مصنوعی از منظر یک سیستم کامل فکر کنید نه اینکه بر اجزای فردی تمرکز کنید. به یاد داشته باشید که یک الگوریتم هوش مصنوعی، معمولاً به تنهایی کار نمی کند، اما شاید دارای قابلیت های روباتیک، سنسورهای اینترنت اشیاء و سایر الگوریتم ها باشد. خطرات اضافی میتواند ناشی از ارتباط تعداد زیادی از سیستم ها با یکدیگر باشد.
به طور مشابه، شرکت ها نباید برنامه های هوش مصنوعی شخص ثالث را بدون درک کامل خطرات ناشی از آنها و محدودیتهای آنها استفاده کنند.
اگر بخواهیم برای تصمیم گیری و رانندگی با خودروهای خود، به هوش مصنوعی متکی باشیم، نیاز به اعتماد بالایی دارد. بدون آن، این فناوری پذیرفته نمیشود، یا آنقدر به نظارت انسانی نیاز دارد که کارایی و سایر مزایا را نفی میکند.
ایجاد یک چارچوب برای استفاده از هوش مصنوعی و مدیریت خطر ممکن است پیچیده به نظر برسد، اما شبیه به کنترل ها، خط مشی ها و فرایندهایی است که قبلاً برای انسان ها استفاده شده است. ما در حال حاضر رفتار انسان را بر اساس مجموعه ای از هنجارها ارزیابی میکنیم و به محض اینکه افراد شروع به فعالیت خارج از این هنجارها می کنند ما واکنش نشان می دهیم.
همچنین شرکتها باید محدوده ریسک را درک کرده و روشهای کنترل و حاکمیت را با ریسک معین تطبیق دهند. خطرات یک فناوری هوش مصنوعی بستگی به نحوه استفاده از آن دارد. به عنوان مثال، نرم افزارهای تصویربرداری که عکس های شخصی را برچسب گذاری میکنند دارای مشخصات بسیار کمتری نسبت به تصویربرداری مورد استفاده برای تشخیص عابر پیاده ای هستند که از جاده عبور می کنند.
درک مشخصات ریسک فناوری AI و مورد استفاده از آن به شما کمک می کند تا چارچوب حاکمیت و کنترل مناسب را برای همپوشانی آن فناوری AI تعیین کنید.
شرکت ها باید از همان ابتدا اقدامات کلیدی ای را برای بحث استفاده از هوش مصنوعی و طریقه اعتماد به آن مد نظر داشته باشند.
این اقدامات کلیدی عبارتند از:
. تعیین نحوه تصمیم گیری در مورد موارد استفاده قابل قبول یا غیرقابل قبول برای هوش مصنوعی، از جمله استفاده از یک هیئت اخلاقی متشکل از متخصصان از مجموعه ای از رشته های مختلف
. یک فهرست از محل هایی که شرکت شما از AI استفاده می کند تهیه کنید و یک نمای خطر و خط قرمز برای حکمرانی خوب انجام دهید
. به عنوان بخشی از الزامات سیستم هوش مصنوعی ، از همان ابتدا به طراحی اعتماد کنید
. از ابزارها و تکنیک های لازم برای نظارت مستمر استفاده کنید
. از متخصصان موضوعی برای ارائه خدمات مانند آزمایش مستقل و اعتبار سنجی الگوریتم های هوش مصنوعی استفاده کنید
کتی می گوید: "از پتانسیل هوش مصنوعی به عنوان راه حل مدیریت ریسک نیز غافل نشوید." به عنوان مثال، می توان از آن برای کاهش خطرات مربوط به امنیت سایبری و حریم خصوصی استفاده کرد. "
شرکت هایی که آماده پیگیری یا اصلاح استراتژی هوش مصنوعی هستند باید حوزه های زیر را در نظر داشته باشند:
عملکرد هوش مصنوعی و همسویی با انتظارات چقدر است؟
تا چه میزان شفافیت برای کاربران نهایی وجود دارد؟
استراتژی هوش مصنوعی شما در زمینه فساد و امنیت چقدر مقاوم است؟
چگونه می توان روش ها و تصمیمات سیستم هوش مصنوعی را درک مستند و تأیید کرد؟
نایجل می گوید: "هوش مصنوعی مورد اعتماد، نه تنها اخلاق و مسئولیت اجتماعی را در بر می گیرد، بلکه عملکرد را نیز در بر می گیرد."
در دنیای امروز و برای کسب و کارهای مختلف و متنوع، استفاده از هوش مصنوعی، در حال تبدیل به یک ضرورت است. رابطه رهبران کسب و کارها و نوع و میزان استفاده از هوش مصنوعی و اعتماد به این هوش، مقوله ای بسیار مهم و حیاتی برای کسب و کارهای نوین است. در این مقاله سعی کردیم نکاتی مختصر و مفید در این رابطه برای شما بیان کنیم. امیدواریم از خواندن مقاله بالا لذت و فایده کافی را برده باشید.
کلیه حقوق این تارنما محفوظ و متعلق به فروشگاه اینترنتی دارا کالا می باشد