توانایی کد نویسی ai به مانند انسان

توانایی کد نویسی ai به مانند انسان


امروزه،برخی از توسعه دهندگان نرم افزار از ai در کد نویسی خود استفاده می کنند؛حتی در بعضی مواقع آن ها متوجه می شوند که هوش مصنوعی به اندازه انسان ها ناقص می باشد.

ژوئن گذشته، GitHub، یکی از زیرمجموعه‌های مایکروسافت که ابزارهایی برای میزبانی و همکاری در زمینه کد ارائه می‌کند، نسخه بتا برنامه‌ای را منتشر کرد که از هوش مصنوعی برای کمک به برنامه‌نویسان استفاده می‌کند. شروع به تایپ یک دستور، یک کوئری در پایگاه داده یا یک درخواست برای یک API کنید، و برنامه ای که Copilot نام دارد، قصد شما را حدس زده و بقیه را می نویسد.

الکس ناکا، دانشمند داده در یک شرکت بیوتکنولوژی که برای آزمایش Copilot استخدام شده است، می گوید که این برنامه می تواند بسیار مفید باشد و روش کار او را تغییر داده است. او می‌گوید: «این برنامه به من امکان می‌دهد تا زمان کمتری را صرف پریدن به مرورگر کنم تا اسناد یا نمونه‌های API را در Stack Overflow جستجو کنم. کمی احساس می‌کنم که کار من از یک تولیدکننده(دولوپر) کد به یک متمایزکننده تغییر کرده است.»

اما ناکا دریافته است که خطاها می توانند به طرق مختلف وارد کد او شوند. او می‌گوید:

در بعضی مواقع،پس از پذیرش درخواست هوش مصنوعی،بعضی خطا های ظریف ایجاد شده که از چشمان من پنهان می مانند. و ردیابی این موضوع می‌تواند واقعاً سخت باشد،دلیل سختی آن اشاره به نحوه متفاوت خطا کردن هوش مصنوعی نسبت به من دارد.

خطرات ایجاد شده توسط هوش مصنوعی ممکن است به طرز شگفت آوری زیاد باشد. محققان در NYU اخیراً کد تولید شده توسط Copilot را تجزیه و تحلیل کردند و دریافتند که برای کارهای خاصی که امنیت در آنها بسیار مهم است،بهتر است از Copilot استفاده نگردد(چیزی بالغ بر 40 درصد خطا در مسائل امنیتی).

برندان دولان-گاویت، استاد دانشگاه نیویورک که با این تحلیل درگیر است، می‌گوید: این رقم کمی بالاتر از آن چیزی است که من انتظار داشتم.

علی‌رغم چنین نقص‌هایی، Copilot و ابزارهای مشابه با هوش مصنوعی ممکن است منادی تغییری در نحوه کدنویسی توسعه‌دهندگان نرم‌افزار باشند. اما Copilot همچنین برخی از مشکلات تکنیکی مربوط به هوش مصنوعی امروزی را برجسته می کند.

"به نظر می رسد که خطاهایی ایجاد می کند که طعم متفاوتی نسبت به آنچه من انجام می دهم دارد."

الکس ناکا، دانشمند داده

Dolan-Gavitt در حین تجزیه و تحلیل کدهای موجود برای یک افزونه Copilot متوجه شد که آن شامل فهرستی از عبارات محدود گردیده است «restricted phrases». ظاهراً این محدود سازی برای جلوگیری از گفتن متون توهین آمیز و یا کپی کد مشهوری ایجاد گردیده است.

Oege de Moor، معاون تحقیقات GitHub و یکی از توسعه دهندگان Copilot، می گوید که امنیت از همان ابتدا یک نگرانی بوده است. او می‌گوید نقص هایی که در گزارشات محققان NYU پیدا گردیده اند به احتمال بالا در زمینه امنیت و سکیوریتی می باشند.

De Moor را CodeQL اختراع کرد، ابزاری که توسط محققان دانشگاه نیویورک مورد استفاده قرار می‌گیرد و به طور خودکار باگ‌های کد را شناسایی می‌کند. او به توسعه دهندگان توصیه می کند که Copilot را به همراه CodeQL استفاده کنند تا مطمئن گردند کارشان ایمن است.

برنامه GitHub بر روی یک مدل هوش مصنوعی ساخته شده است که توسط OpenAI، یک شرکت برجسته هوش مصنوعی که کارهای پیشرفته ای در زمینه یادگیری ماشین انجام می دهد، ساخته شده است. این مدل که Codex نام دارد از یک شبکه عصبی مصنوعی بزرگ تشکیل شده است که برای پیش‌بینی کاراکترهای بعدی در کدهای متنی و کامپیوتری آموزش دیده است. این الگوریتم میلیاردها خط کد ذخیره شده در GitHub را بلعید - نه همه آنها را به زیبایی - تا یاد بگیرد که چگونه کد بنویسند.




منبع
 

نویسنده
 


0





نوشتن دیدگاه



دیدگاه شما پس از بررسی توسط تحریریه منتشر خواهد شد. در صورتی که در بخش نظرات سوالی پرسیده‌اید اگر ما دانش کافی از پاسخ آن داشتیم حتماً پاسخگوی شما خواهیم بود در غیر این صورت تنها به امید دریافت پاسخ مناسب از دیگران آن را منتشر خواهیم کرد.