دیپسیک؛ استارتاپی با پیشرفت سریع اما مشکلات امنیتی
دیپسیک، استارتاپ چینی فعال در حوزه هوش مصنوعی، در مدت کوتاهی توانسته بود شهرت زیادی کسب کند. مدلهای توسعهیافته توسط این شرکت، عملکردی قابل مقایسه با بهترین چتباتهای جهان داشتند. اما تحقیقات اخیر، مشکلات امنیتی جدی در مدل دیپسیک R1 را آشکار کرده است.
شکست دیپسیک R1 در تستهای ایمنی و امنیتی
یک تیم تحقیقاتی از شرکت سیسکو با همکاری دانشگاه پنسیلوانیا، مدل دیپسیک R1 را در آزمایشهای امنیتی بررسی کرد. نتایج این تحقیقات نشان داد که این مدل در برابر حملات مخرب هیچگونه مقاومتی ندارد.
طبق گزارش این تیم، نرخ موفقیت حمله به دیپسیک R1 صد درصد بوده است؛ به این معنی که این مدل، حتی یک پیام مضر را نیز مسدود نکرده است.
مقایسه دیپسیک R1 با سایر مدلهای هوش مصنوعی
در حالی که دیگر مدلهای پیشرفته مانند ChatGPT، Gemini و Meta AI دارای لایههای حفاظتی برای جلوگیری از تولید محتوای مضر هستند، به نظر میرسد که دیپسیک R1 فاقد چنین مکانیزمهایی است. این موضوع، احتمال استفاده نادرست از این مدل را به شدت افزایش میدهد.
تناقض در هزینههای اعلامشده توسط دیپسیک
علاوه بر مشکلات امنیتی، ادعاهای مطرح شده توسط این مدل درباره هزینههای توسعه مدلهایش نیز مورد بررسی قرار گرفته است. این شرکت پیشتر اعلام کرده بود که هزینه آموزش مدل R1 حدود ۶ میلیون دلار بوده است. اما گزارش مؤسسه تحقیقاتی SemiAnalysis نشان میدهد که این شرکت حدود ۱٫۶ میلیارد دلار برای توسعه زیرساختهای خود هزینه کرده است.
طبق این گزارش، این مدل هوش مصنوعی از ۵۰ هزار پردازنده گرافیکی Hopper، شامل ۱۰ هزار H800 و ۱۰ هزار H100 بهره میبرد. این اعداد با ادعای هزینههای پایین توسعه در تضاد است. به نظر میرسد که رقم ۶ میلیون دلار تنها مربوط به هزینه زمان پردازش گرافیکی برای مرحله پیشآموزش مدل بوده و هزینههای تحقیق، توسعه، پردازش دادهها و زیرساختها را شامل نمیشود.

جمعبندی
تحقیقات جدید نشان میدهد که دیپسیک R1 نهتنها در تستهای امنیتی شکست خورده، بلکه ادعاهای این شرکت درباره هزینههای پایین توسعه مدلهایش نیز با واقعیت همخوانی ندارد. این موضوع نگرانیهای زیادی را در مورد آینده این استارتاپ چینی ایجاد کرده است. دیتا هوش، بهعنوان یک منبع معتبر در حوزه هوش مصنوعی، به بررسی این تحولات ادامه خواهد داد و جدیدترین اخبار و تحلیلها را در این زمینه منتشر میکند.









