چالش‌های مدل‌های زبانی بزرگ بر امنیت فضای سایبر
کد مقاله : 1095-CYSP2025 (R1)
نویسندگان
حمید محسنی *1، کاظم فولادی قلعه2
1دبیر مرکز مطالعات فضای مجازی و هوش مصنوعی دبیر کارگروه فلسفه سایبر آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران
2سرپرست آزمایشگاه پژوهشی فضای سایبر دانشگاه تهران،تهران
چکیده مقاله
مدل‌های زبانی بزرگ (LLMs) در سال‌های اخیر به‌عنوان یکی از پیشرفته‌ترین دستاوردهای هوش مصنوعی مورد توجه محققان و کاربران قرار گرفته‌اند. این مدل‌ها با قابلیت پردازش و تولید زبان طبیعی، تحولات گسترده‌ای در حوزه‌های علمی، فناورانه و اجتماعی ایجاد کرده‌اند. با این حال، استفاده روزافزون از آنها چالش‌های جدی را نیز در پی داشته است، به‌ویژه در ارتباط با امنیت فضای سایبری؛ تهدیداتی نظیر حملات سایبری به مدل‌ها از طریق تزریق پرامپت، حملات جیل‌بریک و آلوده‌سازی داده‌ها، همچنین سوءاستفاده از توانایی‌های تولیدی آنها در طراحی بدافزار، حملات فیشینگ و انتشار اطلاعات نادرست از مهم‌ترین مخاطرات به شمار می‌روند. مقاله حاضر با رویکرد توصیفی–تحلیلی و با استفاده از منابع علمی معتبر، به بررسی ابعاد مختلف این چالش‌ها پرداخته است. یافته‌ها نشان می‌دهند مدل‌های زبانی ضمن ارائه فرصت‌های بی‌سابقه در ارتقای کیفیت خدمات و کارایی سامانه‌های هوشمند، در صورت فقدان سیاست‌گذاری و نظارت مناسب می‌توانند به تهدیدی جدی برای امنیت فردی، سازمانی و ملی بدل شوند. از این رو ضرورت دارد چارچوب‌های قانونی، فنی و اخلاقی برای مدیریت استفاده از این فناوری‌ها تدوین و اجرا شود.
کلیدواژه ها
مدل‌های زبانی بزرگ، جی پی تی، امنیت فضای سایبر، حملات سایبری.
وضعیت: پذیرفته شده برای ارائه شفاهی