

در حال بارگیری
اسنودن با توجه به اینکه دسترسی آزاد به دادههای آموزشی خود را فراهم نمیکند، «شوخی بیرحمانه» OpenAI را در برندسازی خود با نامی که انتخاب کرده است، خواند.
او گفت که Stable Diffusion در فعالیت های مشابه مقصر است و به دلیل وحشت اخلاقی و اتهامات مختلف، عمداً مجموعه آموزشی خود را از نسخه 1.5 به 2.0 فلج کرده است.
اسنودن گفت: مسئولیت بین افرادی که این مدل را ایجاد می کنند و افرادی که از مدلی استفاده می کنند که ما می دانیم در آمریکا از قبل کار می کند، متمایز است.
از نظر قانونی، اسنودن معتقد است که کنترل هوش مصنوعی بسیار دشوار است. شرکتها و دولتها بهطور فزایندهای مردم را زیر نظر میگیرند و مردم را «قابل کنترل» و «شکل پذیر» میکنند. این نهادها به لطف مراکز داده وسیعی که در مورد رفتار شهروندان به آنها دسترسی دارند، دارای مزایای متمایز در زمینه هوش مصنوعی هستند.
در یک نکته روشن تر، اسنودن معتقد است که بسیاری از خطاهای هوش مصنوعی قابل رفع هستند. به نظر او، اشتباه اصلی توسعه دهندگان هوش مصنوعی این است که سعی می کنند به ماشین های خود یاد دهند مانند ما یاد بگیرند. در عوض، او معتقد است که هوش مصنوعی باید "بهتر از ما" باشد.
ما انسان به دنیا نیامدهایم، ما انسان میشویم و آنها میتوانند بهتر از انسان شوند، اما ما باید به آنها آموزش دهیم.