رفتن به نوشته‌ها

تیک تاک کنترل محتوای هوش مصنوعی را به کاربران سپرد

اپلیکیشن تیک تاک که در ابتدا صرفاً بستری برای اشتراک‌گذاری محتوای کاربری بود، قابلیت جدیدی ارائه داده که به کاربران اجازه می‌دهد تعیین کنند چه اندازه از محتوای تولیدشده با هوش مصنوعی در بخش «For You» نمایش داده شود. شرکت اعلام کرده که علاوه بر این قابلیت، در حال توسعه فناوری‌های پیشرفته‌تری برای برچسب‌گذاری محتوای ساخته‌شده با هوش مصنوعی است تا تشخیص این نوع محتوا برای کاربران و پلتفرم آسان‌تر شود.

این کنترل جدید برای مدیریت محتوای تولیدشده با هوش مصنوعی (AIGC) از طریق ابزار «Manage Topics» ارائه شده است؛ همان بخشی که کاربران از مدت‌ها قبل برای انتخاب نوع محتوایی که در تیک تاک مشاهده می‌کنند، به آن رجوع می‌کنند.

تیک تاک در پستی وبلاگی توضیح داده است که ابزار «Manage Topics» هم‌اکنون امکان تنظیم میزان نمایش محتوای مرتبط با بیش از 10 دسته مانند Dance، Sports و Food & Drinks را فراهم کرده است. این شرکت تأکید کرده است که همانند سایر گزینه‌ها، تنظیمات مربوط به AIGC نیز صرفاً برای تنوع‌بخشی و شخصی‌سازی بهتر فید کاربران طراحی شده و هدف آن حذف یا جایگزینی کامل هیچ نوع محتوایی نیست.

از Vibes تا Sora؛ چرا تیک تاک مجبور به واکنش شد؟

این اقدام زمانی اتفاق می‌افتد که شرکت‌هایی مانند OpenAI و متا در حال حرکت به سمت ایجاد فیدهایی مبتنی‌بر محتوای کاملاً تولیدشده با هوش مصنوعی هستند. برای نمونه، شرکت متا در سپتامبر 2024، سرویس جدیدی با عنوان Vibes معرفی کرد که بستری برای ساخت و انتشار ویدئوهای کوتاه ساخته‌شده توسط هوش مصنوعی است. تنها چند روز پس از آن، OpenAI پلتفرم Sora را راه‌اندازی کرد که وظیفه آن تولید و اشتراک‌گذاری ویدئوهای تولیدشده با هوش مصنوعی است.

از زمان انتشار Sora، ویدئوهای بسیار واقعی تولیدشده توسط هوش مصنوعی در تیک تاک دیده شده است. همچنین شمار زیادی از کاربران این برنامه برای ساخت محتوای بصری در موضوعاتی نظیر تاریخ، سلبریتی‌ها و روایت‌های فرهنگی از ابزارهای تولید تصویر و ویدئوی هوش مصنوعی بهره می‌برند.

تیک تاک اعلام کرده که با اضافه‌شدن قابلیت جدید کنترل محتوای هوش مصنوعی، کاربرانی که تمایل کمتری به دیدن این نوع محتوا دارند می‌توانند میزان نمایش آن را کاهش داده و از آن طرف، کاربرانی که از چنین محتواهایی لذت می‌برند قادرند میزان نمایش آن را افزایش دهند.

دسترسی به این قابلیت از طریق بخش Settings و انتخاب گزینه «Content Preferences» و سپس رفتن به بخش «Manage Topics» امکان‌پذیر است. کاربران می‌توانند در این بخش اسلایدر مربوط به محتوای تولیدشده با هوش مصنوعی را جابه‌جا کرده تا مشخص کنند چه مقدار از این نوع محتوا در فید For You نمایش داده شود. تیک تاک گفته که این قابلیت طی هفته‌های آینده در دسترس همه کاربران قرار خواهد گرفت.

برای افزایش دقت در برچسب‌گذاری محتوای تولیدشده توسط هوش مصنوعی، تیک تاک اعلام کرده که اکنون فناوری جدیدی با عنوان «invisible watermarking» را آزمایش می‌کند. این پلتفرم مدت‌هاست کاربران را ملزم می‌کند که محتوای واقع‌گرایانه ساخته‌شده با هوش مصنوعی را برچسب‌گذاری کنند و از فناوری مشترک Content Credentials از C2PA استفاده می‌کند؛ فناوری‌ که در اصل متادیتایی را به فایل‌ها اضافه می‌کند تا پلتفرم‌ها بتوانند محتوای تولیدشده با هوش مصنوعی را شناسایی کنند. با این حال، تیک تاک اشاره کرده است که در بسیاری از موارد این برچسب‌ها هنگام ویرایش یا بارگذاری دوباره محتوا در سایر پلتفرم‌ها حذف می‌شوند.

به کمک واترمارک‌های نامرئی، لایه جدیدی از محافظت ایجاد می‌شود. این واترمارک فقط توسط سیستم داخلی تیک تاک قابل خواندن است و خارج از این پلتفرم قابل حذف نخواهد بود. چنین ویژگی موجب می‌شود حذف این نشان‌ها برای افراد دیگر دشوارتر باشد.

تیک تاک اعلام کرده است که به زودی واترمارک نامرئی را به محتوای ساخته‌شده در ابزارهایی مانند AI Editor Pro اضافه می‌کند. این واترمارک به محتوایی که همراه با متادیتای Content Credentials بارگذاری می‌شود نیز افزوده خواهد شد. این شرکت توضیح داده است که این اقدام شناسایی و برچسب‌گذاری محتوای هوش مصنوعی را قابل‌اعتمادتر می‌کند و همچنان خواندن متادیتای C2PA و اضافه‌کردن آن به محتوای تولیدشده در پلتفرم ادامه خواهد یافت.

در ادامه همین تلاش‌ها، تیک تاک اعلام کرده است که یک صندوق 2 میلیون دلاری به نام «صندوق سواد هوش مصنوعی» راه‌اندازی می‌کند که هدف آن حمایت از متخصصانی مانند سازمان غیرانتفاعی Girls Who Code برای تولید محتوایی با هدف آموزش مردم درباره سواد هوش مصنوعی و امنیت دیجیتال است.

منتشر شده در دسته‌بندی نشده

اولین باشید که نظر می دهید

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *