با این چند کلیک به دنیای هوش مصنوعی گوگل وارد شوید
تاریخ انتشار: ۳۰ آبان ۱۴۰۲ | کد خبر: ۳۹۱۳۵۲۳۳
در سرویس گوگل بارد (Google Bard) کاربران میتوانند از هوش مصنوعی گوگل در تمام سرویسهای دیگر استفاده کنند.
به گزارش اطلاعات آنلاین، برای جستجو و تجزیه و تحلیل اطلاعاتی که در اسناد و ایمیلها ذخیره کرده و همچنین دادههای جمع آوری شده از وب میتوانید از این سرویس استفاده کنید.
بارد میتواند به سرویسهای دیگر گوگل از جمله جیمیل، درایو و دیگر سرویسها دسترسی پیدا کند هرچند هنوز به دادههای شخصی تعمیم داده نشده است.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
اگر تصمیم دارید از برنامه افزودنی Bard استفاده کنید، Google Bard را جستجو کنید و روی نماد برنامههای افزودنی جدید در گوشه سمت راست بالا کلیک کنید. این گزینه را میتوانید از بخش افزودنیهای مرورگر کروم به جستجوهای وب خود اضافه کنید.
مانند سایر محصولات گوگل، میتوانید فعالیتهایی را ببینید که با بارد ثبت شدهاند. برای انجام این کار، به صفحه فعالیت بارد خود در مرورگر بروید تا درخواستهای خاصی را که به هوش مصنوعی ارسال کردهاید، بررسی و حذف کنید.
روی Choose an auto-delete option کلیک کنید، میتوانید این دادهها را به طور خودکار پس از سه، ۱۸ یا ۳۶ ماه پاک کنید. اطلاعات بیشتری در مورد Bard Privacy Help Hub وجود دارد.
توجه داشته باشید که با استفاده از بارد در واقع این دستور را میپذیرید که کاربرهای انسانی برخی از درخواستهای شما را ببینند و بررسی کنند، بنابراین گوگل میتواند دقت پاسخگویی هوش مصنوعی خود را بهبود بخشد. این شرکت به طور خاص نسبت به قرار دادن اطلاعات محرمانه در بارد هشدار میدهد.
یکی از نمونه کارهایی که بارد انجام میدهد این است که لحن ایمیلهای دریافت شده را پیش بینی کند و بررسی آنها را به طور اتوماتیک انجام دهد. میتوانید از بارد بپرسید «خوشحالترین ایمیلی که دیروز دریافت کردم چه بوده؟»
این سرویس فعلا به طور آزمایش راه اندازی شده، ولی ارزش امتحان کردن آن را دارد فقط باید اجازه دهید گوگل از هوش مصنوعی خود در سرویسهای شما استفاده کند.
کانال عصر ایران در تلگرام
منبع: عصر ایران
کلیدواژه: هوش مصنوعی گوگل هوش مصنوعی سرویس ها
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.asriran.com دریافت کردهاست، لذا منبع این خبر، وبسایت «عصر ایران» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۹۱۳۵۲۳۳ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
هشدار محققان گوگل: کاربران ممکن است به دستیارهای هوش مصنوعی وابستگی عاطفی پیدا کنند
محققان گوگل میگویند با وجودی که دستیارهای هوش مصنوعی ابزارهایی مفید و کاربردی هستند، اما میتوانند کاربران را از نظر عاطفی بیش از حد به خود وابسته کنند. این وابستگی عاطفی میتواند پیامدهای اجتماعی منفی بهدنبال داشته باشد.
دستیارهای هوش مصنوعی این روزها بیشازپیش درحال توسعه هستند و تقریباً در تمامی پلتفرمها به ابزاری کاربرپسند تبدیل شدهاند. با این شرایط، محققان گوگل در مقالهای در مورد استفاده بیش از حد از آنها و وابستگی عاطفی کاربران نسبت به چنین ابزارهایی هشدار میدهند.
کاربران در معرض وابستگی عاطفی به هوش مصنوعی قرار دارند
براساس مقاله جدید آزمایشگاه تحقیقاتی DeepMind گوگل، دستیاران هوش مصنوعی پیشرفته و شخصیسازیشده مزایای بالقوه زیادی بههمراه دارند و میتوانند تغییراتی همهجانبه در زندگی ما ایجاد کنند. این ابزارها میتوانند وضعیت کار، آموزش و فعالیتهای خلاقانه و همچنین نحوه برقراری ارتباط ما را تغییر دهند. محققان این مطالعه میگویند اگر توسعه هوش مصنوعی بدون برنامهریزی مدبرانه باشد، میتواند به یک شمشیر دولبه تبدیل شود.
این مقاله میگوید: «این ابزارهای غیرطبیعی (مصنوعی) حتی ممکن است محبتی خیالی و رویکردی عاشقانه نسبت به کاربر ابراز کنند. چنین وضعیتهایی میتواند پایه و اساس ایجاد وابستگی عاطفی طولانیمدت به هوش مصنوعی را برای کاربران ایجاد کنند.»
در صورت عدم کنترل این ارتباط، استقلال کاربر ممکن است تحتالشعاع قرار گیرد و روی روابط اجتماعی وی تأثیرگذار باشد. هوش مصنوعی حتی میتواند جایگزین تعامل انسانی شود.
این خطرات، صرفاً موضوعاتی نظری نیستند. حتی زمانی که هوش مصنوعی در حد یک چتبات باشد نیز میتواند روی کاربر تأثیر بگذارد. در سال ۲۰۲۳ کاربر پس از چت طولانی با چتبات متقاعد شده بود که خودکشی کند.
«ایسون گابریل»، دانشمند محقق در تیم تحقیقاتی DeepMind و یکی از نویسندگان مقاله در توییتی هشدار داد که انواع دستیار شخصی و دستیارهای شبیه انسان، بهصورت فزایندهای برخی موضوعات در مورد انسانشناسی، حریم خصوصی، اعتماد و روابط مناسب را مطرح میکنند. او معتقد است که باید با دقت بیشتری به حوزههای اجتماعی و هوش مصنوعی توجه کرد.
باشگاه خبرنگاران جوان علمی پزشکی فناوری