Web Analytics Made Easy - Statcounter

در سرویس گوگل بارد (Google Bard) کاربران می‌توانند از هوش مصنوعی گوگل در تمام سرویس‌های دیگر استفاده کنند.

به گزارش اطلاعات آنلاین، برای جستجو و تجزیه و تحلیل اطلاعاتی که در اسناد و ایمیل‌ها ذخیره کرده و همچنین داده‌های جمع آوری شده از وب می‌توانید از این سرویس استفاده کنید.

بارد می‌تواند به سرویس‌های دیگر گوگل از جمله جیمیل، درایو و دیگر سرویس‌ها دسترسی پیدا کند هرچند هنوز به داده‌های شخصی تعمیم داده نشده است.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

 

اگر تصمیم دارید از برنامه افزودنی Bard استفاده کنید، Google Bard را جستجو کنید و روی نماد برنامه‌های افزودنی جدید در گوشه سمت راست بالا کلیک کنید. این گزینه را می‌توانید از بخش افزودنی‌های مرورگر کروم به جستجو‌های وب خود اضافه کنید.

مانند سایر محصولات گوگل، می‌توانید فعالیت‌هایی را ببینید که با بارد ثبت شده‌اند. برای انجام این کار، به صفحه فعالیت بارد خود در مرورگر بروید تا درخواست‌های خاصی را که به هوش مصنوعی ارسال کرده‌اید، بررسی و حذف کنید.

روی Choose an auto-delete option کلیک کنید، می‌توانید این داده‌ها را به طور خودکار پس از سه، ۱۸ یا ۳۶ ماه پاک کنید. اطلاعات بیشتری در مورد Bard Privacy Help Hub وجود دارد.

توجه داشته باشید که با استفاده از بارد در واقع این دستور را می‌پذیرید که کاربر‌های انسانی برخی از درخواست‌های شما را ببینند و بررسی کنند، بنابراین گوگل می‌تواند دقت پاسخگویی هوش مصنوعی خود را بهبود بخشد. این شرکت به طور خاص نسبت به قرار دادن اطلاعات محرمانه در بارد هشدار می‌دهد. 

یکی از نمونه کار‌هایی که بارد انجام می‌دهد این است که لحن ایمیل‌های دریافت شده را پیش بینی کند و بررسی آن‌ها را به طور اتوماتیک انجام دهد. می‌توانید از بارد بپرسید «خوشحال‌ترین ایمیلی که دیروز دریافت کردم چه بوده؟» 

این سرویس فعلا به طور آزمایش راه اندازی شده، ولی ارزش امتحان کردن آن را دارد فقط باید اجازه دهید گوگل از هوش مصنوعی خود در سرویس‌های شما استفاده کند. 

 

کانال عصر ایران در تلگرام

منبع: عصر ایران

کلیدواژه: هوش مصنوعی گوگل هوش مصنوعی سرویس ها

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.asriran.com دریافت کرده‌است، لذا منبع این خبر، وبسایت «عصر ایران» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۹۱۳۵۲۳۳ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

هشدار محققان گوگل: کاربران ممکن است به دستیار‌های هوش مصنوعی وابستگی عاطفی پیدا کنند

محققان گوگل می‌گویند با وجودی که دستیار‌های هوش مصنوعی ابزار‌هایی مفید و کاربردی هستند، اما می‌توانند کاربران را از نظر عاطفی بیش از حد به خود وابسته کنند. این وابستگی عاطفی می‌تواند پیامد‌های اجتماعی منفی به‌دنبال داشته باشد.

دستیار‌های هوش مصنوعی این روز‌ها بیش‌از‌پیش درحال توسعه هستند و تقریباً در تمامی پلتفرم‌ها به ابزاری کاربرپسند تبدیل شده‌اند. با این شرایط، محققان گوگل در مقاله‌ای در مورد استفاده بیش از حد از آنها و وابستگی عاطفی کاربران نسبت به چنین ابزار‌هایی هشدار می‌دهند.

کاربران در معرض وابستگی عاطفی به هوش مصنوعی قرار دارند
براساس مقاله جدید آزمایشگاه تحقیقاتی DeepMind گوگل، دستیاران هوش مصنوعی پیشرفته و شخصی‌سازی‌شده مزایای بالقوه زیادی به‌همراه دارند و می‌توانند تغییراتی همه‌جانبه در زندگی ما ایجاد کنند. این ابزار‌ها می‌توانند وضعیت کار، آموزش و فعالیت‌های خلاقانه و همچنین نحوه برقراری ارتباط ما را تغییر دهند. محققان این مطالعه می‌گویند اگر توسعه هوش مصنوعی بدون برنامه‌ریزی مدبرانه باشد، می‌تواند به یک شمشیر دولبه تبدیل شود.

این مقاله می‌گوید: «این ابزار‌های غیرطبیعی (مصنوعی) حتی ممکن است محبتی خیالی و رویکردی عاشقانه نسبت به کاربر ابراز کنند. چنین وضعیت‌هایی می‌تواند پایه و اساس ایجاد وابستگی عاطفی طولانی‌مدت به هوش مصنوعی را برای کاربران ایجاد کنند.»

در صورت عدم کنترل این ارتباط، استقلال کاربر ممکن است تحت‌الشعاع قرار گیرد و روی روابط اجتماعی وی تأثیرگذار باشد. هوش مصنوعی حتی می‌تواند جایگزین تعامل انسانی شود.

این خطرات، صرفاً موضوعاتی نظری نیستند. حتی زمانی که هوش مصنوعی در حد یک چت‌بات باشد نیز می‌تواند روی کاربر تأثیر بگذارد. در سال ۲۰۲۳ کاربر پس از چت طولانی با چت‌بات متقاعد شده بود که خودکشی کند.

«ایسون گابریل»، دانشمند محقق در تیم تحقیقاتی DeepMind و یکی از نویسندگان مقاله در توییتی هشدار داد که انواع دستیار شخصی و دستیار‌های شبیه انسان، به‌صورت فزاینده‌ای برخی موضوعات در مورد انسان‌شناسی، حریم خصوصی، اعتماد و روابط مناسب را مطرح می‌کنند. او معتقد است که باید با دقت بیشتری به حوزه‌های اجتماعی و هوش مصنوعی توجه کرد.

باشگاه خبرنگاران جوان علمی پزشکی فناوری

دیگر خبرها

  • هوش مصنوعی گوگل معلم زبان انگلیسی می‌شود
  • عینک هوشمند جدید زاکربرگ با توانایی‌های باورنکردنی
  • شنبه و یکشنبه در این مناطق کشور باران می بارد | سامانه بارشی جدید از روز سه‌شنبه وارد می شود
  • عینکی که می‌تواند به سؤالات شما پاسخ دهد
  • خداحافظی والیبالیست نسل طلایی/ مهدی مهدوی وارد دنیای مربیگری شد
  • آموزش تغییر ریجن پابجی موبایل به امارات
  • فناوری در خدمت جنایت
  • وابستگی عاطفی کاربران به دستیارهای هوش مصنوعی
  • هشدار محققان گوگل: کاربران ممکن است به دستیار‌های هوش مصنوعی وابستگی عاطفی پیدا کنند
  • هوش مصنوعی گوگل روی موبایل کارآمدتر می‌شود