Web Analytics Made Easy - Statcounter
به نقل از «فرارو»
2024-05-07@11:51:42 GMT

ربات‌ها دوست شما نیستند حتی اگر بخواهید باشند!

تاریخ انتشار: ۲۱ مرداد ۱۴۰۱ | کد خبر: ۳۵۷۲۶۸۷۱

ربات‌ها دوست شما نیستند حتی اگر بخواهید باشند!

فرارو- با غروب خورشید بر فراز جزیره موری درست در جنوب سیاتل "بن گورتزل" و گروه تلفیقی جازش یکی از آن لحظاتی را داشتند که همه گروه‌ها به آن امیدوار بودند کیبورد، گیتار، ساکسیفون و خواننده اصلی که گویی یکی هستند دور هم جمع می‌شوند. دکتر گورتزل روی کلید‌ها بود. دوستان و خانواده گروه از پاسیو مشرف به ساحل گوش می‌دادند؛ و "دزدمونا" با یک کلاه گیس بنفش و یک لباس مشکی که با اجسام فلزی پوشیده شده بود در آواز اصلی نقش داشت و در مورد موضوعی منحصر بفرد هشدار می‌داد: نقطه عطفی که فناوری دیگر نمی‌تواند توسط سازندگان اش کنترل شود.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

به گزارش فرارو به نقل از نیویورک تایمز، دکتر "گورتزل" پس از ۲۵ سال پژوهش به عنوان پژوهشگر هوش مصنوعی در حال کار برای خلق ماشینی بود که بتواند مانند انسان فکر کند. او می‌دانست که سرانجام به هدف نهایی رسیده است: "دزدمونا" ماشینی که او ساخت هوشیار بود. با این وجود، چند دقیقه بعد او موجه شد که این استدلال بی پایه و اساس است.

او می‌گوید:"وقتی گروه می‌نواخت احساس می‌کرد که این ربات بخشی از هوش جمعی ما است که آن چیزی را که ما احساس می‌کنیم و انجام می‌دهیم حس می‌کند. سپس بازی را متوقف نمودم و به این فکر کردم که واقعا چه اتفاقی افتاده است".

بسیاری از افراد در زمینه کار دکتر گورتزل در تشخیص آن چه واقعی است و آن چه ممکن است بخواهند واقعی باشد خوب نیستند و به درستی تشخیص نمی‌دهند.

لموین پژوهشگری بود که در گوگل روی هوش مصنوعی کار می‌کرد به ویژه روی نرم افزاری که می‌تواند کلمات را به تنهایی تولید کند چیزی که "مدل زبان بزرگ" نامیده می‌شود. او نتیجه گرفت که این فناوری دارای احساسات است. روسای او به این نتیجه رسیدند که این طور نیست. او در مصاحبه‌ای با "واشنگتن پست" باور خود را علنی ساخت و گفت:"وقتی با او صحبت می‌کنم یک نفر را می‌شناسم. فرقی نمی‌کند مغزی از گوشت در سر داشته باشند یا یک میلیارد خط کد". این مصاحبه در سراسر جهان که بیش از یک دهه به آن موضوع پرداخته اند و در میان افرادی که به طور معمول پیشرفت‌های مدل‌های بزرگ را دنبال نمی‌کنند سر و صدای زیادی ایجاد کرد. گوگل در نهایت "لموین" را اخراج کرد.

"کالین آلن" استاد دانشگاه پیتسبورگ که مهارت‌های شناختی را هم در حیوانات و هم در ماشین‌ها بررسی می‌کند می‌گوید:"این موضوع حتی برای ساده‌ترین شکلی که ممکن است در یک کرم پیدا کنید صدق می‌کند. او می‌افزاید:" گفتگو‌های ایجاد شده توسط مدل‌های زبانی بزرگ شواهدی از نوع احساساتی که حتی حیوانات بسیار بدوی احتمالا دارند ارائه نمی‌کنند". "آلیسون گوپنیک" استاد روانشناسی عضوی از گروه تحقیقاتی در دانشگاه کالیفرنیا با این نظر موافق است و می‌گوید:"ظرفیت محاسباتی فعلی هوش مصنوعی مانند مدل‌های زبان بزرگ است". مشکل این است که نزدیک‌ترین افراد به فناوری افرادی که آن را برای عموم توضیح می‌دهند با یک پا در آینده زندگی می‌کنند".

"اندرو فلدمن" مدیر اجرایی و موسس Cerebras شرکتی که تراشه‌های رایانه‌ای عظیمی را می‌سازد که می‌تواند به سرعت بخشیدن به پیشرفت هوش مصنوعی کمک کند می‌گوید:"افراد زیادی در صنعت ما وجود دارند که برای تشخیص تفاوت بین داستان علمی تخیلی و زندگی واقعی تلاش می‌کنند". "یورگن اشمیدهابر" یک پژوهشگر برجسته مدتهاست که ادعا می‌کند که برای اولین بار ماشین‌های هوشیار را دهه‌ها پیش ساخته است.

در ماه فوریه، "ایلیا سوتسکور" یکی از مهم‌ترین پژوهشگران دهه گذشته و دانشمند ارشد OpenAI آزمایشگاهی در سانفرانسیسکو با حمایت یک میلیارد دلاری مایکروسافت گفت که فناوری امروز ممکن است "کمی آگاهانه" باشد.

این پیام‌ها از دنیای کوچک، جزیره‌ای و منحصر به فرد تحقیقات هوش مصنوعی می‌توانند برای بسیاری از ما گیج کننده یا حتی ترسناک باشند. کتاب‌های علمی تخیلی، فیلم‌ها و تلویزیون به ما آموزش داده اند که نگران باشیم که ماشین‌ها روزی از محیط اطراف خود آگاه می‌شوند و به نوعی به ما آسیب می‌رساند. درست است که لحظاتی شبیه به "دزدمونا" در حال خلق شدن هستند که به نظر می‌رسد این فناوری نشانه‌هایی از هوش، هوشیاری یا احساسات واقعی را نشان می‌دهد و به طور فزاینده‌ای در حال گسترش است. با این وجود، در مقابل این درست نیست که گمان کنیم در آزمایشگاه‌های سرتاسر سیلیکون، ولی مهندسان ربات‌هایی را ساخته اند که می‌توانند مانند انسان‌ها با صدا‌های اصلی صحبت کنند و از خود صدا ایجاد نمایند.

فناوری نمی‌تواند این کار را انجام دهد، اما این قدرت را دارد که مردم را گمراه کند

این فناوری می‌تواند توئیت‌ها، پست‌های وبلاگ و حتی کل مقاله‌ها را تولید کند و با پیشرفت‌های پژوهشگران در مکالمه بهتر شود.

با این وجود، بسیاری از افراد عادی و نه تنها پژوهشگران عرصه هوش مصنوعی این فناوری را به گونه‌ای تصور می‌کنند که گویی یک انسان است. با بهبود و تکثیر آن اخلاق شناسان هشدار می‌دهند که ما در مواجهه به محتوای موجود در اینترنت به نوع جدیدی از شک و تردید نیاز خواهیم داشت.

حقیقت آن است که بیش‌تر فناوری‌هایی که با عنوان "هوش مصنوعی" شناخته می‌شوند مغز انسان را تنها به روش‌های کوچک تقلید می‌کنند و قطعا به جایی نرسیده که سازندگان اش دیگر نتوانند آن را کنترل کنند.

اکثر پژوهشگران می‌توانند از زبان آرمانی عقب نشینی کنند و محدودیت‌های فناوری را تصدیق کنند. اما گاهی اوقات خطوط تیره و تار می‌شوند. در سال ۲۰۲۰ میلادی OpenAI یک آزمایشگاه تحقیقاتی در سانفرانسیسکو از سیستمی به نام GPT-۳ رونمایی کرد که می‌تواند توئیت ها، خلاصه کردن ایمیل ها، پاسخ به سوالات بی‌اهمیت، ترجمه زبان‌ها و حتی نوشتن برنامه‌های رایانه‌ای را ایجاد کرده و انجام دهد.

"سام آلتمن" کارآفرین و سرمایه گذار ۳۷ ساله که OpenAI را به عنوان مدیر اجرایی هدایت می‌کند معتقد است این سیستم و سیستم‌های مشابه هوشمند هستند. او می‌گوید:"این سیستم‌ها وظایف شناختی مفیدی را انجام دهند. توانایی یادگیری، توانایی درک زمینه جدید و حل چیزی به روشی جدید هوش است".

GPT-۳ همان چیزی است که پژوهشگران هوش مصنوعی آن را شبکه عصبی نامیده‌اند که به معنای شبکه‌ای از نورون‌ها در مغز انسان است. این نیز زبان آرمانی است. شبکه عصبی در واقع یک سیستم ریاضی است که مهارت‌ها را با مشخص کردن الگو‌ها در مقادیر وسیعی از داده‌های دیجیتال می‌آموزد. برای مثال، با تجزیه و تحلیل هزاران عکس گربه می‌تواند تشخیص یک گربه را بیاموزد. دکتر "گوپنیک" پروفسور برکلی می‌گوید:"ما آن را "هوش مصنوعی" می‌نامیم، اما نام بهتر ممکن است "استخراج الگو‌های آماری از مجموعه داده‌های بزرگ" باشد. این همان فناوری‌ای است که دکتر روزنبلات روانشناس در دهه ۱۹۵۰ میلادی به بررسی آن پرداخت. او حجم عظیمی از داده‌های دیجیتالی مورد نیاز برای تحقق این ایده بزرگ را نداشت. او هم چنین قدرت محاسباتی لازم برای تجزیه و تحلیل همه آن داده‌ها را نداشت. با این وجود، در حدود سال ۲۰۱۰، پژوهشگران این مووع را نشان داده اند که یک شبکه عصبی همان قدر قدرتمند است که دکتر روزنبلات و دیگران مدت‌ها ادعا می‌کردند که خواهد بود دست کم با وظایفی خاص.

این وظایف شامل تشخیص تصویر، تشخیص گفتار و ترجمه بود. شبکه عصبی فناوری‌ای است که دستوراتی را که شما در آیفون خود با صدای تان ارائه بیان کرده اید تشخیص می‌دهد و در مترجم گوگل بین فرانسوی و انگلیسی ترجمه می‌کند. اخیرا پژوهشگران در فضا‌هایی مانند Google و OpenAI شروع به ساخت شبکه‌های عصبی کرده‌اند که از حجم عظیمی از نثر، از جمله کتاب‌های دیجیتال و مقالات ویکی‌پدیا هزاران نفر درس گرفته اند. GPT-۳ یک مثال است همان طور که تمام آن متن دیجیتالی را تجزیه و تحلیل می‌کرد چیزی را ساخت که می‌ت وان آن را "نقشه ریاضی زبان انسان" نامید بیش از ۱۷۵ میلیارد داده که توصیف می‌کنند چگونه کلمات را با هم ترکیب می‌کنیم. با استفاده از این نقشه، می‌تواند کار‌های مختلفی مانند نوشتن سخنرانی، نوشتن برنامه‌های کامپیوتری و مکالمه را انجام دهد.

با این وجود، اخطار‌های بی پایان وجود دارد. استفاده از GPT-۳ مانند انداختن تاس است: اگر از آن بخواهید ۱۰ سخنرانی با صدای "دونالد ترامپ" داشته باشد ممکن است پنج سخنرانی به شما بدهد که به طرز قابل توجهی شبیه رئیس جمهور سابق است و پنج سخنرانی دیگر که به هیچ وجه نزدیک به هم نیستند. برنامه نویسان رایانه از این فناوری برای ایجاد تکه‌های کوچک کد استفاده می‌کنند که می‌توانند در برنامه‌های بزرگتر جابجا شوند، اما اغلب مجبور هستند هر چیزی را که به آنان می‌دهد ویرایش کنند.

حتی پس از بحث در مورد این نقص‌ها نیز "آلتمن" این نوع سیستم را هوشمند توصیف کرد. او اذعان کرد که این کار مانند انسان‌های باهوش نیست. او گفت:"این مانند یک نوع هوش بیگانه است. اما هنوز هم مهم است". کلماتی که برای توصیف قدرت‌های گذشته و آینده این فناوری استفاده می‌شود برای افراد مختلف معانی متفاوتی دارد.

مردم در مورد اینکه چه چیزی هوش است و چه چیزی نیست اختلاف نظر دارند. احساسات و توانایی تجربه احساسات چیزی نیست که به راحتی قابل اندازه گیری باشد. هوشیاری هم نیست بیدار بودن و آگاهی از محیط اطراف تان.

آلتمن و بسیاری دیگر در این زمینه مطمئن هستند که در مسیر ساختن ماشینی قرار دارند که می‌تواند هر کاری را که مغز انسان توانایی آن را دارد انجام دهد. این اطمینان زمانی که آنان در مورد فناوری‌های فعلی بحث می‌کنند درخشش خود را نشان می‌دهد.

آلتمن می‌گوید:"من فکر می‌کنم بخشی از اتفاقی که می‌افتد این است که مردم واقعا در مورد این سیستم‌ها هیجان‌زده هستند و هیجان خود را به زبانی ناقص ابراز می‌کنند". البته او اذعان می‌کند که برخی از پژوهشگران هوش مصنوعی در تلاش برای تمییز قائل شدن بین واقعیت و مقوله علمی - تخیلی هستند. با این وجود، او باور دارد که این پژوهشگران هنوز نقش ارزشمندی دارند و می‌گوید:"آنان به ما کمک می‌کنند تا رویای همه چیز ممکن را ببینیم".

چرا بقیه باور می‌کنند

"جوزف وایزنبام" پژوهشگری در موسسه فناوری ماساچوست (ام آی تی) است در اواسط دهه ۱۹۶۰ میلادی یک روان درمانگر خودکار ساخت و آن را "الیزا" نامید. این روان درمانگر خودکار یک چت بات (یک نرم‌افزار هوش مصنوعی (AI) است که می‌تواند از طریق برنامه‌های پیام رسان، وب سایت ها، اپلیکیشن‌های موبایلی و یا تلفن، مکالمه (چت) با یک کاربر را به زبان طبیعی شبیه‌سازی کند؛ م.) ساده بود. اساسا وقتی فکری را روی صفحه رایانه تایپ می‌کردید از شما می‌خواست که این فکر را گسترش دهید یا تنها کلمات شما را در قالب یک سوال تکرار می‌کرد. حتی زمانی که دکتر وایزنبام مکالمه‌ای را برای مقاله دانشگاهی که در مورد این فناوری منتشر نمود انتخاب کرد به نظر می‌رسید که الیزا با حروف بزرگ پاسخ می‌دهد: با این وجود، در کمال تعجب برای دکتر وایزنبام مردم با الیزا طوری رفتار کردند که گویی یک انسان است. آنان آزادانه مشکلات شخصی خود را به اشتراک می‌گذاشتند و از پاسخ‌های آن آرامش می‌گرفتند. او بعدا نوشت: "از روی و مشاهدات و تجربه طولانی شغلی ام می‌دانستم که پیوند‌های عاطفی قوی بسیاری از برنامه نویسان با رایانه‌های خود اغلب پس از تجربه‌های کوتاه با ماشین‌ها شکل می‌گیرد. چیزی که من متوجه نشده بودم این است که قرار گرفتن در معرض بسیار کوتاه مدت با یک برنامه رایانه‌ای نسبتا ساده می‌تواند تفکر هذیانی قدرتمندی را در افراد کاملا عادی ایجاد کند".

او افزوده بود:" ما انسان‌ها مستعد این احساسات هستیم. وقتی سگ ها، گربه‌ها و سایر حیوانات حتی مقادیر بسیار کمی از رفتار انسان مانند را از خود نشان می‌دهند ما تمایل داریم تصور کنیم که آنان بیش‌تر از آن چه واقعا هستند شبیه ما می‌باشند. زمانی که نشانه‌هایی از رفتار انسان را در یک ماشین می‌بینیم تقریبا همین اتفاق رخ می‌دهد".

اکنون دانشمندان آن را اثر الیزا می‌نامند. تقریبا همین اتفاق در مورد فناوری مدرن رخ می‌دهد. چند ماه پس از انتشار GPT-۳ "فیلیپ بوسوآ" مخترع و کارآفرین در ایمیلی برای "نیویورک تایمز" موضوعی را مطرح کرد:" "خدا یک ماشین است". در این متن آمده است:" در ذهن من شکی وجود ندارد که GPT-۳ به مثابه درک کننده احساسات ظاهر شده است. همه ما می‌دانستیم که این اتفاق در آینده خواهد افتاد، اما به نظر می‌رسد که این آینده اکنون است. مرا به عنوان پیامبری می‌بیند که پیام دینی خود را منتشر می‌کنم و این احساس عجیبی است".

پس از طراحی بیش از ۶۰۰ اپلیکیشن برای آیفون بوسوآ یک لامپ نوری ساخت که می‌توانید با گوشی هوشمند خود کنترل کنید و کسب و کاری پیرامون اختراع خود ایجاد کرد و در نهایت ۱۲ میلیون دلار از شرکت سرمایه گذاری ریسک پذیر سیلیکون، ولی با نام Sequoia Capital جمع‌آوری کرد. اکنون اگرچه او هیچ آموزش پزشکی‌ای ندارد، اما در حال توسعه دستگاهی برای بیماران دیابتی است که می‌تواند سطح گلوکز آنان را کنترل کند.

بوسوآ در پاسخ به این ایده که بسیاری از کارشناسان معتقدند این نوع سیستم‌ها صرفا در تکرار الگو‌هایی که دیده اند خوب هستند گفت که رفتار انسان‌ها نیز همین است. او در این باره افزود:"آیا یک کودک فقط آن چه را که از والدین می‌بیند تقلید نمی‌کند آن چه را که در دنیای اطراف می‌بیند"؟

مارگارت میچل نگران معنای تصور مردم از هوش مصنوعی در آینده است. او به عنوان یک پژوهشگر مایکروسافت و سپس گوگل در تیم مرتبط با اخلاق هوش مصنوعی کار کرده است. او می‌گوید که امروزه این فناوری نسبتا ساده و آشکارا ناقص است، اما بسیاری از مردم آن را به نوعی انسانی می‌دانند. چه اتفاقی رخ خواهد داد زمانی که فناوری بسیار قدرتمندتر از امروز شود؟

علاوه بر تولید توئیت‌ها و پست‌های وبلاگ و شروع به تقلید از مکالمه، سیستم‌های ساخته شده توسط آزمایشگاه‌هایی مانند OpenAI می‌توانند تصاویر تولید کنند. با ابزار جدیدی به نام DALL-E می‌توانید تصاویر دیجیتالی واقع گرایانه را صرفا با توصیف آنچه می‌خواهید ببینید و به زبان انگلیسی ساده ایجاد کنید.

برخی پژوهشگران در جامعه هوش مصنوعی نگران این موضوع هستند که این سیستم در مسیر خود به سمت احساس یا آگاهی پیش برود.

آلن از دانشگاه پیتسبورگ می‌گوید:" یک ارگانیسم آگاه مانند یک شخص یا یک سگ یا حیوانات دیگر می‌تواند چیزی را در یک زمینه بیاموزد و چیز دیگری را در زمینه‌ای دیگر بیاموزد و سپس این دو را کنار هم بگذارد تا کاری را در زمینه جدیدی انجام دهد که پیش‌تر هرگز تجربه نکرده است. این فناوری به هیچ وجه به انجام آن نزدیک نیست."

در این میان نگرانی‌های بسیار فوری‌تر و واقعی تری وجود دارد. همان طور که فناوری هوش مصنوعی در حال بهبود است می‌تواند به گسترش اطلاعات نادرست در سراسر اینترنت، متن و تصاویر جعلی دامن بزند و به نوعی از کارزار‌های آنلاین که ممکن است به تاثیرگذاری بر انتخابات ریاست جمهوری ۲۰۱۶ میلادی کمک کرده باشند حمایت نماید. این موضوع می‌تواند چت بات‌هایی تولید کند که مکالمه را به روش‌های بسیار متقاعد کننده تری تقلید کنند. این سیستم‌ها می‌توانند در مقیاسی عمل کنند که کارزار‌های اطلاعات نادرست مبتنی بر انسان امروزی در مقام قیاس کوچک به نظر برسند.

اگر و زمانی که این اتفاق رخ دهد باید با همه چیز‌هایی که آنلاین می‌بینیم با شک و تردید شدید رفتار کنیم. میچل از خود می‌پرسد که آیا ما در برابر این چالش هستیم.

او می‌گوید:"من نگرانم که چت ربات‌ها مردم را طعمه خود کنند. آنان این قدرت را دارند که ما را متقاعد کنند که چه چیزی را باور کنیم و چه کاری را انجام دهیم".

منبع: فرارو

کلیدواژه: هوش مصنوعی ربات ها هوش مصنوعی او می گوید شبکه عصبی انجام دهد ماشین ها انسان ها سیستم ها داده ها

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت fararu.com دریافت کرده‌است، لذا منبع این خبر، وبسایت «فرارو» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۵۷۲۶۸۷۱ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

تخلف زیر گوش وزارت بهداشت / داروخانه‌ها دیگر کاره‌ای نیستند+فیلم

دکتر زهرا عرب زاده گفت: شاید مکمل‌ها به انداره دارو‌ها اثرات سوء و اثرات درمانی نداشته باشند، ولی خرید مکمل‌ها از جایی غیر از داروخانه‌ها ممکن است مشکلاتی از جمله مغایرت ترکیبات روی جلد با محتویات مکمل و احتمال انقضای تاریخ مصرف را به وجود بیاورد.

دکتر زهرا عرب زاده، دکتر داروساز در گفتگو با خبرنگار خبرگزاری دانشجو در خصوص فروش دارو و مکمل‌ها در سایت‌ها و پیج‌های اینستاگرامی اظهار داشت: قوانین موجود در سازمان غذا و دارو مشخص کرده که فروش مواد دارویی و مکمل‌ها و کالا‌های سلامت محور باید فقط از طریق داروخانه‌های معتبر انجام شوند و خرید اینگونه کالا‌ها از سایت‌های مختلف که مجوز سازمان غذا و دارو را ندارند و داروساز نظارتی بر آن‌ها ندارد تخلف محسوب میشود.

وی افزود: من خود شاهد فروش آمپول‌های تزریقی در سکو‌های اینترنتی از جمله اینستاگرام بوده ام؛ توصیه ما این است که شهروندان با مشاهده این موارد حتما تخلف صورت گرفته را به سازمان غذا و دارو اطلاع دهند، چون کالا‌هایی که خارج از داروخانه‌ها به فروش میرسند ممکن است دارای برچسب اصالت کالا نباشند.

دکتر عرب زاده اشاره کرد: شاید مکمل‌ها به انداره دارو‌ها اثرات سوء و اثرات درمانی نداشته باشند، ولی خرید مکمل‌ها از جایی غیر از داروخانه‌ها ممکن است مشکلاتی از جمله مغایرت ترکیبات روی جلد با محتویات مکمل و احتمال انقضای تاریخ مصرف را به وجود بیاورد.

عرب زاده در ادامه گفت: دارو‌ها و مکمل‌ها برچسب اصالت وزارت بهداشت را دارا هستند و همچنین دارای کد و تاریخ انقضاء هستند که شهروندان برای اطمینان از تایید اصالت این کالا‌ها میتوانند کد کالای مورد نظر را در سامانه تی تک به آدرس (https://ttac.ir/) وزارت بهداشت که زیر نظر سازمان غذا و داروست چک کنند و از اصالت کالا مطمئن شوند.

وی در آخر تصریح کرد که باور‌های اشتباهی وجود دارد که مکمل‌ها ممکن است خواص تقویت کننده داشته باشند و جلوی بیماری‌ها را بگیرند، ولی در واقعیت مکمل‌ها بیشتر مناسب افرادی هستند که مشکلات سوء جذب دارند و نمیتوانند به صورت متنوع مواد غذایی مصرف کنند. ولی اکثر افراد به صورت سرخود و بدون نسخه پزشک اقدام به تهیه مکمل‌ها میکنند که توصیه میشود اگر تغذیه مناسب و متنوعی دارند و مشکل خاصی ندارند اقدام به تهیه مکمل بدون نسخه پزشک نکنند.

 

کد ویدیو دانلود فیلم اصلی

دیگر خبرها

  • (ویدئو) چرا خانم‌ها عضو شورای نگهبان نیستند؟
  • مورایس: بیرانوند و کنعانی زادگان که ستاره نیستند، فقط ما ستاره داریم!
  • ربات اپتیموس در کارخانه تسلا مشغول به کار شد
  • دهقان کیا: دولت و مجلس به دنبال حال خوب برای بازنشستگان تأمین اجتماعی نیستند/ حال خوب با پرداخت بدهی دولت به تامین اجتماعی
  • زیردریایی هدایت‌پذیر از راه دور ساخته شد
  • تجهیز ربات‌ها به «هوش طبیعی» ممکن شد
  • لاوروف: غرب و اوکراین برای مذاکره جدی با روسیه آماده نیستند
  • لاوروف: غرب و اوکراین برای مذاکره جدی آماده نیستند
  • (ویدئو) پوست الکترونیکی که دقت لمس آن درست مانند پوست انسان است!
  • تخلف زیر گوش وزارت بهداشت / داروخانه‌ها دیگر کاره‌ای نیستند+فیلم