Web Analytics Made Easy - Statcounter
به نقل از «ساعت24»
2024-04-19@20:03:58 GMT

نتیجه عجیب یک تحقیق: طلاق گرفتن ژنتیکی است

تاریخ انتشار: ۸ آذر ۱۳۹۹ | کد خبر: ۳۰۱۳۲۵۳۲

نتیجه عجیب یک تحقیق: طلاق گرفتن ژنتیکی است

ساعت24-براساس تحقیقات صورت گرفته ژن طلاق در بعضی از افراد وجود دارد و به فرزندان آنها نیز منتقل می شود

آیا ممکن است طلاق، بین نسل‌ها منتقل شود فقط به این دلیل که بچه‌ها با والدین از هم جدا شده‌شان زندگی می‌کنند، یا اینکه پدر و مادر «ژن طلاق» را انتقال می‌دهند؟

مطالعات پیشین همیشه نشان داده‌اند که بچه‌های طلاق، بیشتر در معرض طلاق در زندگی‌ آینده‌ی خود در بزرگسالی هستند.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

اما چرا اینگونه است؟ آیا طلاق بواسطه‌ی عوامل اجتماعی و روانشناسی، مثلا تمایل بچه‌ها به تقلید از والدین، منتقل می‌شود یا اینکه ممکن است دخالتی ژنتیکی این میان نقش داشته باشد؟

تحقیقی جدید که به زودی در نشریه‌ی Psychological Science منتشر خواهد شد، این موضوع را آشکارتر می‌کند. این تحقیق توسط دانشمندان دانشگاه کومون ولث ویرجینیا (VCU) در ریچموند و با همکاری تیمی در داشنگاه لوند سوئد انجام شد.

پروفسور سالواتوره می‌گوید: ما بررسی کردیم که آیا فرزندانی که والدین بیولوژیکی‌شان طلاق گرفته بودند، بیشتر در معرض جدایی و طلاق در زندگی آینده‌ی خود بودند یا نه. ضمنا این را هم بررسی کردیم که آیا بچه‌هایی که پدر و مادر خوانده‌شان طلاق گرفته بودند هم بیشتر در معرض جدایی در زندگی آینده‌ی خود بودند یا خیر.

اگر بچه‌ها همانند والدین بیولوژیکی خود عمل کنند، ما می‌فهمیم که این عامل ژنتیکی است که منجر به این تشابه شده است چون والدین بیولوژیکی، تنها ژن‌ها را به فرزندان خود منتقل می‌کنند. و برعکس؛ اگر بچه‌ها همانند والدین خوانده‌ی خود رفتار کنند، ما می‌فهمیم که دلیل این تشابه، بزرگ شدن در شرایط طلاق است، زیرا پدر و مادر خوانده، فقط محیط و شرایط زندگی را ( و نه ژن‌ها) برای فرزند خوانده‌های خود فراهم می‌کنند.

دانشمندان، تجزیه و تحلیل گسترده‌ای روی 82698 فرزند انجام دادند که بیانگر تاثیرات محیطی چشمگیری بود. اما وقتی این محققان سعی کردند با استفاده از اطلاعات جمع آوری شده از فرزندان بیولوژیکی و فرزند خوانده‌ها، به نتیجه‌ای برسند، معلوم شد فرزند خوانده‌ها از نظر طلاق، مشابه والدین بیولوژیکی خود عمل می‌کردند، نه شبیه پدر و مادر خوانده‌ی خود. بنابراین پژوهشگران نتیجه گرفتند شواهد مستدلی وجود دارد که نشان می‌دهد فاکتورهای ژنتیکی، بر واگیر داشتن طلاق میان نسلی دخیل است، اما شواهدی که برای تاثیرات محیطی طلاق وجود دارد، ضعیف هستند.

سیمرغ

منبع: ساعت24

کلیدواژه: پدر و مادر بچه ها

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.saat24.news دریافت کرده‌است، لذا منبع این خبر، وبسایت «ساعت24» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۰۱۳۲۵۳۲ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

پاسخ هوش‌مصنوعی به سؤالی به قدمت تاریخ بشر؛ چرا فرازمینی‌ها را ندیده‌ایم؟

هوش مصنوعی به هزاران روش مختلف حضور خود را به ما نشان می‌دهد. این فناوری دارای قابلیت‌هایی مثل دسترسی به منابع عظیم داده، کشف کلاه‌برداری‌های مالی، هدایت خودروها و حتی پیشنهاد موسیقی است. از طرفی چت‌بات‌های هوش مصنوعی عملکرد حیرت‌انگیزی دارند؛ اما تمام این‌ها تازه آغاز راه هستند.

آیا می‌توانیم بفهمیم هوش مصنوعی با چه سرعتی توسعه می‌یابد؟ اگر پاسخ منفی باشد، آیا مفهوم فیلتر بزرگ را دربر دارد؟ پارادوکس فرمی به اختلاف بین احتمال بالای وجود تمدن‌های پیشرفته و نبود شواهدی از حضور آن‌ها اختصاص دارد. راه‌حل‌های زیادی برای چرایی وجود این اختلاف ارائه شده‌اند. یکی از این فرضیه‌ها «فیلتر بزرگ» است.

فیلتر بزرگ به رویداد یا موقعیتی فرضی گفته می‌شود که از تبدیل حیات هوشمند به موجودیتی میان‌سیاره‌ای یا میان‌ستاره‌ای جلوگیری کرده و حتی می‌تواند به نابودی آن بینجامد. از این دست رویدادها می‌توان به تغییرات اقلیمی، جنگ هسته‌ای، برخوردهای سیارکی، انفجارهای ابرنواختر، طاعون یا حتی موارد دیگری از رویدادهای فاجعه‌بار اشاره کرد؛ اما درباره‌ی رشد سریع هوش مصنوعی چه می‌توان گفت؟

پژوهشی جدید در مجله Acta Astronautica، نشان می‌دهد که هوش مصنوعی در حال تبدیل شدن به ابرهوش مصنوعی (ASI) است که می‌تواند یکی از فیلترهای بزرگ باشد. عنوان این مقاله به این شرح است: «آیا هوش مصنوعی فیلتر بزرگی است که باعث کمیاب‌ شدن تمدن‌های پیشرفته در جهان می‌شود؟» مؤلف این مقاله مایکل گرت از دانشکده‌ی فیزیک و نجوم دانشگاه منچستر است.

هوش مصنوعی به عنوان یک فیلتر بزرگ می‌تواند مانع از دسترسی گونه‌های زیستی به فضاهای میان‌سیاره‌ای و میان‌ستاره‌ای شود.

برخی افراد بر این باورند که فیلتر بزرگ از تبدیل گونه‌های فناورانه مثل ما به گونه‌های چندسیاره‌ای جلوگیری می‌کند. این خبر بدی است، زیرا گونه‌هایی که تنها یک خانه دارند، در معرض خطر انقراض یا رکود قرار می‌گیرند. به باور گرت، گونه‌ها بدون سیاره‌ی پشتیبان در رقابت با زمان هستند. او می‌نویسد: چنین فیلتری پیش از آنکه تمدن‌ها به ثبات و حضور چندسیاره‌ای برسند، ظاهر می‌شود و نشان می‌دهد طول عمر رایج یک تمدن پیشرفته کمتر از ۲۰۰ سال است.

اگر فرضیه‌ی فوق حقیقت داشته باشد، می‌توان ثابت کرد چرا تاکنون هیچ اثری از فناوری یا مدرک دیگری از هوش فرازمینی پیدا نکردیم؛ اما این فرضیه درباره‌ی مسیر فناوری انسان چه می‌گویند؟ اگر با یک محدودیت ۲۰۰ ساله روبه‌رو شویم و این محدودیت به خاطر ASI باشد، سرنوشتمان چه خواهد بود؟

گرت همچنین بر نیاز به ایجاد چارچوب‌های قانون‌مند برای توسعه‌ی هوش مصنوعی در زمین و پیشرفت جامعه‌ی چندسیاره‌ای برای مقابله با تهدیدهای موجود تأکید دارد.

ابرهوش مصنوعی (ASI) می‌تواند به طور کامل جایگزین نسل بشر بشود

بسیاری از دانشمندان و متفکران می‌گویند ما در آستانه‌ی تحولی عظیم قرار داریم. هوش مصنوعی در حال ایجاد تحول در چگونگی انجام کارها است؛ بخش زیادی از این تحول پشت صحنه رخ می‌دهد. به نظر می‌رسد هوش مصنوعی میلیون‌ها شغل را حذف کند و هنگامی که با رباتیک همراه شود، دیگر حد و مرزی نخواهد داشت. قطعا این تحولات نگرانی آشکاری خواهند بود.

با این‌حال، نگرانی‌های سیستماتیک‌تر و عمیق‌تری وجود دارند. چه کسی الگوریتم‌ها را می‌نویسد؟ آیا هوش مصنوعی تا حدی قادر به تشخیص خواهد بود؟ تقریبا با قطعیت می‌توان گفت که این امکان را خواهد داشت. آیا الگوریتم‌های رقابتی، جوامع دموکراتیک قدرتمند را رو به زوال می‌برند؟ آیا جوامع باز همچنان متوقف خواهند شد؟ آیا ASI برای ما تصمیم‌گیری خواهد کرد و در این صورت چه کسی پاسخگو خواهد بود؟

پرسش‌های فوق بدون هیچ پایان مشخصی در حال افزایش هستند. استیون هاوکینگ همیشه هشدار می‌داد درصورتی‌که هوش مصنوعی به‌صورت مستقل به تکامل برسد، می‌تواند نسل بشریت را نابود کند. او در سال ۲۰۱۷ در گفتگو با مجله‌ی وایرد گفت: از این می‌ترسم که هوش مصنوعی به کلی جایگزین انسان شود. اگر افراد در حال حاضر می‌توانند ویروس‌های کامپیوتری را طراحی کنند، احتمالا در آینده شخصی خواهد توانست نوعی هوش مصنوعی را طراحی کند که خود را بهبود می‌دهد و تکثیر می‌کند. این نوع هوش شکل جدیدی از حیات خواهد بود که می‌تواند بر انسان‌ها برتری پیدا کند.

ترکیب هوش مصنوعی و رباتیک می‌تواند به تهدیدی برای انسان تبدیل شود.

هاوکینگ را شاید بتوان یکی از شاخص‌ترین چهره‌های هشدار درباره‌ی هوش مصنوعی دانست؛ اما او تنها نیست. رسانه‌ها پر از بحث‌ها و هشدارها و همچنین مقاله‌هایی درباره‌ی قابلیت‌های هوش مصنوعی هستند. مهم‌ترین هشدارها می‌گویند که ASI می‌تواند سرکش شود. برخی افراد این فرضیه را علمی تخیلی می‌دانند، اما گرت این‌طور فکر نمی‌کند. به نوشته‌ی او: نگرانی‌ها درباره‌ی ابرهوش مصنوعی (ASI) و سرکش شدن آن در آینده یک مسئله‌ی مهم به شمار می‌روند. مبارزه با این احتمال طی سال‌های آینده به یک زمینه‌ی پژوهشی روبه‌رشد برای رهبران هوش مصنوعی تبدیل خواهد شد.

اگر هوش مصنوعی هیچ مزیتی نداشت، مسئله ساده‌تر می‌شد؛ اما این فناوری انواع مزیت‌ها از تصویربرداری و تشخیص پزشکی بهبودیافته تا سیستم‌های حمل و نقل ایمن‌تر را به دنبال دارد. ترفند دولت‌ها این است که امکان رشد مزایا را بدهند و در عین حال آسیب‌ها را کنترل کنند. به نوشته‌ی گرت، این مسئله به‌ویژه در حوزه‌های دفاعی و امنیت ملی اهمیت پیدا می‌کند که در آن‌ها رشد اخلاقی و مسئولیت‌پذیری اهمیت دارد.

مشکل اینجاست که ما و دولت‌هایمان آمادگی کافی را نداریم. هرگز چیزی مانند هوش مصنوعی وجود نداشته و صرف‌نظر از اینکه چگونه برای ایده‌پردازی و درک مسیر آن تلاش کنیم، به نتیجه‌ی قابل انتظار نمی‌رسیم. بنابراین اگر ما در چنین موقعیتی قرار داریم، احتمالا دیگر موجودات بیولوژیکی در دیگر نقاط جهان هم همین شرایط را دارند. ظهور هوش مصنوعی و ابرهوش مصنوعی می‌تواند مسئله‌ای کیهانی باشد و به همین دلیل آن را به کاندیدی مناسب برای فیلتر بزرگ تبدیل کند. خطری که ASI می‌تواند تحمیل کند، این است که شاید روزی دیگر نیازی به حیات بیولوژیکی سازنده‌اش نداشته باشد.

براساس توضیحات گرت، سیستم‌های ASI با رسیدن به تکینگی فناورانه می‌توانند از هوش بیولوژیکی سبقت بگیرند و با سرعتی به تکامل برسند که حتی از مکانیزم‌های ناظر خود پیش بیفتند و در نهایت به پیامدهای غیرمنتظره و غیرعمدی بینجامند، به‌طوری‌که بعید است با اخلاق و علایق بیولوژیکی سازگار باشند.

زندگی روی چند سیاره می‌تواند تهدید هوش مصنوعی را کمرنگ کند.

چگونه ASI می‌تواند خود را از زندگی بیولوژیکی مزاحمی که آن را اسیر کرده، رهایی پیدا کند؟ ممکن است ویروسی کشنده را مهندسی کند؛ یا از تولید و توزیع محصولات کشاورزی جلوگیری کند یا حتی به فروگداخت نیروگاه هسته‌ای بینجامد و جنگی را آغاز کند.

هنوز نمی‌توان به طور قطعی درباره‌ی احتمالات سخن گفت، زیرا قلمروی هوش مصنوعی نامشخص است. صدها سال پیش، نقشه‌نگارها هیولاهایی را در مناطق کشف‌نشده‌ی دنیا ترسیم می‌کردند و حالا این کاری است که ما انجام می‌دهیم. تحلیل گرت مبتنی بر این مسئله است که ASI و انسان‌ها فضای یکسانی را اشغال کنند؛ اما اگر بتوانیم به وضعیت چندسیاره‌ای برسیم، این چشم‌انداز تغییر خواهد کرد. گرت می‌نویسد: برای مثال، گونه‌های بیولوژیکی چندسیاره‌ای می‌توانند از تجربیات مستقل سیاره‌های مختلف استفاده کنند و با افزایش تنوع استراتژی‌های بقا از شکست تک نقطه‌ای که تمدن تک سیاره‌ای تحمیل می‌کند، اجتناب کنند.

اگر بتوانیم خطر را روی سیاره‌های متعدد در اطراف چند ستاره توزیع کنیم، می‌توانیم از خود در برابر بدترین پیامدهای احتمالی ASI محافظت کنیم. این مدل توزیع‌یافته با ایجاد افزونگی، انعطاف تمدن بیولوژیکی را در برابر فاجعه‌های هوش مصنوعی افزایش می‌دهد. اگر یکی از سیاره‌ها یا پایگاه‌هایی که انسان آینده اشغال می‌کند، در بقا در مقابل تکینگی فناورانه‌ی ASI شکست بخورند، ممکن است بقیه جان سالم به در ببرند و از این شکست درس بگیرند.

وضعیت چندسیاره‌ای همچنین می‌تواند فراتر از نجات از دست ASI باشد. براساس سناریوهای فرضی گرت می‌توانیم تجربیات بیشتری را با هوش مصنوعی امتحان کنیم و در عین حال آن را محدود نگه‌داریم. هوش مصنوعی را روی یک سیارک ایزوله یا سیاره کوتوله در نظر بگیرید که به منابع لازم برای فرار دسترسی ندارد و به این صورت می‌توان آن را محدود کرد. به نوشته‌ی گرت: این سناریو برای محیط‌های ایزوله صدق می‌کند که در آن‌ها آثار هوش مصنوعی پیشرفته را می‌توان بدون ریسک آنی نابودی سراسری بررسی کرد.

با این‌حال یک مسئله‌ی پیچیده در اینجا مطرح می‌شود. هوش مصنوعی با سرعتی فزاینده در حال پیشرفت است، در حالی که تلاش‌های انسان برای تبدیل‌شدن به گونه‌ی چندسیاره‌ای سرعت پائینی دارند. به نوشته‌ی گرت، ناسازگاری بین پیشرفت سریع هوش مصنوعی و توسعه‌ی آهسته‌ی فناوری فضایی بسیار واضح است.

سرعت پیشرفت هوش مصنوعی بسیار بیشتر از سفرهای فضایی است

تفاوت در اینجاست که هوش مصنوعی محاسباتی و اطلاعاتی است، اما سفرهای فضایی با موانع فیزیکی متعددی روبه‌رو هستند که هنوز روش غلبه بر آن‌ها را نمی‌دانیم. ماهیت بیولوژیکی انسان مانعی برای سفرهای فضایی است، اما هیچ کدام از این موانع هوش مصنوعی را محدود نمی‌کنند.

به نوشته‌ی گرت، با اینکه هوش مصنوعی از نظر تئوری قابلیت‌های خود را حتی بدون محدودیت‌های فیزیکی بهبود می‌دهد، سفرهای فضایی با محدودیت‌های انرژی، علم مواد و واقعیت‌های خشن محیط فضا روبه‌رو هستند.

در حال حاضر هوش مصنوعی تحت محدودیت‌هایی که انسان تعیین کرده عمل می‌کند؛ اما شاید همیشه این طور نباشد. هنوز نمی‌دانیم هوش مصنوعی چه زمانی ممکن است به ASI تبدیل شود؛ اما نمی‌توانیم این احتمال را نادیده بگیریم. این مسئله می‌تواند به دو نتیجه‌گیری درهم‌تنیده منجر شود.

اگر حق با گرت باشد، انسان باید بیشتر برای سفرهای فضایی تلاش کند. شاید به نظر دور از دسترس برسد، اما افراد آگاه می‌دانند که زمین برای همیشه سکونت‌پذیر نخواهد بود. اگر انسان تمدن خود را به داخل فضا گسترش ندهد، ممکن است به دست خود یا به دست طبیعت نابود شود. با این‌حال دستیابی به ماه و مریخ می‌تواند نویدبخش گام‌های آینده باشد.

دومین نتیجه‌گیری در ارتباط با قانون‌مند شدن و نظارت بر هوش مصنوعی است؛ وظیفه‌ای دشوار در جهانی که بیمارهای روانی می‌توانند کنترل کل ملت‌ها را به دست بگیرند و به جنگ‌افزوزی منجر شوند. به نوشته‌ی گرت، با اینکه ذینفعان صنایع، سیاست‌گذارها، کارشناسان مستقل و دولت‌هایشان درباره‌ی ضرورت قانون‌گذاری هشدار می‌دهند، ایجاد یک چارچوب قانونی که در سراسر جهان پذیرفته شود کار دشواری است.

در واقع اختلاف همیشگی بشریت، هدف نظارت بر هوش مصنوعی را غیرقابل کنترل می‌سازد. صرف‌نظر از اینکه با چه سرعتی راهبردها را توسعه دهیم، ابرهوش مصنوعی می‌تواند با سرعت بیشتری رشد کند. در واقع بدون قانون کاربردی، دلیلی بر این باور وجود دارد که هوش مصنوعی نه‌تنها تهدیدی برای تمدن‌ آینده بلکه تهدیدی برای کل تمدن‌های پیشرفته به شمار می‌رود.

تداوم حیات هوشمند و آگاهانه در جهان ممکن است به پیاده‌سازی مؤثر و به موقع ضوابط قانونی و تلاش‌های فناورانه وابسته باشد.

منبع: خبر آنلاین

دیگر خبرها

  • (ویدئو) خلاصه بازی آتالانتا ۰ - لیورپول ۱؛ پایان کار آقای معمولی در اروپا
  • (ویدئو) لحظه هدف قرار گرفتن ریز‌پرنده‌ها توسط پدافند هوایی در اصفهان
  • نتیجه عجیب قانون حمایت از فرزندآوری
  • پاسخ هوش‌مصنوعی به سؤالی به قدمت تاریخ بشر؛ چرا فرازمینی‌ها را ندیده‌ایم؟
  • حق حضانت فرزند، اهرم فشار والدین
  • (ویدئو) پنالتی‌های جذاب دیدار رئال مادرید - منچسترسیتی
  • عجیب‌ترین نتیجه روز اول جام ملت‌های آسیا!
  • تفاوت قد عجیب این زوج در گینس ثبت شد
  • چرا برخی از مردم یک گوشی "صامت" را به یک گوشی "هوشمند" ترجیح می‌دهند؟
  • عامل افزایش ابتلای جوانان به سرطان چیست؟