اپیزود سیزدهم: ریاضیات به مثابه اسلحه

عصر ما عصر کلان داده است. حتما به گوش‌تون خورده که الگوریتم‌های مختلفی با استفاده از کلان‌داده‌ها درک ما رو نسبت به بسیاری از چیزها عوض کردند و دریچه‌های تازه‌ای رو به الگوی مصرف، سیاست و شناخت رفتارهای اجتماعی باز کردند. این الگوریتم‌ها همه جا هستند. اونها بر آنچه که ما در صفحه‌ی اول اینستاگرام یا توییترمون می‌بینیم اثر می‌ذارن و تبلیغات مرتبط با سلیقه‌مون رو در یوتیوب به ما نشون می‌دن. اثر الگوریتم‌ها گاهی از این هم فراتر می‌ره و در انتخاب مدرسه‌ای که در دسترسمونه و شغلی که می‌تونیم براش اپلای کنیم هم موثرند.

بسیاری می‌گن خوب اینکه تصمیم‌گیری در مورد استخدام یا ثبت‌نام در مدرسه و دانشگاه رو به دست این محاسبات ریاضی بسپاریم خیلی بهتر از اینه که اختیارش رو بدین دست یک نیروی انسانی که هر چقدر هم حرفه‌ای باشه به هر حال خلقیات فردیش ممکنه روی سرنوشت افراد اثر بذاره. به هر حال هر چی نباشه، الگوریتم‌ها ما رو با متر و معیار مشخص و تکرار پذیری با هم مقایسه می‌کنن، نه؟

نویسنده‌ی کتابی که منبع این اپیزود پادکست مختصر و مفیده معتقده که ماجرا پیچیده‌تر از این حرف‌هاست که به همین راحتی بتونیم به این سوال جواب بدیم.

من اردشیر طیبی هستم و این اپیزود سیزدهم پادکست مختصر و مفیده

منبع این اپیزود پادکست مختصر و مفید کتابیه به نام Weapons of Math Destruction ترجمه‌ی عنوانش قدری سخته چون یک بازی لغوی با عبارت Weapons of Mass Destruction به معنای سلاح‌های کشتار جمعی داره، فقط به جای Mass یعنی m a ss کلمه‌ی Math به معنای ریاضیات گذاشته شده. عنوان فارسیش مثلا می‌تونه «ریاضیات به مثابه اسلحه» باشه. هرچند که زیاد مهم نیست و در کار ما تاثیری نداره.

کتاب در سال ۲۰۱۶ منتشر شده و بسیار موفق بوده. نامزد بهترین کتاب غیر داستانی سال ۲۰۱۶ بوده و همچنین برنده‌ی جایزه‌ی کتاب اویلر هم شده. جایزه‌ی کتاب اویلر جایزه‌ایه که به بهترین کتاب‌هایی که بتونن درک عمومی رو راجع به ریاضیات ارتقاء بدن اهدا می‌شه.

نویسنده‌ش هم خانم کتی اونیل هستند. ایشون ریاضی‌دانی اهل آمریکاست و کلا آدم جالبیه، لیسانس رو برکلی گرفته، دکترای ریاضیش رو از هاروارد گرفته، مدتی محقق در دانشگاه MIT بوده و بعد سه چهار سال رفته وال‌استریت و در حوزه‌ی مالی کار کرده بعد شغلش در وال‌استریت رو رها کرده و در جنبش اشغال وال‌استریت از فعالان این کمپین بوده و در کمیته‌ی بانکداری آلترناتیو این جنبش فعالیت می‌کرده.

خانم اونیل در بخش‌های نخستین کتابش می‌گه که اینترنت در بسیاری از جنبه‌ها به تقویت دموکراسی کمک کرده. اینترنت پلتفرم عمومی‌ای است که صداهای مستقل با استفاده از اون به گوش ما می‌رسند. اما همونجور که صداهای مستقل می‌تونن از این ابزار برای نشر خودشون استفاده کنن، ماشین‌های قدرتمند پروپاگاندا هم می‌تونن گفتگوهایی که در این فضا می‌شه رو دستکاری کنن.

تحقیقات نشون می‌دن که موتورهای جستجو و شبکه‌های اجتماعی در مقابل الگوریتم‌هایی که می‌تونن تصمیمات ما رو دستکاری کنن، بسیار آسیب‌پذیر هستند.

چند سال پیش دو محقق به نام‌های رابرت اپشتاین و رونالد روبرتسون شواهد این ادعا رو در تحقیقی دنبال کردند. اینها رفتند دم انتخابات رای‌دهندگانی که هنوز برای اینکه به چه کسی رای بدن مردد هستند رو در دو کشور هند و ایالات متحده زیر نظر گرفتند.

روش تحقیق اینجوری بود که از اونها خواستند از یک موتور جستجوی خاص استفاده کنند. بدون اینکه بهشون بگن این موتور جستجو به طریقی دستکاری شده که یک کاندیدا رو نسبت به بقیه کاندیداها برتر نشون بده. در پایان این مطالعه، نظر شرکت‌کنندگان در این تحقیق نسبت به کاندیدای مورد نظر ۲۰ درصد مثبت‌تر شده بود.

مطالعه‌ی مشابهی در سال ۲۰۱۲ و در فیسبوک هم انجام گرفته. یک مرکز تحقیقاتی الگوریتم خاصی طراحی کرد اخبار سیاسی رو در فید خبری حدود ۲ میلیون کاربر در اولویت نسبت به سایر پست‌هایی که اون کاربر‌ها می‌دیدن قرار می‌داد.

فیسبوک قبل و بعد از این مطالعه بین شرکت‌کنندگان نظرسنجی‌ای برگزار کرد و نتایج نشون می‌داد که افرادی که تصمیم به شرکت در انتخابات دارند قبل و بعد از این مطالعه ۳ درصد بیشتر شدند.

خانم اونیل به اینجا که می‌رسه یک ایده‌ی ترسناک رو مطرح می‌کنه. می‌گه ما نمی‌دونیم موتورهای جستجو همین الانش هم آیا تحت تاثیر الگوریتم‌هایی که برای تاثیر بر افکار عمومی طراحی شدند هستند یا نه. ولی دست کم تا اینجا می‌دونیم که این پتانسیل برای سوءاستفاده از موتورهای جستجو در دست مالکین‌شون وجود داره. نه فقط ما، بلکه سیاست‌مداران و کاندیداهای انتخابات بهتر از ما می‌دونن که با استفاده از این الگوریتم‌ها چطور می‌شه آرای عمومی رو درو کرد.

سال ۲۰۱۲ تیمی از تحلیل‌گران داده در کمپین انتخاباتی باراک اوباما، در پی مصاحبه با هزاران نفر از رای‌دهندگان از جواب‌های اونها استفاده کردند و علاوه بر تحلیل‌های دموگرافیک معمول موفق شدند که اونها رو بر مبنای ریاضیات پروفایل بکنن. بعد این پروفایل رو با پایگاه‌داده‌های ملی منطبق کردند و باهاش افراد مشابه رو پیدا کردند. به این امید که افرادی با سوابق و علاقمندی‌های مشابه، آرای سیاسی مشابهی هم داشته باشند. حاصل دیتابیس تازه‌ای از افرادی همگن بود و بعد شروع به طراحی الگوریتمی کردند که تبلیغ کمپین آقای اوباما متناسب با سلیقه‌ی گروه هدف به اونها نمایش داده بشه. مثلا اون دسته از افرادی که نگرانی‌های زیست‌محیطی داشتند، تبلیغاتی از باراک اوباما می‌دیدند که در اون سیاست‌های زیست‌محیطی اوباما برجسته شده بود.

یکی دیگه از چیزهایی که با کمک الگوریتم‌ها می‌شه از دل کلان‌داده‌ها کشید بیرون امکان پیش‌بینی وقوع جرم و جنایاته. یه ذره شبیه به قصه‌های علمی-تخیلیه ولی واقعیت داره. یادمه سال‌ها پیش یک سریالی از تلویزیون ایران پخش می‌شد به نام «در برابر آینده»، ماجراش این بود که هر روز صبح روزنامه‌ی فردای اون روز می‌رفت دم در خونه‌ی یک بابایی و اون هم سریع می‌رفت سراغ صفحه‌ی حوادث که ببینه چه حوادثی در اون روز قراره اتفاق بیفته و بعد تلاش می‌کرد که جلوش رو بگیره. یادمه خیلی حال می‌کردم با ایده‌ی این سریال. حالا اما این قصه‌ی تخیلی تا حدودی به کمک کلان‌داده‌ها ممکن شده و در برخی از دپارتمان‌های پلیس از الگوریتم‌هایی برای تحت نظر گرفتن مجرمین بالقوه استفاده می‌شه.

اما واقعیت اینه که هنوز خیلی راه مونده تا به امکانی به دقت سریال «در برابر آینده» برسیم. این الگوریتم‌ها فعلا چند تا مشکل بزرگ دارن، یکیش اخلاقیه و منتقدین می‌گن باعث می‌شه یک سلطه‌ی پلیسی نابرابر بر شهروندان اعمال بشه و کلا هم بایاس توش زیاده.

حالا مشکل چطور به وجود میاد؟ اینجوری که پلیس روی نوع خاصی از جرایم مثل آزار و اذیت‌‌ها تمرکز داره. داده‌های تاریخی نشون می‌دن که این جور جرایم بیشتر در محله‌های فقیرنشین رخ می‌ده و همین باعث می‌شه تحلیل‌های مبتنی بر این الگوریتم‌ها هم به طور کامل به سمت این محله‌ها کشیده بشه. این منجر به حضور غیرعادی پلیس در این محله‌ها می‌شه و باعث می‌شه اهالی محل حس کنند که به طرز نابرابر و غیرعادی‌ای تحت نظر هستند. از طرف دیگه چون همه‌ی حواس پلیس به این محله‌ها هست، منجر به آسیب‌پذیرتر شدن محله‌های ثروتمندتر می‌شه.

حالا وقتی این الگوریتم‌ها روی افراد تمرکز می‌کنند هم همین بایاس در اون وجود داره و باعث می‌شه افراد بی‌گناهی برچسب مجرم بالقوه بودن یا خطرناک بودن بخورن.

سال ۲۰۰۹ اداره‌ی پلیس شیکاگو یک بودجه‌ی تپل گیرش اومد که باهاش نرم‌افزار جدیدی برای پیش‌بینی جرایم بسازه. پول رو خرج کردن و نرم‌افزار ساخته شد و آخر گفت بفرمایید این هم لیست چهارصد نفر از کسانی که بیشتر از بقیه احتمال داره مرتکب جنایت بشن.

پلیس شروع به تحت نظر گرفتن این ۴۰۰ نفر کرد و از جمله یک جوان ۲۲ ساله‌ای به نام رابرت مک‌دنیل. یک روز از روزهای سال ۲۰۱۳ حتی پلیس رفت دم در منزل آقای مک‌دنیل و بهش گفتند که داداش حواست به خودت باشه چون ما حواسمون بهت هست.

این رابرت مک‌دنیل از همه جا بی‌خبر هم گذاشت پشتش ببینه جریان چیه؟ چون اون هیچ سوءسابقه‌ای نداشت و تعجب کرده بود که اسمش تو اداره پلیس برچسب قرمز خورده. خلاصه کنم که آخر معلوم شد الگوریتم ایشون رو صرفا بر اساس افرادی که در شبکه‌های اجتماعی دنبال می‌کرده  و همسایه‌های خلاف‌کاری که داشته گذاشته تو دسته‌ی مجرمین بالقوه. به همین مسخرگی.

یعنی از نظر این الگوریتم‌ها، به دنیا اومدن در یک محله‌ی فقیرنشین تمام چیزیه که برای برچسب خطرناک خوردن نیاز دارید.

این الگوریتم‌ها که ابتدا به ساکن با هدف بالابردن امنیت و کیفیت زندگی مردم خلق شدند، می‌تونن به سادگی زندگی بسیاری رو بدتر از چیزی که هست بکنند. در ادامه خواهید شنید که همین مشکل در صنعت بیمه هم به نوعی تکرار شده.

اگر با مکانیزم صنعت بیمه در کشورهای غربی آشنا باشید می‌دونید که قدری با روند علی‌السویه‌ای که ما در ایران داریم فرق می‌کنه و افراد مختلف ممکنه هزینه‌های متفاوتی برای خدماتی یکسان پرداخت کنند و این که هر کسی چقدر پرداخت بکنه رو داده‌هایی که این شرکت‌ها درباره‌ی مشتریان جمع می‌کنند مشخص می‌کنه.

مثلا در بیمه اتوموبیل، علاوه بر سوابق تصادفات فرد متقاضی خدمات، گزارش‌های اعتباری او هم بر روی پولی که باید بابت بیمه‌ی ماشینش پرداخت کنه تاثیر داره.

ولی واقعیت اینه که در بعضی جاها، گزارش اعتباری افراد وزن بیشتری نسبت به سوابق تصادفاتش داره. مثلا در جایی مثل فلوریدا، یک راننده‌ی بالغ بدون سابقه‌ی تصادف و تخلف رانندگی که اعتبار بانکی پایینی داره از یک راننده‌ی دیگه با سوابق اعتباری بالا که تخلف رانندگی در حال مستی در کارنامه‌ش هست پول بیشتری پرداخت می‌کنه.

جمله‌ی خیلی بلندی شد. اگر فعل و فاعلش رو اون وسط گم کردید خلاصه‌ش می‌شه این: یک راننده‌ی قانون‌مند اما فقیر به طور میانگین باید مبلغ بیشتر از یک راننده‌ی خلاف‌کار اما پول‌دار بابت بیمه پول بده.

بعد این آغاز یک دور باطله. راننده‌ی فقیرتر مجبوره پول بیشتری برای بیمه بده، بعد خوب چون فقیره و ممکنه جور کردن سر موعد این پول براش سخت باشه گاهی اوقات نمی‌تونه سر وقت پول بیمه‌ش رو پرداخت کنه و چون دیر کرده باز باید پول بیشتری به خاطر دیرکردش پرداخت کنه و همینجور قیمت می‌ره بالا. همه‌ی اینها رو بذارید کنار این نکته که اصلا ممکنه طرف هیچ تخلف رانندگی‌ای نکرده باشه و کلا این افزایش قیمت ارتباطی به اون چیزی که باید داشته باشه نداره.

الگوریتم‌ها یه بلای دیگه هم سر خریدار بیمه میارن. مثلا شرکت بیمه Allstate از این الگوریتم‌ها استفاده می‌کنه تا کشش قیمتی خریدار رو محاسبه کنن و اگر حدس بزنن که طرف تمایل به خرید در قیمت پایین‌تر داره، قیمتی که به اون پیشنهاد می‌دن گاهی تا ۹۰ درصد تخفیف داره. اما از اون طرف اگر حدس بزنن که طرف خیلی هم دنبال قیمت پایین‌تر نیست، قیمتی که بهش پیشنهاد می‌دن بعضی اوقات تا ۸۰۰ درصد بالاتر از نرخ رایجه.

شاید در نگاه اول به نظر بیاد این الگوریتم برخلاف اون قبلی کفه‌ی ترازو رو به نفع فقرا سنگین می‌کنه، اما در عمل ثابت شده که اتفاقا باز فقرا هستند که ضرر می‌کنن و قیمت بالاتر بهشون داده می‌شه. چطور؟ اینطوری که آدم‌های باسوادتر که وقت بیشتری برای تحقیق و بررسی خرید بیمه‌شون می‌کنن اون تخفیف تپل‌ها گیرشون میاد و آدم‌های کم‌سوادتر از نظر الگوریتم اینطور شناسایی می‌شن که می‌شه با قیمت بالاتری بهشون بیمه فروخت.

یه جای دیگه‌ای که به نظر می‌رسه الگوریتم‌های ریاضی و داده‌کاوی خیلی به کار میاد استخدامه. اگر تجربه‌ی جمع کردن و بررسی رزومه برای استخدام رو داشته باشید حتما می‌دونید که پیدا کردن فرد متناسب از بین ده‌ها و بلکه صدها رزومه کار بسیار دشواریه. بنابراین شرکت‌ها میان و تست‌هایی از متقاضیان می‌گیرن و اونها رو با اطلاعات شرکت‌های داده‌پرداز ترکیب می‌کنن تا بتونن کاندیدای مورد نظرشون رو پیدا کنن.

اما این تست‌ها لزوما برای همه‌ی گروه‌های متقاضیان جواب نمی‌دن و بعضی جاها نتایج عجیبی دارند. از جمله مثال‌هایی که کتاب می‌زنه، اتفاقیه که برای آقایی در سال ۲۰۱۲ افتاده. ایشون در دوران تحصیلش یک مدتی به خاطر اختلال دوقطبی مجبور می‌شه ترک تحصیل کنه و بعد تحت درمان قرار می‌گیره و مدتی بعد که حالش بهتر می‌شه تلاش می‌کنه جایی به طور پاره‌وقت استخدام بشه.

یک دوستی هم میاد و بهش می‌که شرکت Korger که یک سوپرمارکت زنجیره‌ای است موقعیت کاری مناسبی براش داره و این آقا هم می‌ره و برای اون کار تقاضا می‌ده. اما وقتی که تقاضاش رد می‌شه می‌ره سراغ همون دوستش و می‌گه چی شد؟ چرا من رو رد کردن؟ دوستش هم بهش می‌گه ظاهرا اینها بر اساس نتایج تست شخصیتی که ازش گرفتند او رو اصطلاحا Red-lighted کردند. الگوریتم‌ها تشخصی دادند که ایشون احتمالا underperform یعنی عملکرد‌ش از اونچه ازش انتظار می‌ره کمتر خواهد بود.

بعد ایشون شروع می‌کنه و برای چند تا موقعیت شغلی دیگه که همگی کف حقوق رو داشتند تقاضا می‌فرسته و همگی به همین دلیل ردش می‌کنند. بعد از این بود که این فرد با کمک پدرش و بر مبنای قانون حمایت از معلولین از هفت شرکت بزرگ شکایت می‌کنه. این پرونده تا سال ۲۰۱۶ که نویسنده این کتاب رو می‌نوشته به حالت تعلیق بوده و بهش رسیدگی نشده بوده.

بخشی از مشکل اینجاست که شرکت‌هایی که داده‌کاوی می‌کنن ممکنه دچار اشتباهات مهلکی بشن. مورد مشابه برای خانمی به نام کاترین تیلور رخ داد که می‌خواست در آرکانزاس به صلیب سرخ بپیونده اما درخواستش به علت عجیبی رد شد: سابقه‌ی جرم و جنایت و مشارکت در ساخت و توزیع متامفتامین! موضوعی که باعث تعجب خانم تیلور شد چون ایشون به نظر خودش پرونده‌ی پاکی داشت و هیچ وقت دست از پا خطا نکرده بود چه برسه به اینکه تو کار توزیع و تولید شیشه باشه.

وقتی پی ماجرا رو گرفت فهمید که این سوابق مربوط به یک کاترین تیلور دیگه‌ست و صرفا به خاطر تشابه اسمی به نام ایشون ثبت شده. بعد که بیشتر پیگیری کرد فهمید این اشتباه رو صرفا یک شرکت داده‌کاوی نکرده و حداقل ۱۰ شرکت دیگه هم اسم ایشون رو با سوابق مرتبط با جرم و جنایت و تولید و توزیع شیشه ثبت کردند. جرایمی که او هیچ وقت مرتکب نشده بود.

نویسنده در بخش آخر سراغ تاثیر این الگوریتم‌ها بر هزینه‌های تحصیل در آمریکا می‌ره. ایشون می‌گه بر کسی پوشیده نیست که در ۳۰ سال اخیر شهریه‌ی دانشگاه‌های آمریکایی به طرز عجیبی رشد کرده اما کمتر کسی می‌دونه که دلیل اصلی این افزایش قیمت تقصیر یک روزنامه‌ست.

در دهه‌ی ۸۰ روزنامه‌ای به نام US News and World Report با کمک الگوریتمی شروع به رتبه‌بندی کیفی کالج‌های آمریکایی کرد. مبنای این رتبه‌بندی هم داده‌هایی بود که به نظر تهیه‌کنندگانش مرتبط به نظر می‌رسید. چیزهایی مثل نمره‌ی SAT و نرخ پذیرش. خیلی سریع این رتبه‌بندی برای دانشگاه‌های آمریکایی مهم شد و اونها شروع کردند به تقویت عملکردشون در حوزه‌هایی که برای این رتبه‌بندی مهم بودند. اما برای چنین کاری اونها نیاز به منابع مالی داشتند.

این عطش منابع مالی منجر به افزایش ۵۰۰ درصدی شهریه‌های دانشگاه در فاصله‌ی ۱۹۸۵ تا ۲۰۱۳ شد.

یکی از مخرب‌ترین ملاک‌هایی که US News برای رتبه‌بندیش در نظر گرفت هم همین در نظر گرفتن نرخ پذیرش به عنوان فاکتوری تاثیرگذار در رتبه‌بندی بود. تا قبل از این ماجرا، وقتی موقع انتخاب دانشگاه می‌شد، بچه‌ها دانشگاه‌های قوی‌تری مثل Yale یا هاروارد رو در گزینه‌ی اول‌شون می‌گذاشتند و بعد از اون دانشگاه‌هایی رو انتخاب می‌کردند که نرخ پذیرش بالاتری داشتند و ورود به اونها آسون‌تر بود. اما از اونجایی که US News کمتر بودن نرخ پذیرش رو به عنوان نمادی از کیفیت دانشگاه‌ها مطرح کرده بود، دیگه حتی دانشگاه‌های ضعیف‌تر هم سعی می‌کردند نرخ پذیرششون رو پایین بیارن. این دانشگاه‌های درجه دو که تا اون موقع Plan B بسیاری از متقاضیان تحصیل در دانشگاه بودند، حالا حساب کتاب می‌کردند و پیش خودشون می‌گفتند ما که باید یه عده رو به هر حال رد کنیم تا نرخ پذیرش‌مون رو در حد مطلوب نگه داریم. حالا کی رو رد کنیم؟ دیدن که درصد کمی از دانشجوهای نخبه اونها رو در انتخاب اول‌شون قرار می‌دن و اونها احتمالا توسط دانشگاه‌های بهتر جذب می‌شن، پس تصمیم گرفتن این گروه از دانشجوهایی که نمره‌های بهتری داشتند رو رد کنند؛ به جای اینکه اونها رو بپذیرند اما درصد بزرگی‌شون نیان و برن دانشگاه‌های بالاتر ثبت نام کنند. اما واقعیت مشخصه دیگه. اگر این رتبه‌بندی مسخره نبود، دانشگاه قطعا ترجیح می‌داد که اون Top Studentها رو جذب خودش بکنه تا کیفیت آموزشیش رو بالاتر ببره و به هر حال همه‌ی اونها هم که توسط دانشگاه‌های بهتر جذب نمی‌شدند یا لزوما هم همه‌ی اونها شاید انتخاب اول‌شون هاروارد نمی‌بود و یک درصدی‌شون بالاخره میومدن تو این دانشگاه‌ها و کیفیت آموزشی رو ارتقا می‌دادن. اما دانشگاه‌ها ترجیح دادند این ریسک رو نکنن و اونها رو رد کنند.

این هم مثل بقیه‌ی الگوریتم‌هایی که کتاب بررسی کرده، اول با یک نیت خیر شروع شده اما در نهایت بیشتر از اینکه به درد بخوره، خسارت‌بار بوده.

کتاب البته قدری رادیکال به الگوریتم‌ها نگاه می‌کنه، اما نقطه‌نظرش مهمه. نویسنده می‌گه این الگوریتم‌ها اغلب همون بایاس‌های ذهنی طراحان‌شون رو با خودشون دارن و چون در مقیاس بزرگ استفاده می‌شن منجر به میلیون‌ها تصمیم اشتباه می‌شن و اینکه شاید ده‌ها برابر این تصمیمات اشتباه، می‌تونن مفید باشند هم خیلی دردی از اونهایی که زندگی‌شون متاثیر از این تصمیمات اشتباه شده دوا نمی‌کنه. امیدوارم در اپیزودهای آتی پادکست مختصر و مفید دوباره این فرصت پیش بیاد و به سراغ کلان‌داده‌ها برم. تا اون موقع، شما اگر نظری دارید یا کتاب خوبی در این زمینه می‌شناسید می‌تونید اون رو در شبکه‌های اجتماعی با هشتگ #مختصرومفید با من در میون بگذارید و یا از طریق راه‌های تماسی که در وبسایت ardeshirtayebi.com هست برای من ارسالش کنید. در همین وبسایت هم می‌تونید متن این اپیزود رو به همراه لینک‌هایی که در داخل متن برای توضیحات بیشتر گذاشتن پیدا کنید.

مثل همیشه خواهش من از شما اینه که اگر این اپیزود رو دوست داشتید و حرف تازه‌ای براتون داشته یا منجر شده به موضوعی که از قبل باهاش آشنا بودید جور دیگه‌ای فکر کنید، لطفا اون رو دست کم به یک دوستتون که فکر می‌کنید این موضوع ممکنه برای او هم جالب باشه معرفی کنید.

این اپیزود با دو هفته تاخیر منتشر می‌شه چون در زمان مقرر خودش یعنی ۲۶ آبان ۹۸ و در پی تظاهرات سراسری در ایران، ارتباطات اینترنتی خاموش شد و کشوری به عظمت و پرجمعیتی ایران به قعر تاریخ فرو رفت و ارتباطش با دنیا قطع شد. در پی این تظاهرات و در سایه‌ی قطع بودن اینترنت صدها نفر جان خودشون رو از دست دادند و حتی در روز انتشار این پادکست هم همچنان در بخش‌هایی از ایران مثل استان سیستان و بلوچستان اینترنت قطع است. این اپیزود رو تقدیم می‌کنم به مردم سیستان و بلوچستان به این امید که روزهای بهتری در انتظار همه‌مون باشه.

من اردشیر طیبی هستم و آنچه که می‌شنیدید اپیزود سیزدهم پادکست مختصر و مفید بود.

 

 

اپیزود سیزدهم: ریاضیات به مثابه اسلحه

بسیاری می‌گن اینکه تصمیم‌گیری در مورد استخدام افراد یا ثبت‌نام دانش‌آموزان در مدرسه و دانشگاه رو به دست محاسبات ریاضی بسپاریم خیلی بهتر از اینه که اختیارش رو بدیم دست یک نیروی انسانی که هر چقدر هم حرفه‌ای باشه، خلقیات فردیش ممکنه روی سرنوشت افراد اثر بذاره. به هر حال هر چی نباشه، الگوریتم‌ها ما رو با متر و معیار مشخص و تکرار پذیری با هم مقایسه می‌کنن، نه؟

نویسنده‌ی کتابی که منبع این اپیزود پادکست مختصر و مفیده معتقده که ماجرا پیچیده‌تر از این حرف‌هاست که به همین راحتی بتونیم به این سوال جواب بدیم.

منبع:

Weapons of Math Destruction; by Cathy O’Neil

برای دریافت متن این اپیزود و همچنین مطالب تکمیلی به وبسایت www.ardeshirtayebi.com سر بزنید.

Leave a reply:

Your email address will not be published.

Site Footer