Мир затопило фуфло

Это лучший абзац, который мне попался на глаза в 2017 году:

Мир затопило фуфло. Политики совершенно не ограничены фактами. Наука приросла к пресс-релизам. Так называемое высшее образование часто вознаграждает фуфло, а не аналитическое мышление. Культура стартапов превратило фуфло в высокое искусство. Рекламодатели заговорщически нам подмигивают, приглашая присоединиться к ним, чтобы посмотреть насквозь через все это фуфло, а затем, пользуясь тем, что мы ослабили бдительность, бомбардируют нас фуфлом второго порядка. Большая часть управленческой деятельности, будь то в частном бизнесе или общественной сфере, часто кажется ничем иным, как изощрёнными упражнениями по комбинаторной сборке фуфла.

Это отрывок из «Обучающего Плана по фуфлу» (The Bull$hit Syllabus), созданного Карлом Бергстромом (Carl Bergstrom) и Джевином Вестом (Jevin West), профессорами университета штата Вашингтон, которые пытаются бороться с фуфлом. Программа обучения включает в себя вопросы и стандарты, которые ученые, работающие с данными, могут обдумать и использовать.

Они считают, что с появлением «Больших Данных» (BigData) и инструментов по работе с ними, объема фуфла в мире вырос неимоверно. Стало слишком просто показывать фуфло, не учитывая контекст, и обеспечивая его вирусное распространение. «Большие Данные» дали нам огромные наборы данных для изучения и манипуляций. В то время как мы не спешим делать выводы из небольшого набора данных, мы с большим доверием относимся к последствиям и шаблонам в больших наборах данных. Бергстром объясняет:

До того, как большие данные стали основным исследовательским инструментом, тестирование абсурдной гипотезы с использованием маленького набора данных вероятно не дало бы результатов. Но в огромном наборе данных, говорит он, всегда найдется какой-нибудь шаблон. «Людям стало проще случайно или намеренно отыскать какую-нибудь регулярность во всех этих данных», говорит он. «Думаю, что это новый риск».

Он также скептически смотрит на алгоритмы машинного обучения. Они часто дают очень хорошие результаты, но данные, которые они анализируют и на которые опираются, редко ставятся под сомнение:

Может ли алгоритм действительно посмотреть на человеческие черты лица и определить его склонность к совершению преступлений? Да, может и нет. Но это было тезисом доклада, опубликованного всего несколько месяцев назад «Автоматизированный вывод о склонности к совершению преступлений с использованием лицевых изображений» (Automated Inference on Criminality Using Facial Images).

«Если копнуть глубже, то вы обнаружите много всего, что вызывает сомнение. Все опирается в основном на то, как был одет этот человек, хмурился ли он или нет», говорит Вест. «Манипулируют тем, как эти результаты подаются». Не говоря уже о том, что человеческие предрассудки и структурное неравенство могут сделать алгоритмы столь же несовершенными, как и люди, которые их придумывают.

Почитайте вот эту статью под названием «Данные могут лгать – руководство по распознаванию фуфла (Data Can Lie – A Guide to Calling Out Bull$hit), и посмотрите на сам обучающий план, он там сверху привязан.

Хотя эта тема может показаться не связанной напрямую с трейдингом, но я ее считаю очень уместной. Алгоритмы постоянно тестируются и присутствуют на рынках. Разрабатывается все больше алгоритмов машинной торговли. Все они используют Большие Данные. Ваши данные. Которые биржа собирает и продает. Те, кто их собирают и продают, хотят использовать их как можно больше, пристраститься к ним и накручивать на все это цены. Но может быть большая часть Больших Данных – это на самом деле фуфло. И может быть все эти данные могут принести больше вреда, чем пользы.

Комментарии 0

Добавить комментарий

Пожалуйста, войдите или зарегистрируйтесь, чтобы оставить комментарий.