Category: it

Паук С.В.

Интервью Владимира Воеводского (часть 2)

Оригинал взят у baaltii1 в Интервью Владимира Воеводского (часть 2)

Это продолжение интервью Владимира Воеводского. Первая часть была воспринята читателями с интересом. Мы благодарим за содержательные вопросы и продолжаем.



- Мне трудно представить, что происходит внутри человека атеистических взглядов, когда перед ним раскрываются необычные для него слои реальности. Для людей религиозного восприятия и воспитания это часть пути, состояния, в которых раскрываются новые аспекты бытия, это просто нормально, как без этого. Лично я с первого дыхания стремился к мистицизму, верил, искал, находил, бросался в секты и тайные общества. Тебя же, насколько понимаю, в определенный момент выбросило в «непонятное», бытие просто поставило перед лицом странной данности. Типа что делать, если на тебя смотрят ангелы, и после того, как ты закроешь глаза и откроешь их снова, ангелы будут продолжать на тебя смотреть?! То, что нормально и правильно для человека мистическо-религиозного воспитания, людей другого восприятия может запросто свести с ума.
 
- Наверное, мои взгляды на тот момент стоило бы назвать не столько атеистическими, сколько агностическими. Реакция была двоякая. Во-первых, возмущение, поскольку больше всего в открывшемся было грязи и издевательства над людьми. Во-вторых, восхищение и надежда, когда в этой грязи вдруг появлялись проблески любви, красоты и разума. 
 
С ума я не сходил, хотя иногда и были "заносы", когда я начинал всерьез верить в ту или иную "теорию". Как правило, эти заносы выправлялись быстро, обычно за несколько часов. Более серьезными были периоды безнадеги. В такие периоды очень помогала мысль о том, что нужно продолжать бороться, потому что от этого, пусть и в небольшой степени, зависит то, в каком духовном мире будут жить сегодняшние дети. 
 

Collapse )


Паук С.В.

(no subject)

http://nymag.com/intelligencer/2018/12/how-much-of-the-internet-is-fake.html




lexa


В начале ноября на питерском кинофестивале "Мир знаний" устроили научный квартирник по разоблачению мифов об искусственном интеллекте. Жаль, видеозаписей не было, хотя само место - Цифербург на Фонтанке - очень симпатичное для съёмок: это комплекс старинных зданий, превращенный в нечто среднее между кафе, сквотом и совокингом (совокинг - это как совок, только для хипстеров).

Зато мне прислали фотку, сделанную на том квартирнике. Фотка прекрасно отражает всё то, что я думаю о "бурном развитии искусственного интеллекта" - поэтому с неё и начнём:

lexa-AI-discussion

Полностью пересказывать содержание дискуссии мне лень. Но одну забавную идею запишу. Я почти всегда забываю озвучить эту идею во время выступлений про AI. Но мне про неё всегда напоминают, задавая вопросы в конце. А само выступление без этой идеи обычно получается довольно пессимистичным. Например, я рассказываю такие мрачные вещи:

(1) Выход машинного обучения из стерильной лаборатории в большой реальный мир почти всегда сопровождается ростом ошибок на два-три порядка. А поскольку самый мощный надзор за гражданами с использованием искусственного интеллекта происходит в либеральных и демократических странах - то именно в этих странах ожидается большинство косяков.

(2) Самостоятельный AI - сказка для домохозяек. На деле, почти во всех случаях системы искусственного интеллекта требуют поддержки в виде целой армии человеческих рабов: асессоры в поиске, слухачи в голосовых помощниках и др. Про это не пишут в рекламе AI-продуктов, потому что следующая логичная мысль - а будет ли галера плыть, если рабы вдруг бросят вёсла?

(3) Работу нейронных сетей почти невозможно интерпретировать: дрессированные мышки не умеют говорить. Это значит, что вы не понимаете, как принято решение и почему возникла ошибка. Поэтому нейросети легко взламывать и обманывать, особенно с учётом того, что их разработчики почти никогда не тестируют свои поделки на "враждебное поведение". Зато они выкладывают коды своих ML-моделей в свободный доступ (даже Microsoft), а для обучения используют публичные датасеты, собранные хрен знает кем (прекрасный кейс - "отрезанные пальцы Тинькова");

(4) Самоходных роботов более ста лет изображали в фантастике, но они не появились среди нас. И на то есть веские причины. По тем же причинам беспилотные автомобили - это не про транспорт. Это скорее проект по сокращению численности населения на основе спортивного отбора. Чаще всего беспилотники будут врезаться в неподвижные объекты - и для этого тоже есть простое техническое объяснение. Так что если вы собираетесь жить в городе с беспилотниками, начинайте тренировки по бегу уже сегодня. (Некоторые попытаются скрыться в метро, но это всё равно что надеть на голову микроволновку. А вы не знали? - в метро реализуется другая техника сокращения населения, под названием "бесплатный WiFi").

(5) Искусственный интеллект, который "скоро превзойдет человеческий" - это рекламная выдумка чокнутого пиарщика из Гугла. Тот же чокнутый дедушка обещал, что в 2020 году (т.е. сейчас) в наших телах поселятся нанороботы, поправляющие наше здоровье (ничего подобного не существует даже в проекте, хотя в США уже потратили $20 миллиардов на "разработки в области нанотехнологий"). Поэтому правильный перевод всей этой сингулярности на русский язык звучит как слоган Незнайки на Луне: "Коротышки, покупайте акции Общества Гигантских Растений!".

(6) Вообще, технологические прорывы остались в прошлом. Удивительно, но это факт. Электричество и радио, автомобиль и ракета, компьютер и Интернет, пластик и гормональные контрацептивы - ничего такого прорывного не придумано в XXI веке. Это касается и алгоритмов машинного интеллекта: они все из хрущёвских времён. Отчего же возник такой AI-бум сейчас? В основном благодаря количественному росту Интернета, то есть огромных объемов данных. Но время бесконтрольного шпионажа проходит - например, из-за законов типа GDPR. А публичные данные теперь сильно замусорены и фальшивы. В начале 2000-х около 70% контента в Интернете было оригинальным, а сейчас - лишь около 7%. Ну и какое обучение будет на этом мусоре?

(7) Все вышеописанные AI-алгоритмы, даже будучи кривыми и опасными, всё равно будут активно размножаться в нашей техногенной монокультуре (благодаря чокнутым пиарщикам). Поэтому нужны правила безопасности - но не в виде азимовских "законов робототехники", предписанных роботам (это всё равно, что предписать этический кодекс деревьям и мышам). В первую очередь правила безопасности относительно машин должны быть закреплены в правах и обязанностях людей. Например, право в любых случаях знать, общаешься ли ты с роботом или с человеком, право получить человеческий аналог любого робосервиса и право отключить любую вредоносную машину.

...ну и так далее.

И вот после того, как я вволю оттоптался на тупых роботах, мне обычно задают вопрос - неужели не ожидается совсем ничего хорошего от искусственного интеллекта? Людям хочется увидеть Белоснежку, а не только уродливых гномов. И в этот раз модератор дискуссии тоже спросил - скажите напоследок, какие могут быть позитивные открытия в этой области?

И вот после того, как я вволю оттоптался на тупых роботах, мне обычно задают вопрос - неужели не ожидается совсем ничего хорошего от искусственного интеллекта? Людям хочется увидеть Белоснежку, а не только уродливых гномов. И в этот раз модератор дискуссии тоже спросил - скажите напоследок, какие могут быть позитивные открытия в этой области?

И я сказал, что да, ожидаются открытия! Ведь всё вышесказанное, непозитивное и уродливое, касается только тех серьёзных сфер, где нельзя ошибаться и где нужно понимать, что происходит. Но в жизни человека есть сферы, где ни точность, ни понимание нафиг не нужны. И с помощью искусственного интеллекта многие люди совершат великое открытие - они узнают, что значительная часть их жизни (а может, и вообще вся жизнь) проходит именно в таких необязательных сферах.

Скажем, вы идёте на выставку современной живописи. Там куча людей пялятся на стены с разноцветными пятнами. Можно ли заменить все красные пятна на зелёные? Конечно, можно! И никто не пострадает. Живопись - это сфера необязательных развлечений.

А в кино или в компьютерной игре можно нарисовать осьминога с 11 щупальцами вместо 8? Тоже можно. И даже в новостях можно. А уж в литературе - и подавно.

Значит, художников, актёров, писателей, журналистов и ещё кучу людей так называемых "творческих профессий" можно легко заменить искусственным интеллектом. Он не хуже них будет генерировать разноцветные пятна и прочее "творческое разнообразие", из которого массовая культурка будет сама отбирать себе то, что её бодрит на данный исторический момент.

Какие ещё сферы внезапно окажутся необязательными? Да многие, многие. Вот вы наверняка не помните почти ничего из того, что учили в школе. Потому что оно такое и было - необязательное. Значит, и тут робота можно посадить. Хватит уже этого нытья про низкую зарплату учителей! - роботу вообще платить не нужно.

А как насчёт науки? Наука, по определению академика Арцимовича, - это "лучший способ удовлетворения личного любопытства за государственный счет". То есть опять - развлечение. И действительно, искусственный интеллект здесь применяется круче всего! Начиная с первой программы "Элиза" 1966 года, которая состояла из десятка строчек кода и успешно имитировала психотерапевта (некоторые считают это наукой) и заканчивая самым современным методом научной работы, имя которому "мета-анализ". Знаете, что это такое? Это когда вы не проводите никаких экспериментов, не ездите по опасным джунглям, не выдумываете гениальных гипотез и вообще ничего в реальном мире не делаете - просто берёте данные чужих исследований и прогоняете через AI-программу, которая ищет корреляции. Тысячи публикаций, тысячи диссертаций так сделаны. Но мы же понимаем, что человека можно совсем убрать из этой машины научных развлечений.

И даже главный современный пример интеллектуальности машин - он из той же развлекательной оперы. Вы конечно слышали этот пример: Гугл потратил миллиард баксов на разработку... еще одного игрового автомата для Лас-Вегаса. Ну а как иначе назвать весь этот шум о программе Allah Go, которая обыграла чемпиона в го? Абстрактная настольная игра, не имеющая никакого практического применения и никак не влияющая на вашу реальную жизнь. Вполне естественно, чтобы там вкалывал робот.

Поэтому многим гражданам уже сейчас стоит задуматься о получении приличной профессии будущего. Не развлекательной, а реальной. Например, профессии сотрудника службы по отстрелу роботов. А то будете потом побираться на случайных подработках, как Гарри Каспаров (если кто не знает - это бывший мировой чемпион по бессмысленной игре в шахматы, которую тоже долгое время считали признаком интеллекта, пока индустрия игровых автоматов не поставила её на правильное место - в стойло необязательных развлечений).

Вот такая она, Белочка Белоснежка искусственного интеллекта. Надеюсь, теперь никто не скажет, что у меня нет позитивных прогнозов?
Паук С.В.

а Дуров, то - вот, оказывается!

https://sporaw.livejournal.com/665522.html

P.S. Telegram сделан командой ВК на базе исходников ВК (украдены хитрым способом "легализации": путем вывода в opensource) в рабочее время ВК на деньги инвесторов ВК (рабочее время и ресурсы оплачивалось ими, а не Дуровым). (Основное для tg, не kphp, конечно). Можете обратить внимание, что kphp-kdb никому не нужен и никто его не использует, потому что он нужен был только команде Telegram, чтобы "законно" украсть эти исходники у ВК (репо заброшен сразу же с момента выкладывания). Не оплачивая разработку за много лет. Просто вывели нужный кусок кода, который никто кроме них особо и не может использовать, в open source. Не имя на то разрешения и преследуя только собственные коммерческие цели (использование в проекте Telegram).

06 марта 2014: https://habr.com/ru/company/vk/blog/214877/ (в посте есть и веселые комментарии: 1, 2, 3 и др.)
07 апреля 2014: https://www.vedomosti.ru/technology/articles/2014/04/07/ucp-kupil-chast-telegram-i-podal-isk-k-pavlu-durovu
(Обратите внимание на даты поспешного выкладывания для легализации)
Паук С.В.

(no subject)

Не прошло и трех лет
Oct. 22nd, 2019 at 3:56 PM
Чуть меньше трех лет я ничего не писал в ЖЖ. Выкладывал новости и делал какие-то заметки в FB (4 956 друзей), удовлетворял потребности в филосфоском общении на Философском штурме, который до сих пор админю.

Создал эту запись в основном для того, чтобы дать ссылки на тексты и видео, опубликованные по теме блокчейна, которым занимаюсь последнее время.

Статьи

Если бы блокчейна не существовало, его следовало бы выдумать

Блокчейн против бюрократии: электронное государство на основе технологии распределенного реестра

Мнение: код — это не закон, а закон – это не код

Лишнее звено: почему электронный документооборот на блокчейне не имеет смысла

Александр Болдачев: блокчейн — это вакуумная бомба для алгоритмизируемых задач

Мифы о блокчейне: какие характеристики делают технологию надежной системой управления

Блокчейн и государство

Миф о консенсусе

О блокчейне и о критике криптовалют, взгляде государств и о проекте Apla

Подкасты и видео

Выпуск 31, спецгости - Александр Болдачёв и Александр Углов (26.02.2017)

Идеология Блокчейна, Определение Токена, Главные Ошибки. Интервью с Экспертом, Александр Болдачев

Документооборот - Совместимость с Блокчейн, Фальсификация. Интервью с Экспертом, Александр Болдачев

Электронное правительство на блокчейне. Интервью с Экспертом, Александр Болдачев

Смарт-контракты - Определение, Проблемы, Эффективность. Интервью с Экспертом, Александр Болдачев

Смарт-законы - Определение, Необходимость, Проблемы. Интервью с Экспертом, Александр Болдачев

Итоги 2017, Прогнозы 2018. Комментарии Эксперта, Александр Болдачев

Конференция Blockchain Life 2017 - Александр Болдачев

CC18 Live: Системный архитектор блокчейн-платформы Apla

BCK 005: Aleksandr Boldachev - Apla public blockchain-platform

Блокчейн для государственных услуг

Есть еще последние статьи по web 3.0

WEB 3.0 — второй подход к снаряду

WEB 3.0 или жизнь без сайтов
Паук С.В.

(no subject)

https://medium.com/@sergey_57776/%D0%B2-%D0%BE%D1%81%D0%BD%D0%BE%D0%B2%D0%B5-%D0%BC%D0%B8%D1%80%D0%B0-%D0%BF%D1%80%D0%BE%D1%81%D1%82%D1%8B%D0%B5-%D0%BF%D0%B0%D1%82%D1%82%D0%B5%D1%80%D0%BD%D1%8B-8dcd6d49710d

берем текст, выкидываем все слова, оставляем только запятые, точки и пр. знаки препинания, - только по ним можно вычислить автора


https://medium.com/@sergey_57776/1%D0%B5-%D0%BE%D1%82%D0%BA%D1%80%D1%8B%D1%82%D0%B8%D0%B5-2019-%D0%B2%D0%BE%D0%B7%D0%BC%D0%BE%D0%B6%D0%BD%D0%BE%D1%81%D1%82%D0%B8-%D0%B8%D0%B8-%D0%BE%D0%BA%D0%B0%D0%B7%D0%B0%D0%BB%D0%B8%D1%81%D1%8C-%D0%BD%D0%B5%D0%B1%D0%B5%D1%81%D0%BF%D1%80%D0%B5%D0%B4%D0%B5%D0%BB%D1%8C%D0%BD%D1%8B%D0%BC%D0%B8-fff6e63febd0

Суть всех этих статей в следующем.
Обнаружены сценарии, в которых невозможно доказать, может ли алгоритм машинного обучения решить конкретную проблему.
Этот вывод может иметь огромное значение, как для существующих, так и для будущих алгоритмов обучения.
Обучаемость ИИ не может быть ни доказана, ни опровергнута с использованием стандартных аксиом математики, поскольку это связано с парадоксами, открытыми австрийским математиком Куртом Гёделем в 1930-х годах.

https://miro.medium.com/max/800/1*fGWRDgO-L4OtMZUmx_Eb3Q.jpeg

Паук С.В.

(no subject)

MDM системы возникли из осознания того, что внедрение ERP в 1990-х годах, в основном, принесло пользу поставщикам программного обеспечения и системным интеграторам, пытающимся внедрить ERP-системы. Однако основная проблема несогласованности мастер-данных на предприятиях не была разрешена.
Паук С.В.

(no subject)

На прошлой неделе многих поразила новость о размерах финансовых потерь крупнейшего в мире исследовательского центра по ИИ — принадлежащей Alphabet компании DeepMind. За три года компания уже потеряла более $1млрд, а долг в размере более $1млрд должен быть погашен в течение следующих 12 месяцев.
• Значит ли это, что ИИ разваливается?
• Что эти потери означают для будущего ИИ?
• Находится ли DeepMind на правильном пути и являются ли эти немалые инвестиций разумными?
• Как, в конце концов, эти потери повлияют на ИИ в целом?

https://medium.com/@sergey_57776/%D0%B2%D1%81%D0%B5-%D0%B8%D0%B8-%D0%B8%D1%81%D1%81%D0%BB%D0%B5%D0%B4%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D1%8F-%D0%BB%D0%B5%D0%B6%D0%B0%D1%82-%D0%B2-%D0%BE%D0%B4%D0%BD%D0%BE%D0%B9-%D0%BA%D0%BE%D1%80%D0%B7%D0%B8%D0%BD%D0%B5-6f5a65c3b074
Паук С.В.

Нейронные сети-3: работа над ошибками

Оригинал взят у russhatter в Нейронные сети-3: работа над ошибками
Предыдущая часть 2 - тут.

Не получается закрыть тему вот так сразу третьим постом. Понятно, что написанное уже неточно и неполно, но есть несколько недоговорённостей, которые, как мне кажется, значительно важнее остальных. И эта часть - об этом.Collapse )