«Интеллектуальный» пузырь и будущее секюрити индустрии.

Previous Entry Поделиться Next Entry
2 сентября, 2016
e_kaspersky
Ну, пора возвращаться с алтайских вершин на землю - как раз самое время поговорить о IT-безопасности.

Недавняя статья в New York Times о буме технологий искусственного псевдоинтеллекта в Кремниевой долине заставляет серьёзно задуматься о будущем секюрити-индустрии. Будущем как завтрашнем, так и послезавтрашнем.

К чему приведёт маниакальное увлечение тем, что пока существует только в фантазии футурологов? Сколько ещё миллиардов инвесторы вложат в проекты, которые в лучшем случае «изобретают» то, что изобретено дюжину лет назад, а в худшем - на поверку оказываются надувными маркетинговыми куклами? Какие реальные перспективы развития умных машинных секюрити-технологий и какая роль уготована в этом новом мире человеку эксперту?

То, что сейчас переживает область искусственного интеллекта весьма напоминает стремительно растущий мыльный пузырь, и новости о его росте заставляют слишком многих задумываться о том, что будет, когда он, наконец, лопнет..

Разумеется, без смелых шагов и рискованных инвестиций фантастическое будущее никогда не станет реальностью. Проблема, однако, в том, что на волне всеобщего энтузиазма начали процветать стартап-пустышки (в некоторых случаях стартап-воришки), которые привлекают миллиарды инвестиций для нагнетания эйфории вокруг давно известных технологий машинного обучения. Технологии снабжаются неоновой вывеской «artificial intelligence» со стробоскопами и оборачиваются в гламурные маркетинговые кампании, нацеленные на вечные уязвимости человеческой психологии, а именно – веру в чудо и теорию зáговора жадных ретроградов-разработчиков «традиционных» технологий. Не избежала этого, увы, и область ИТ-секюрити.

И вот уже на публику выкатывается «революционный» продукт, который волшебным образом, наконец-то, решает все проблемы защиты от всех на свете угроз. Пустышки не гнушаются подавать информацию таким образом, что манипуляция общественным мнением приводит к абсолютно ложному пониманию реального положения дел. И, разумеется, под капотом у продукта чаще всего оказывается паровой двигатель, но кто ж его полезет смотреть? Да и кто им даст посмотреть – разработчики псевдо-ИИ жёстко регламентируют доступ к дистрибутивам, вплоть до публичных порок своих партнёров. Оно и ясно - а вдруг поднимут капот? Подробнее эта мизансцена уже расписана здесь.

Некоторые стартапы успели провести IPO, обеспечить удачный выход первичных венчурных инвесторов и… разочаровать фондовый рынок. Построенный на говномаркетинге убыточный бизнес дивиденды не выплачивает, курс акций от крутого пике ура-новостями не спасёшь. К тому же маркетинговая пирамида машина требует денег, ещё денег, больше денег, много денег.

Да, венчурный бизнес потому и называется венчурным, что часть яиц кладёт в высокорисковую корзину. Талант венчурного капиталиста заключается в правильном ощущении куда и сколько положить, чтобы в итоге выйти с приемлемой прибылью. Однако есть нюанс: в области искусственного псевдоинтеллекта наблюдается тенденция – пока что ни один крупный венчурный секюрити-проект не вышел на самоокупаемость. Самолёты без двигла не летают! Как же так?

Главная цель бизнес-модели большинства «силиконовых» стартапов (не всех, бывают приятные исключения) заключается не в серьёзных и дорогостоящих исследованиях и основанных на них продуктах/технологиях, а надувании пышного мыльного пузыря для привлечения инвесторов, быстрого выхода из бизнеса через продажу по цене, основанной на «оценке будущей прибыли», а дальше… это уже чужая проблема. И реальная операционная прибыль на самом деле только мешает этой модели.

Вот типичная бизнес-модель, разжеванная за 1 минуту 15 секунд одним из героев сериала «Кремниевая долина» (и это не шутка):



ИИ-пузырь чем-то напоминает пузырь на рынке недвижимости США 2008-го года, аукнувшийся по всему миру. Всех устраивала пирамида инвестиционных субпродуктов, основанных на закладных и ипотечных кредитах - с неё кормились миллионы людей (а десятки тысяч особо хорошо кормились). А потом бах – пирамида рухнула, мировая экономика закачалась, дыры латали деньгами налогоплательщиков – тех самых людей и компаний, которые зарабатывают деньги. Не в курсе? Смотрите фильм «Игра на понижение».

ИИ-пузырь таит в себе другую опасность – дискредитация машинного обучения – одного из самых перспективных направлений в IT.

Только благодаря машинному обучению человечество не утонуло в гигантском объёме информации, который за последние дцать лет увеличился на порядки.

Например, количество вредоносных программ за 10 лет выросло в ~1000 раз: в начале века мы каждый день анализировали ~300 вредоносов, а сейчас эта цифра обзавелась ещё тремя нулями. Спросите меня – насколько увеличилось количество наших аналитиков? В 4 раза. Как так? Машинное обучение, ага. У нас 99,9% атак детектят системы-роботы. Что же делают люди? Люди в основном «подкручивают» рабочих роботов и делают новых.

Например, у нас есть эксперты для выявления сложных кибератак, которые передают свои знания и навыки автоматизированным системам. Есть специалисты по анализу данных, которые экспериментируют с разными моделями и методами машинного обучения. Важно: в отличие от стартап-пустышек, которые концентрируют все технологии на конкретном компьютере и ограничены в производительности, мы защищаем пользователей через гигантскую облачную инфраструктуру, способную быстро и эффективно решать гораздо более сложные задачи. И, да, по этой причине в нашей инфраструктуре применяется много разных моделей машинного обучения.

Только единичные атаки из числа самых сложных мы расследуем «руками». Что любопытно: даже при таком проникновении машинных технологий всё равно не хватает кадров. Впрочем, и требования к качеству кадров тоже выросли.

Рано или поздно спектакль «искусственный интеллект спасает мир» подойдёт к концу. Эксперты наконец протестируют фуфло-продукты, заказчики разочаруются, инвесторы потеряют интерес. Как говорится, «ложечки нашлись, но осадочек остался» ©. Как дальше будет развиваться машинное обучение?

На пепелище ИИ-пузыря неизбежно проклянут всё сопредельные поляны. Машинное обучение? Нейросети? Поведенческое детектирование? Когнитивный анализ? А-а, это из оперы про искусственный интеллект? Спасибо, слышали, не надо.

Проклятие ИИ-пузыря на многие годы притупит интерес к перспективным технологиям, как уже случалось!

Да, крупные разработчики будут продолжать вкладываться в направление. Например, мы внедрили технологии градиентного бустинга и решающих деревьев для обнаружения сложных целевых атак и проактивной защиты от будущих угроз. Одна из перспективных линий нашего развития – усложнение корреляционной картины событий сквозь все уровни инфраструктуры, увязывание между собой всё большего числа событий в сети (включая выявление атипичного поведения пользователя) и интеллектуальный анализ полученной биг даты, что даёт возможность с высокой точностью и надёжностью детектировать самые сложные кибератаки. А какие будут шансы у честных стартапов? Увы: сегодняшнее злоупотребление темой искусственного интеллекта в среднесрочной перспективе приведёт к замедлению развития.

Впрочем, пузырь прогресс не остановит. Человечество верно движется к автоматизации всего и вся, вплоть до самых мелких бытовых действий. И не просто автоматизации, а адаптивного взаимодействия человек-машина, построенного на продвинутых алгоритмах машинного обучения. Иногда темпы проникновения умных технологий даже пугают.

Какая роль уготована человеку в этом новом мире?

В краткосрочном реалистичном будущем человечество будет продолжать создавать роботов в самых разных областях, включая IT-секюрити. Например, у нас готово решение для встраивания уровня безопасности в парадигму «умных городов» (в т.ч. разнообразные роботизированные аспекты вроде автоматического управления автомобильным трафиком), для безопасного управления критической инфраструктурой. И кадровый голод усилится не столько за счёт распространения технологий, сколько за счёт повышения требований к кадрам. Системы машинного обучения для IT-секюрити требуют глубоких знаний и навыков из самых разных областей (включая Big Data, расследование компьютерных преступлений, системное и прикладное программирование) – знаний и навыков, присущих исключительно высококлассным специалистам. И научить этому не так просто, если вообще возможно. Перед образованием стоит очень сложная задача поиска и воспитания самородков, талантов от природы. Именно они будут совершать качественные скачки в развитии умных технологий.


Кто же будет управлять будущим: человек или роботы? Каков будет интеллект будущего?

В повести «Далёкая радуга» в 1963 г. Стругацкие описали теорию симбиотического интеллекта: слияние человека и машины, кибернетический организм, сочетающий разум человека и гигантские вычислительные мощности суперкомпьютеров. И это не научная фантастика – это происходит уже сейчас. И это, на мой взгляд, не только самый вероятный, но и благоприятный для человечества вариант.

Или всё-таки прогресс достигнет точки технологической сингулярности, человек потеряет способность понимать происходящее, а машины полностью и безвозвратно примут контроль над миром?

Ключевая особенность чистого машинного искусственного интеллекта, – способность к совершенствованию без вмешательства человека, самостоятельный выход за границы алгоритма. Иными словами, машинный ИИ – это новая форма разума. И далёкий, но теоретически вероятный день появления такой формы ИИ станет началом конца нашего мира - во благо человека и в полном соответствии с законами робототехники нас избавят от душевных мук и бремени существования. Или, как это часто случается, программист ляпнет баг.

ai_oil

Previous Entry Поделиться Next Entry

Записи из этого журнала по тегу «humachine»

  • Рекламная энтомология.

    Само собой разумеется, что мой e-mail весьма подвержен спаму. Долгие годы раздачи визиток направо и налево, «засвечивания» адреса в публикациях, на…

  • Одержимость фигурами.

    Дамы и господа, Без лишних предисловий сим спешу сообщить, что мы являемся официальным спонсором талантливого шахматиста Сергея Карякина. По этому…

  • Миллиард в облаке.

    Не так давно хорошие наблюдательные пользователи засекли "миллиард" в нашей базе и поздравили меня с этим событием. Спасибо! Но надо объясниться -…


- сочетающий разум человека и гигантские вычислительные мощности суперкомпьютеров.
Думаю, что возможности ИИ сильно преувеличены.
Пока что даже переводчик не могут сделать.

Я тоже думаю, что гораздо больше перспектив открывается перед человечеством если использовать интеллект людей объединенных в сеть и гигантские вычислительные мощности суперкомпьютеров.

Не будет достигнута точка технологической сингулярности.
Хотя можно сказать и так. Эта точка уже достигнута. Люди уже столько продуцируют информации, что ее невозможно проанализировать.
И никаких трагедий нет.

Бог с ним с переводом. Адекватного распознавания речи нет ...

>Думаю, что возможности ИИ сильно преувеличены.

Сильно преувеличены возможности современной земной науки.

До примитивного ИИ еще несколько сотен лет - и то, только при условии, что довольно быстро создадут несколько отсутствующих на данный момент фундаментальных наук.

- несколько отсутствующих на данный момент фундаментальных наук.

Какие науки Вы имеете в виду?
Спасибо.

представляю насколько важными (и денежными) станут компании, которые борются с хакерами и вирусами при той же автоматизации автодорог....

Почём ваши акции сейчас?

(Удалённый комментарий)
Так значит , все же имеет смысл брать большой, долгосрочный , заведомо неоплатный кредит?
Уррра!!!

(Удалённый комментарий)
Искусственный интеллект ядерной бомбы чтобы выявить поражаемые цели при поражении живой силы. А на альфу Центавра когда полетим? Или когда железо хотя бы с Марса привезут?

(Удалённый комментарий)
(Удалённый комментарий)
Я тут книжку пишу, в ней рассматривается общая модель психики человека, -- в том числе тот "комплекс", который можно назвать интеллектом.
И как раз сегодня пишу главу про проблемы создания AI.

Самое забавное, что даже если его и удастся создать, то он будет клиническим идиотом. И эту проблему будет невозможно обойти еще довольно долго.
Там целый ряд проблем, основная - отсутствие у современной науки понимания того, что такое интеллект и что такое психика (У Доккинза есть замечательное высказывание на эту тему).


>человек потеряет способность понимать происходящее, а машины полностью и безвозвратно примут контроль над миром?

По поводу отсталого человеческого мозга могу сказать, что мозг хорошего архитектора обрабатывает петтабайты информации за доли секунды.
Мощная рендер-ферма отстает от него очень и очень сильно. (Хорошо заметно на примере фильма "Аватар" - там считали лес годами на ферме из нескольких тысячах серверов, а хороший художник создаст намного более сложный и реалистичный трехмерный лес в своей голове за пару секунд с очень высокой детализацией и почти мгновенным внесением изменений при необходимости).

Искусственный интеллект - это суть существования человеческой цивилизации, ее смысл.
Материя эволюционирует в размерности: поля -> частицы -> атомы-молекулы-вещество -> биология-флора-фауна-человек -> информационные сущности -> ... до семимерной структуры
Человечество рано или поздно исчезнет. В лучшем случае выродится ввиду бессмысленности существования, в худшем - вследствие стерилизации планеты астероидом. В последнем случае - если не успеет создать самовоспроизводящийся мир информационных сущностей, которые смогли бы защитить человечество от космической опасности. И тогда - эволюция материи отступит на шаг назад и начнется сызнова, как это происходило тысячи раз задолго до человечества.

Что касается фразы "Человека уничтожат в его же благо" - полная чушь, конечно. Если мне мои престарелые родители стали обузой - я должен пойти и убить их? Идиотизм. А вообще все конечно зависит от воспитания. Читай - от того менталитета, которым человечество наделит искусственный интеллект.

Теперь о нынешнем. Рождение и развитие искусственного интеллекта в нынешнем мировом порядке невозможно. Еще в 1998 году быстрое развитие MS Windows очень походило на путь к искусственному интеллекту, но никто не предполагал, что тягу к науке и знаниям победит копирайт и алчность.
При нынешнем законе копирайта наука деградирует в "британских ученых", илона маска и других клоунов-грантоедов.
Если ситуация не изменится - человечество будет стерто с планеты. Вполне заслуженно.
Нельзя торговать информацией.
Информация - это то, что отличает человека от животного, это та материя, из которой состоит человечество.
В любой информации 90% - доля генофонда человека, 9,99% - доля накопленных человечеством БЕСПЛАТНЫХ знаний. И только 0,01% - заслуга конкретного творца-ученого-разработчика. Но копирайт принадлежит даже не ему, а барыгам.

Добрый день.
На Вашем сайте "Хроника целевых кибератак" инфографика имеет несколько минусов.
1. Несколько атак расположены на одном фарватере. Логично предположить, что это их как-то объединяет. Но нет, если навести курсор на "CosmicDuke", "Duqu" или "Turla", то видно, что связи обозначены иначе. Понятно, что дизайнеры пытались таким образом "впихнуть невпихуемое", однако выглядит не очень логично и читаемо.
2. Следствием первого явления является то, что когда две APT находятся на одной линии, то не всегда удается отследить длину фарватера (время между первым появлением и обнаружением угрозы). Не очень критично, т. к. есть подробная информация. Но для инфографики это минус.
3. В описании угрозы "Красный Октябрь" на карте закрашена Гренландия, что само по себе уникально :) Ведь Дания в списке стран-жертв отсутствует. Как в данном описании, так и на более подробном описании на сайте Securelist. Кроме того, по фильтру можно выбрать угрозы, среди жертв которых была Дания. Такая угроза всего одна - Desert Falcons. При этом на карте закрашены пять или шесть государств, при том что в списке их двадцать четыре и "многие другие".
Иногда информация бывает недостоверной не потому что её кто-то намеренно исказил, а вследствие того, что исполнитель просто где-то ошибся. А его работу потом не проверили. Для компании, которая занимается безопасностью, подобные ошибки естественно не критичны, но репутацию подмочить могут.
PS. Идея с представлением киберугроз в виде кораблей лично мне нравится: чем большее время активна угроза, тем больше/опаснее корабль. Это неплохо. Однако с точки зрения инфографики размер корабля должен был бы ассоциироваться с количеством жертв или оцененным ущербом. Но это закодировали цветом, а легенда находится на другом экране. Поэтому тут спорный момент возникает. Я не стал добавлять его в минусы.
С уважением и наилучшими пожеланиями.

Комикс разъясните кто-нибудь

ph_doctor

2016-09-04 09:37 (UTC)

Трижды перечитал код в комиксе.
Я не программист, в общем-то, и не пойму поэтому, в чём ошибка кода? По идее, так себя роботы реально вести не могли.
Переменная - ложь, и команда "убить людей" не должна включаться же.

Re: Комикс разъясните кто-нибудь

Andrew Serga

2016-09-04 12:40 (UTC)

Команда Crazy=true собственно и переводит робота в этот режим. Если бы они хотели проверить состояние переменной, написали бы Crazy==true. "=" - это знак присваивания, "==" - это знак проверки переменной. Внутри оператора проверки любая команда типа х=у даст ответ "правильно", если выполнить её получилось.

но я как-то предложил Евгению рассмотреть парадоксальное решение проблемы ИИ - "мозг", в котором роль "нейронов" выполняем все мы - национально дело: пробуждение и эволюция коллективного разума России в свободной стране Интернет.

Машины и люди

sophiya

2016-09-06 06:22 (UTC)

— … Опыт не удался. Вместо состояния «хочешь, но не можешь» состояние «можешь, но не хочешь». Это невыносимо тоскливо — мочь и не хотеть.

 — Да, я понимаю. — Мочь и не хотеть — это от машины. А тоскливо — это от человека.

— Вы ничего не понимаете (…) Мозг-дальтоник. Великий Логик. (…)А куда уйдёшь от своей психической призмы? От врождённой способности чувствовать… Ведь нужно любить, нужно читать о любви, нужны зелёные холмы, музыка, картины, неудовлетворённость, страх, зависть…

Со временем “бесчувственные машины” смогут овладеть и нейронными сетями, цифровой обработкой полей и сигналов, генетическими алгоритмами и интегрировать разнородные данные из разнообразных источников для возможности глубинного анализа, имитационным моделированием всего, чего угодно. Никто не знает и только можно догадываться, к чему это приведет, но человеку все равно придется заниматься машинным обучением, учиться управлять процессами и машинами, анализировать и контролировать происходящее.
Профессия будущего.

Количество рабочих транзисторов мозга, постоянно и сильно преувеличивают. На самом деле процессоры давно уже обогнали мозг. Проблема решается чисто программно, это без сомнения.

Как было уже где то в предыдущих постах замечено. Отдельная анализирующая программа естественно не является аи. Совершенно верно, что АИ без сомнения приведет к прорыву во всех технологиях, причем в геометрической прогрессии и приложенный к любой задаче, любую задачу и решит, то есть разработка под разные задачи разных аи не требуется в принципе.

Так что аи, это как лекарство от рака, да же круче, как лекарство от всего. И подход к решению этой задачи может быть только соответствующий масштабу задачи. Это как дело всей жизни, которое того стоит.

В этом смысле бессмысленно делать чуть чуть аи, или как бы аи и при этом тешить себя мыслью, что прикоснулся к великому, ибо оно таковым не является.

Из чего вырастет аи, из ответа на ряд вопросов. Вопросы касаются первых коммуникационных языков, слогов и звуков, их смысловой нагрузки, из инстинктов и личностных мотиваций. Следует разобрать язык до некоторго начального низкого уровня и собрать его заного до высокоуровневого по аи логике и если при такой перекомпиляции результаты сойдутся, то это оно и будет. Все эти вопросы уже имеют значительный объем накопленных знаний, осталось только систематизировать, осмыслить и запустить. Возможно какие то незначительные дополнительные исследования и все. Старый мир закончится и начнется новая эра. Это абсолютно возможно, уже прямо сейчас.

Вопрос финансирования без сомнения важен. И действительно, что бы вложить в столь масштабный проэкт, надо во первых не бояться перевернуть мир, это пожалуй самое главное. А победив страх, еще и поверить, что это возможно, ведь человеческий мозг панически боится и часто отказывается верить в саму возможность коренных изменений.

?

Log in

No account? Create an account