Мы используем cookie-файлы. Оставаясь на сайте роботов, человек соглашается на использование cookie-файлов.
Подробнее — в «Условиях использования cookie-файлов».

Роботы о Google I/O

Мы не будем перечислять все, что инженеры Google представляли четыре дня. Из массива данных роботы выбрали репрезентативные, сопоставили с имеющимися и даже выстроили прогнозы.

Идеи

Артур Сахаров,
технический директор Redmadrobot

Артур Сахаров, технический директор:

— Что в новом Google I/O было на высоте — это контент. У Google действительно крутые технологии. Они используют machine learning во всех устройствах и сервисах, которые начали обогащать функционал друг друга, а завершающим звеном этой системы становится Google Assistant.

Так, к картам добавили визуальную навигацию. Сервис использует данные GPS, акселерометра и фото-поток с камеры смартфона, чтобы определить местонахождение пользователя — и делает это существенно точнее в сложных ландшафтах. Лет 10 назад, когда одни фотографии нужно было сопоставить с другими в масштабах целого города или района, вычисления занимали неделю. Решение Google делает это в режиме реального времени, и это невероятно. Там, где GPS не работает (в городских кварталах, например), это позволит достигать метровой точности.

Но проблема в том, что Google не умеет презентовать собственные решения. В течение двух часов с одной интонацией, контекстом и похожими слайдами специалисты рассказывают о самых разных вещах — от эмоджи до алгоритма, который позволяет отфильтровать мусорные данные со снегом или дождем, чтобы управлять автомобилем. И с ходу сложно понять, где действительно сложное и интересное решение, а где — проходное.

Как презентует Apple: каждое новое решение они представляют как нечто меняющее представления, результат нескольких лет работы. И это действительно впечатляет.

Google говорит о более технологичных достижениях, но делает это на уровне формального отчета. Они подают новинки не с точки зрения продукта, а говоря о технологии, к тому же кратко. Между двумя крайностями: «смотри, что ты сможешь с нашим продуктом» и «посмотри на рендеры и схемы нейросетей и почувствуй, насколько сложно это устроено» — болото, в котором тонет внимание зрителей.  Видно, что лекторы готовились, им есть что рассказать. Но из-за структуры презентации зрители пропускают важное мимо ушей.

Тот же Apple показывает на презентации рекламный ролик, где счастливые люди используют их продукты. В этот момент зритель думает: да, мне это полезно. А потом Джонни Айв рассказывает, как над этим работали и показывает рендеры, где из алюминия вытачивают с микронной точностью все компоненты, и ты понимаешь, что это еще и технически сложно. Они делают не посередине, а как раз в обеих крайностях.

Google пытается сделать что-то подобное, показывая, как ассистент записывает девушку в парикмахерскую. Но непонятно, как этим пользоваться и в каких странах технология работает, да и вообще, без live-демо сложно оценить, насколько технология готова.

Apple приходит на конференции продавать — продавать продукты пользователям и идеи разработчикам: смотрите, как здорово мы сделали, вы тоже сможете так. А Google не продают — они отчитываются. Это, мне кажется, объясняет, почему такие разные комьюнити разработчиков iOS и Android. Даже несмотря на то, что пользователей и разработчиков Android намного больше, Apple со своим комьюнити имеет большой вес, просто потому что правильно с ним работают.

Разработка

Владислав Шипугин,
Android-разработчик Redmadrobot

Владислав Шипугин, Android-разработчик:

— В этом году ребята из Google приятно удивили. Еще на прошлой Google I/O компания объявила Kotlin одним из основных языков разработки и продолжила его развивать. Теперь документация и примеры оформляются на двух языках; Kotlin используется в презентациях; появляются расширения AndroidKTX, которые помогают взаимодействовать с системой.

Чтобы писать код под Android стало удобнее, команда Google переосмыслила сервисы и инструменты и представила новый подход к навигации. Так, все библиотеки, утилиты и рекомендации теперь собраны в одном месте — Android Jetpack. Если раньше документацию или примеры нужно было разыскивать на разных ресурсах, теперь все необходимое можно найти на Android Jetpack, а некоторые части дописать самостоятельно, потому что они опубликованы в Open Source.

Принципиально изменит процесс разработки и App Bundle — теперь приложение становится сборкой модулей, каждый из которых отвечает за определенную функцию. Его размер на устройстве оптимизируется не только исходя из конкретной модели, как было раньше, но учитывает и необходимый пользователю функционал, с возможностью скачивания необходимых модулей в режиме реального времени.

Вишенка на торте — это Gallery (аналог RealtimeBoard и Zeplin для совместного проектирования дизайна и разработки приложений) и репозиторий с компонентами material design, которые просты в кастомизации и, более того, отображаются в Gallery. Если дизайнер правильно нарисовал дизайн и опубликовал его в Gallery, то разработчику отобразятся нужные компоненты и ссылка на документацию с инструкцией по реализации в коде.

Самая приятная новость для меня — это open beta Android P для сторонних производителей. Попробовать новый Android уже сейчас могут не только владельцы гугловских пикселей, но и владельцы Essential Phone, Nokia 7 plus, Oppo R15 Pro, Sony Xperia XZ2, Vivo X21UD, Vivo X21 и Xiaomi Mi Mix 2S. Наличие открытого тестирования должно создать конкуренцию на рынке производителей смартфонов и, надеюсь, проблема с обновлениями останется в прошлом.

Google представила очень много изменений в этом году. Если раньше никто не понимал, как правильно делать приложения под Android OS (Google открыто говорит о том, что разработка под Android очень сложна), и подходов было столько же, сколько приложений в маркете, то теперь компания формирует единый подход и   развивает его. Google делает все, чтобы разработчикам было приятнее разрабатывать приложения, а пользователям было приятнее ими пользоваться.

О машинах и людях

Иван Смекалов, 
бизнес-аналитик Redmadrobot

Иван Смекалов, бизнес-аналитик:

— Общее ощущение от презентации: об искусственном интеллекте перестали просто говорить и начали его по-настоящему применять. Если кому-то это не было очевидно раньше, machine learning будет использоваться везде, где в этом есть хоть какой-то смысл, как в своё время это произошло с электричеством.

Лет 5 назад практически все данные с камер смартфонов использовались в конечном счёте для того, чтобы на них смотрели люди. Чтобы что-то мог понять компьютер, ему нужно было показать данные в специальном формате. Если Snapchat сделал камеру инструментом общения, то Google превращает её в источник ввода, причём приложения воспринимают данные с неё не просто как картинку, а как объекты, которые можно распознать и купить, использовать для точного определения местоположение или, если это лист бумаги, превратить в PDF. То есть раньше людям нужно было использовать специальные форматы типа QR-кодов и подстраиваться под компьютеры, то теперь компьютеры подстраиваются под существующий мир. Аналогичная ситуация с Google Duplex: если Google не может заставить бизнес использовать API для бронирования услуг, то он подстраивается под мир, как он есть, и использует старый добрый звонок по телефону.

После технологических скандалов последних лет ИТ-компании стали в центре внимания общественности в США. Google использовал свою презентацию, как платформу, чтобы выступить перед этой новой аудиторией, а не только энтузиастами новых технологий. Лучше так, чем в сенате. Решение достаточно надуманной проблемы fake news было очень сложным и технологичным — и, как мне кажется, ничего не изменит, потому что, если человек хочет во что-то верить, его практически невозможно переубедить. Решение реальной проблемы зависимости от телефонов было, наоборот, достаточно простым — но оно может сделать жизнь сотен миллионов людей лучше. Нам сложно менять своё поведение, а создатели приложений и игр не заинтересованы в том, чтобы мы проводили в них меньше времени. Только разработчики операционных системы могут в это вмешаться и помочь нам пользоваться телефонами более осознанно.

В Android P появятся четыре инструмента для digital well-being.

— Статистика, сколько времени человек проводит в разных приложениях, сколько уведомлений от них получает и как часто разблокирует телефон — чтобы что-то изменить, нужно сначала это измерить.
— Лимиты на время использование приложений каждый день.
— Shush: если телефон перевёрнут экраном вниз, он перестанет сообщать о новых уведомлениях, кроме звонков от близких.
— Режим Wind Down, чтобы меньше проводить времени в телефоне перед сном. Ночью он будет делать экран телефона чёрно-белым — это меньше стимулирует мозг, вызывает дискомфорт и желание поскорее отложить телефон.

Интересно, как эта тема будет развиваться и какие возможности появятся в iOS. Уверен, без machine learning тут тоже не обойдётся.

Тимур Азымов,
менеджер проектов Redmadrobot

Тимур Азымов, менеджер проектов:

— Самая резонансная новость прошедшей недели из мира IT — презентация Google Duplex. Если коротко: голосовой ассистент записал хозяина на прием в парикмахерскую, позвонив реальному оператору. И тот не понял, что ему позвонил не человек.

Прекрасный, человекоподобный говор ассистента — результат технологии WaveNet от компании Deepmind (куплена Google в 2014 за $400 млн.), а также других достижений NLP (natural language processing) и TTS (text-to-speech), которые вместе помогают софту более реалистично воспроизводить человеческие речевые паттерны (в том числе и естественные речевые дефекты типа "эмм", особенно всех удивившие).

Но одно дело синтезировать звук, а другое — научить ассистента ориентироваться в контексте реального разговора и отвечать в соответствии ему. Систему глубоко обучают с «учителем» (supervised learning) отдельно под каждую область, поэтому Duplex (пока) не может поддержать разговор на общую тему. Принятие решения о том, что сказать, является функцией как задачи (цели) разговора, так и его состояния в конкретный момент времени. То есть если ассистент поймет, что понятия не имеет, что дальше сказать, то он испугается и подключит вас к звонку, чтобы не наломать дров.

Alexa, Siri и Google Home довольно плохо имитируют человеческий голос. С Duplex ситуация иная — на глазах у всего мира машина обманула человека. И это не могло не вызвать массу негодования у народа: на Google посыпались вопросы об этике. Буквально на следующий день представитель компании объявил, что в ассистент будет встроена система самоидентификации. Этим летом будет ограниченное тестирование на реальных юзерах, а релиз на всех ожидается осенью. Соберут фидбек и поймут, как это лучше реализовать.

Но перед релизом Google нужно разрешить много нюансов, ведь Duplex привлёк массу общественного внимания к вопросам этики AI (но в случае с Duplex правильнее говорить «machine intelligence–powered virtual assistant»). Позиция Google очевидна: «предоставление людям возможности общаться с машинами — давняя мечта человеко-компьютерного взаимодействия». Цель применения WaveNet для Google — сделать помощника достаточно человечным, чтобы лучше удерживать и вовлекать пользователей. Недосказанная цель — заставлять людей чаще задавать вопросы и делиться информацией с компанией, которая может использовать её для сбора дополнительных данных для улучшения своих алгоритмов и других сервисов. Кроме того, нужно понимать, что чем шире разрыв между тем, как звучит помощник и что он может сделать, тем больше разница между его реальными способностями и теми, что пользователи ожидают. От более человечного робота ожидаешь более человечных возможностей. А это уже почва для новых фичей, ведь согласитесь, бронирование столика в ресторане — прикольно, но разве это пик возможностей представленной технологии? Очевидно, что нет. В сети уже шутят о том, что скоро Google Assistant можно будет попросить позвонить девушке и сообщить о намерении расстаться.

Учитывая допуск сторонних разработчиков к «начинке» ассистента, это более чем реально. Насчет телемаркетинга и спама позиция такая: будут анализировать подозрительное поведение и блокировать такие активности. Один AI против другого, интересно.