Будущее – это сегодня

Будущее – это сегодня

Mirrors Edge

На днях с интересом посмотрел «2057» – фантастический мини-сериал, создатели которого, опираясь на сегодняшние разработки в различных областях, пытались нарисовать картину мира 2057 года. Там много интересного: летающие машины, прототип которых существует уже сегодня, отслеживающая физическое состояние владельца с помощью вшитых в ткань микрочипов одежда (технология уже существует), зависимость людей от института страхования жизни и здоровья, а также полное отсутствие конфиденциальности (Гибсону, наверное, понравилось) и всякое такое. 

Так вот, в первой серии «2057», которая полностью посвящена человеку и его здоровью, есть эпизод о том, как в будущем будут лечить паралич. Суть идеи в том, чтобы утыкать мозг жертвы и парализованную область ее тела датчиками, которые способны обмениваться друг с другом сигналами. Датчики в голове улавливают сигналы мозга и, в обход поврежденных тканей и нервов, передают их датчикам, прикрепленным, скажем, к мышцам парализованной ноги. И нога начинает подчиняться приказам.

Опирается данная фантазия на тот факт, что ученым уже удается распознавать сигналы мозга. Пока нечетко и все такое, но тем не менее – удается. В качестве примера в «2057» показали от шеи и ниже парализованного человека, который с помощью прикрепленных к его голове датчиков может пользоваться компьютером. Получается пока не очень (попытка нарисовать курсором мыши круг заканчивается появлением на экране помеси трапеции и носорога), но пациент явно доволен – он может проверять почту, играть в «косынку» и хоть как-то взаимодействовать с окружающим миром.

Мы тоже можем радоваться: если возможно отследить и расшифровать сигналы мозга для управления компьютером, то когда-нибудь вершина взаимодействия человека с электронными развлекательными продуктами будет достигнута – нам не понадобятся посредники в играх, а производители геймпадов вымрут, как класс. Правда, это будет еще не скоро – зануды, которых пугает увлеченность молодого поколения интернетом, компьютерами и идеей имплантации микрочипов в затылок, явно не доживут. Но уже сейчас можно наблюдать за тем, как игры переходят на вторую ступень развития управления. Первой, как все понимают, является самый обыкновенный джойстик, ну а провод в мозг – это четвертая.

Вторая же – это управление играми голосом. Пока оно еще в зачаточном состоянии, но, тем не менее, уже работает – чтобы в этом убедиться, достаточно раздобыть демо-версию EndWar (покупать игру не надо – нечего спонсировать этих балбесов) от Ubisoft и раскопать в чулане запылившуюся гарнитуру. Сама игра мне не понравилась совершенно, но вот функция управления голосом – очень даже. Не то чтобы в ней было что-то необычное, просто сам факт того, что достаточно обычным голосом произнести одну фразу, и на экране все завертится, очень бодрит и заставляет верить в светлое будущее. «Unit one attack target two» – и наши танки палят изо всех стволов по услужливо зависшим в небе вертолетам. «Unit two move to Alpha» – бравые пехотинцы галопом несутся к отмеченной точке на карте. «Unit three camera» – игровая камера переключается на соответствующий отряд. «Какого йенга ты делаешь, тупая дегенеративная скотина?!» – и из динамика гарнитуры премерзким голосом спрашивают «что ты сказал, мой повелитель?». Здорово. 

Конечно, это далеко не Eyedentify, которую Sony показывала, дай бог памяти, на E3 2005. Ни о каком живом диалоге с игрой нет и речи, она нас не понимает. Все голосовые команды строятся на специальном «дереве» возможных приказов – как бы составляются из кусочков. Выбираем, к кому обратиться, выбираем действие, выбираем цель, и вуаля – создается ощущение, будто мы и правда координируем действия отряда бойцов на поле брани, раздавая приказы и отслеживая общую ситуацию по палате. Да, читерство, но оно работает и это единственное, что имеет значение. Сама мысль о реальном расширении взаимодействия с игрой очень меня вдохновляет.

А еще больше вдохновляет то, что и третья ступень моей теории об управлении в играх не так уж далека от покорения. Посмотрите на ролик EyePet – нового проекта Sony, в котором человек может взаимодействовать с виртуальным зверьком посредством цифровой камеры EyeToy. Третья ступень – это искоренение геймпадов и использование для управления всего тела. Да, для этого нужны будут либо высокоточные камеры, либо датчики. Возможно, понадобится что-то вроде шлемов виртуальной реальности или какие-то иные способы оградить играющего от реального мира. Неплохо бы еще и изобрести какую-нибудь обратную связь, способную давать тактильные ощущения (все перейдем на виртуальный секс и вымрем, да). Безусловно, это все сейчас представляется такой же фантастикой, как показанная в упомянутом выше «2057» Земля будущего. А EyePet – всего лишь тонкий намек на это самое будущее. Такая виртуальная первая ласточка, пророчащая неминуемый приход весны. 

Но это вовсе не то, что мне хотелось сказать сегодня. Будущее, невероятные технологии и USB-порт в черепе – это все замечательно и интересно. Но вот жить в будущем – это как-то очень скучно и грустно. Тем более, что даже при нынешних ограниченных возможностях управления эффект присутствия в игре возможен.

Только что в третий раз прошел демо-версию Mirror’s Edge. Она непозволительно коротка, но все же вполне подходит для того, чтобы убедиться – у DICE получилось. Управление оказалось именно таким, каким должно было быть – легким, ненавязчивым и удобным. В процессе пробежки по крышам почти сразу забываешь о геймпаде в руках и начинаешь чувствовать движения персонажа, ощущать скорость Фэйт во время разбега перед прыжком, легкое головокружение во время полета и силу удара при приземлении. Если в одной игре сочетаются интересная идея и грамотная ее реализация, то становится неважно, нажимаете ли вы на кнопки геймпада, машете ли руками, отдаете ли команды голосом или командуете персонажем с помощью собственного мозга. Это просто перестает иметь всякое значение. А значит, хорошими играми можно наслаждаться прямо сегодня.


Обсуждение