3D Engineering

...Лучшее из общего.

  • Увеличить размер шрифта
  • Размер шрифта по умолчанию
  • Уменьшить размер шрифта

Как утверждает Майенс благодаря тому что качество реального ...

Как утверждает Майенс, благодаря тому, что качество реального поведения Ивы делает ее гораздо более правдоподобной и привлекательной в отличие от существующих 3D-героев, таких как героиня компьютерной игры Лара Крофт, студия Attitude может использовать Иву как законченную индивидуальность. На Web-сайте Ивы, www.evesolal.com, вы можете, кроме всего прочего, больше узнать о жизни Ивы из ее интервью с французским журналистом Томасом Баудоуин-Александром (Thomas Baudouin-Alexandre), прочитать ее резюме, которое рассказывает об ее образовании и опыте в кино, телевидении, рекламе и аудиоиндустрии, и прочитать об ее родителях.

Вы так же можете больше узнать об личных деталях Ивы. Например, что ее рост составляет 5 футов и 7 дюймов, что она родилась в городе Billancourt округа Boulogne 3-его мая в 1978 году, что ее любимый цвет - красный, и что она любит кошек. Кроме этого вы можете посмотреть несколько видео клипов: один - это тур по квартире Ивы, снятый и прокомментированный самой Ивой, другой - о ее друзьях, как они обсуждают свои отношения с Ивой, или же клип с коллегами Ивы по Fun Radio, где она работает Ди-джеем.

В то время, как эти мелочи на Web-сайте делают внушительную работу по созданию "жизни", для Ивы, конечно же наибольшую ее часть сделал видео-ролик, представленный на выставке Salon du Satis, в котором Ива дает интервью своему другу-журналисту. Снятая с точки зрения журналиста, съемка ведется в зале L'Opus и начинается снаружи, в нескольких футах от места действия. Репортер входит в зал, который заполнен развлекающимися людьми. Когда он подходит к танцплощадке, зритель видит на ней несколько реальных танцующих людей. Однако один из этих танцоров - не реальный, это Ива. Но ее внешность и движения настолько реалистичны, что почти невозможно сказать, что она является 3D-персонажем.

Репортер ловит внимание Иве, и они идут к барной стойке, где Ива садится. То, как она говорит, как ее тело, лицо и губы двигаются с удивительным реализмом, делает ее присутствие на экране весьма убедительным. К концу съемки фон переходит в черный цвет и тело Ивы превращается в сеточную модель.

Создание Ивы

Как утверждает специалист захвата движения студии Attitude Реми Бран (Remi Brun), потребовалась работа команды из 12-ти человек в течение 5-ти месяцев чтобы создать модель Ивы и анимировать ее. Создатели модели, работавшие с эскизов, нарисованных вручную независимым художником Марком Маджиори (Marc Majiori), построили скелетную структуру тела и лицо Ивы используя пакет Maya, запущенный на рабочих станциях NT. Затем начался период захвата движения. У исполнителя роли Ивы располагалось на теле около сорока датчиков, 25 на лице и две кибер-перчатки на руках, она выполняла движения Ивы и произносила ее диалог. Тем временем 12-ти камерная система Vicon студии Attitude собирала данные о захвате движения, а видеокамера снимала сцену и звук.

После использования пакета FilmBox компании Kaydara для наложения данных с датчиков на скелет в Maya, аниматоры создали тело Ивы в Maya и синхронизировали ее губы с аудиопотоком, используя SyncMagic, программу синхронизации губ, основанную на фонемах, французской компании с аналогичным названием. Они использовали видеопленку со съемок как образец в течение процесса синхронизации.

Когда эти этапы были закончены, команда вернулась к инструментам emotion mapper. Майенс говорит, что эти инструменты работают в Maya, что позволило аниматорам положиться более на данные, полученные после захвата движения, чем на создание ключей анимации для получения реалистических результатов. "До использования emotion mapper, чтобы получить реалистичное движение, вы должны были создавать ключевые кадры анимации, обманывать глаз, делая так, чтобы казалось, что вы смотрите на реального человека а не на компьютерного героя. Нет возможности получить эти нюансы движения с данных сканирования, так как современные технологии захвата движения такой информации не предоставляют, и вам приходится создавать все это самому от кадра к кадру".

"При работе с Ивой мы добавляли совсем немного ключевых кадров, и все они на ее лице", - добавляет он. "Почти все ее движения взяты с реального исполнителя, с данных захвата движения. Так что конечная анимация весьма реалистична".

 

Архив статей

 дек   Январь 2020   фев

ВПВСЧПС
   1  2  3  4
  5  6  7  8  91011
12131415161718
19202122232425
262728293031 
Julianna Willis Technology

Случайная новость

Динамическое поведение волос выражается в их плавном движении и обволакивании других объектов сцены во время анимации. В качестве примера попробуем создать модель женской головы и имитировать динамику волос при движении головы вперед или назад. Здесь выбрана прическа “ирокез”, которая не только оригинальна, но и достаточно проста, чтобы с нее можно было начать работу. Кроме того, на этой прическе можно продемонстрировать возможности параметра Stiffness.

Чтобы имитировать динамику волос, выполните ряд действий.

1. В папке Chap 38 на прилагаемом компакт-диске найдите и откройте файл Female head.max. В нем находится модель женской головы, созданная компанией Zygote Media, для которой уже применен модификатор Hair and Fur (WSM).

2.    Щелкните на кнопке Auto Key и перетащите бегунок Time Slider к кадру 5, а затем переместите персонаж вправо в окне проекции Top. Далее перетащите бегунок Time Slider к кадру 10 и переместите персонаж назад влево. Этого простого движения вполне достаточно, чтобы волосы начали развеваться. Затем снова щелкните на кнопке Auto Key.

3.    Выделите голову, перейдите в раскрывающуюся панель Dynamics (Динамика) и в поле Stiffness (Жесткость) установите значение 0.8, чтобы волосы были направлены вверх. Для проверки заданного поведения, перейдите в режим Live (В текущем времени) и понаблюдайте за полученным результатом.

4.    В разделе Simulation (Моделирование) в поле Start (Начало) установите значение 0, а в поле End (Конец) — 10. Укажите статический файл, путь к которому отобразится в разделе Stat Files (Статичные файлы). Затем щелкните на кнопке Run для запуска моделирования. Все предварительно вычисленные значения берутся из статичного файла.

5.    Выберите режим Precomputed и перетащите указатель мыши через кадры анимации, чтобы просмотреть полученные результаты.

На рис. 38.2 показан результат анимации волос, которые отклоняются в сторону при движении головы.

Рис. 38.2. Использование статичного файла с предварительно вычисленными параметрами может сэкономить время визуализации

далее