MALBRED

Мимолетный
  • Публикаций

    6290
  • Зарегистрирован

  • Посещение

  • Победитель дней

    68

Весь контент MALBRED

  1. Free footages from visionz.fr CUBES01 - 2.2GB links https://cloud.mail.ru/public/Jrxj/53CKSzpRn https://cloud.mail.ru/public/CG96/gQ28SjTdD https://cloud.mail.ru/public/G6pa/yZN56Wir4 or https://owncloud.psylonet.com/index.php/s/J8ey4gWedLgJOPy ---------------------- ---------------------- DISCO01 - 1.6GB links https://cloud.mail.ru/public/3cj5/tuUPWpmYE https://cloud.mail.ru/public/6jJX/NH5Cj3Zzy https://cloud.mail.ru/public/JGRi/byK577sL5 or https://owncloud.psylonet.com/index.php/s/r9eQci08yQBakxZ ---------------------- ---------------------- LINES01 - 92MB links https://cloud.mail.ru/public/LtEr/t8xmh86hJ or https://owncloud.psylonet.com/index.php/s/KRFHCSiB3ckvS5B ---------------------- ----------------------
  2. ссылка умерла - ' Тема находится в мусорке '
  3. Создан для трехмерных объектов и виртуальной реальности Независимо от того, работаете ли вы над полнометражным художественным фильмом, игровым приложением или VR-проектом пакет Fusion поможет выполнить любые задачи с трехмерными объектами с нуля. Он имеет рабочее 3D-пространство с панорамным обзором в 360º и позволяет импортировать модели и сцены из таких приложений, как Maya, 3ds Max и Cinema 4D, поэтому рендеринг, композитинг и добавление света для объемных предметов, созданных в других программах, делаются гораздо быстрее. Все эти задачи решаются в едином пакете, что недостижимо ни в одном подобном приложении! Во Fusion вы получаете полный контроль над источниками освещения, объемными эффектами и мощными инструментами для обработки изображения, что экономит время и дает больше возможностей для творчества без необходимости рендеринга в нескольких программах. Безграничный потенциал трехмерного рабочего пространства Трехмерное рабочее пространство с поддержкой OpenGL обеспечивает интерактивное редактирование огромного количества полигонов, объемных эффектов и 3D-частиц, а благодаря функции предварительного просмотра на окончательный рендеринг уходят не часы, а считанные секунды. Высокая степень интерактивности Благодаря панорамному рабочему пространству в 360º Fusion 9 выводит постпроизводство на качественно иной уровень. Для интерактивного взаимодействия с объектами виртуальной реальности можно использовать встроенный инструмент Panoramic Viewer или такие популярные VR-шлемы, как Oculus Rift и HTC Vive. Поддержка ускорения графической карты позволяет выполнять проекты в режиме реального времени, а новый инструмент Spherical Camera проводит рендеринг сцен полностью за один проход без необходимости применения сложной многокамерной системы. Импортирование трехмерных моделей и сцен Имея в своем распоряжении Fusion, можно сэкономить время на воссоздании проектов, обработанных с помощью других приложений, таких как Maya и 3ds Max. Вы можете импортировать изображение с камер и загружать файлы в форматах FBX и Alembic, что означает перемещение трехмерных VR-эффектов, их композитинг, подсветку и рендеринг в едином пакете. Встроенные 3D-объекты Fusion позволяет быстро создавать собственные трехмерные объекты с помощью встроенного инструмента рисования и набора стандартных фигур. Имеется библиотека основных предметов и фигур, позволяющая быстро приступить к работе. При вводе текста или импорта векторной иллюстрации можно моментально генерировать контент в объемную среду, придать краям конусную форму, менять текстуру, материал, накладывать тени и выполнять многое другое. Освещение и затемнение с эффектом реальности Для создания правдоподобных 3D-сцен требуются высокоточные инструменты освещения. Fusion позволяет добавлять неограниченное количество настраиваемых источников освещения и контролировать их взаимодействие с элементами композиции. Можно менять параметры общего, направленного и рассеянного света, а также затенять отдельные детали. Полный набор инструментов для работы со стереоскопическим видео Во Fusion предусмотрен набор инструментов, которые на основе алгоритмов оптического потока устраняют сложные проблемы согласования и синхронизации, возникающие в 3D-производстве. Fusion упрощает работу со стереоскопическим изображением благодаря использованию отдельной камеры и даже может создавать объемный материал из контента, полученного из двухмерного источника. По этой причине он используется больше других подобных приложений для конвертации 2D-фильмов в трехмерные. Композитинг в режиме Deep Pixel При рендеринге EXR-файлов с двухмерными изображениями, полученными из 3D-приложений, вы получаете данные по цветам RGBA по каждому отдельному пикселю. Также вы получаете информацию о позиции пикселя в 3D-пространстве. Fusion использует эти данные для наложения объемных эффектов в двухмерные смонтированные изображения. Например, добавление тумана или пользовательской подсветки, а затем рендеринг видео займет секунды, но не часы времени, как это было бы в случае с приложением для обработки 3D-объектов, которые используют полные модели со сложной геометрией. Объемные эффекты Эффекты атмосферных явлений, таких как туман или дымка, могут значительно усилить реалистичность сцены. Поскольку Fusion использует GPU-ускорение, можно моментально видеть воздействие эффектов на изображение без ожидания рендеринга. Если использовать координаты World Position Data и проходы Deep Pixel, туман будет естественным образом двигаться в кадре! Оптимизированный рендеринг Процесс обработки 3D-изображений станет более быстрым, если использовать Fusion для настройки света, яркости и других операций. Один файл EXR может содержать проходы разных видов, нормали, координаты и многие другие данные. Каждый из них легко связать с любым из узлов, что позволит быстро применять фильтры и эффекты без затрат времени на ненужный повторный рендеринг! Сетевой рендеринг без ограничений Приобретая Fusion Studio, вы получаете возможности установки современного трехмерного пакета с 32-битной точностью работы на неограниченное число станций. Для выполнения рендеринга имеется встроенный Render Manager или такие приложения, как Deadline, Qube и Rush. При этом не требуется дополнительных расходов на лицензионные отчисления! Источник - blackmagic fusion
  4. Современные технологии делают ставку на большие разрешения, высокий динамический диапазон и частоту кадров. Но как на все это влияют ограничения нашего визуальное восприятия? Когда нам стоит остановиться? Этим вопросом я задался после недавнего мероприятия ARRI Broadcast Day в студии Die Fernsehwerft, расположенном в творческом районе на восточном береге Берлина. Выступление Марка Шипман-Мюллера, главы подразделения камер ARRI, заставило многих полностью пересмотреть свое отношение к последним достижениям в цифровой съемке, постпродакшне и способах просмотра. Святой Грааль Еще десять лет назад не было ничего качественнее и эстетичнее 35мм пленки, и цифровые технологии стремились к ней, как к своеобразному «Святому Граалю». Цифровое кино уже давно достигло и превзошло цели, которые стояли перед ним на этапе зарождения, вплотную приблизившись к пленке как с технической, так и других точек зрения. Теперь нас больше интересуют различные аспекты цвета цифрового изображения, нежели битва пленки и цифры. Это противостояние завершилось, и люди смирились с его результатами. Какой следующий этап развития цифрового кино? Все ли инновации в этой области действительно созданы для улучшения качества изображения, а не для развития бизнеса и продажи гаджетов и телевизоров? Боюсь, ответ неутешительный. С другой стороны, благодаря такой политике многие базовые стандарты цифрового кино наконец стали универсальными для всех производителей. Цифровое кино 2.0 Если на первом этапе существования цифрового кинематографа его адепты преследовали цель догнать и перегнать 35мм пленку, то теперь это сравнительно молодое направление полностью меняет цели и средства своего развития. Сейчас перед цифровым кинематографом не стоит задача подражать технологиям прошлого, отныне перед ним открыты новые горизонты. После того, как Святой Грааль в виде пленки перестал быть ориентиром, цифровое кино несколько раз отправлялось по неверному пути, возвращалось назад и вновь искало нужное направление. Расстановка акцентов Вероятно, отсутствие четкой и ясной цели привело к развитию цифрового кино только в техническом направлении, наносящему вред как художественной ценности цифрового контента, так и его потребителю. Производители телевизоров, несмотря на недавний взлет и падение 3D-телевидения, решили не останавливаться и продолжили предлагать потребителю новые технологии — UHD, SUHD, HDR и многие другие загадочные аббревиатуры, сбивающие покупателя с толку и побуждающие его тратить деньги на инновации. Производители телевизоров придерживались этой стратегии задолго до появления общих для всех стандартов, в то время как производители контента оставались без какого-то технологического ориентира, а провайдеры цифрового ТВ стремительно запускали UHD-каналы, несмотря на явную нехватку контента в UHD-качестве. UHD, высокий динамический диапазон (HDR), высокая частота кадров (HFR), расширенная цветовая гамма — эту гремучую смесь инноваций мы наблюдаем на экранах, однако более аккуратно собранная комбинация новых технологий была бы самым оптимальным решением как для создателей контента, так и для его зрителей. То, что мы можем сделать что-то, еще не значит, что это лучшее решение проблемы. На самом деле мы еще даже полностью не осознаем ее. Разрешение За последние пару лет гонка разрешений наконец замедлилась. Мы прекрасно знаем, что формат 4K здесь надолго, однако также ясно, что рано или поздно настанет эпоха разрешения 8K. Тем не менее в ближайшие годы можно не ожидать, что 8K получит широкое распространение. Несмотря на это, RED (а также японская телекомпания NHK и другие ее партнеры по вещанию) сделал 8K реальностью, и у этого формата гораздо больше практической ценности, что бы ни говорили скептики. Однако постоянное увеличение количества пикселей влечет за собой довольно большие осложнения. Большее количество пикселей вкупе с повышенной битовой глубиной цвета влечет за собой большое количество сохраняемой информации, что напрямую отражается на требованиях к пропускной способности на локации, во время постпродакшна и доставке до конечного пользователя. И хотя гонка разрешений ставит своей целью увеличение детальности и четкости изображения, этого можно добиться намного более легкими способами. Воспринимаемое человеком разрешение и количество пикселей — абсолютно разные вещи, которые нужно уметь различать. Единственное, что важно для зрителя — это «воспринимаемая» детализация и четкость, поэтому очень важно брать во внимание человеческий фактор, сравнивая достоинства и недостатки разных технологий. И «грубая сила» в решении этих проблем (например, увеличение количества пикселей на 400%), часто приводит к новым затруднениям. Когда речь заходит о разрешении, люди игнорируют такую важную вещь, как обработку и восприятие подвижного изображения человеком. Разрешение и человеческое зрение Лишь небольшое пространство нашей сетчатки содержит достаточное количество колбочек, чтобы обрабатывать изображение с максимальной детализацией. Этот участок называется центральной ямкой сетчатки глаза, который занимает менее одного процента ее поверхности и задействует более половины пространства зрительной коры головного мозга. Центральная ямка охватывает лишь два градуса зрительного поля — это примерно размер двух ногтей большого пальца на расстоянии вытянутой руки Когда вы смотрите на деталь, которая занимает ваше поле зрения более чем на два градуса, глаз самостоятельно сканирует изображение, а заполняет недостающие участки. Несмотря на то, что по краям сетчатки ваше зрение обладает гораздо меньшим разрешением, мозг все равно воспроизводит изображение, основываясь на данных, который он получил, когда глаз «просканировал» пространство. Мозг запоминает все детали, на которые вы смотрите даже вскользь, благодаря чему вы в режиме реального времени знаете, что происходит вокруг. Мозг постоянно дорабатывает изображение перед вашими глазами, и практически все, что вы видите, — это не настоящая проекция окружающего мира. Алгоритм, благодаря которому мы видим, гораздо сложнее в человеческом организме, чем у камер, которые снимают изображение при заданных настройках фокусировки, количестве пикселей и частоте кадров. Именно из-за этого ваши глаза двигаются, когда вы читаете этот текст: для того, чтобы в полной мере увидеть содержание другой области экрана, вам нужно остановиться и передвинуть глаза. Вы в курсе, где находится текст, как он расположен в пространстве, но чтобы узнать, что в нем написано, вам необходимо рассматривать фактически каждую деталь. Движущееся изображение — это иллюзия. Это обманка, которую наш мозг воспринимает как плавно движущееся изображение. Не стоит нарушать эту иллюзию, которая в действительности очень хрупка. HDR Плотность пикселей — не единственный фактор, отвечающий за четкость изображения. С математической точки зрения для достижения четкости хватило бы простого увеличения этого параметра, однако, преодолев определенный порог, можно заметить, что эффективность данного подхода заметно снижается. Восприятие детализации и четкости во многом зависит от контрастности. В особенности мозгу помогает повышенная контрастность по краям изображения, благодаря которой мы различаем предметы. Контрастность сильно зависит от изображения в целом и не является чем-то единым, особенно если речь идет о подвижном изображении. Особенно важна контрастность яркостей и цветов. Это одно из доказательств, почему постоянное увеличение плотности пикселей не решает проблему качества изображения, с которой можно было бы справиться, снабжая наш зрительный аппарат именно той информацией, которая ему нужна именно там, где нужно, чтобы создать желаемую иллюзию. Это мнение Шипман-Мюллер подкрепил сравнив на откалиброванных мониторах и затемненном помещении изображения в качестве 1080p SDR и UHD HDR, а затем 1080p HDR и UHD HDR. Если разница между первой парой была очевидна, то в случае со второй точного ответа было дать нельзя. Все согласились, что 1080p HDR в сравнении с 1080p SDR дало 90% увеличения «воспринимаемой» детализации, которую можно достичь, увеличив количество пикселей в четыре раза. Огромная трата пикселей. Дрожание Демонстрация дрожания в цифровм видео Это одна из самых больших проблем, из-за которой наш мозг не может собрать сменяющиеся кадры в плавное изображения. Что служит причиной дрожания? Дело в том, что и движущиеся объекты в некоторых кадрах выбиваются из общего потока информации из-за слишком яркого изображения или повышенной контрастности по краям. HDR усугубляет это из-за яркости соответствующих дисплеев, но факторы, влияющие на дрожание, сводятся к следующему: соотношение движущихся объектов к статичному изображению в поле зрения; скорость движения объектов; контрастность деталей; четкость деталей; уровень яркости дисплея. Хотя яркость дисплея — это не самая главная причина появления дрожания, она сильно ухудшает ситуацию. Чем ниже уровень яркости изображения, тем менее заметно дрожание, а в случае с SDR-дисплеями оно не бросается в глаза благодаря размытости изображения и частоте кадров. Тем не менее дрожание более чем очевидно в режиме HDR, а также если яркость предельно завышена. Как решить эту проблему? Частота кадров Человеческий глаз пропускает через себя непрерывный поток информации. Именно поэтому мы не видим определенное количество кадров в отдельный отрезок времени. Однако если большое количество статичных кадров будут быстро сменять друг друга, то изображение станет подвижным — это называют инерцией зрительного восприятия, поскольку сетчатка обрабатывает изображение в течение примерно сорока миллисекунд. Стандарт 24 кадров в секунду появился потому, что это минимальная частота кадров, при которой мы видим плавное изображение: этого достаточно для поддержания иллюзии, а также незатратно для производства. Этот стандарт до сих пор воспринимается «кинематографично» из-за исторического и культурного наследия. Другими словами — так было всегда. Едва заметное мелькание кадров подает зрителю сигнал, что он сейчас увидит качественный голливудский фильм с прекрасной актерской игрой и постановкой — то, что обычно отличает кинематограф от телевидения или видео. Дэвид Финчер на съемках фильма «Социальная сеть» Так было в течение более чем сотни лет в кино и ТВ, вплоть до завершения эпохи «цифрового кино 1.0», когда оно, наконец-то сравнялось с пленкой по части разрешения и цвета. Вне зависимости от источника проецируемого изображения сам процесс смотрения в плане яркости, контрастности и частоты кадров остался в рамках определенных стандартов. После появления высокого разрешения, расширенного динамического диапазона и дисплеев повышенной яркости встал вопрос о повышенной частоте кадров, которая призвана увеличить плавность изображения за счет уменьшения «воспринимаемого» движения. Это может снизить дрожание изображения, возникающее из-за повышенной детализации, контрастности и скорости движения. Ролик о технологии съемки фильма «Долгий путь Билли Линна в перерыве футбольного матча» У повышенной частоты кадров есть и другие достоинства. Съемка при 120 fps позволяет работать с размытым изображением в процессе постпродакшена, а также такую частоту кадров можно подогнать под любые более низкие требования доставки контента. Недостатки у технологии тоже есть. Как и в случае с разрешением, контент с повышенной частотой кадров занимает очень много места и требует значительной пропускной способности как во время съемки и обработки изображения, так и для его трансляции. Гиперреализм и эффект мыльной оперы Со вторым недостатком повышенной частоты кадров пришлось столкнуться первым режиссерам, решившим поэкспериментировать с технологией. Например, такие фильмы, как «Хоббит» Питера Джексона, который снимали при 48 к/с, а также «Долгий путь Билли Линна в перерыве футбольного матча» Энга Ли в 3D (120 к/с), подверглись критике из-за эффекта гиперреалистичности, слишком четкого и некинематографичного изображения. Здесь разрушается уже не иллюзия движущегося изображения, а ощущение мира грез, погружающего зрителя в историю, происходящую в иной реальности. Возможно, это даже более важно, чем яркие дисплеи и 4K. С другой стороны, ко всему можно привыкнуть. Просчитанное изображение Возможное решение — не применять 4/8K и 120 кадров в секунду ко всему изображению. Может быть, нужно, чтобы детализация и частота кадров поднималась избирательно, только в определенных зонах? Не забывайте, что лишь два градуса нашей сетчатки видят детализированное изображение, ведь даже когда мы смотрим фильм, наши глаза перемещается от одной точки к другой, сканируя пространство. Не стоит ли задуматься, как мы воспринимаем и обрабатываем изображение, которое создаем? Исследование восприятия изображения человеком сразу же дает понять, что наш мозг и так обрабатывает, сжимает и фильтрует большое количество информации. Сетчатка — часть центральной нервной системы, в наших глазах расположено около 150 миллионов рецепторов и всего лишь около миллиона оптических нервных волокон. Сетчатка постоянно перекодирует (сжимает) информацию, чтобы ее мог воспринять ограниченный запас оптических нервов. Мозг постоянно обрабатывает поток узконаправленного изображения с высокой детализацией из центральной ямки, совмещая его с широким зрительным полем с низкой детализацией, которое дополняет наша память и знания о мире, где мы живем. Если ваши инструменты восприятия реальности, зрение и мозг, постоянно фильтруют полученную информацию, словно алгоритмы сжатия качества видео, то почему не начать использовать избирательный подход к отображению только самых важных деталей в высоком разрешении? Вероятно, последовав по этому пути, мы лучше будем воспринимать кино, и несмотря на повышенную реалистичность и четкость изображения, нас не будет преследовать ощущение, что мы больше не в мире грез. Безусловно, 4K и 8K HDR и HFR изображение на огромном OLED-дисплее создает ощущение настоящего мира по ту сторону экрана, но этого ли мы хотим от кинематографа? Вряд ли. Ричард Лэки Специалист по камерам и цифровому кинопроизводству, колорист и продюсер с 10-летним стажем
  5. Краткое описание и выводы по выставке InfoComm 2017 Вероятно, одна из самых интересных вещей на InfoComm в этом году была обнаружена на стенде Panasonic. Они продемонстрировали интересные инновации и «технологии следующего поколения», среди которых наше внимание привлекла высокоскоростная система отслеживания и видео маппинга в реальном времени . Топ нашего выбора Отслеживание и отображение проекционного видео маппинга в режиме реального времени с Panasonic По их собственным словам, «она позволит проецировать изображения с высоким разрешением (1920 x 1080) при яркости 10 000 люмен по ANSI на быстро движущиеся объекты, такие как исполнители на сцене, с мимикрированием и выравниванием, накладываемые на видео и подаваемые на проектор в режиме реального времени». Демо-версии интерактивного видео маппинга Optoma У Optoma было много интересного, что можно было показать на выставке, и кое-какие отличные демо, которыми нас развлекли. Среди них креативная демо-версия сферического видео маппинга, демонстрирующая лазерный проектор ZU510-W, демо-версия интерактивного видео маппинга на пол с помощью проектора WU1500 и еще одна демо-версия интерактивного видеом аппинга лазерным проектором ZH400UST Ultra-Short Throw. Christie Mystique для 3D маппинга Christie Center на InfoComm был одной из главных достопримечательностей выставки. Можно было увидеть их знаковую «Волчью голову» и множество светодиодных стен. Что еще более важно для нас, центр показывал видео маппинг с использованием Christie Boxer и Pandoras Box Quad Server, к тому же они продемонстрировали трехмерный маппинг с использованием решения Christie Mystique. D3 Technologies GX Range для эффектов в режиме реального времени D3 Technologies представили на выставке свой новый продукт. По словам технического менеджера d3 Маркуса Бенгтсона, «диапазон gx был разработан, чтобы облегчить приближающуюся волну воспроизводящего контента, используемого в дизайне живых шоу». Купол Elumenati от UNC School of Journalism UNC продемонстрировала студенческий материал с использованием купола Elumenati, удивительного и инновационного решения для впечатляющей визуализации. Это был не единственный университетом, который мы увидели на выставке, и мы сочли его проект очень вдохновляющим! О проекторах В этом году мы увидели, как некоторые гиганты индустрии анонсируют и демонстрируют свои основные проекторы, продолжая двигаться в направлении их уменьшения. Epson выпускает проектор Pro L1700 и демонстрирует интерактивный проектор Bright Link Ultra Short-Throw Laser Interactive. Christie запускает свой лазерный фосфорный проектор 1075 GS Optoma демонстрирует свой ламповый проектор 4K500 4K UHD BenQ представила свой проектор LU9715 Ultra-Short Throw, а также проектор LK970 4K Canon представляет проектор 4K501ST Compact 4K. Также от Canon: проектор LV-HD420 Compact 1080p, лазерный проектор LX-MU800Z и проектор WUX500 Двойной лазерный проектор от Digital Projection Другие интересные события Короче говоря, в этом году InfoComm посетило множество народа, на ней были представлены новые продукты и демонстрационные технологии. Для получения дополнительной информации вы можете посетить их сайт.
  6. UV Editor в Update 3 для Maya 2017 приобрел именно тот функционал, которые давно ждали пользователи. Теперь можно с уверенностью делать UV именно в Maya, не используя посторонних плагинов. Кратко о том, что нового, вы можете посмотреть в видео: А редакция 3dpapa приготовила для наших любимых читателей разбор нового функционала. Все инструменты, которые отмечены зелёным цветом – это обновлённые инструменты. Как вы можете заметить в новом редакторе их достаточно много: Вот как выглядит новый редактор UV Editor: Ниже рассмотрим отдельно каждое окно и его предназначение. View bar Содержит параметры для изменения отображения UV-координат в UV-редакторе, а иногда и в видовом экране. — отображает UV-шки как сеткой, так и заполненные цветом. Цвет будет необходим для определения перевёрнутых координат. Параметры цвета можно найти в меню View > Shaded; — окрашивает сетку так, что она показывает сжатия/растяжения на текстуре; — включает отображение границ текстуры на UV-координатах. Границы текстуры отображаются толстой линией; — включает отображение цветных UV-границ для любых выбранных компонентов. Полезно для поиска, где координаты имеют одни и те же ребра; — отображение сетки; — изолирует выбранную UV в текущем UV set; — сохраняет изображение текущего UV-макета во внешний файл; — включает/выключает отображение текстуры в UV-редакторе. Можно переключатся между изображениями, используя «Checker shader» ; / — отображает каналы RGBA или Alpha; — уменьшает яркость отображаемого в настоящий момент фонового изображения; — повышает качество отображаемой текстуры; — соотношение сторон в UV Editor меняется согласно разрешению текстуры; — автоматическая привязка UV-объекты к границам пикселей; — выпечка текстуры и сохранение ее в памяти; — обновление текстуры PSD, используемые в данный момент для сцены. При изменении PSD-файла (в Photoshop), который подключен к текстуре, вы можете обновить изображение в Maya, не переподгружая текстуру; — регулирует яркость дисплея. Снижение экспозиции позволяет вам просматривать детали, которые по умолчанию не отображаются в светлых точках. Щелкая значок, вы будете переключаться между значениями по умолчанию и измененными значениями. Это опция, которая не сохраняется в сцене и не применяется к визуализированному результату; — регулирует контрастность или яркость средних тонов изображения для отображения. Увеличение гаммы позволяет вам видеть детали в тенях вашего изображения. Щелкая значок, вы будете переключаться между значениями по умолчанию и измененными значениями. Это опция, которая не сохраняется в сцене и не применяется к визуализированному результату; — управляет преобразованием представления, которое преобразует цвета из рабочего цветового пространства для отображения. Тут также можно выбирать пресеты. Это также опция, которая не сохраняется в сцене и не применяется к визуализированному результату. UV Toolkit По своему внешнему виду очень напоминает Modelling Toolkit. В принципе, задачи у этой панели те же – собрать все необходимые инструменты для создания качественной развертки. По умолчанию UV Toolkit отображается с правой стороны UV Editor. Вы можете открепить панель, нажав Shift + LMB. — маски выбора; ограничивает выбор вертексами, ребрами, фейсами, UV-шками или UV Shell-ами. — метод выбора; переключает метод выделения при перетаскивании курсора мыши; когда инструмент Перемещение или масштабирование активны, вы также можете преобразовать компоненты, перетащив их. — активирует симметричный выбор; вы можете использовать кнопку Mirror UVs, чтобы быстро отразить текущий выбор по выбранной оси симметрии. — ограничение выбора в UV-пространстве; Варианты выбора: — Back-facing / Front-facing (направление UV); — Geometry Borders (компоненты на открытых концах сетки); — Texture Borders (компоненты на концах UV shell); — UV Edge Loop; — UV Edge Ring; — UV Shell. Pinning (закрепление UV-шек) — блокирует выбранные UV-объекты, чтобы они не могли быть перемещены. По умолчанию закрепленные области сетки отображаются синим цветом; — позволяет вам закрашивать UV-объекты, чтобы заблокировать их. Shift + LMB, чтобы открыть параметры Pin UV Tool; — инверсия привязки; — открепить выбранные ювишки; — открепить все UV. Select By Type Используя эти параметры, вы выберете все UVs, которые имеют общий признак. Например, выделить все границы текстуры. Soft Selection По аналогии с Select Tool включение этой функции позволяет сделать мягкое выделение в режиме UVs. Transform Эти параметры позволяют двигать ювишки с шагом, перемещать пивот. Одним словом, они обеспечивают более точное трансформирование в режиме UV. Pivot Даёт возможность контролировать пивот относительно выбранного UV shell либо относительно UV-пространства. При помощи точек, мы собственно, и редактируем поведение пивота. Попробуйте поклацать этот инструмент и вы сразу поймете принцип его действия. Reset возвращает пивот в положение, которое было до редактирования. Move Манипуляторы позволяют перемещать ювишки в пространстве согласно заданным параметрам. 0,1000 показывает шаг передвижения выбранного шела. Retain Component Spacing — cохранение заданого интервала между компонентами Step Snap позволяет привязать UV-объекты к определенным значениям UV-пространства. Distribute равномерно размещает смежные выбранные UVs так, чтобы они были на расстоянии друг от друга в направлении U или V. Tools Панель Tools предназначена для вращения и масштабированию ювишек. Rotate позволяет поворачивать выбранные шелы, указывая угол поворота. Step Snap Позволяет привязать UV-объекты к определенным значениям UV-пространства. Scale аналогично для масштабирования. Prevent Negative Scale — когда включено, Maya отключает негативное масштабирование UVs. Flip – переворачивает выбранные UVs в указанном направлении. Texel Density позволяет быстро установить размер UV-шки, указав количество текселей (пикселей на единицу), которое должно содержаться в shell. Get отображает текущую плотность текселей для выбранной UV. Set масштабирует выбранную UV, чтобы она соответствовала указанной плотности текселей. Map Size определяет размер квадратной карты общей текстуры. Устанавливайте этот параметр изначально, так как он используется для вычисления базового значения плотности тексела. Дополнительные тулы для манипуляции можно найти в самом UV editor. Grab выбирает и перемещает UV-объекты в пределах области кисти в направлении, которое вы перетаскиваете. Полезно для тонких настроек. Lattice управляет расположением UVs как группы, позволяя вам создавать решетку вокруг UVs для деформации. Pinch вытягивает вершины в направлении центра курсора инструмента. Smear перемещает UVs в направлении, которое касается их исходного положения на поверхности в том направлении, в котором вы двигаетесь Symmetrize зеркальные UV окрашиваются согласно топологии. Create Вкладка Create предназначена для создания непосредственно маппинга для выбранных объектов. Automatic – Maya сама определяет как делать проджект, автоматически проецируя несколько плоскостей. Normal-Based — делает маппинг на основе нормалей связанных вершин. Cylindrical — проецирует их UV из окружающего цилиндра. Planar — проецирует UV с плоскости. Spherical — проецирует UV из окружающей сферы. Best Plane — проецирует UV для выбранных граней на основе плоскости, вычисленной из указанных вами вершин. Camera-Based — идентично планарной проекции, но с использованием текущей камеры в качестве плоскости. Contour Stretch — анализирует четырехугольный выбор, чтобы определить, как лучше растянуть UV-координаты полигонов над изображением. Cut and Sew Параметры Cut and Sew предназначены, чтобы сшивать и расшивать ювишки. Auto-Seams — Maya ищет лучшие ребра по её мнению на выбранных сетках или UV, чтобы сшить их. Cut — разделяет UV по выбранным ребрам, создавая границы. Cut Tool — позволяет разделить UV, щелкнув по их смежным краям. Create UV Shell — разделяет все грани, связанные с выбранными компонентами, в новую UV. Create Shell (Grid) — создаёт квадратную UV, разрезав по периметру края текущего выделения, затем равномерно распределите UVs в 0-1 UV-пространстве сетки. Sew — сшивает UV по выделенным граням Sew Tool — интерактивно сшивает при помощи кисточки Stitch Together — сшивает два выбранных ребра вместе, перемещая одну ювишку по направлению к другой. Unfold Вкладка Unfold предназначена для разглаживания ювишек. Optimize — автоматически разворачивает UVs для лучшего разрешения пространства текстуры. Optimize Tool — распутывает и расправляет сетку при помощи кисточки. Unfold — разворачивает выбранную UV-сетку, пытаясь гарантировать, что UV-объекты не будут перекрываться между собой. Unfold Tool — разворачивает выбранную UV-сетку, пытаясь гарантировать, что UV-объекты не будут перекрываться между собой при помощи кисти (можно воздействовать точечно) Straighten UVs — выравнивает смежные UV-элементы, края которых находятся с некоторым допуском угла. Straigthen Shell — помогает распутать UV вдоль границы UV shell. Чтобы использовать этот инструмент правильно, вы должны либо выбрать внутренние или граничные UV (не сочетание обоих), которые содержатся в одном UV shell. При использовании внутренних UVs они также должны находится вдоль одного и того же edge loop. Align and Snap Align and Snap предназначены, чтобы позиционировать и выровнять UVs относительно друг друга. Align — выравнивает все выбранные UVs, чтобы они были соотносились друг к другу в указанном направлении. Выравнивание выполняется относительно наиболее удаленного UV в указанном направлении. Linear Align — выравнивает все выбранные UVs вдоль условной линии, проходящей через них. Snap перемещает выбранные UV в одну из девяти позиций в указанном UV-пространстве. Snap Together — перемещает одну ювишку на другую, перекрывая друг друга. Вы можете выбрать направление привязки с помощью соответствующих кнопок. Snap & Stack — перемещает одну ювишку на другую, перекрывая друг друга. Шелы всегда перемещаются в направлении последнего выбранного UV. Match Grid — перемещает каждый выбранный UV в ближайшее пересечение сетки в UV-пространстве. Match UVs — перемещает выбранные UVs в пределах определенного расстояния до среднего значения всех их отдельных позиций. Shift + LMB, чтобы настроить Tolerance Normalize — масштабирует выбранные UV-объекты, чтобы они соответствовали диапазону 0-1 UV. Щелкните правой кнопкой мыши, чтобы масштабировать UV, чтобы каждая из их граней заполнила 0-1 UV-пространства. Arrange and layout Вкладка Arrange and layout предназначена для того, чтобы упорядочить и упаковать ювишки. Distribute распределяет выбранные ювишки равномерно в пространстве, одновременно обеспечивая определенное количество пикселей между ними. Вы также можете использовать кнопку Target, чтобы распределить их равномерно в направлении последнего выбраного шела. Orient Shells — поворачивает выбранные UV, чтобы они проходили параллельно самой смежной оси U или V. Orient to Edges — поворачивает выбранные UV, чтобы они проходили параллельно выбранному краю Stack Shells — перемещает все выбранные UV центр UV-пространства так, чтобы они перекрывались Stack & Orient — выкладывает выбранные UV в центр UV-пространства и затем поворачивает их так, чтобы они проходили параллельно самой смежной оси U или V. Unstack Shells — перемещает все выбранные UV, чтобы они больше не перекрывались, удерживая их вместе. Shift + LMB, чтобы открыть опцию Unstack Options, которая позволяет вам переворачивать обратные UV во время процесса. Gather Shells — перемещает выбранные UV обратно в диапазон 0-1. Randomize Shells — делает перемещение, поворот и масштабирование UV. Вы можете настроить различные направления и максимально допустимые параметры перемещения, поворота, масштабирования с помощью окна параметров Randomize Shells Measure — линейка. Отображает выбранное измерение для двух выбранных UVs. Варианты включают: -U Distance: количество единиц между UVs вдоль оси U. -V Distance: количество единиц между двумя UVs вдоль оси V. -Pixel Distance: открывает окно, в котором показано количество пикселей в разных направлениях между двумя самыми далекими UV-позициями, основанными на нескольких различных возможных размерах карты. -Angle Between: угол между двумя выбранными UVs (выбор более одного UV приведет к некорректным результатам). Layout — автоматически упорядочивает UV, чтобы максимально использовать 0,1 UV-пространство. UV Set UV Sets отображает текущий список UV-наборов, а также элементы управления для их изменения. Create empty UV set — создает новый пустой набор UV для текущего объекта. Вы также можете получить доступ к этой команде, щелкнув правой кнопкой мыши список UV Set. Copy UVs to clipboard — копирует текущий UV layout в буфер обмена Paste UVs from clipboard to current UV set — вставляет UV-макет в буфер обмена к выбранному UV-набору. Duplicate UV set — создает идентичную копию выбранного набора UV. Propogate UV set — присвоение выбранного UV-набора из списка UV Set выбранным объектам в сцене. Выбранный набор UV становится активным UV-набором для этих объектов. UV Set list Отображает все UV текущего объекта. Share instances — выбираете полигон, который будет общим, а затем инстанс Select shared instances — выбирает инстансы, которые совместно используют UV-набор с выбранным объектом. Open Relationship Editor — редактор, который показывает связи Auto-load Textures — загружает связанные текстуры для выбранных UV-наборов Delete invalid UV sets — удаляет UV-наборы из текущего объекта, который не может быть отображен в UV-редакторе. Save image file — экспортирует файл изображения выбранного UV-набора. Надеемся, наш обзор помог вам разобраться в тонкостях нового UV Editor.
  7. 12 HD футажей, 25fps, 1920*1080px, MOV. 2.3 GB https://yadi.sk/d/Hh_TdBM53Jn97j
  8. 15 HD free футажей, 30fps, 1920*1080px, mp4. 300 Mb. https://yadi.sk/d/o3caC5VA3Jn8aq
  9. давно причем уже
  10. Australia AS http://www.vjunionaustralia.com/ Australia AS http://mixedmediasydney.com/ Australia AS http://www.vidi-yo.com/ China CH http://dej.dealchina.org/ China CH http://endej.dealchina.org/ Finland FI http://www.vjfinland.fi/ France FR http://www.lecollagiste.com/ France FR http://www.vjfrance.com/ Germany GM http://vjcentral.de/ Germany GM http://visualberlin.org/ Germany GM http://www.vjforum.de/ Indonesia ID http://www.ravelex.net/ Italy IT http://flxer.net/ Italy IT http://www.vjcentral.it/ Italy IT http://www.vjingit.com/ Japan JA http://www.vjtokio.com/ Russia RU http://forum.malbred.com/ Spain SP http://www.vjspain.com/ Sweden SW http://www.vjunion.se/ Switzerland SZ http://www.videopong.net/ United Kingdom UK http://vjlondon.org/ United States US http://vjcentral.net/ United States US http://vjforums.com/ United States US http://community.audiovisualizers.com/ United States US http://la-va.org/ United States US http://nwav.org/
  11. Одним из наиболее важных критериев качества проекционной системы является её общее разрешение. Основными параметрами, определяющими это значение являются: разрешение/качество материала проецируемого системой на купол количество используемых проекторов, что напрямую зависит от: 1 рабочего разрешения проекторов 2 проекционного коэффициента (отношения расстояния от проектора до проекционной плоскости к ширине получаемого на плоскости изображения) яркости каждого проектора коэффициента контрастности Рассмотрим четыре возможных варианта проекционных систем: Четырех-проекторная система Разрешение проекторов WUXGA (1920х1200) Проекционный коэффициент — 0.7 Качество результирующего изображения - 2,5К Пяти-проекторная система Разрешение проекторов WUXGA (1920х1200) Проекционный коэффициент — 0.8 Качество результирующего изображения - 3,0К Шести-проекторная система Разрешение проекторов FullHD (1920х1080) Проекционный коэффициент — 1.0 Качество результирующего изображения - 3,5К Восьми-проекторная система Разрешение проекторов FullHD (1920х1080) или WUXGA (1920x1200) Проекционный коэффициент — 1.2 Качество результирующего изображения - 4К С учетом имеющегося эффекта самозасветки сферической плоскости необходимо сбалансировано подходить к выбору таких параметров проекторов как яркость (измеряемая в люменах) и коэффициент контрастности (соотношение уровня яркости в наиболее светлых и темных участках изображения). Невсегда мощные яркие проекторы, с низким коэффициентом контрастности, дадут стабильно качественное изображение, в случае проецирования различного контента, особенно изобилующего светлыми сценами или с узким динамическим диапазоном яркости
  12. Евгений, чтобы вам быстрее найти исполнителя можете оставить свои контакты по мимо ЛС форума
  13. Mapping Matter (MM) - это инструмент моделирования\симулирования, предназначенный для профессионалов аудиовизуального искусства, которым необходимо создавать симуляцию простых и сложных видео проекций и видео маппинга для проектов любой сложности. Оценивать яркость, плотность пикселей работать с шивкой, растоновкой проекторов для проекта. Для чего не подходит Mapping Matter? MM не предназначена для создания видео контента или его воспроизведения. Несмотря на то, что на 3D объектах можно просматривать содержимое (изображения и небольшие клипы .mpg4). Для каких целей Mapping Matter является самым полезным? Когда у вас есть крупномасштабная, многопроекционная конфигурация или концепция, и вам нужно эффективно выполнять засетапить и расчитать все вычисления, связанные с проекторами. MM сделает весь этот процесс быстрым, легким, приятным и в высшей степени понятным. Можно ли моделировать 3D-объекты в Mapping Matter? Вы можете создать основные примитивы геометрии в MM (Planes, Boxes, Spheres ...). Но Mapping Matter не является 3D-редактором, поэтому вы не сможете изменять или редактировать 3D-сетки. Могу ли я использовать MM в моем создании контента WorkFlow? MM не предназначен для создания контента, но позволит вам импортировать 3D меши в .obj. Если у вас есть UV координаты на сетке вы сможете назначить Diffuse текстуру а также проекционные текстуры и увидеть результат в контексте (охват проекции и тени). Вы также можете ссимулировать изображения и видео, проецируемые прямо из проектора, чтобы увидеть, как они будут деформироваться вокруг объекта. Если у вас нет UV, вы также можете сделать проекционное текстурирование в реальном времени с выбранной точки обзора. Какие 3D-объекты поддерживает MM? В настоящее время поддерживается .obj - рендеринг будет оптимальным, когда сетки объединены и сведены к минимуму (Low poly. В настоящее время максимальный размер составляет до 500 ролигонов на файл). В настоящее время не поддерживается .mtl, но сможно применить текстуру на вашей сетке после импорта. Работает ли MM на Mac и PC? Да, все, что вам нужно - это Chrome! Если вы хотите составлять проекты с большим количеством проекторов и большими сетками, вам понадобится мощная графический карта. Насколько реалистичен рендер в ММ? Каждый объект в Mapping Matter трактуется как diffuse ламберт поверхность (без блеска или отражений света), поэтому не делает реалистичные предпросмотры, хотя они всеравно выглядят визуально красиво, особенно если у вас есть diffuse текстуры на объектах. Наши фотометрический анализ вычисляет освещенность, а также яркость «Spotlight», без отрисовки. Если вам необходимо учитывать срок службы лампы проектора и коэффициент пропускания линзы, вы можете просто использовать коэффициент яркости. Он не учитывает равномерность яркости, оптическое искажение линзы, диапазон фокусировки и атмосферное поглощение. Как работает библиотека проекторов? Вы определяете Размер проекции, Яркость и выходное разрешение, и можете вставлять это в свою сцену. Нет никаких ограничений на соотношение «Throw», «Lens Shift», «Rotation» и «Orientation». Поэтому вам необходимо будет обратиться к спецификациям и рекомендациям производителя проекторов для более точного создания вашего проекта. Офф сайт программы www.mappingmatter.com
  14. 3 июня 2017 года, в Нижнем Новгороде пройдет первый фестиваль аудио-визуального искусства, который станет междисциплинарным пространством, где технологии, музыка и дизайн сольются в одно целое, приняв самые необычные формы. Задача фестиваля – создать центр притяжения для интересующихся медиа-искусством, а также площадку для общения нового комьюнити. Фестиваль будет разделен на три интервала: дневной, образовательный и ночной. -Interval Day (11:00- 21:00) На дневной площадке фестиваля будут представлены аудио-визуальные инсталляции, уже выставлявшиеся в Москве и Европе, а так же премьеры от российских и чешских медиа-художников. Вечером программа будет дополнена живыми аудио-визуальными выступлениями – перфомансами. Здесь же, в течении дня, пройдет кинопоказ кейсов всех участников фестиваля. -Interval Education (12:00-17:00) В пространстве так же развернется параллельная образовательная программа, где приглашенные профессионалы индустрии расскажут о своем опыте и о известных медиа и музыкальных проектах. Так же участники смогут посетить воркшопы, дающие реальные практические знания. Билеты на воркшопы строго ограниченны. На данный момент информацию об их количестве, стоимости и программе обучения можно уточнить, написав нам на адрес: hello@intervalsfest.com -Interval Night (23:00-6:00) Отдельным сюрпризом для всех гостей станет ночная программа- вечеринка в секретном месте, которое будет объявлено позднее. Ночная часть станет логичным продолжением первой аудио-визуальной вечеринки «ИНТЕРВАЛЫ», проведенной в Нижнем Новгороде в 2015-ом году. На этот раз фестиваль INTERVALS соберет уже как известных, так и абсолютно новых музыкантов и визуальных художников для того, чтобы показать уникальное аудио-визуальное шоу. Информация о билетах на мероприятие вскоре появится в новостях. Intervals Fest в соц. сетях: VK: www.vk.com/intervals_nn INSTAGRAM: instagram.com/intervalsfest FB: www.facebook.com/INTERVALSFEST Генеральный технический партнер фестиваля DreamLaser. Сотрудничество: hello@intervalsfest.com/ The main technical partner of the festival DreamLaser. Сooperation: hello@intervalsfest.com
  15. https://drive.google.com/folderview?id=0B8gX8Oq9XJDJSkkxOW9PekNLOGM&usp=sharing https://drive.google.com/folderview?id=0B8gX8Oq9XJDJfjdLNlg1Wl9iODlyOUoyMnlWYmViRGswcTBzakJPbWdZMmFBb2lKcE94WWM&usp=sharing https://drive.google.com/folderview?id=0B8gX8Oq9XJDJfjNpTUVJTEwxWlo2WjFPSGZTdEhyWUpPdnpGTURyYTRja0YtS1hFdHNPMzQ&usp=sharing
  16. TouchDesigner компании Derivative — популярная платформа и программа, используемая во всем мире для создания интерактивных решений и анимации реального времени в ходе выступлений, а также для отображения трехмерной анимации, создания карт и схем, а также с недавнего времени в системах виртуальной реальности. Благодаря поддержке камеры Intel RealSense TouchDesigner становится еще более многоцелевым и мощным средством. Следует отметить и возможность импортировать в TouchDesigner объекты и анимацию из других трехмерных пакетов с помощью файлов .fbx, а также возможность работать с уже рендеринговыми анимационными роликами и изображениями. В этой статье, состоящей из двух частей, я расскажу об интеграции камеры Intel RealSense в TouchDesigner и о возможностях ее использования. В демонстрациях в первой части используется камера Intel RealSense с узлами TOP. В демонстрациях во второй части используются узлы CHOP. Во второй части также поясняется создание последовательностей виртуальной реальности и полукруглых панорам с использованием камеры Intel RealSense. Обе части включают анимации и загружаемые файлы TouchDesigner* (.toe), которые можно использовать для просмотра. Для получения файлов TouchDesigner* (.toe) нажмите здесь. Кроме того, доступна бесплатная копия TouchDesigner* для некоммерческого использования. Она полностью функциональна (за исключением того, что максимальное разрешение ограничено значением 1280 на 1280). Примечание. В настоящее время существует два типа камер Intel RealSense: камера ближнего обзора F200 и камера дальнего обзора R200. Благодаря своему сверхкомпактному размеру камера R200 очень удобна для выступлений и других сценариев использования, когда камера должна быть скрытой. В отличие от более крупной модели F200 камера R200 не поддерживает отслеживание рук и пальцев, а также отслеживание маркеров. TouchDesigner* поддерживает обе модели камер Intel RealSense: и F200, и R200. Цитирую веб-страницу TouchDesigner: «TouchDesigner* — это революционная программная платформа, дающая возможность художникам и дизайнерам работать с материалами в открытой свободной среде. TouchDesigner* — идеальное решение для интерактивных мультимедиапроектов, использующих видео, звук, трехмерную графику, ввод с помощью контроллеров, Интернет и базы данных, источники света DMX, датчики окружающей среды и вообще все, что только можно вообразить. Это мощная среда для смешения всех названных элементов бесконечным числом способов». «Благодаря процедурной архитектуре TouchDesigner* на основе узлов данные камеры Intel RealSense можно немедленно получать, визуализировать, затем передавать на другие узлы, не тратя времени на написание кода. Можно быстро создавать прототипы идей и вести разработку с мгновенной обратной связью. Камера представлена узлом в TouchDesigner*, а это означает, что нет необходимости закрывать и перекомпилировать приложение на каждой итерации разработки. Камера Intel RealSense дополняет возможности TouchDesigner*, предоставляя пользователям значительное количество готовых модулей, таких как жесты, отслеживание рук, отслеживание лица, данные глубины. Все это можно использовать для взаимодействия. Нет необходимости применять низкоуровневый анализ данных о положении рук для распознавания жестов: это уже сделано». Использование камеры Intel RealSense в TouchDesigner TouchDesigner* — программа и платформа на основе узлов, использующая Python* в качестве основного языка сценариев. Существует пять категорий узлов, выполняющих разные операции и обладающих разными функциями: узлы TOP (текстуры), SOP (геометрия), CHOP (анимация и звук), DAT (таблицы и текст), COMP (трехмерные геометрические узлы, а также узлы для создания двухмерных панелей управления) и MAT (материалы). Программисты компании TouchDesigner*, посоветовавшись с разработчиками Intel, создали два особых узла, узел камеры Intel RealSense TOP и узел камеры Intel RealSense CHOP для интеграции камеры Intel RealSense в программу. Примечание. Эта статья предназначена для пользователей, уже знакомых с программой TouchDesigner* и с ее интерфейсом. Если у вас нет опыта работы с TouchDesigner* и вы собираетесь постепенно разбираться в этой статье, то рекомендую сначала просмотреть документацию, доступную здесь. Примечание. При использовании камеры Intel RealSense для достижения оптимальных результатов следует учитывать дальность. На этой веб-странице Intel указана дальность всех моделей камер и даны рекомендации по использованию камер. Узел камеры Intel RealSense TOP Узлы TOP в TouchDesigner* выполняют множество операций, обычно содержащихся в программах для композиции изображений. Узел камеры Intel RealSense TOP дополняет эти возможности за счет двухмерных и трехмерных данных, поступающих от камеры Intel RealSense. Узел камеры Intel RealSense TOP содержит ряд настроек для получения разных видов данных. Цвет. Видео с датчика цвета камеры Intel RealSense. Глубина. Вычисленная глубина каждого пикселя. 0 означает, что пиксель находится на расстоянии 0 метров от камеры, 1 означает, что пиксель находится на максимально возможном расстоянии или дальше. Необработанная глубина. Значения берутся непосредственно из Intel RealSense SDK. И вновь 0 означает 1 метр от камеры, 1 означает, что пиксель находится на максимально возможном расстоянии или дальше. Наглядная глубина. Изображение Intel RealSense SDK в оттенках серого, позволяющее наглядно представить глубину. Его невозможно использовать для фактического вычисления точного расстояния каждого пикселя до камеры. Отображение глубины на цветной UV-карте. Значения UV из 32-разрядной плавающей текстуры RG (обратите внимание, что в ней только два цвета (красный и зеленый), а синего цвета нет), необходимые для выравнивания изображения глубины в соответствии с цветным изображением. Для выравнивания изображений можно использовать узел TOP Remap. Отображение цвета на UV-карте глубины. Значения UV из 32-разрядной плавающей текстуры RG (обратите внимание, что в ней только два цвета (красный и зеленый), а синего цвета нет), необходимые для выравнивания изображения цвета в соответствии с изображением глубины. Для выравнивания изображений можно использовать узел TOP Remap. Инфракрасное изображение. Необработанное видео инфракрасного датчика камеры Intel RealSense. Облако точек. Это в буквальном смысле облако точек в трехмерном пространстве (с координатами X, Y, Z) или точек данных, созданных сканером камеры Intel RealSense. UV-карта цветов облака точек. Можно использовать для получения цвета каждой точки из потока цветного изображения. Примечание. Можно загрузить этот файл RealSensePointCloudForArticle.toe для использования в качестве простого начального шаблона для создания трехмерной анимированной геометрии из данных камеры Intel RealSense. Этот файл можно изменять разными способами. Вместе три узла TOP камеры Intel RealSense — Point Cloud, Color и Point Cloud Color UV — позволяют создать трехмерную геометрию из точек (частиц) с наложением цветного изображения. Это открывает множество интересных возможностей. Геометрия облака точек. Это анимированная геометрия, создаваемая с помощью камеры Intel RealSense. Ее очень хорошо использовать при выступлениях на публике. Можно добавить и звук говорящего анимационного персонажа. TouchDesigner* также может использовать звуковые данные для создания анимации в реальном времени. Узел CHOP камеры Intel RealSense Примечание. Существует еще один узел CHOP камеры Intel RealSense, отвечающий за данные трехмерного отслеживания и положения. Мы обсудим его во второй части этой статьи. Демонстрация 1. Использование узла камеры Intel RealSense TOP Для получения первой демонстрации TOP нажмите кнопку в верхней части статьи: settingUpRealNode2b_FINAL.toe. Демонстрация 1, часть 1. Вы узнаете, как настраивать узел камеры Intel RealSense TOP и соединять его с другими узлами TOP. 1. Откройте диалоговое окно Add Operator/OP Create. 2. В разделе TOP щелкните RealSense. 3. На странице параметров Setup узла камеры Intel RealSense TOP для параметра Image выберите значение Color в раскрывающемся меню. В узле камеры Intel RealSense TOP отображается изображение того, на что направлена камера, как при использовании обычной видеокамеры. 4. Задайте для камеры Intel RealSense разрешение 1920 на 1080. Настроить узел Intel RealSense TOP очень просто. 5. Создайте узел Level TOP и соедините его с узлом камеры Intel RealSense TOP. 6. На странице параметров Pre узла Level TOP выберите Invert и передвиньте ползунок на значение 1. 7. Соедините узел Level TOP с узлом HSV To RGB TOP, затем соедините последний с узлом Null TOP. Узел камеры Intel RealSense TOP можно соединять с другими узлами TOP для получения нужного изображения и создания нужных эффектов. Затем мы передадим созданное изображение в узел Phong MAT (материал), чтобы можно было налагать его на различные геометрические фигуры в качестве текстуры. Использование данных с камеры Intel RealSense для создания текстур для геометрии Демонстрация 1, часть 2. В этом упражнении показано, как использовать узел камеры Intel RealSense TOP для создания текстур и как добавлять их в узел MAT, чтобы можно было назначать их геометрии в проекте. 1. Добавьте узел Geometry (геометрия) COMP в сцену. 2. Добавьте узел Phong MAT. 3. Возьмите узел Null TOP и перетащите его на параметр Color Map узла Phong MAT. Узел Phong MAT использует данные с камеры Intel RealSense для своего параметра Color Map. 4. На странице параметров Render узла Geo COMP добавьте тип phong1 к параметру Material, чтобы использовать узел phong1 в качестве материала. Узел Phong MAT использует данные с камеры Intel RealSense для своего параметра Color Map, добавленного в параметр Render/Material узла Geo COMP. Создание узла Box SOP и текстурирование с помощью только что созданного шейдера Phong Демонстрация 1, часть 3. Вы узнаете, как назначить шейдер Phong MAT, только что созданный с помощью данных с камеры Intel RealSense, узлу Geometry SOP куба. 1. Перейдите в узле geo1 на его дочерний уровень (/project1/geo1). 2. Создайте узел Box SOP, узел Texture SOP и узел Material SOP. 3. Удалите узел Torus SOP, который там был, затем соедините узел box1 с узлами texture1 и material1. 4. В параметре Material узла material1 введите ../phong1. Это узел phong1 MAT, созданный на родительском уровне. 5. Чтобы поместить текстуру на каждую сторону куба, в параметрах Texture/Texture Type узла texture1 поместите face и задайте для параметра the Texture/Offset put значение .5 .5 .5. На дочернем уровне узла geo1 COMP узлы Box SOP, Texture SOP и the Material SOP будут соединены. Узел Material SOP теперь получает текстуру из узла phong1 MAT, находящегося на родительском уровне ( …/phong1). Анимация и создание экземпляров геометрии узла Box Демонстрация 1, часть 4. Вы узнаете, как поворачивать узел Geometry SOP с помощью узла Transform SOP и простого выражения. Затем вы узнаете, как создавать экземпляры геометрии узла Box. В результате мы получим экран с множеством вращающихся кубов, на каждом из которых будут текстуры из узла камеры Intel RealSense TOP. 1. Для анимации вращения куба вокруг оси X вставьте узел Transform SOP после узла Texture SOP. 2. Поместите выражение в компонент X (первое поле) параметра Rotate в узле transform1 SOP. Это выражение не зависит от кадров, оно будет продолжать работать и не начнет повторяться по окончании кадров на временной шкале. Я умножил значение на 10, чтобы увеличить скорость: absTime.seconds*10 Здесь видно, что куб вращается. 3. Для создания кубов перейдите на родительский уровень (/project1) и на странице параметров Instance узла geo1 COMP установите для параметра Instancing значение On. 4. Добавьте узел Grid SOP и узел SOP–DAT. 5. Задайте параметры сетки: 10 строк и 10 столбцов, размер — 20 и 20. 6. В параметрах узла SOP–DAT для SOP задайте grid1 и убедитесь, что для параметра Extract задано значение Points. 7. На странице параметров Instance узла geo1 COMP введите для параметра Instance CHOP/DAT: sopto1. 8. Заполните параметры TX, TY и TZ, используя соответственно P(0), P(1) и P(2), чтобы указать, какие столбцы из узла sopto1 использовать для положений экземпляров. 9. Если нужно, чтобы изображение с камеры Intel RealSense передавалось без фильтрации, отключите узлы Level TOP и HSV to RGB TOP либо обойдите эти узлы. Рендеринг и анимация в реальном времени Демонстрация 1, часть 5. Вы узнаете, как настраивать сцену для рендеринга и выводить изображение в режиме прямого показа или в виде видеофайла. 1. Для рендеринга проекта добавьте узлы Camera COMP, Light COMP и Render TOP. По умолчанию камера выполняет рендеринг всех компонентов геометрии на сцене. 2. Отведите камеру назад примерно на 20 единиц по оси Z. Для освещения оставьте значения по умолчанию. 3. Задайте разрешение рендеринга 1920 на 1080. По умолчанию фон рендеринга является прозрачным (значение альфа равно 0). 4. Чтобы сделать фон непрозрачным черным, добавьте узел Constant TOP и измените значение параметра Color на 0,0,0, чтобы задать черный цвет, указав для параметра Alpha значение 1. Можно выбрать любой другой цвет. 5. Добавьте узел Over TOP и соедините узел Render TOP с первым подключением, а узел Constant TOP — со вторым. При этом пиксели фона получат значение (0, 0, 0, 1), то есть перестанут быть прозрачными. Еще один способ изменить значение прозрачности TOP на 1 — использовать узел Reorder TOP и задать для его параметра Output Alpha значения Input 1 и One. Отображение сцены с непрозрачным черным фоном. Здесь виден полный экран с текстурированными вращающимися кубами. Если вы предпочитаете выводить анимацию в файл вместо воспроизведения ее в реальном времени при демонстрации, нужно выбрать диалоговое окно Export movie в разделе file на верхней панели программы TouchDesigner. В параметре узла TOP Video введите null2 для этого конкретного примера. В противном случае введите любой узел TOP, которому требуется рендеринг. Вот панель Export Movie с узлом null2. Если бы был еще и звуковой узел CHOP, то я бы разместил CHOP Audio сразу под null2. Демонстрация 1, часть 6. Одна из полезных особенностей платформы TouchDesigner* — возможность создания анимации в реальном времени. Эта возможность особенно удобна при использовании камеры Intel RealSense. 1. Добавьте узел Window COMP, а в параметре оператора введите узел null2 TOP. 2. Установите разрешение 1920 на 1080. 3. Выберите нужный монитор в параметре Location. Узел Window COMP позволяет выводить всю анимацию в реальном времени на выбранный монитор. С помощью узла Window COMP можно указать монитор или проектор, на который следует выводить изображение. Можно создать сколько угодно узлов Window COMP для вывода изображения на другие мониторы. Демонстрация 2. Использование данных глубины узла камеры Intel RealSense TOP Узел камеры Intel RealSense TOP содержит ряд других настроек для создания текстур и анимации. В демонстрации 2 мы используем данные глубины для применения размытия к изображению на основе полученных от камеры данных глубины. В архиве мы будем использовать файл RealSenseDepthBlur.toe. Сначала создайте узел камеры Intel RealSense TOP и задайте для параметра Image значение Depth. Изображение глубины содержит пиксели со значением 0 (черные), если они близко к камере, и со значением 1 (белые), если они далеко от камеры. Диапазон значений пикселей определяется параметром Max Depth, его значение указывается в метрах. По умолчанию этот параметр имеет значение 5. Это означает, что пиксели, находящиеся на расстоянии 5 метров от камеры (или дальше), будут белыми. Пиксели со значением 0,5 находятся на расстоянии 2,5 м от камеры. В зависимости от фактического расстояния между камерой и вами имеет смысл изменить это значение на меньшее. В этом примере мы изменили значение данного параметра на 1,5 м. Затем нужно обработать глубину, чтобы удалить объекты, находящиеся за пределами интересующей нас дальности. Для этого мы используем узел Threshold TOP. 1. Создайте узел Threshold TOP и соедините его с узлом realsense1. Нужно убрать все пиксели, находящиеся дальше определенного расстояния от камеры, поэтому задайте для параметра Comparator значение Greater, а для параметра Threshold — значение 0.8. При этом пиксели со значением больше 0,8 (что соответствует расстоянию 1,2 м или более, если для параметра Max Depth в узле камеры Intel RealSense TOP задано значение 1,5) станут равными 0, а все остальные пиксели — равными 1. 2. Создайте узел Multiply TOP, соедините узел realsense1 с первым входом, а узел thresh1 — со вторым входом. При умножении пикселей на 1 они останутся в неизменном виде, а при умножении других пикселей на 0 они будут обнулены. Теперь узел multiply1 содержит только пиксели больше 0 для той части изображения, на которой нужно сделать размытие, чем мы сейчас и займемся. 3. Создайте узел Movie File в TOP и выберите новое изображение для параметра File. В этом примере мы выбираем Metter2.jpg из папки TouchDesigner* Samples/Map. 4. Создайте узел Luma Blur TOP и соедините moviefilein1 с первым входом lumablur1, а multiply1 — со вторым входом lumablur1. 5. В параметрах lumablur1 задайте для параметра White Value значение 0.4, для параметра Black Filter Width значение 20, а для параметра White Filter Width — значение 1. Благодаря этому у пикселей со значением первого входа 0 будет ширина фильтра размытия 20, а у пикселей со значением 0.4 или больше — ширина размытия 1. Все в целом. В результате получаем изображение, где пиксели, на которых находится пользователь, не размыты, а все остальные пиксели размыты. Фон, выводимый отображением Luma Blur TOP, показывает, насколько размыто изображение. Демонстрация 3. Использование данных глубины узла камеры Intel RealSense TOP с узлом Remap TOP В архиве мы будем использовать файл RealSenseRemap.toe. Примечание. Камеры глубины и цвета узла камер Intel RealSense TOP физически находятся в разных местах, поэтому выдаваемые ими изображения по умолчанию не совпадают друг с другом. Например, если ваша рука находится ровно посередине цветного изображения, то она будет не в середине изображения глубины, а несколько смещена влево или вправо. Сдвиг UV-карты устраняет эту проблему за счет выравнивания и точного наложения пикселей. Обратите внимание на разницу между выровненным и невыровненным узлами TOP. Remap TOP совмещает данные глубины, полученные от узла камеры Intel RealSense TOP, с данными цвета, полученными от этого же узла, используя UV-данные совмещения глубины с цветом на одном и том же пространстве. Демонстрация 4. Использование облака точек в узле камеры Intel RealSense TOP В архиве мы будем использовать файл PointCloudLimitEx.toe. В этом упражнении вы научитесь создавать анимированную геометрию с помощью облака точек, узла камеры Intel RealSense TOP и узла Limit SOP. Обратите внимание, что этот подход отличается от примера файла Point Cloud, приведенного в начале этой статьи. В предыдущем примере используются шейдеры GLSL, что дает возможность создать гораздо больше точек, но эта задача усложняется и выходит за рамки статьи. 1. Создайте узел RealSense TOP и задайте для параметра Image значение Point Cloud. 2. Создайте узел TOP–CHOP и подключите его к узлу Select CHOP. 3. Подключите узел Select CHOP к узлу Math CHOP. 4. В параметре TOP узла CHOP topto1 введите: realsense1. 5. В параметрах Channel Names узла Select CHOP введите r g b, разделив буквы пробелами. 6. В узле CHOP math1 в поле значения параметра Multiply введите: 4.2. 7. На странице параметров Range в поле значений параметра To Range введите: 1 и 7. 8. Создайте узел Limit SOP. Цитирую вики-страницу на сайте www.derivative.ca: «Limit SOP создает геометрию из данных, передаваемых узлами CHOP. Он создает геометрию в каждой точке выборки. С помощью параметра Output Type на странице Channels можно создавать геометрию разного типа». 1. На странице с параметром limit1 CHOP Channels введите r для параметра X Channel, «g» — для параметра Y Channel и «b» — для параметра Z Channel. Примечание. Перемещение значений r, g и b в другие каналы X, Y и Z изменяет образуемую геометрию. Поэтому позднее можете попробовать следующее: На странице параметров Output для параметра Output Type выберите Sphere at Each Point в раскрывающемся списке. Создайте узел SOP–DAT. На странице параметров для SOP введите limit1 или перетащите узел limit1 CHOP в этот параметр. Оставьте значение по умолчанию для Points в параметре Extract. Создайте узлы Render TOP, Camera COMP и Light COMP. Создайте узел Reorder TOP, задайте для Output Alpha значения Input 1 и One, соедините его с узлом Render TOP. При изменении изображения с камеры Intel RealSense изменяется и геометрия. Это итоговый проект. Итоговые изображения в узле Over TOP CHOP. Изменяя порядок каналов в параметрах Limit TOP, вы изменяете геометрию на основе облака точек. Во второй части этой статьи мы обсудим узел камеры Intel RealSense CHOP и создание содержимого для записи и демонстрации в реальном времени, демонстрации полусферических панорам и систем виртуальной реальности. Кроме того, мы обсудим использование узла Oculus Rift CHOP. Мы поговорим про отслеживание рук, отслеживание лица и маркеров. Источник: habrahabr.ru
  17. kps правильно говорит. По поводу синхронизации и авто включение имеется вот такой вот функционал
  18. WTFlow presents SLADS - Free HD Visuals Pack for VJ Скачать - http://wtflow.com/slads/ 5 Vj Loops plus bonus. Codecs H264 DVX3 Скачать - http://dropbox.com/s/iqkiiozc00nftxo/MUD - Halloween Free VJ Pack 2016.rar?dl=0
  19. Weekly Animation #4 - Geometric Tunnel Loop скачать - https://www.toneden.io/digital-frame-productions/post/free-tunnel-loop
  20. All files in DXV (2.2) 1920x1080. https://www.dropbox.com/sh/b7v16gol202obla/AAD6wPExYbrQdDSoBvHZzErfa?dl=0