MALBRED

Мимолетный
  • Публикации

    6,354
  • Зарегистрирован

  • Посещение

  • Дней в лидерах

    76

Все публикации пользователя MALBRED

  1. NDI® от NewTek предоставляет возможность передавать и принимать видео высокого качества в реальном времени с минимальной задержкой через сети Gigabit Ethernet. С помощью NDI можно передавать видео и аудио на большие расстояния по обычным локальным сетям с использованием дешевых сетевых кабелей CAT5/6 без потери качества. NDI предлагает широкий выбор источников видеосигнала. Вы можете получить доступ к нескольким камерам, программам на компьютерах, мобильным устройствам и другим устройствам в сети, используя всего лишь один порт LAN. Это устраняет необходимость в использовании дорогостоящих многопортовых HDMI-коммутаторов или SDI-маршрутизаторов. Количество NDI-источников, которые можно добавить в сеть, практически неограничено. Чтобы получить доступ к NDI-устройствам в других подсетях, можно вручную ввести IP-адреса устройств с помощью программы NewTek NDI Access Manager. С использованием NDI становится намного проще переместить процесс видеопроизводства в другое место, так как нет необходимости в подключении всех HDMI и SDI кабелей - все источники видео становятся доступными из любой точки сети. Кроме того, сетевые кабели CAT5/6 гораздо более доступны по цене, чем традиционные кабели SDI и HDMI. Использование полосы пропускания Одновременная передача нескольких NDI источников ограничена пропускной способностью сети, и NDI видео максимально использует эту пропускную способность. Для повышения эффективности можно использовать протокол NDI|HX (High Efficiency), который применяет сжатие видео H.264. Однако NDI|HX вносит небольшую задержку, составляющую один-два кадра по сравнению с NDI. Аудио передается без сжатия как в NDI, так и в NDI|HX. Рекомендуемые полосы пропускания для NDI и NDI|HX следующие: Для одного потока NDI разрешением 1920×1080 при 30 кадрах в секунду требуется не менее 125 Мбит/с выделенной полосы пропускания. Для одного потока NDI|HX разрешением 1920×1080 при 30 кадрах в секунду требуется от 8 до 20 Мбит/с выделенной полосы пропускания. Фактический объем необходимой полосы пропускания зависит от характера видеоконтента. Для статичного контента, такого как документ-камера или стоящий человек, требуется меньшая полоса пропускания. Более динамичный контент требует большей пропускной способности. Доступные инструменты Все больше программ, таких как Skype, NewBlueFX, EasyWorship и другие, предлагают встроенную поддержку NDI. Чтобы упростить процесс внедрения, компания NewTek предоставляет бесплатные плагины NDI для популярных приложений, включая VLC и Adobe Creative Cloud. Для остальных приложений предлагаются простые в установке бесплатные инструменты NDI. Например, NDI Scan Converter позволяет превратить компьютер в несколько NDI-входов, доступных для любого другого NDI-устройства в сети. Вы можете выбирать источники живого видео, такие как веб-камера компьютера, полноэкранный дисплей, различные окна или их комбинации. Даже отдельные программы, запущенные на компьютере, могут быть преобразованы в NDI-входы. Еще один полезный бесплатный инструмент - NDI Virtual Input. С его помощью NDI-источник выглядит как обычная веб-камера Microsoft Windows, которую можно использовать в качестве видеовхода для программ, таких как Google Hangouts, Zoom и других. Это позволяет избежать затрат на приобретение дорогостоящих карт видеозахвата для каждого источника видеосигнала, который требуется подключить к компьютеру. Все ваши видеовходы легко доступны через LAN. Также имеются другие инструменты, такие как бесплатное приложение NewTek Connect и приложение NewTek NDI Camera, доступное за символическую плату. NewTek Connect делает любую камеру или устройство, подключенное к компьютеру через видеозахват, доступным для других NDI-систем в локальной сети. А NewTek NDI Camera превращает выходной сигнал устройств на базе iOS или Android в NDI-входы. Если вам необходимо передавать свой контент через глобальную сеть, можно воспользоваться SIENNA Cloud for NDI. Все эти бесплатные инструменты и гибкие опции способствуют успешному внедрению NDI в сетевое видеопроизводство. Представление и применение технологии NDI С момента своего представления широкой публике в начале 2016 года, технология NDI стала популярной и широко используется. Внедрение NDI в вашу AV-систему становится все проще благодаря появлению совместимого аппаратного и программного обеспечения. Множество камер, таких как PTZOptics или Panasonic, а также полнофункциональных систем видеопроизводства, включая Epiphan Pearl-2, поддерживают NDI. Если у вас уже есть старые камеры и аудио-видео оборудование, вы все равно можете воспользоваться преимуществами NDI без необходимости покупки нового оборудования. Конвертеры NDI позволяют подключать источники видеосигнала HDMI или SDI, которые не поддерживают NDI, к сети, а также преобразовывать сигналы NDI в HDMI для подключения к обычным мониторам или видеопроекторам. Конвертеры NDI различаются по цене и возможностям, например, BirdDog Mini предлагает поддержку кодирования NDI 1080p60, декодирования NDI 1080p60, синхронизации и питания через Ethernet. Применение технологии NDI Вот несколько реальных сценариев использования NDI, с которых вы можете начать: Удаленные гости через Skype с использованием NDI Включение интервью по Skype в процесс производства живого видео становится проще благодаря NDI. Подключение удаленных гостей через прямые входы NDI не требует использования HDMI-порта на вашей системе видеопроизводства для подключения компьютера, на котором работает Skype. Вы можете подключить несколько удаленных гостей через NDI и даже позволить им делиться рабочими столами своих компьютеров с помощью бесплатных плагинов NDI. Для упрощения организации интервью по Skype можно также использовать универсальные системы видеопроизводства, например, Epiphan Pearl-2, которые позволяют коммутировать, записывать и транслировать видео, включая NDI. Вы сможете создавать макеты с различными NDI-входами, добавлять текст, фоны и прозрачные изображения с помощью встроенного редактора макетов. Графические наложения с альфа-каналом Используя NDI, вам не нужно использовать HDMI-порты на производственном оборудовании для подключения компьютеров с визуальными эффектами. Все видеоисточники, включая компьютерные эффекты, могут быть подключены через LAN-порт. Это также позволяет разгрузить производственное оборудование и повысить производительность, снизив затраты на синхронизацию цветности. Упрощение работы с несколькими помещениями Проведение мероприятий одновременно в нескольких помещениях становится более доступным с использованием NDI. Трансляция видеосигнала на несколько помещений может быть решена с помощью существующей локальной сети, объединяющей эти помещения. Для преобразования NDI-видео в сигнал HDMI, который может быть подан на обычный монитор или проектор, вам понадобится доступный по цене NDI-конвертер. Живые мероприятия Если во время мероприятия используются программы для презентаций, такие как слайды PowerPoint, вы можете легко передавать эти материалы через локальную сеть с помощью бесплатной программы NDI Scan Converter. Презентационный компьютер становится еще одним NDI-входом вашей системы видеопроизводства. Универсальные системы видеопроизводства, например, Pearl-2, позволяют записывать, коммутировать и транслировать живые AV-презентации, принимая все NDI-входы из любой точки сети. Таким образом, можно избежать использования дорогостоящих дополнительных кабелей и подключать источники видеосигнала к системе видеопроизводства через локальную сеть с использованием NDI-конвертеров и сетевых кабелей CAT5/6. Совещания и конференции Вы можете значительно улучшить качество корпоративных собраний, конференций и тренингов, не заменяя существующее программное обеспечение для конференц-связи, такое как Google Hangouts, Zoom, GoToMeeting или WebEx. NDI позволяет подключить несколько камер 1080p и использовать существующую инфраструктуру локальной сети для их интеграции в систему видеопроизводства. Вы получаете высококачественное видео и звук без лишних хлопот и затрат. Выводы Технология NDI открывает новые возможности для упрощения и повышения гибкости процесса производства живого видео. Вы можете экономить на кабелях и инфраструктуре, используя существующую Ethernet-сеть, и получить легкий доступ к большому количеству источников высококачественного видео. NDI, имеет смысл приобрести универсальную систему видеопроизводства, такую как Pearl-2. Pearl-2 принимает многоадресные и одноадресные источники NDI, а также высокоэффективные NDI|HX. С помощью Pearl-2 вы можете получать видео и аудио из множества различных NDI источников, таких как: Удалённые PTZ-камеры с поддержкой NDI Любой источник HDMI/SDI без поддержкиNDI с помощью конвертера или бесплатного программного обеспечения NDI Vitrual Input Веб-камеры, подключённые к удалённым компьютерам с помощью бесплатного приложения NewTek Connect Вывод изображения с мобильных устройств iOS и Android с помощью приложения NewTek NDI Camera Прямой ввод с NDI совместимых программ – Skype, EasyWorship и т.д. NDI выход с Pearl-2 распознается как веб-камера и совместим с другими NDI приложениями и устройствами, поддерживающими веб-камеры в качестве входа, такими как Skype и многие другие. Еще про NDI Как виджеить с помощью Syphon или NDI
  2. Если вы чувствуете себя ребенком в магазине сладостей, то вот еще больше радости для глаз, которые вы можете сделать бесплатно. Немного настраиваемой генеративной графики, немного рендеринга в реальном времени и в интерактивном режиме, немного анимации и редактирования ключевых кадров. Это действительно прикольно. Это передовой продукт, который сейчас находится в разработке и предназначен для Win 10. Но у самого Tooll есть своя история - это видно по тому, как зрело выглядит видео. Софт удобен для виджеев, поскольку вы можете довольно быстро создавать аудио-реакцию, но при этом масштабироваться до более технического дизайна и вычислительных шейдеров. В целом, именно этот вид связи выглядит интересным в наши дни - выразительные и перформативные инструменты, которые также могут быть использованы для глубокой настройки и создания произведений искусства, основанных на данных и математике. OSC тоже там. В нем есть материалы для пользовательского интерфейса - часть, которая часто отсутствует в некоторых из этих инструментов (или находится в примитивной форме). Они говорят, что он достаточно стабилен для создания графики движения и визуальных эффектов, так что - я думаю, вы можете пока не запускать его на сцене, но в данный момент все думают о следующем фестивальном сезоне / следующем годе, в любом случае. И у них есть дружественный Discord, который можно посетить. GitHub - лицензия MIT: https://github.com/still-scene/t3 Сообщество: https://discord.gg/YmSyQdeH3S Офф сайт https://www.3dart.it/en/tooll3-free-procedural-motion-design-tool/
  3. вроде у этого софта все не так просто с ломалками. Трудно предположить
  4. Что значит развернуть? это маппинг. Камера стоит в определеном месте для достижения такого эффекта
  5. Система трекинга для видео проекций в реальном времени расширяет творческие возможности. Готовый к использованию SDK позволяет оживить изображения благодаря отслеживанию движения с частотой 240Гц. Объединяя аналоговый механизм и цифровой контент, ET-SWR10 расширяет творческие возможности для захватывающих сенсорных экспериментов, интерактивных выставок и многого другого. В сочетании с совместимым проектором этот готовый к использованию SDK (Software Development Kit) позволяет проецировать анимированный контент на быстро движущиеся объекты со скоростью до 240 кадров в секунду с задержкой ввода-вывода менее 5мс. Положение изображения постоянно обновляется в соответствии с объектом, отслеживая его движение плавно, без видимых задержек. Система стала не только гигантским скачком вперед в производительности отображения, но и проще в установке, интеграции и эксплуатации. REAL-TIME TRACKING AND MAPPING Высокая частота обновления и низкая задержка уменьшают размытость изображения. Объедините движущиеся объекты с проецируемым содержимым. В сочетании с совместимым проектором эта эксклюзивная технология преобразует местоположение маркера объекта в координаты проектора XY. Положение изображения синхронизируется с положением маркера с задержкой менее 5мс. От плавных движений танцора до быстро движущихся объектов - все это вродебы убедительно. Простой и готовый к использованию SDK Система не требует кропотливой калибровки, связанной с системами с активными датчиками - для начала просто установите SDK на свой cервер и подключите совместимый ИК-излучатель и камеру. Откалибруйте местоположение маркера с помощью координат проектора XY один раз, и проецируемое содержимое останется синхронизированным практически с любым быстро движущимся объектом. ПОТЕНЦИАЛЬНОЕ ПРИМЕНЕНИЕ Живое выступление Исполнители могут свободно двигаться, и контент реагирует на них, вместо того чтобы репетировать и запоминать движения в соответствии с заранее подготовленным контентом. Взаимодействие с общественностью Люди, прохожие могут участвовать в инсталляции, взаимодействуя с контентом без какой-либо подготовки или знания того, как работает система. ТЕХНИЧЕСКАЯ ЧАСТЬ. КАК ЭТО РАБОТАЕТ Выберите объект для отслеживания. Это может быть предмет, покрытый материалом, отражающим инфракрасный свет, или специальное устройство, излучающее инфракрасный свет. Затем приведите объект в движение. Инфракрасный свет от ИК-излучателя (или от объекта, излучающего ИК-излучение) либо отражается обратно, либо направляется непосредственно на камеру. ПО, установленное на вашем сервере получает данные с подключенной камеры и использует их для определения положения объекта. ПО преобразует эту информацию в координаты XY и отправляет ее на проектор. Положение объекта обновляется 240 раз в секунду, что позволяет проецируемому цифровому контенту появляться на объекте и следовать за ним с хорошей точностью и без фризов, обеспечивая четкое и плавное воспроизведение. Простая настройка и эксплуатация Система трекинга для видео проекций в реальном времени, включающая ET-SWR10, будет иметь совместимый лазерный проектор Panasonic, такой как PT-RQ35K или PT-FRQ60, ИК-излучатель, ИК-камеру и сервер с установленным SDK. Этот компьютер совместим со всеми устройствами и может быть сконфигурирован в качестве терминала мониторинга для виджея. РАБОТАЕТ С ОБЪЕКТИВАМИ ULTRA-SHORT-THROW Гибкая система отслеживания и отображения проекций в реальном времени может использоваться в сочетании с ультракороткофокусными объективами Panasonic и короткофокусными объективами для совместимых 3-чиповых лазерных проекторов 3-Chip DLP™, включая короткофокусный зум-объектив ET-D3LEW200, ультракороткофокусный объектив ET-D3LEU100 и ET- Сверхкороткофокусный объектив D75LE95 для установки на потолке или полу с коротким фокусным расстоянием. ИК-излучатель, ИК-камера и проектор могут быть установлены отдельно, при этом ИК-оборудование расположено в центре экрана, а проектор установлен на потолке или полу очень близко к экрану, что позволяет проекционным дизайнерам создавать интерактивные экспонаты с высокой степенью погружения в ограниченные монтажные пространства, где исполнители или зрители могут подойти близко к экрану, не отбрасывая тени.. ОСНОВНЫЕ ФУНКЦИИ Простая настройка и калибровка SDK легко интегрируется в стороннее программное обеспечение для создания контента и поставляется с образцом проекта для тестирования. Простая одноразовая калибровка положения проекции и маркера экономит время при первоначальной установке. После установки система работает надежно, избегая проблем, связанных с помехами и зависимостью от заряда батареи. Преобразует положение маркера в координаты проекции Программное обеспечение использует эксклюзивную технологию, разработанную Panasonic, для преобразования данных о местоположении объекта, собранных ИК-камерой, в координаты проекции XY для проектора с очень высокой скоростью. Быстро движущиеся объекты отслеживаются плавно, без видимых задержек. Включает Режим Проектора С Низкой Задержкой ET-SWR10 обеспечивает режим с низкой задержкой для совместимых проекторов. Этот режим позволяет проектору принимать и выводить сигнал 1080/240p всего по одному кабелю с минимальной задержкой ввода-вывода всего 5мс для чрезвычайно точного и убедительного визуального воспроизведения.
  6. MALBRED

    Интерлейс в Resolume

    Пробывали использовать другой кодек? https://resolume.com/software/codec
  7. Все там нормально с интерфейсом, поверьте
  8. месенжеры убили все
  9. https://www.virtualdj.com/download/index.html
  10. Про NDI можно почитать тут https://resolume.com/support/NDI_inputs_and_outputs И тут
  11. В качестве объектов использовались сфера и цилиндры, что вкупе с проекторами, расположенными под углом 90° обеспечило естественный световой градиент в области, где свет двух проекторов пересекается (т.е. в передней части «торта»). Однако такая «халява» будет не всегда и потребуется специально «гасить» яркость в соответствующих участках наших видеозаписи для маппинга, чтобы такие области не были пересвеченными. Профессиональные (они же – инсталляционные проекторы Epson) специально для этого имеют встроенную поддержку Edge blending и ПО Epson Projector Professional Tool, которое позволяет делать тонкую коррекцию результата и компенсировать, скажем, искажения зум-объектива. 455×1321 png 113,7 kB Хитрый план: катить колесо 1200×675 jpeg 122,9 kB Вот такая «идея бизнеса» от диванного аналитика. Со слов наших коллег, занимающихся проекционной техникой, подобный видеомаппинг планомерно набирает популярность. И на него есть спрос. Само собой, взгляд очень поверхностный и остаются вопросы поиска заказчиков. Благо в эпоху соцсетей, ютюба и инстаграма, которые с каждым днем становятся все популярнее, площадки для поиска клиентуры имеются, вопрос за бюджетом и набором опыта и портфолио (куда ж без этого).
  12. Рассмотрим другой пример: свадебный торт с AR-маппингом от Magic Innovations. Как выполнить проекцию на барельеф – понятно уже чисто интуитивно, что мы и разобрали выше. Куда интереснее, если объект объемный настолько, что плоскость освещаемой поверхности значительно изламывается и искажается, так что простой «подгонкой» уже не обойтись. Попробуем воспроизвести в 3D-редакторе модель торта и взглянуть, что происходит с проекцией шахматной доски на плоском и объемном объекте. Для этого создадим «виртуальный проектор» в виде прожектора с текстурой и взглянем на проекцию, которую «видит» источник света: Не считая того, что объемная модель в нижней части ближе к проектору и без изменения расстояния до модели проекция не охватывает ее целиком, кажется, что задача выполнить маппинг успешно завершена. Само собой, это не так: Стоит лишь взглянуть на результат со стороны и сразу становится понятно, что «нахрапом» проблему не решить. Для того, чтобы понять, как именно должна выглядеть проекция, излучаемая источником света, наложим на «торт» текстуру и заставим его «светиться» самому безо всяких проекторов: Беглого взгляда достаточно, чтобы понять, что искажения слишком сложны, чтобы пытаться исправить дело какой-либо «подгонкой» в плоском пространстве текстуры. Можно попытаться улучшить ситуацию, отодвинув проектор подальше от объекта. К примеру, на рисунках выше источник света располагается в 2-х метрах от торта. Попробуем отодвинуть его на 10 метров и сравним результат: Намного лучше! Вот только для того, чтобы выполнить такую проекцию нужен проектор раза в три-четыре ярче (ибо интенсивность света убывает в квадратической зависимости, плюс следует учитывать потери в весьма длиннофокусном телеобъективе). Также проектор должен допускать установку сменных объективов в принципе. Поэтому остановимся на нашем недорогом «универсальном» проекторе и расстоянии в 2 метра (в зависимости от модели, которую вы будете использовать, расстояние, скорее всего, придется рассчитать, чтобы проекция целиком покрыла объект). А далее поступим следующим образом: Перекрестная AR проекция Использование двух проекторов позволит «прокачать» оригинальный вариант MagicInnovations, обеспечив больше свободы для творческого простора создателя контента и зрителей (благодаря увеличению площади поверхности, на которую попадает свет). Выполним «замеры» помещения и объекта и сразу определимся, где будем устанавливать реальные проекторы. Воспользуемся результатами и расположим источники света примерно на уровне глаз среднего посетителя. Взглянем на результат: На данном этапе оба проектора все еще проецируют плоскую текстуру шахматной доски и разница лишь в том, что теперь проекция полностью покрывает видимую область объекта для каждого источника света. Но мы же не планируем показывать нашим зрителям это безобразие, верно? Благодаря тому, что мы заранее выполнили замеры и расположение источников света в сцене строго совпадает с тем, где мы будем устанавливать проекторы, сделаем «финт ушами»: Выключим источники света и включим текстуру (или запустим анимацию) на самом объекте. Т.е. подготовим все для того, чтобы можно было «записать все это действо» на камеру. Соответственно, создадим две камеры – по одной на каждый из излучателей – и расположим и соориентируем их точно так же, как наши «виртуальные проекторы». И что мы получим?.. Правильно! Готовую видеопроекцию для каждой из них! Эти рендеры и используем в качестве текстур света для наших проекторов. И вуаля – готовая перекрестная AR-проекция на объемный объект! Благодаря тому, что у нашего торта нет особо сильно нависающих элементов, проекторы можно подвесить и выше, на потолочную рельсу, спустив на нужную высоту на штанге, чтобы не смущать зрителей башнями или треногами с проекторами, установленными посреди зала. В данном варианте мы расположили проекторы примерно на высоте полутора метров. На рисунке выше видно, что взглянув на сцену из точки выше, чем наши проекторы, можно заметить тени, образовавшиеся на верхних цилиндрах. Однако ввиду того, что среднестатистический зритель все же ниже двух метров ростом, тени – не проблема, в чем можно убедиться, взглянув на результат «из глаз» нашего зрителя в сцене: Кроме того, вспомним, что мы «прокачали» оригинальный AR-маппинг, выполнив проекцию из двух точек, а не одной. Благодаря этому т.н. «терминатор» (линия светораздела) на поверхности нашего объекта появится лишь в самой дальней его части. Это дает большую свободу перемещения зрителям в зале. 2336×1080 jpeg 97 kB Конечно, можно пойти еще дальше и засветить и этот участок третьим проектором. Тогда у нас получится AR-проекция, на которую можно смотреть вообще с любой стороны. Однако в таком случае логичнее будет распределить проекторы под углом 120° к друг другу, чтобы обеспечить равномерные покрытие и освещенность поверхности. Конечная схема установки, разумеется, будет зависеть в том числе и от формы самого объекта, особенно если у него имеется множество смен углов плоскости поверхности или значительная площадь состоит из нависающих элементов.
  13. Если на ноуте нет трех видео выходов тогда получить 3 уникальных видео потока не получиться. Только дублирующие. можете отдавать физически картинку 3 в 1 и уже в резе программным образом через маппинг их разделять но врят ли это скажется на перформансе. По маппингу можете тут почитать. Смысл в новых версиях не поменялся http://www.malbred.com/uroki/video-mapping-v-programme-resolume-4.1.html Тут еще много по резе http://www.malbred.com/search.html?searchphrase=all&searchword=resolume mapping
  14. Я не работаю с АЕ но никаких покадровых рисований. Ищи Animated Stroke
  15. Было решено, что имеет смысл написать статью, отвечающую на вопрос: “Сколько стоит проекционное шоу видео мэппинга?”, так как иногда есть запросы на создание видео шоу для клиентов. Иногда стоимость видео не соответствует требованиям заказчика, например, клиент хочет видео маппинг на здании площадью 100 квадратных метров за бюджет в €5000. Думаю, что эта статья будет полезна не только компаниям и 3D артистам, которые разрабатывают подобный видео контент, но и клиентам. Итак, давайте разберемся в ценообразовании. Каждый год мы анализируем рынок, запрашивая различные маркетинговые агентства или своими силами. Ни для кого не секрет, что любая ивент компания, запрашивающая у разных видео мэппинговых компаний информацию о событии, технических характеристиках здания, креативном задании на разработку контента и техническое обеспечение, легко может оценить среднюю цену такого архитектурного мэппинга, так как это основная ниша, и она составляет 80% всего рынка. Давайте представим, что вы являетесь Клиентом (не посредником). Вы назначены для организации проекционного видеомаппинга. Вы начинаете поиск, находите международные компании в сети или местных провайдеров через своих знакомых и отправляете информацию о мероприятии, сколько минут шоу вы хотите иметь, идею содержания, высоту и ширину здания и несколько фотографий архитектуры. В результате получилась хорошая видео мэппинговая компания, та самая, которая максимум через 2-3 дня пришлет вам свое предложение, в котором покажет цену за разработку контента, техническое обеспечение и дополнительные условия. Это значит, что у такой компании есть собственные технические ресурсы (проекторы, медиа серверы) и сотрудники, которые за 2-3 дня могут нарисовать драфтовые эскизы ( story board), которые могут дать вам достаточно информации, чтобы одобрить или не одобрить проект. Но если компания тратит более 2-х или 3-х дней на подготовку такого коммерческого предложения, то есть несколько вариантов, либо эта компания крайне крута и перегружена проектами, то можно ожидать достаточно высокую цену, так как она брендовая, либо во втором случае компания уже отправила ваш запрос в другую компанию по производству видеомэппинга, которая занимается техническим прокатом оборудования и ждет ответов от второй компании. Во втором случае вы должны понимать, что это может занять больше времени, чем было запланировано. Без всякого сомнения, большие проекты требуют много разной подготовки и расчетов, включая логистику, страхование – никто так просто не отправит вам 10 проекторов Barco по 20к люмен каждый в другую страну. В большинстве случаев в очень опытных видеомэппинговых компаниях, за долгие годы участия в конкурсах и международных проектах, появился новый навык. Этот навык с помощью шаблонов помогает очень быстро создавать такие предложения, подставляя имя клиента и меняя название проекта. Требования могут быть разными, где то важен контент, где то качество проекции (больше контрастности или больше проекторов), но существует миф, что аренда проекторов составляет примерно 60-80% от общего бюджета. Это не так. Есть агентства, которые берут от $180 000 до $300 000 за разработку 10-минутного контента для здания средней высоты, хотя оборудование составляет всего $30 000 в день. Когда наши коллеги обратились с запросом в несколько видеомаппинг компаний по всему миру, мы получили следующие результаты. Если мы грубо хотим показать рыночные реалии, то 1 минута картографического шоу (без технического надзора) обойдется от €1500 до €3000. Иногда расчет стоимости за одну минуту будет не правильным. Самые большие цены поступили от бельгийцев: они запросили €320 000 за 10 минут. Британцы занимают второе место , они просят €180 000 евро за 10 минут шоу Самые низкие цены были у белорусской компании: они просили €2000 за 10 минут. Эта сумма включала в себя не только разработку контента, но и настройку и маппинг контента на поверхность/место проведения. Конечно, трансфер и проживание оплачиваются отдельно. Прокат Видео проекторов Техническое обеспечение стоит по разному в зависимости от страны и проекторов. Учитывая, что мы хотим видеть картинку с высоким качеством, рассмотрим проекторы с освещением 20к Ansi люмен. Согласно последним исследованиям рынка, самые дешевые проекторы такого уровня можно арендовать за $300 в день, самые дорогие за $5000 за один рабочий день (включая запасные лампы). В большинстве случаев необходимо взять проектор за два дня до мероприятия. Первый день посвящен настройке всего оборудования, второй процедуре показа шоу. Некоторые компании начинают взимать плату, как только проектор покидает склад. Это означает, что вы также должны включить время на трансфер. Надо понимать, что есть компании, которые имеют миллионную прибыль в день, они владеют большим количеством проекторов, дополнительного оборудования, медиа серверов и своих медиа техников. Они готовы отдать свои проекторы в аренду только на несколько недель. Такое оборудование можно купить по хорошей цене, после такой аренды. Кроме того, крупные прокатные компании не будут отдавать свое оборудование без своего сотрудника. Цена такой услуги зависит от страны проживания (стоимость проживания) и самой компании, но средняя цена составляет от €50 до €200 в сутки с человека + трансфер и проживание. Итак, давайте прикинем, что для нашего маппинга на здании в 4 этажа достаточно использовать 2 видео проектора по 20к люмен и возьмем среднюю цену таких проекторов, примерно, €2000. Так, €2000, 2 дня и 2 проектора составляют €8000. Если мы полетим, то примерно до €3000 за логистику и €2000 за медиа техника. Всего €13 000 примерно. Создание контента для видео мэппинга. Опять же много неопределенностей, так как есть разные запросы, а также разные виды анимации. Например, есть анимационные студии, которые берут $200 за одну секунду 3D анимации. В видеомэппинге также может быть персонажная анимация, но давайте примем это просто и возьмем в качестве примера анимацию самой архитектуры, включающую 3D смещения, анимацию архитектурных элементов и визуальные эффекты на слоях. Как я уже писал ранее, те ~100 компаний, которым был отправлен запрос, дали нам разные результаты, но если мы возьмем примерно среднюю цену, то она составит €2000 за минуту. Десять минут будут стоить €20 000. Подведя итоги техническое задание и разработка контента составит €20 000 + €13 000. Если добавить туда еще и жилье, то оно составит €35 000. Это стоимость проекта среднего уровня сложности и комплексности. Но мне кажется, что начинающие компании могут сделать это еще дешевле, так как им важнее заявить о своем существовании. Делая это, они могут демпинговать рынок, не осознавая, что в будущем они будут "воспитывать" тех клиентов, которые не хотели бы платить им больше. Но как я уже говорил так рассчитать видеомэппинг невозможно. Это услуга, и один поставщик может взимать одну цену, а другой другую. Но дело не только в цене, но и в качестве, доверии, надежности и понимании того, что если что то пойдет не так, ваш провайдер, видеомэппинговая компания, решит проблемы без каких либо потерь.
  16. MALBRED

    нужен совет театралов

    Еще как вариант это прокинуть кабель от проектора вверх на ферму куда нить если позволяет длинна
  17. MALBRED

    нужен совет театралов

    по умолчанию кабель изолирован же. Или у вас есть вероятность попадания именно на контакты или внутрь проектора?
  18. MALBRED

    Экшн-камера в резолюм

    Через что вы заводите камеру в резу? через какой плаг?
  19. все тоже самое + новые функции )
  20. MALBRED

    нужен совет театралов

    Пока не очень понятно. Вы пишите, что проектор должен проехать через лужу. Насколько глубокая лужа, что есть вероятность попадания воды внутрь? Ну и потом лужа по глубине не должна быть настолько большой, чтобы в нее даже краем мог поместиться проектор. Опишите чуть подробней
  21. MALBRED

    Проекционные сети

    имеете ввиду вид поверхности под сетью или что?
  22. The following are documents related to dome projection, including but not limited to, fisheye theory and conversions, the iDome, camera capture and fulldome productions. Included is an image gallery on installations the author has contributed to including both spherical mirror, fisheye lenses and multiple projector systems. Some of the material here relates to the projection into a hemispherical dome using a spherical mirror, a projection technique developed by the author in 2003 and variously referred to as "sphemir" or "mirrordome". In particular, a FAQ, Frequently Asked Questions primarily targeted at those contemplating creating their own dome projection system based upon the spherical mirror. Please note that I am available to assist you with your fulldome projection projects. This can be on an informal basis (just email me your questions) all the way to formally quoting, personally doing onsite installations, providing training and ongoing support. iDome Image gallery of the iDome, specifications and various applications. Exhibition in Doha at the innovation showcase at the 2013 WISH (World Innovation Summit for Health) forum. Ngintaka exhibition at the South Australia Museum. iJiao exhibition (2011) - Exhibition by: City University of Hong Kong (CityU), Applied Laboratory for Interactive Visualization and Embodiment (ALiVE). Exhibition as part of the "Expanding sphere of innovation @ CityU", Hong Kong. Wollongong Science Centre iDome Exhibit Interactive installation at the Wollongong Science Centre largely using 360 degree footage from the LadyBug-3 camera. Using Blender games in the iDome. Sketchup to iDome Moving Sketchup models to the iDome, via the Unity3D game engine. iDome as a preview environment for fulldome movies. Using the Unity game engine and spherical mirror projection The surest sign of the existence of extra- terrestrial intelligence is that they never bothered to come down here and visit us! Bill Watterson Fisheye and related mappings "Distortion", the incorrect and correct usage of the word Creating fisheye projections from spherical maps and panoramic images. Converting fisheye images to .... Panoramic images, perspective projections, (partial) spherical maps. Converting fisheye to Pannini projection. Square fisheye projection. Converting dual fisheye images into a spherical (equirectangular) projection. Exercise to convert images from a 4 fisheye camera rig to equirectangular. Fisheye "rectification". Correcting for radial non-linearity in a fisheye. Further information on fisheye rectification. Tilting and rotating fisheye images. Compensating for dome orientation and or clipped fisheye lens capture. cube2fish. Creating fisheye images from cubic maps. Angular fisheye projections. Including offaxis fisheye projections. Summary of the mathematics. Extreme fisheye projection. Fisheyes greater that 360 degree field of view. Classification of fisheye mappings Common types of fisheye and their respective mappings between distance on sensor and angle. A triangle was an improvement to the square wheel. It eliminated one bump. BC comics Spherical mirror The original paper presentation: Using a spherical mirror for projection into immersive environments Proceedings of the 3rd international conference on Computer graphics and interactive techniques in Australasia and South East Asia. pp 281-284. Early presentation given to the Australasian Planetarium Society. and OzViz in 2004 Presentation at the Western Alliance Planetarium Conference by Bentley Ousley: Spherical Mirror Projection for Large Domes Immersive gaming: a low cost projection environment. JMM (Journal of MultiMedia), Volume 3, Issue 1, May 2008, pp 41-46. The original web page created late in 2003. One of the early articles One of the early presentations given on this approach. While the author developed this technique for current digital projection, it has been used in the past for film, see Patent 2,299,682. Wide field of view projection in a rectangular room. "The brain is an enchanted loom where millions of flashing shuttles weave a dissolving pattern. A.S. Byatt Warping for dome projection Tools for Spherical Mirror Projection for Apple Mac. Why warp? Is there a reason for planetarium display software to be able to warp fisheye images even if they are not using a spherical mirror? Technical information for developers .. warp mesh files. meshmapper A calibration tool that creates precise map files for spherical mirror projection. Screen Capture and Warping with an example using SkySafari Warping fisheye application images with QuartzComposer using screen capture. tgawarp. An image warper to create prewarped movies. A real time "warp-on-the-fly" movie player for Windows and Apple Mac based upon VLC. A real time "warp-on-the-fly" movie player for Apple Mac. Includes navigation modes that was originally designed for spherical mirror projection (mirrordome) but also supports many other movie projections that just fisheye. Now unsupported and for fisheye projection using a spherical mirror the author now recommends this fisheye movie player warppatch. A Quartz Composer patch that implements the warping of images and movie frames suitable for novel projection problems into immersive spaces, including the spherical mirror based methods. Direct rendering of warped fisheye views for spherical mirror projection. An interactive panorama viewer for domes including support for warping for the spherical mirror. Image warping for offaxis fisheye lens/projectors. Geometry warping for realtime dome graphics (Historical interest only). America is the only country where a significant proportion of the population believes that professional wrestling is real but the moon landing was faked. David Letterman DomeLab Documentation. Workshop 2016, RMIT, Melbourne. APS 2016 presentation. Workshop 2015. Presentation 2015: Capturing assets for fulldome. ANAT I have a stepladder. It's a very nice stepladder, but it's sad that I never knew my real ladder. Cameras Testing various fisheye capture options. Includes low end cameras such as the Oneshot and Lomography still camera, mid range such as the Canon HV20 (with Nikon FC-E9 fisheye lens) for video capture, high end SLR cameras such as the Canon 5D range, up to high end cameras like the Red Scarlet. Conversion of footage from the Lucy camera. Tests of various fisheye lenses and the Red Scarlet 4K video camera. Canon 5D MkII + Canon 8-15 zoom fisheye + iDome. Fisheye circle for Panasonic Lumix GH5 and Sigma 4.5 fisheye lens Fisheye and spherical capture using the LadyBug camera. Including an exercise to capture footage of iron ore ship loading fir a remote operations prototype. Maybe in order to understand mankind, we have to look at the word itself: "Mankind". Basically, it's made up of two separate words - "mank" and "ind". What do these words mean ? It's a mystery, and that's why so is mankind. Fulldome productions Fulldome test pattern. Measure the actual resolution of your digital fulldome projection. Dark - A Fulldome production explains and explores the nature of Dark Matter, the missing 80% of the mass of the Universe. (2012) Distributed internationally. Peter Morse, Paul Bourke, Alan Duffy, Cathie Travers, Trevor Hilton, Carley Tillett. Plant Energy Biology - A fulldome production. Volume visualisation under the Dome, October 2009 Fulldome show reel of volume visualisation datasets. Ajay Limaye, Tim Senden, Alexander Mitchell, Paul Bourke. Digital Visualisation in the Dome. Presentation at Horizon - The Planetarium. November 2008. Presenters: Peter Morse, Paul Bourke, Carley Tillett. Contributors: Karen Haines, Ajay Limaye, Glenn Rogers Treasures of the Great Barrier Reef, November 2008. Fulldome video based upon underwater fisheye photography by Karen Haines. Audio by Peter Morse and Trevor Hilton Artforms Of Nature: A New Way Of Seeing, October 2008. Ajay Limaye, Peter Morse, Paul Bourke. Fulldome Geometry Series: Part 1, October 2007. Paul Bourke, Peter Morse. 6dF Galaxy Survey: Beyond the Crux, October 2006. Paul Bourke, Peter Morse, Glenn Rogers. Cosmological Simulation, October 2005. Paul Bourke, Evan Hallein, Dr Chris Power. Fulldome animation of a flight over the surface of Mars based upon the 1/32 degree topology data from MOLA. Created for SkySkan for the planetarium show "Infinity Express". October 2000. Experiences With My First 8K Fulldome Production Pipeline Do not try to teach a pig to sing hymns. It wastes your time and annoys the pig. R. Heinlein Third party software Creating equirectangular projections using Stellarium. Creating equirectangular projections using Celestia. Creating equirectangular projections using GoogleEarth. Stellarium landscape from the Australia outback. EarthDesk in the dome. Display current Earth globe interactively in a dome. Vuo as a playback solution for domes Vuo warp node, from version 0.8, now support warp meshes. Stellarium Notes on the use of Stellarium or Nightshade with spherical mirror projection. Amateras full dome movie player, and much more. World Wide Telescope and spherical mirror projection support. Software Bisque and spherical mirror projection support. Creating fisheye image sequences with Unity3D Creating equirectangular projection for multipass rendering, eg: Unity3D Unity3D. Creating fisheye images in the Unity3D game engine. Fulldome content creation with the Drishti volume rendering software Lady Barnaby takes here ease. Knitting overcoats for fleas. By this kindness, fleas are smitten. That's why she's very rarely bitten. Spike Milligan Other Seamans mission, Melbourne. Two very simple show controllers based upon Quartz Composer. One based upon keystrokes and support for some alternative interface devices. Another designed with a graphical user interface and able to be run on a single computer or remotely using a separate playback and GUI computer. Rendering molecules for immersive environments. Image slicing for fulldome (and other applications). Report on small dome technology. Magic Planet display. spheremapper. Geometric correction of fisheye images for direction projection into a hemisphere. Wii + MacBook Pro + Dome Example using the Wii to navigate within an immersive environment. iSphere. A proposed immersive environment. Image panels on a fisheye projection. Various ways of mapping perspective projections on fisheye images. Interactive fisheye image generation. Multipass texture approach. Fisheye lens comparisons. Comparisons specific to dual projection Summary of single and dual fisheye systems in common usage. Fisheye lens options as they apply to the iDome Full dome projection with three digital projectors Solar system simulator Creating content for the SkyVision full dome projection A wise man can see more from a mountain than a fool from the bottom of a well. Anon