Primera transmisión 360 en directo de la Champions League

Primera transmisión 360 en directo de la Champions League

Primera transmisión 360 en directo de la Champions League

 

El 19 y 20 de julio se celebrará en Málaga el OVR17, donde David Mancebo, CEO de Winkle360, hablará sobre su experiencia con la primera transmisión en directo 360 de la Champions League, sobre el Streaming para el último capítulo de la serie Velvet de Atresmedia, además de otras experiencias en Parques temáticos de Italia (Mirabilandia) y España (Parque de Atracciones de Madrid).

El programa lo componen 21 ponencias, en las que empresas españolas como GazVR, Opossum o SNGULAR, contarán sus experiencias ante los asistentes y compartirán sus aplicaciones de forma práctica en la Demo Area.

Opossum, de la mano de su CEO Gabriel Gonzálvez, mostrará una reconstrucción de la zona amurallada de Melilla en la que los asistentes podrán sumergirse y pasear como si estuvieran en las calles de esta histórica ciudad.

GazVR, de la mano de Blanca Madrid, Account Manager, y Gonzalo Fuentes, VR Designer, compartirán experiencias VR en los campos del entretenimiento, educación, sanidad y comunicación.

YBVR, con sede en San José (California, USA), contará en el auditorium su caso de éxito, y como complemento al OVR17, hará un curso el viernes 21 de julio para mostrar las aplicaciones de sus trabajos en el mundo de los grandes eventos deportivos (La Liga, NFL, NBA,…).

Samsung, de la mano de su Content Manager en España Alfredo Pérez, descubrirá las posibilidades del ecosistema de producto Samsung Gear VR para la producción y distribución de contenidos de realidad virtual a través de diferentes casos prácticos llevados a cabo por Samsung que demuestran los múltiples usos de este nuevo medio. Además, ofrecerá a los asistentes disfrutar de tres experiencias con sus Samsung Gear VR. Concretamente, los asistentes podrán conocer de primera mano la experiencia de 360 grados creada en exclusiva para Gear VR junto con Pablo Alborán. Además, también estará disponible la experiencia creada junto con el Museo Arqueológico Nacional que permite revivir el pasado de nuestro país a través de la realidad virtual. Concretamente, permite conocer en primera persona cómo vivíamos en cinco periodos distintos de la península ibérica: Prehistoria, Protohistoria, Hispania Romana, Edad Media y Edad Moderna. Los asistentes al Observatorio VR de Málaga también podrán probar una experiencia desarrollada por Samsung de manera conjunta con el Ministerio de Educación, Cultura y Deporte -en el marco de un convenio de colaboración entre ambas entidades- para la lucha contra el acoso escolar. Se trata de un vídeo en realidad virtual que recrea un caso de ciberbullying entre adolescentes en un centro educativo y su resolución por los propios alumnos.

Además, los 6.000 metros cuadrados del Polo de Contenidos Digitales de Málaga acogerán durante los dos días del OVR17 un sin fin de demostraciones sobre aplicaciones y ponencias sobre Realidad Virtual, Realidad Aumentada, Realidad Mixta, Videojuegos, Serious Games, eSports, etc.

La agenda del OVR17, además, incluye informes sobre Realidad Virtual, Realidad Aumentada, eSports y Videojuegos de reconocidos profesionales que por primera vez se reúnen en El Polo de Contenidos Digitales de Málaga para ofrecer una panorámica general sobre todos los campos en los que están evolucionando las Nuevas Tecnologías.

Fuente aqui

YouTube añade mapas térmicos a los vídeos 360, mostrándote dónde miran los espectadores

YouTube añade mapas térmicos a los vídeos 360, mostrándote dónde miran los espectadores

YouTube adds heatmaps to 360 videos

 

YouTube ha añadido mapas térmicos a videos 360 populares , mostrando dónde están mirando los espectadores.

YouTube agregó mapas térmicos en vídeos 360 a las herramientas de análisis, permitiéndote ver dónde los espectadores están pasando más tiempo buscando. El año pasado, los mapas de calor fueron agregados por Facebook, pero el umbral era bastante alto en 50.000 espectadores únicos (no vistas). El mapa de calor

(más…)

Valve lanza el reproductor de vídeo 360 para PC de gama alta

Valve lanza el reproductor de vídeo 360 para PC de gama alta

Valve lanza el reproductor de vídeo 360 para PC de gama alta

 

Steam VR amplía sus servicios con soporte de vídeo nativo de 360 grados.

Si tienes la suerte de poseer un casco HTC Vive o Oculus Rift VR, las probabilidades son que haya comprobado Steam. La infame plataforma de distribución digital de Valve ha sido la opción de ir para los jugadores de todo el mundo durante años y desde entonces se ha convertido en un popular centro de entusiastas de la realidad virtual también. Una suite de seguimiento de posición de alta calidad, una impresionante biblioteca de juegos y una cómoda interfaz hacen de esta una de las plataformas de realidad virtual más atractivas disponibles para el público.

Ahora Valve está sumergiendo sus dedos en video VR con su propio reproductor de video 360 personalizado. Actualmente disponible a través de beta pública, Steam 360 Video permite a los usuarios ver películas de 360 grados, programas y otros formatos VR no lineales dentro de sus cascos instantáneamente y sin necesidad de una aplicación separada.

Utilizando la tecnología SPIN Play del estudio VR de Seattle Pixvana, Valve ha habilitado la transmisión de vídeo adaptable en Steam VR y está ofreciendo una selección ecléctica de contenido de 360 grados para celebrar el lanzamiento.

 

Fuente aquí

YouTube trae vídeos 360 a tu TV

YouTube trae vídeos 360 a tu TV

YouTube trae vídeos 360 a tu TV

 

Ahora puedes ver videos inmersivos desde la pantalla más grande de tu casa.

La conferencia anual de Google I / O para desarrolladores está en pleno apogeo, con algunos nuevos anuncios relacionados con VR. Sarah Ali, directora de los productos de la sala de estar, subió al escenario para anunciar que el video 360 está llegando a su aplicación de YouTube en dispositivos domésticos.

Cuando se trata de ver videos de 360°, se pueden ver en su computadora portátil o dispositivo móvil. Y si tienes suerte, puedes tener un casco VR como Daydream View para disfrutar de una experiencia más inmersiva. Pero no todo el mundo que quiere ver videos de 360° en su dispositivo móvil o tener un casco a mano.

Es por eso que YouTube es compatible con vídeos de 360° en la pantalla más grande que probablemente tiene en la casa. Millones de espectadores de todo el mundo que tienen un televisor inteligente pueden cargar la aplicación de YouTube y disfrutar de 360 videos. En el escenario, Ali mostró cómo puede reproducir videos mientras usa un control remoto para desplazarse alrededor del entorno mientras lo está viendo. La aplicación de YouTube 360 también admite video en vivo de 360° así, lo que le permite sentarse y ver Coachella el próximo año desde la comodidad de su sofá.

En los próximos meses, podrá ver y controlar videos de 360 grados en Android TV, televisores Samsung 2017 4K, televisores LG 2017 4K, Xbox One y PlayStation 4.

360 Videos To Your TV

 

Fuente Aquí.

Global vs Rolling Shutter

Global vs Rolling Shutter

rolling-global2

 

Una de las características en la que menos nos fijamos a la hora de elegir una cámara 360 es en el shutter u obturador, debido a que más del 95% de las cámaras 360 grados del mercado, tienen un sensor CMOS con Rolling Shutter u obturador rodante.

Si alguna vez os ha dado por grabar o sacarle una foto a algún objeto moviéndose muy rápido con vuestros móviles, probablemente os habrá pasado algo como esto:

Obturador rodante

La causa es una distorsión creada por un obturador rodante que os explicamos a continuación.

A diferencia de las cámara que usan sensores CCD que cuenta con un obturador global, la mayoría de las que usan sensores CMOS utilizan un obturador rodante, es decir, en vez de capturar la imagen de una vez se va escaneando progresivamente bien vertical u horizontalmente.

Con la anterior definición, os estaréis haciendo más o menos una idea de la diferencia, pero, vamos a verlo en más detalle:

Obturador mecánico

Shutter Mecánico

En una cámara de cine el Shutter es un espejo mecánico que gira sobre sí mismo. Mientras rota los 360 grados por cada exposición, se alterna cubriendo y descubriendo la ventanilla por la que se expone la película durante un tiempo delimitado. Las RPM (revoluciones por minuto) del shutter se fijan mecánicamente y se determinan en función de los fotogramas por minuto que vas a grabar, y el tiempo de exposición se decide en función del ángulo que tenga el shutter.

Obturador rodante (Rolling Shutter)

En las cámaras que utilizan el Rolling Shutter, los datos se leen desde la parte de arriba del sensor a la parte de debajo antes de ser reseteado para la próxima exposición del fotograma.

El rolling shutter puede mostrar una inclinación notable con las líneas verticales que aparecen dentro de la imagen tanto si la cámara se mueve como si el sujeto se mueve rápido dentro del encuadre. Esto puede crear artefactos de movimiento no deseados y deformar toda la imagen, si el sensor de lectura es particularmente lento y hay un movimiento muy rápido dentro de la imagen.

Veamos un vídeo explicatorio:

Obturador Global (Global shutter)

Un obturador global difiere de un rolling shutter en que al final de la exposición completa del fotograma, la luz es bloqueada completamente a lo largo del sensor. De una vez, los datos son leídos, y después se resetea para la próxima exposición.

Un shutter global preserva la perfecta alineación vertical de las líneas verticales o de objetos moviéndose horizontalmente dentro del encuadre. Sin embargo, la sensación de movimiento puede ser realmente distinta.

Dependiendo de cómo se implementa un shutter global, puede haber un pequeño coste en la luz (factor de relleno) y también un rango dinámico cuando se compara con un rolling shutter.

Ángulo del shutter

El ángulo de obturación es un término que se refiere al ángulo físico. Este ángulo indica, durante cuanto tiempo está abierto un obturador mecánico que gira. El ángulo de apertura, determina la duración de la exposición; al tiempo que el obturador gira.

El ángulo de obturación controla también el nivel de borrosidad que tenga el movimiento. Cuanto mayor sea la exposición, más desenfoque de movimiento, y cuanto más corta sea la exposición, más nítidos aparecerán los objetos en movimiento.

Ángulo del shutter

Puede ser calculado fácilmente como fracciones de segundo en tiempo de exposición.

Tiempo de exposición (1/x segundos)= cuadros por segundo x (360/ ángulo de obturación)

Por ejemplo, en una grabación a 24fps y usando un ángulo de obturación de 180º (180º es lo normal)(*)

180º: 24x(360/180)=1/48 avo de segundo.

Aquí una tabla calculada para 24fps con ángulos de obturación por encima de 220º:

15º:1/576 segundos.

20º:1/432 segundos.

40º:1/216 segundos.

60º:1/144 segundos

80º:1/108 segundos

100º:1/86 segundos

120º:1/72 segundos

140º: 1/62 segundos

160º: 1/54 segundos

180º: 1/48 segundos

200º: 1/43 segundos

220º: 1/39 segundos.

Cualquier cambio en el ángulo de obturación cambia también el tiempo de exposición, y necesita ser compensado con un cambio en la apertura del diafragma que afectará a la profundidad de campo. Pero si no quieres que la profundidad de campo se vea afectada, la única opción que te quedaría es añadir filtros ND (si reduces la luz para compensar un tiempo de larga exposición) o incrementas los actuales niveles de luz que tiene la escena (si quieres compensar que tienes un tiempo de exposición más corto).

Si consideramos los 180º como el ángulo básico (normal) como “Una exposición correcta” la siguiente tabla de compensación se aplica.

197-200 cierra 1/4

166-196 exposición correcta

148-165 abre 1/4

135-147 abre 1/3

121-134 abre 1/2

111-120 abre 2/3

99-110 abre 3/4

83-98 abre 1pt

74-82 abre 11/4

68-73 abre 11/3

61-67 abre 11/2

56-60 abre 12/3

50-55 abre 13/4

42-49 abre 2 pts

37-41 abre 2 1/4

34-36 abre 2 1/3

31-33 abre 2 1/2

28-30 abre 2 2/3

25-27 abre 2 3/4

22.5-24 abre 3 ptos.

Grabación a distinto número de fotogramas

Ten en cuenta cómo las altas velocidades de fotogramas influyen en la exposición (y en las luces que necesitarás)

Para muchas cámaras, independientemente del sensor que tengan, o de quien las fabrique, se cumplen las mismas reglas, ya que es una simple cuestión de matemáticas.

Cada vez que duplicas el número de fotogramas por segundo, estás reduciendo a la mitad el tiempo de exposición para cada uno de los cuadros… y dividiendo a la mitad la cantidad de luz que llega al sensor.

Por ejemplo, asumamos un ángulo de obturación “normal” de 180º.

A 24fps (fotogramas por segundo), con el ángulo de obturación a 180º nos da un tiempo de exposición de 1/48 avo de segundo.

Si doblamos los fotogramas por segundo hasta 48, con el mismo ángulo de obturación, estamos dividendo por la mitad el tiempo de exposición hasta 1/96avo de segundo. Conclusión: Hemos perdido 1 punto de luz y eso que sólo son 48 fps.

Así que se puede observar que estamos perdiendo un punto de luz cada vez que doblamos la velocidad de fotogramas.

Perder un punto de luz no es una pequeña cantidad de luz. Cada punto de luz que se pierde es la mitad de luz (1stop perdido= 1/2 de luz).

Así como un cambio en el ángulo de obturación a una velocidad normal, afecta al tiempo de exposición y requiere de una compensación que se hará con la abertura del diafragma del objetivo o con un aumento de la iluminación, las velocidades altas de fotogramas requieren aún una mayor compensación, más allá de la apertura del diafragma de la lente.

Esto significa que si tienes suficiente luz para una correcta exposición con 25 fps y no quieres que la profundidad de campo cambie (abriendo el diafragma), tendrás que doblar la cantidad de luz usada en la escena o en el sujeto para conseguir la correcta exposición a 50fps.

El sol nos da la luz suficiente para esto, así que en exteriores, a la luz del sol, la compensación de los tiempos de exposición más cortos cuando se rueda a altas velocidades de fotogramas es un problema mucho menor.

De cualquier manera, en interiores usando luz artificial… tienes que aumentar la cantidad de luz seriamente (doblándola) cada vez que dobles el número de fotogramas.

 

Fuente: Aquí y Aquí

Disponible SDK de VRWorks Audio y 360 Video

Disponible SDK de VRWorks Audio y 360 Video

VRWorks 360 Video

 

Nvidia anunció ayer, durante la GTC, el lanzamiento de los SDKs de Audio y 360 Video para VRWorks, con el fin de facilitar la creación de contenido de realidad virtual. La parte de audio ayuda a crear una verdadera sensación inmersiva, teniendo en cuenta las dimensiones y propiedades de los materiales del entorno físico en el que nos encontramos.

VRWorks 360 Video, en formato beta, permite realizar captura, stitching y streaming de vídeo 4K en 360º. Actualmente, el stitching es en mono, pero en la GTC están mostrando una demo de la próxima versión que tendrá stitching estéreo en tiempo real y será lanzada próximamente. Aunque, para ello están utilizando dos tarjetas Quadro P6000, que tienen un coste elevado, pero son capaces de realizar el cosido de 8 cámaras 4K en estéreo. “El hecho de que Nvidia sea capaz de coser vídeo 4K estereoscópico en 360º y en tiempo real, convierte los directos en una posibilidad, cambia la línea de producción y permite nuevos casos de uso totalmente nuevos en RV”, comenta Kinson Loo, CEO de Z CAM.

Podéis descargaros el SDK desde el siguiente enlace: SDK de 360 Video.

 

Fuente aquí

Pin It on Pinterest