1 feb 2019

Come funziona lo streaming live ?

Ti sei mai chiesto come funziona lo streaming live ? Se acquisisco un flusso in 4K come faccio a trasmetterlo in streaming live su più dispositivi a diverse risoluzioni in diverse parti del mondo ?


E' possibile suddividere il processo in 5 macro fasi:


1. Acquisizione: Assumiamo di dover inviare un flusso video con audio embedded di qualità 4K.

2. Processing:

Il flusso per essere trasportato in rete deve essere reso più "leggero" e trasformato in maniera tale da essere compatibile e riconoscibile dai dispositivi che lo ricevono.



  1. COMPRESSIONE: il flusso viene compresso e spacchettato in code di compressione H.264 per essere meglio trasportato in rete
  2. TRASPORTO: i pacchetti vengono trasportati in internet attraverso dei protocolli standard RTMP / HLS / MPEG-DASH
3. Conversion: 

Il flusso porta con se diverse informazioni che permettono all'utente finale di visualizzarlo a specifiche condizioni come potenza di banda, risoluzione e tipo di player/dispositivo. Ecco perchè è necessario creare diversi flussi con caratteristiche compatibili con i diversi player/dispositivi.


  1. Transcoding H.264 in codec VP9 (standard lettura Google)
  2. Transrating 10Mb/s in 7Mb/s - 5Mb/s - 3Mb/s 
  3. Transizing  4K in 4k - 1080 - 720
4. Streaming

CDN Globale: Il video compresso per raggiungere i suoi destinatari, o meglio gli utenti che richiedono di riceverlo e visualizzarlo, deve viaggiare ad una certa velocità senza perdere qualità (pacchetti) e soprattutto senza troppi ritardi (bassa latenza). Per fare ciò è importante avere una rete di distribuzione molto capillare e stabile (CDN). 

5. Riproduzione

Infine il flusso arriva ai vari dispositivi che ne richiedono la visualizzazione (STB, MartTV, Web Browser, Dispositivi Mobili). Questi dispositivi come detto rispettano specifiche caratteristiche come tipoligia di compressione video, risoluzione, potenza di banda per il download.


  • STB / Mpeg-DASH / 1080p
  • Browser / RTMP / 2160p
  • Mobile / HLS / 720p

Conclusione

Per accentrare tutti questi processi possiamo fare affidamento a Wowza Streaming Engine che include encoding, transcodifica, CDN e player per la riproduzione.

16 gen 2019

Io 4K Plus

AJA Io 4K Plus è l'hardware di acquisizione e output disponibile su Thunderbolt 3, offrendo un set completo di connettività audio e video professionale con supporto per i più recenti dispositivi 4K / UltraHD, High Frame Rate (HFR), High Dynamic Range (HDR) e flussi di lavoro a colori profondi.

La potenza di Thunderbolt 3 consente a AJA Io 4K Plus di gestire un'ampia gamma di formati, da SD a HD, UltraHD e 4K completo con frame rate fino a 60p su 12G-SDI e HDMI 2.0 con semplicità di un singolo cavo, oltre a supporto HDR 10 e HLG su HDMI per flussi di lavoro HDR emergenti.


Thunderbolt 3 - Soluzioni di AJA

Offri più potenza, velocità e semplicità ai tuoi flussi di lavoro con le soluzioni Thunderbolt ™ 3 di AJA.

Scopri in che modo AJA Io 4K Plus offre la larghezza di banda per trasferire facilmente 4K / UltraHD, High Frame Rate e contenuti a colori su un unico cavo in entrata e in uscita dal computer, incluso il supporto HDR su HDMI 2.0.

Connettività professionale: 12G-SDI e HDMI 2.0

I flussi di lavoro di oggi richiedono velocità, larghezza di banda e semplicità. AJA Io 4K Plus supporta 4K, UltraHD, 12G / 6G / 3G / 1.5G-SDI, Dual Link, HD-SDI e SD-SDI nonché UltraHD e HD su HDMI 2.0 sia per l'acquisizione che per l'uscita. L'uscita HDMI è anche in grado di visualizzare con precisione HDR 10 e HLG per supportare i flussi di lavoro HDR emergenti.

12G-SDI e HDMI 2.0 apportano potenza e semplicità ai tuoi progetti, con la possibilità di utilizzare cavi singoli per ingresso e uscita per i flussi di lavoro più complessi. 12G-SDI è retrocompatibile con sorgenti SDI. HDMI 2.0 consente un'elevata cattura del raster e del frame rate e la possibilità di visualizzare gli stessi display HDMI 2.0.

Compatibilità universale: Thunderbolt 3 tramite USB-C

AJA Io 4K Plus offre due porte Thunderbolt 3 per una vera flessibilità di Thunderbolt.

Thunderbolt 3 raddoppia la velocità del precedente standard Thunderbolt 2 con fino a 40 Gps di throughput e utilizza lo standard universale di connessione USB-C per la massima semplicità su un singolo cavo e porta per le workstation e laptop Mac e PC di oggi, ideale per Video e I/O audio fornito da AJA Io 4K Plus.



Caratteristiche di Thunderbolt 3:


  • Thunderbolt , USB, DisplayPort e accensione USB-C
  • Connettore e cavi USB-C (piccolo, reversibile)
  • 40 Gb / s: Thunderbolt ™ 3: raddoppia la velocità di Thunderbolt  2
  • Bi-direzionale, doppio protocollo (PCI Express e DisplayPort)
  • 4x lane di PCI Express Gen 3
  • DisplayPort 1.2: supporta due schermi 4K (4096 x 2160 30 bpp a 60 Hz)
  • La latenza più bassa per l'audio PCI Express
  • USB 3.1 (10 Gb / s) - compatibile con dispositivi e cavi USB esistenti
  • DisplayPort 1.2 - compatibile con display, dispositivi e cavi DisplayPort esistenti
  • Daisy chain fino a sei dispositivi


Monitoraggio 4k/UltraHD in HD

Quando funziona con risoluzioni 4K, AJA Io 4K Plus emette un segnale convertito verso il basso HD-SDI di alta qualità su un connettore BNC dedicato. Questo segnale HD può essere utilizzato per inviare progetti 4K direttamente ai registratori HD per la trasmissione e per visualizzare facilmente le immagini 4K sui monitor HD durante la post produzione.

HDR

AJA Io 4K Plus fornisce questo supporto per le condotte 4K / UltraHD / 2K e HD HDR ai display HDMI compatibili nel software v14 con supporto HLG e HDR 10 con i metadati Infoframe HDR, in conformità con HDMI 2.0a / CTA-861.3 e HD.

Il software desktop v14.2 offre input HDR da ingresso HDMI 2.0 per l'acquisizione di giochi PlayStation e PlayStation Pro e altro ancora.

Flusso di lavoro

AJA Io 4K Plus offre una vasta gamma di connettività sia per 12-SDI che HDMI 2.0, nonché opzioni audio analogiche flessibili per una vasta gamma di flussi di lavoro.

Audio digitale integrato. Flessibilità audio analogica

Sono supportati sia HDMI 16 canali che SDI 8 canali per audio embedding, nonché gli ingressi audio analogici, le uscite o entrambi tramite una connessione DB-25 standard.

Il monitoraggio stereo è possibile anche con un jack per cuffie mini-TRS sul pannello frontale.

Con il software desktop v14, l'audio analogico può essere configurato per la flessibilità quando è necessario registrare voci fuori bordo e altro con la possibilità di scegliere come configurare la connessione DB-25 su AJA Io 4K Plus:


  • Audio analogico D / A a 8 canali, 24 e 16 bit, frequenza di campionamento di 48 kHz, bilanciato, utilizzando lo standard industriale 8x XLR su cavo breakout DB-25 (cavo non incluso)
  • I / O audio analogico bilanciato:
    • Input attraverso Ch. 1-8, cap. 1-4 o Ch. 5-8
    • Uscita attraverso Ch. 1-8, cap. 1-4 o Ch. 5-8


Conclusione: Caratteristiche Principali di AJA Io XT plus


  • Cattura portatile 4K / UltraHD e HD / SD e riproduzione su Thunderbolt 3
  • Compatibilità all'indietro con gli host Thunderbolt esistenti
  • 12G / 6G / 3G / 1.5G-SDI e HDMI 2.0 I / O per 4K, UltraHD, 2K, HD e SD con supporto HFR fino a 60p a 4: 2: 2
  • Down-conversion in tempo reale da 4K / UltraHD a 2K / HD
  • Supporto da 8, 10 e 12 bit 4: 2: 2 e 4: 4: 4 su 12G-SDI o HDMI 2.0
  • Due porte Thunderbolt 3 consentono una facile connessione a margherita di fino a sei dispositivi Thunderbolt
  • Audio incorporato a 16 canali su SDI; Audio incorporato a 8 canali su HDMI; Ingresso e uscita audio analogico a 4 canali tramite breakout XLR
  • Keyer downstream
  • XLR 12 V standard a 4 pin per alimentazione CA o batteria
  • Compatibilità con le applicazioni creative tra cui Adobe Premiere Pro, Apple Final Cut Pro X, Avid Media Composer, prodotti FilmLight, AJA Control Room e altro
  • Controllo VTR RS-422, Riferimento, Ingresso LTC
  • Jack per cuffie e controllo di livello per ambienti mobili

11 gen 2019

AJA video systems: soluzioni Streaming & OTT

Che cos'è lo streaming o OTT ?

Per contenuti multimediali in streaming o over-the-top (OTT) si intende la consegna in diretta o su richiesta di video multimediali via internet. A differenza del download, in cui uno spettatore deve trasferire un file completamente su un computer o dispositivo prima che la riproduzione possa iniziare, lo streaming consente la trasmissione e la riproduzione di contenuti multimediali contemporaneamente. All'avvio del processo di streaming, i dati multimediali vengono ricevuti e una quantità limitata di tali dati viene archiviata in una memoria temporanea denominata buffer.

Una volta riempito il buffer di memoria, viene avviata la riproduzione del flusso. Man mano che i dati multimediali vengono visualizzati, viene generalmente scartato per fare spazio nel buffer per la trasmissione continua del flusso. In effetti, il buffer agisce come un ritardo temporale e contribuisce a garantire la riproduzione continua del flusso in caso di interruzione momentanea della connessione. Questo processo di riempimento e svuotamento del buffer viene ripetuto fino alla fine del flusso.

Vantaggi dello streaming multimediale

  • Riproduzione istantanea: La riproduzione multimediale inizia quasi subito dopo lo streaming del download, riducendo drasticamente i tempi di attesa. Gli attuali server multimediali in streaming consentono inoltre agli spettatori di passare a qualsiasi momento di un flusso su richiesta senza scaricare l'intero file.
  • Streaming live: La riproduzione immediata consente la trasmissione live di eventi come sport, concerti, servizi religiosi, presentazioni, spettacoli e altro ancora. Mentre c'è qualche ritardo nominale nel processo di codifica, trasmissione e buffering, la riproduzione appare istantanea al visualizzatore.
  • Diritti di visualizzazione: Poiché i dati multimediali non sono completamente scaricati e archiviati sul dispositivo di riproduzione, è più difficile copiare e piratare. L'editore dello stream ha il controllo completo su quando e dove il contenuto multimediale è disponibile.
  • Requisiti di archiviazione: Poiché viene memorizzata solo una piccola parte del file multimediale in streaming in qualsiasi momento, la quantità di memoria fisica richiesta viene notevolmente ridotta. Questo è l'ideale per dispositivi mobili come smartphone o tablet con memoria limitata.
  • Qualità adattiva: A seconda della velocità di connessione tra il media server e il dispositivo di riproduzione, la qualità del flusso multimediale può essere aumentata o diminuita per garantire una riproduzione fluida. Connessioni più lente possono ancora accedere ai contenuti, anche se con una qualità inferiore. Se la velocità di connessione è variabile, tale qualità può adattarsi dinamicamente.
  • Video su richiesta (VOD): Insieme al file di streaming, a seconda del server multimediale e della configurazione CDN, è anche possibile fornire un download di file video per l'utilizzo on-demand o offline.


Connettività video

Quando si progetta un sistema di distribuzione di video in streaming, le considerazioni includeranno il tipo e il numero di telecamere che verranno utilizzate e il modo in cui tale segnale video sarà connesso al server multimediale che fornisce lo streaming.

Lo streaming direttamente dai dispositivi mobili è recentemente aumentato di popolarità, ma per ottenere qualità professionale e flessibilità produttiva, sono preferiti i sistemi di telecamere dedicati.

Le fotocamere di qualità superiore offrono uscite HDMI o SDI che possono essere collegate a un server multimediale tramite dispositivi hardware come AJA U-TAP con USB 3.0, Io 4K Plus con interfacce Thunderbolt o tramite schede PCIe plug-in diretta come AJA KONA linea.

Esistono anche dispositivi standalone come AJA HELO che codificheranno e trasmetteranno in streaming H.264 da un segnale video HDMI o SDI, con registrazione simultanea a una condivisione di rete o a un supporto rimovibile.



Content Distribution Network


Per distribuire un flusso video dal media server, è necessaria una Content Delivery Network (CDN). In sostanza, un CDN è una rete di server (comunemente denominata cloud, con esempi come Akamai, FaceBook Live, Twitch, YouTube Live e Ustream) situati in tutto il mondo che distribuiscono contenuti tramite Internet.

Avendo più punti di accesso, un CDN è in grado di connettere gli spettatori a un server più vicino alla loro posizione effettiva per ridurre la latenza. Un CDN progettato specificamente per lo streaming live riduce ulteriormente la latenza e fornisce scalabilità distribuendo la domanda su centinaia o migliaia di server. Ciò consente di trasmettere i contenuti video in streaming a più visualizzatori contemporaneamente senza interruzioni, il che è essenziale per le applicazioni professionali.

Protocolli di streaming

A seconda del CDN selezionato, supporteranno più protocolli di streaming video per la distribuzione del contenuto multimediale. Un protocollo di streaming video è un metodo accettato per suddividere i dati del file video in blocchi, trasmetterli e rimontarli per la riproduzione. Sebbene spesso confusi, i protocolli di streaming video sono indipendenti dai codec di compressione e dai formati di file. Non hanno alcuna relazione con il modo in cui i dati vengono compressi o il contenitore in cui i dati vengono inseriti, piuttosto sono il metodo di trasmissione dei dati. I più comunemente usati sono i seguenti:

  • RTMP: Real Time Messaging Protocol (Flash)
  • RTSP: Real Time Streaming Protocol (Android, Blackberry, QuickTime)
  • HLS: HTTP Live Streaming (Android, Apple, QuickTime e HTML5)
  • Unicast: protocollo di connessione punto a punto
  • Multicast: punta a molti protocolli di connessione


Commutazione multi-camera

Per aumentare il valore di produzione delle trasmissioni in streaming, è diventata un'opzione comune per progettare un sistema multicamera commutato. Il passaggio tra più angolazioni di telecamere SDI o HDMI e sorgenti di contenuto presenta i principali vantaggi rispetto a una singola videocamera o streaming di dispositivi mobili. La possibilità di passare da una fonte all'altra offre un'esperienza visiva più dinamica e con applicazioni di commutazione video come vMix o Telestream® Wirecast, l'aggiunta di grafica ed effetti è semplice da implementare.

Il collegamento di più sorgenti SDI e HDMI è facilmente disponibile tramite un'interfaccia video Thunderbolt 3 come AJA Io 4K Plus o tramite schede PCIe plug-in dirette con la linea di prodotti AJA KONA. Insieme, il software applicativo di commutazione e l'hardware di ingresso multiplo fungono da switcher di produzione.

Registrazione e archiviazione

Sebbene lo streaming sia la funzione principale di un sistema di distribuzione di video in streaming, è spesso necessario anche la registrazione simultanea del flusso per l'archiviazione.

I file registrati sono disponibili per l'archiviazione o la pubblicazione come file scaricabili per la riproduzione su richiesta o offline.

Mentre il file di streaming può essere compresso a un basso bit rate per contenere i limiti di larghezza di banda, il file registrato viene spesso archiviato con la massima qualità possibile per l'archiviazione.

 La capacità di registrazione può essere progettata nel media server, oppure per applicazioni portatili un dispositivo stand-alone come AJA HELO può fornire streaming e registrazione H.264 (MPEG-4 / AVC) con impostazioni di qualità indipendenti sia per la memoria interna rimovibile che per quella esterna e archiviazione collegata in rete.

Fonte: Aja video Systems

10 gen 2019

AJA video e soluzioni HDR. Cosè l' HDR?

Cos'è l'HDR ?

Il perseguimento dell'High Dynamic Range (HDR) è il sogno di avvicinarsi al sistema Human Visual System (HVS) in tutto ciò che sperimentiamo come spettatori.
HDR è un nuovo sistema di visualizzazione progettato per rappresentare meglio ciò che il sistema di visione umana (HVS) può vedere.

La visione umana vede il mondo con un sacco di gamma dinamica e una vasta gamma di colori.
Le moderne fotocamere hanno fino a 14 stop di gamma dinamica. I sistemi BT.709 Standard Dynamic Range (SDR) possono mostrare solo fino all'equivalente di circa 6 stop.

L'HDR tenta di mostrare molto più del mondo che vediamo, a partire dalla più ampia gamma di telecamere disponibili oggi alla fonte e attraverso la catena di produzione e, infine, per la presentazione su schermi accessibili ottimizzati per HDR.



Approccio HDR e Spazio colore


  • L'HDR implica la necessità di utilizzare diversi spazi colore e rappresentazioni logaritmiche di diversi produttori di fotocamere e spostarli attraverso il processo fino alla consegna finale per gli approcci HDR emergenti per la visualizzazione e la consegna oggi.
  • Le emittenti e i produttori vogliono prendere l'ampia gamma dinamica disponibile dalle fotocamere e preservarne il più possibile, per offrire agli spettatori finali un maggiore contrasto e gamma di luminanza, una tavolozza di colori più ampia e più ricca e un'esperienza di visione coinvolgente.
  • Gli approcci HDR evitano confusione aiutando a gestire correttamente lo spazio cromatico, assicurandosi che le applicazioni sembrino corrette e sfruttino in modo ottimale le migliori capacità di visualizzazione.
  • Una sfida consiste nel convertire da formati Camera, come RAW e Log, a uno degli approcci emergenti HDR. Inoltre, essere in grado di applicare e / o convertire l'approccio di scelta HDR attraverso la modifica, la correzione del colore e / o il processo di monitoraggio.
  • Molti display UltraHD ora includono funzionalità HDR, che offre un'esperienza di visione più realistica e coinvolgente. Ciò si ottiene aumentando la rappresentazione dello spazio colore con Wide Color Gamut (WCG) e la luminosità utilizzando l'intervallo dinamico più elevato (HDR).



PQ (Percentual Quantizer) o trovare una curva migliore


Per raggiungere un equilibrio di avvicinamento alla percezione umana entro i limiti di larghezza di banda dell'infrastruttura e delle tecnologie esistenti, inclusi il campionamento della crominanza e della luminanza, la profondità di bit e i punti di forza e di debolezza delle curve Gamma vs Logarithmic, era necessaria una curva migliore.

Perché era necessaria una curva migliore e qual è il vantaggio di PQ *?

  • Le funzioni di potenza sprecano bit all'estremità superiore del campo di luminanza
  • Le funzioni di registro perdono i bit all'estremità inferiore dell'intervallo di luminanza
  • La gamma non riesce a livelli di luminanza bassi, anche a profondità di bit più elevate
  • La massima efficienza sarebbe quella di seguire la percezione umana
  • PQ Mostra prestazioni bilanciate sull'intero intervallo di luminanza

* PQ è rappresentato in pratica da due approcci, HDR10 un approccio aperto e Dolby® Vision, un sistema proprietario di proprietà di Dolby Laboratories. Entrambi sono progettati per rendere l'uso più efficiente dei bit in tutta la gamma di fasi di luminanza e contrasto possibili.

PQ è standardizzato in SMPTE ST 2084 e BT.2100 e PQ definisce una curva che assicura che le bande siano al di sotto della differenza appena nota (JND). La curva PQ garantisce l'uso più efficiente delle parole di codice che riduce al minimo la profondità di bit richiesta.

Ci sono diversi sistemi che sono emersi per rispondere alle esigenze dell'HDR.


Per un'immagine vivida, che HDR promette al momento della consegna sul display, la sfida è stata quella di fornire sufficienti passi utili all'interno della gamma di colori e luminanza per fornire sfumature uniformi e soddisfare lo spettatore.

1. Dolby Vision è un nuovo modo di definire come appare un'immagine su un televisore. Si tratta di un sistema "display refer" in cui ogni valore del codice definisce una luminosità specifica (cioè non c'è controllo della luminosità dell'utente). Dolby Vision ha un metodo per inviare dati a 12 bit su un cavo HDMI utilizzando 4096 tonalità per gradazioni uniformi. Per le condutture di produzione contemporanee, la sfida è che la maggior parte delle condotte sono a 10 bit con 1024 tonalità o passaggi disponibili. HDR 10, Dolby Vision e HLG sono stati progettati per risolvere questo dilemma scegliendo in modo efficiente di utilizzare le curve attraverso la luminanza e le gamme di colori che riducono al minimo le bande percettive e raggiungono risultati più vicini al sistema di visione umano, consentendo risultati incredibili.

  • Formato proprietario
  • Quantitativo percettivo SMPTE ST-2084 (PQ)
  • Metadati: Dinamici per ST 2094 *
  • Funzione di trasferimento elettro-ottico, risoluzione fino a 4K
  • Profondità bit di riproduzione: 12 bit
  • Luminosità massima fino a 10.000 nit (in pratica con 4.000 nit in pratica)
  • Spazio colore Wide Color Gamut (WCG) (ITU-R Rec. 2020)


2. HDR10 è un profilo multimediale definito dalla Consumer Technologies Association (CTA).

HDR10 utilizza i metadati statici SMPTE ST-2086 "Mastering Display Color Volume" per inviare i dati di calibrazione del colore del display mastering, nonché i valori statici MaxFALL (Maximum Frame Average Light) e MaxCLL (Maximum Content Light Level). HDR10 è uno standard aperto supportato da un'ampia varietà di aziende.

  • Formato aperto
  • Percentual Quantizer SMPTE ST-2084 (PQ)
  • Interfaccia minima del segnale: HDMI 2.0a
  • Rappresentazione del colore di riproduzione BT.2020 (come per Dolby Vision)
  • Funzione di trasferimento della riproduzione: ST 2084 (come per Dolby Vision)
  • Metadati: statico per ST 2086
  • Profondità bit di riproduzione: 10 bit

3. HDR10+ costruito da HDR10*, aggiungendo metadati dinamici e altro, consentendo scene per scena o anche riprese per variazione di colpo. Lo standard consente di riconoscere lo spazio colore di un display e altro ancora. Samsung è il driver principale per questa evoluzione dello standard originale.

HDR10+ è stato recentemente adottato da una serie di società e ha portato alla creazione di HDR10 + Alliance con membri che comprendono Amazon, Samsung, Panasonic, 20th Century Fox e Warner Bros e altri.

  • Metadati dinamici SMPTE 2094-40 per trasformazioni del volume del colore (DMCVT)
  • Trasforma il colore ottimizzato per ogni scena e ogni schermo
  • Metadati: Dinamici per ST 2094
  • Le tracce di metadati contengono informazioni supplementari sulla classificazione del colore
  • Interfaccia minima del segnale: HDMI 2.0a
  • La rappresentazione del colore di riproduzione BT.2020 o BT.709 dipende dal display
  • Funzione di trasferimento della riproduzione: ST 2084
  • Profondità bit di riproduzione: 10 bit

4. HLG (Hybrid Log Gamma) è un approccio HDR sviluppato congiuntamente dalla BBC e dalla NHK. HLG utilizza valori di luminanza relativa e si basa sullo standard BT.2020 per una gamma di colori più ampia e aggiunge gamma dinamica PQ e HLG per uno standard noto come BT.2100.

Lo standard HLG è privo di royalty ed è compatibile con display SDR e display HDR. HLG è supportato da HDMI 2.0b *, HEVC e VP9. L'aspetto chiave di HLG è che il contenuto HDR può essere ragionevolmente visualizzato sui display SDR.
  • Ibrido tra Gamma e Log
  • Metadati: nessuno
  • Luminanza relativa
  • Molto simile alla curva SDR
  • Profondità bit di riproduzione: 10 bit
  • I dati dell'immagine a luce lineare di una telecamera sono mappati sulla curva HLG OETF e allo spazio colore WCG BT.2020
* Poiché HLG non ha metadati, HLG funziona con qualsiasi specifica HDMI e HDMI 2.0b è un chiarimento di HDMI 2.0a

FS-HDR con tecnologia Colorfront Engine 


La tecnologia FS-HDR è progettata per colmare le conversioni necessarie dagli ampi spazi di colore delle fotocamere e le gamme di luminanza agli approcci HDR e da SDR a HDR per integrare materiali non HDR nella programmazione HDR, tutto in tempo reale.

All'interno di FS-HDR c'è Colorfront Engine ™, progettato da Cate Bill Feightner, vincitore del premio Oscar Colorfront, e Tamas Perlaki, ingegnere capo dell'Academy Award, che offre un'ampia gamma di colori in tempo reale, alta gamma dinamica, alta frequenza fotogrammi fino a 60p e elaborazione ad alta risoluzione .

Flussi di lavoro HDR per UltraHD / HD con FS-HDR

  • Conversione da uno standard HDR di casa a uno standard HDR di consegna
  • Conversione da una telecamera OETF a uno standard HDR della casa
  • Conversione da uno standard HDR di casa a SDR per la consegna o il monitoraggio
  • Conversione dell'uscita della telecamera SDR in uno standard HDR della casa
  • Conversione di sorgenti SDR in HDR per l'integrazione in un programma HDR
  • Conversione di sorgenti HD SDR BT.709 in UltraHD HDR BT.2020
  • Conversione di sorgenti UltraHD HDR BT.2020 su HD SDR BT.709

Quali sono le soluzioni AJA ideali per sistemi HDR ?


Soluzioni HDR AJA per l'editing e la correzione del colore

Devi essere in grado di visualizzare e visualizzare i tuoi materiali HDR su monitor compatibili durante la post produzione. Le soluzioni AJA Desktop rendono questo semplice con il supporto fornito nel pannello di controllo AJA per l'impostazione dei metadati HDR e HLG.
  • KONA 5 per desktop 12G-SDI I/O con supporto HDR10* e HLG ** su uscita HDMI 2.0
  • KONA 4 per I / O desktop con supporto HDR10 * e HLG ** su HDMI
  • IP KONA per Broadcast IP con supporto HDR10 * e HLG ** su HDMI
  • Io 4K Plus per Thunderbolt 3 I / O con supporto HDR10 * e HLG ** su HDMI
  • Io IP Video HD con supporto HDR10 * e HLG ** e I / O audio su IP multicanale con Thunderbolt ™ 3 Performance
  • Io 4K per Thunderbolt 2 I / O con supporto HDR10 * e HLG ** su HDMI
Game Capture, VR e Projection Mapping con HDR

Acquisizione di giochi, eSport, VR e mappatura di proiezione possono trarre grande vantaggio dall'HDR per i loro ambienti immersivi. Per catturare le sorgenti HDMI con HDR per queste esigenze, guarda a HDMI KONA.
  • KONA HDMI è una scheda di acquisizione HDMI multicanale PCIe 2.0 a 8 corsie, con tutta la qualità e la flessibilità che ci si aspetta da AJA.
* Verificare la compatibilità con il produttore del software.
** Il supporto HLG dipende dall'applicazione. Verificare la compatibilità con il produttore del software.

Monitoraggio HDR da sorgenti SDI
  • Hi5-4K-Plus Mini-Converter per HDR e supporto frame rate elevato
  • Hi5-12G converter da 12G-SDI a HDMI 2.0
Riproduzione e registrazione HDR
  • Ki pro Ultra Plus
Analisi HDR
  • HDR Image Analyzer con incluso negli strumenti di AJA HDR Image Analyzer funzioni quali  monitoraggio delle forme d'onda, dell'istogramma e del vettorscopio, oltre a una serie di funzioni essenziali di analisi delle immagini
  • HA5-12G Converter da HDMI 2.0 a 12G-SDI
  • HA5-4K se hai ricevuto un segnale HDR tramite HDMI e hai bisogno di sapere di più sui metadati HDR utilizzati

Post più popolari

ARCHIVIO POST