Efektywny workflow w DaVinci Resolve – Webinarium X-Rite

Efektywny workflow w DaVinci Resolve – Webinarium X-Rite

X-Rite Photo & Video zaprosił nas do poprowadzenia webinarium dla początkujących i średnio zaawansowanych użytkowników DaVinci Resolve. Przygotowane przez nas webinarium poświęcone zostało zagadnieniom szybkiej i efektywnej pracy w programie.

Pomimo ograniczeń czasowych wynikających z formuły webinaru, zależało nam na pokazaniu uczestnikom procesu od A do Z (od zarządzania mediami po finalny render). Efekt naszej pracy możecie zobaczyć w zarejestrowanym materiale.

Link do materiału:

Efektywny workflow w DaVinci Resolve Piątek • 29 maja 2020 • godz. 20:30

Poniżej odpowiadamy na pytania, których nie udało się poruszyć podczas Q&A podczas spotkania. Dziękujemy serdecznie wszystkim uczestnikom! Zapraszamy do komentowania!

PYTANIA OGÓLNE

 
  • Czy będą kolejne szkolenia z DVR np. rozwinięcie zakładki FUSION?

Liczymy że będą kolejne szkolenia i webinary! W komentarzach koniecznie dajcie nam znać jakie zagadnienia są dla was najbardziej interesujące.

  • Parę miesięcy już rozkminiam ten program, stawiam go ponad inne. Widzę parę ciekawych skrótów klawiaturowych pytanie: czy będą gdzieś dostępne?

Jeden z naszych wcześniejszych wpisów na blogu może być tutaj pomocny: https://www.frankfuterro.pl/2019/01/50-skrotow-klawiszowych-ktore-przyspiesza-twoja-prace-w-davinci-resolve/

  • Będzie coś o konformingu? Czy tylko customizacja klawiatury 🙂

Na tym spotkaniu staraliśmy się przybliżyć system pracy w obrębie Resolve, tak by uniknąć conformingu z i do innych rozwiązań.

  • Czy wszystkie opisywane funkcje/wtyczki są dostępne w wersji darmowej DVR?

Większość przedstawionych podczas webinarium rozwiązań jest dostępna w wersji darmowej ale np. Face Recognition czy Face Refinement są dostępne tylko w wersji Studio.

MONTAŻ

  • Czyli mając projekt w 25 klatkach inne materiały np. w 50 czy 60 nie dopasowujemy?

Ustawienia framerate (FPS) dla projektu definiują wymagania emisyjne, zazwyczaj w przypadku plików przygotowywanych w Europie będą to 24 klatki (dla kina) lub 25 klatek (dla tv internetu).

  • Dlaczego nie wybieramy dopasowania klatkażu? (pytanie dotyczy komunikatu wyświetlanego przez DVR przy imporcie materiału do Media Pool – przypis Maciej).

Finalne medium i pole dystrybucji decyduje o klatkażu a nie materiał. Wcześniej ustawiliśmy manualnie właściwy i żądany framerate dla projektu, czyli w przypadku edytowanego materiału 25fps.

  • Czy można samodzielnie ustawić klatkaż domyślny?

W ustawieniach projektu można stworzyć stały preset dla klatkażu i rozdzielczości dla nowo tworzonych projektów (Project settings>Prestes> RMB i opcja Save As User Default Config).

  • Dlaczego zostawiłeś ustawienie Video monitoring na 24 klatki?

Ponieważ ustawienie to dotyczy podglądu na monitorze podłączonym przez kartę I/O a nie podglądu w oknie timeline. Oczywiście, gdybyśmy mieli podłączony monitor po
karcie I/O konieczne będzie właściwe ustawienie parametrów w opcjach Master Settings>Video Monitoring.

  • Jaka jest różnica między CUT i EDIT? W jakim celu stworzono te narzędzia?

Rozwiązania dostępne w CUT Page są dedykowane do prostych i szybkich montaży. EDIT Page służy edycji bardziej złożonych form montażowym i nie ustępuje pod tym względem innym profesjonalnym programom NLE dostępnym na rynku.

  • Pracując w zakładce Cut lub Edit, ustawiłem wskaźnik (wskaźnik czyli playhead – przypis Maciej) gdzie chce przyciąć, czy jest wtedy skrót klawiszowy aby od tego miejsca odciąć i usunąć przez/za wskaźnikiem?

Cięcie w miejscu ustawionego playheadu: Ctrl+B. Zaznacz od playheadu w przód: Y lub Ctrl+Y dla wielu ścieżek wideo i audio.

  • Pytanko: czy jest możliwość ustawienia playhead aby po kliknięciu na klip na timeline głowica podążała za kursorem? Tak jak w przypadku klikania nad timeline?

Tak, opcję tą można włączyć korzystając z górnego menu i wybierając: Timeline>Selection Follows Playhead.

  • Czy montaż powinien odbywać się do wybranej muzyki ? Czy muzyka powinna być dołożona do ustawionych klipów?

Wszystko oczywiście zależy od formy i specyfiki montowanego materiału. Akurat w przypadku prostej i szybkiej edycji prezentowanego materiału podczas webinaru zasadne był montaż “pod utwór muzyczny” (szukanie sklejek pod muzykę, odpowiednia długość trwania przebitek etc).

  • Jak na timeline wrzucać tylko video bez audio teraz? to przez to odznaczenie A1?

Dokładnie tak, zaznaczając tzw. Track Header (czerwona obwoluta wokół V1, A1 etc) możemy zdecydować na którą ścieżkę będzie zrzucany materiał. Po dezaktywowaniu Track Header możliwe też są takie decyzje montażowe, gdzie zrzucamy samo audio lub sam obraz jak w przykładzie prezentowanym podczas webinaru.

  • Czy analizę twarzy można puścić w tle?

Obecnie w DVR nie mamy takiej możliwości.

  • Podobnie do synchronizacji audio – czy mozna to robic w tle – dla większego projektu to z pewnością potrwa dłużej.

Na ten moment nie ma takiej możliwości.

  • Co to za skrót MARK IN?

Pracujemy i uczymy pracy na znacznikach, czyli metody szybkiej i profesjonalnej pracy bazującej na wykorzystaniu okna podglądu dla materiałów źródłowych (selekcja materiału i decyzje montażowe jeszcze przed wrzucaniem materiału na timeline). MARK IN to początkowy punkt zaznaczenia, Mark OUT to znacznik końcowy.

  • Czy wiecie jak wyświetlić miniatury templatów z grafikami przed insertem na timeline? Tak jak w przypadku LUTa?

Niestety na ten moment nie mamy możliwości podglądu poszczególnych templatów dostępnych z poziomu zasobnika Fusion Titles w postaci miniatur czy podglądu szablonu animacji.

  • Napisy wyjeżdżające poza ekran z trackingiem 🙂 jak zrobić?

W tym celu należy użyć trackowania dostępnego z poziomu COLOR lub FUSION Page. Następnie gdy śledzone elementy obrazu znajdą się poza kadrem w większości przypadków konieczna będzie również jeszcze dodatkowa edycja ruchu za pomocą klatek kluczowych.

  • Czy ustawienia full hd na timeline determinują późniejszy render? – tzn. czy jak korzystam z plików 4K i mam ustawiony timeline na full hd to czy później jak będę renderował projekt w 4K to czy będzie strata na jakości?

W dowolnym momencie możemy edytować rozdzielczość dla timeline z poziomu ustawień projektu. Oznacza to że możemy pracować w rozdzielczości mniejszej niż zaimportowany materiał źródłowy. W razie potrzeby przed renderem możemy zwiększyć rozdzielczość timelineu w ustawień projektu, unikając w ten sposób stratnego skalowania materiału.

SYNCHRONIZACJA AUDIO Z OBRAZEM

  • No to już leci pierwsze pytanie dot. synchronizacji. Mam dwa pliki wideo nagrane z dźwiękiem. Chciałbym je zsynchronizować i finalne mieć na timeline dwie ścieżki wideo i jedną wybraną ścieżkę audio. Jak to zrobić? 🙂

Jeśli dobrze rozumiem pytanie to tak jak w przypadku metody prezentowanej podczas webinaru, zaznaczamy pliki audio oraz pliki obrazu, natomiast zamiast Auto Sync Audio>Based on Waveform korzystamy z opcji Auto Sync Audio>Based on Waveform and Append Tracks. Przy montażu będziemy mieli dostęp wtedy do audio zaszytego w pliku kamerowy oraz do ścieżki audio dodanej podczas synchronizacji.

  • Czy jest możliwość automatycznego synchronizowania większej liczby ścieżek dźwiękowych audio dotyczących jednego pliku wideo bez używania multicamu? (ZOOM = lewy kanał, prawy kanał, mikroport)?

Tak, zsynchronizujmy je tę samą metodą jak pokazano. Aby ustawić wymienione parametry, w tzw. Clip attributes decydujemy które ślad będzie wykorzystywany i przypisujemy mu kanał.

  • Czy na timeline można dać widok stereo czyli kanału lewego i prawego?

Widok poszczególnych kanałów zależy od typu śladu jaki ustawimy na wybranej ścieżce (Mono, Stereo itd.) Widok poszczególnych kanałów jest dostępny na stronie Fairlight lub w zakładce Edit po zaznaczeniu klipu i wybraniu opcji Display Individual Audio Channel.

  • Naszło mnie takie pytanie. Mówiliście i pokazywaliście synchronizację wideo z dźwiękiem z zooma na podstawie waveformu. Czy korzystacie też czasem z opcji timecode, a co za tym idzie konfigurujecie wcześniej sprzęt do nagrań?

Można synchronizować kamery opcją FREE RUN lub łącząc je ze sobą albo za pomocą specjalnych urządzeń wysyłających timecode do kamer np. https://www.creativetools.pl/tentacle-sync-e-standard-set.html

  • Czy korzystacie z tentacle sync do synchronizacji ?

Nie korzystamy bezpośrednio, jednak ten system jest nam znany i bazując na doświadczeniu osób z którymi współpracujemy – jak najbardziej możemy go polecić.

  • Jaki workflow dla synchronizacji audio przy kilkuset plikach wideo, z których tylko część może wejść w montażu – najpierw synchro wszystkiego (z czego część pracy nie zostanie wykorzystana) czy najpierw montaż, a później synchro (o ile da się to jakoś sensownie zrobić w Davinci)?

W większości przypadków będziemy zobligowani wykonać synchronizację przed podjęciem montażu (ponieważ po zamontowaniu materiału dostęp do punktów synchronizacji tj. np. klaps będzie ograniczony). Przy próbie dopasowywania audio do wielu materiałów zgromadzonych na timeline proponujemy posiłkować się zewnętrzną aplikacją tj. np. Syncaila.

  • Powiedzcie proszę coś więcej o tej Syncaili? W czym mi to realnie pomoże? I co da, czego nie da mi Resolve?

Optymalny workflow w DVR sprzyja sytuacji gdy na planie mieliśmy dźwiękowca czyli takiej sytuacji gdy kolejne ujęcia czy duble kamerowe znajdują swój odpowiednik w kolejnych odpowiednich plikach audio (np. dubel jeden = ton 1, db.2 = ton 2 etc.).
Natomiast sytuacji gdy z planu mamy kilkaset plików dźwiękowych i kamerowych do zsynchronizowania (lub więcej!) a dodatkowo nagraniu ich nie towarzyszył żaden przemyślany system opisania czy katalogowania tych plików – bardziej optymalne dla nas może być synchronizowanie materiału Syncailią.

  • To jeszcze trochę komplikuje. Nagrywałem na dwie kamery (z dźwiękiem) i dźwięk osobno. Ale mam kilkusekundowe przerwy w nagraniach z kamer (limit 15 min nagrania i konieczność ponownego włączenia nagrywania). Nagranie audio nie było przerywane – mam je w całości. Jak to wszystko szybko i wygodnie zsynchronizować? Podsumowując – finalnie mam kilkanaście klipów z jednej kamery (z przerwami), kilkanaście z drugiej (z przerwami) i nagranie audio w całości.

W takim przypadku jeśli chcemy możemy się posiłkować zewnętrznymi aplikacjami tj. Syncaila lub Pluraleyes, lub możemy dokładać kolejne kamery do kompozycji Multicam.

  • Pytanie: czy Resolve poradzi sobie z tzw driftem audio, czyli nieidealnym zegarem rejestratora?

Niestety nie, musimy dbać o poprawne nagranie i synchronizację plików audio z plikami wideo na planie zdjęciowym.

HARDWARE i OPTYMALIZACJA

  • Ostatnio podczas montażu krótkiego materiału podobnego do tego z dzisiejszego spotkania Davinci “pożarł” mi resztę wolnego miejsca na dysku (ok 70GB dysku). Wiecie może dlaczego tak się może dziać?

Prawdopodobnie wynika to z ustawienia automatycznego kaszowania podglądu. Wybór trybów kaszowania znajdziecie w górnym menu, pod opcją Playback. Tam też usuwamy niepotrzebne już pliki kaszowania. Dodatkowo w ustawieniach projektu trzeba określić kodek do jakiego program będzie tworzył podgląd. Nieskompresowane kodeki tworzą bardzo duże pliki na potrzeby podglądu.

  • Czy jest sposób na przyspieszenie działania samego programu? Nie chodzi o odtwarzanie wideo, ale ładowanie w działaniu programu.
  • Trochę mi się “muli komputer” i planuję zrobić zakup nowego, jaki minimalny CPU i jaka minimalna GPU powinienem kupić by nie było ścięć obsłuży ten program?
  • Na jakich komputerach pracujecie? CPU/GPU?

Aby program działał sprawnie trzeba zapewnić mu odpowiednie środowisko sprzętowe. Nasze rekomendacje odnośnie kart graficznych dla montażu HD to minimum karta 4GB, dla montażu 4K to karta minimum 8GB. Rekomendowana minimalna ilość pamięci RAM to 32GB dla montażu 4K i minimum 64GB dla montażu 6K. Jeśli planujemy używać regularnie Fusion Page, to przy pracy na materiale 4K minimalną rekomendacją są także 64GB pamięci RAM. Minium procesory i7 nowej generacji lub ich odpowiedniki. Należy pamiętać także że do szybkiej i płynnej pracy w DaVinci Resolve potrzebne będą również dyski SSD. Ponadto w DVR przy edycji możemy się także posiłkować Optymalizacją Mediów (transkodowaniem materiałów do plików o mniejszej rozdzielczości oraz o mniejszym stopniu kompresji).

  • Podstawowe pytanie: Czy Panowie pracują na czymś w rodzaju proxy, czy jest to materiał w pełnej rozdzielczości?

Podczas webinaru nie używaliśmy mediów zoptymalizowanych, używaliśmy za to kaszowania podglądu dla animacji tekstu Fusion.

  • Jak “przenieść” środkowy przycisk myszy na mackową mysz magic mouse?
    Nie potrafię na pracować na myszy PC… przyzwyczajenie od pierwszej magic mouse 🙂 🙂

Praca z myszą wyposażoną w tzw. scroll (dodatkowy środkowy obrotowy przycisk myszy) będzie bardziej szybka i efektywna. Przytrzymanie Ctr przy klikaniu LPM (left mouse button) zamienia LPM na RMB (right mouse button). W przypadku operacji za pomocą Apple Magic Mouse możemy niektóre procesy próbować zastąpić używając Cmd, Alt czy Shift natomiast znacznie prostsze i w praktyce szybsze w działaniu, będzie po prostu używanie 3 guzikowej myszy ze scrollem!

COLOR / WZORNIKI

  • Jak można zmienić pogodny dzień w bardziej ponury i pochmurny? Czy bez colorchecker jest to możliwe?

Tak jest to możliwe, możliwości jest wiele. Na przykład suwak temperatury pozwoli ochłodzić / ocieplić ujęcie. Natomiast sam Color Checker jest dla nas punktem odniesienia i nie służy bezpośrednio do nadawania scenom określonej formy czy nastroju.

  • Mam pytanie odnośnie colorcheckera video. Na palecie barw nieznacznie zarysowałem czarne odblaskowe pole i od tego czasu mam problem z prawidłowym odczytem pól. Czy jest to możliwe?

Trudno odpowiedzieć na to pytanie. Jeśli jest to nieznaczne zarysowanie nie powinno mieć znaczenia przy ręcznym wykorzystaniu wzorca przy ustawieniach ekspozycji. Trzeba zamaskować obszar w którym nie ma uszkodzeń i upewnić się, że nie ma tam również blików światła.

  • Czy wzorniki z rodziny ColorChecker Video można zastosować również w fotografii? Czy spektrofotometry i1 pro 2 można stosować w zamian i1Display w pracy video?

ColorChecker Video w fotografii wykorzystamy do ustawienia balansu bieli, szarymi polami możemy korygować ekspozycję w pewnym stopniu. Natomiast nie stworzymy profilu dla matrycy aparatu. Spektrofotometry można wykorzystywać do kalibracji ekranu, jednak lepsze efekty przyniesie kolorymetr ze względu na specyfikę pomiaru kolorymetrycznego który mierzy emitowane światło, w porównaniu do spektrofotometru, który sam wysyła wiązkę światła i mierzy ilość światła odbitego.

  • Czy Resolve będzie poprawnie odczytywał kolory z colorcheckerów innych producentów lub checkerem DIY? W menu wyboru były bowiem tylko produkty X-Rite.

W przypadku wzorników nie rekomendujemy metody DIY (“Do it yourself”).
Na wykonanych fabrycznie wzorach są barwy stanowiące wiarygodną referencję. Wzorniki zostały zaprojektowane w warunkach laboratoryjnych. Żeby opracować i wykonać w domu taki zestaw referencyjnych barw trzeba posłużyć się wiarygodnymi pomiarami barwy i połysku w środowisku ze stałą temperaturą barwową. Metodą “na oko” po prostu nie ma to sensu. W momencie pisania odp. w zakładce Color Match w DVR mamy do dyspozycji siedem różnych wzorników (X-Rite, Datacolor i DSC Labs – gdzie rozwiązania X-Rite są najbardziej przystępne cenowo).

  • Na pewno to są paski jasny średni ciemny?

Szczegółowy opis poszczególnych pól z wzorników X-Rite ColorChecker Video znajdziemy w przewodnikach, ale tak Biel 90-100% Czerń 0-10% Szarość 40-50% w Passporcie oraz dodatkowe pola dla ColorChecker Video: Głęboka szarość – 20-30%

X-Rite ColorChecker Passport Video: https://bit.ly/PassportVideoPL
X-Rite ColorChecker Video: https://bit.ly/ColorCheckerVideoPL

Jakie tablice X-Rite polecacie?

ColorChecker Passport Video jest wygodną i praktyczną tablicą. Jest on kieszonkowych rozmiarów w wytrzymałym etui, posiada oddzielną rozetę do manualnego ostrzenia oraz kartę do regulacji balansu bieli. Posiada on większość pól co jego większe odpowiedniki – ColorChecker Video.

  • Jak poprawnie nagrać taką tablice – przy świetle naturalnym?

Rodzaj źródła światła nie ma znaczenia, ważne żeby wzorce zostały prawidłowo zarejestrowane na wprost do kamery, w osi filmowanego tematu i pod odpowiednim kątem. Tzn. żeby wszystkie pola były widoczne i nie posiadały odbitych blików światła.

  • Jak skorzystać z promocji na Colorchecker?

Prosimy o powołanie się na webinarium oraz o kontakt z partnerami X-Rite, oferta ograniczona czasowo lub zdolnościami negocjacyjnymi kupującego:
Sklep Fine-Art.:
https://bit.ly/fineart-SKLEP

Fotoplus:
https://bit.ly/sklepFOTOPLUS

  • Ten balans na czekerze został przekopiowany do multikamery czy na ujęcia?

Został przekopiowany na multikamerę, na wybrany kąt. Można też przenosić korekty bezpośrednio na ujęcia.

  • Czy lift/gamma/gain to to samo co shadow/midtone/highlight?

Nie, to są inne narzędzia. Shadow/Midtone/Highlight w panelu Color Wheels LOG, w odróżnieniu od domyślnych Color Wheels w trybie Lift/Gamma/Gain działają bardziej szczegółowo na ciemnych, średnich i jasnych partiach obrazu.

  • Pytanie: trochę dziwne mi sie wydaje, ze Resolve nie umie sam znaleźć wzornika na obrazie 🙂

Tak została zaprojektowana ta funkcja. Chodzi tutaj o precyzyjne wskazanie pól wzorca, dlatego też wskazanie manualne będzie najlepszym rozwiązaniem.

  • Czemu materiały źródłowe nie zostały zapisane w krzywej logarytmicznej? Największym wyzwaniem, jest wywołanie pliku s-log 3 z sony a73.

Niestety nie my rejestrowaliśmy ten materiał, najwidoczniej taka była intencja operatora.

  • Czy to prawda, że ColorChecker należy wymieniać co rok.

Producent zaleca wymianę co dwa lata. Jednak tutaj wszystko zależne jest od sposobu przechowywania i indywidualnego podejścia użytkownika. Z praktyki wynika, że dobrze przechowywane wzorce wykazują swoje właściwości znacznie dłużej.

  • Posiadam ColorChecker Video. Jaką wartość na waveformie powinno mieć pole 50% szarości (to pod bielą).

Wartości procentowe znajdują się w przewodnikach do których linki znajdują się kilka pytań wcześniej. Proszę jednak sprawdzić jaką ekspozycję zaleca producent kamery dla wybranej formy zapisu. Np. Sony dla S-Log 2 zaleca ekspozycje, aby biel czyli nasze 90% znajdowało się na 59% skali IRE.

  • Jak można (o ile można) pokolorować klip nagrany w auto z dynamicznymi zmianami jasności np. film z gopro ze zjazdu rowerem w słoneczny dzień przez las gdzie co chwilę przeplata się scena jasna i ciemna? 🙂 Pozdrawiam

Należy unikać automatycznych ekspozycji “jak ognia”. Nie mniej jednak, możemy podjąć próbę korekty takich materiałów korzystając ze wszystkich narzędzi używanych przy stałej ekspozycji. Natomiast dostosowanie parametrów dla wybranych fragmentów ujęcia możemy ustawić za pomocą klatek kluczowych, w panelu Keyframes.

  • Jak kolorować obraz nie mając Color Checkera?

Na początek pracujemy nad jasnością, opierając się na monitorze referencyjnym oraz wykresach. Następnie pracujemy nad kolorem, jeśli zachodzi taka potrzeba ustawiamy odpowiedni balans. Wszystkie te etapy to operacje przeprowadzane na całym ujęciu. Kolejny etap to praca nad szczegółem.

  • Czy taka korekcja koloru przy plikach o mniejszej ilości danych (h.264, 8-bit, 4:2:0) nie spowoduje jakiś problemów z degradacją jakości, jeśli nagrania sporo odbiegają od właściwego balansu bieli (np. o 2000-3000K)?

Tak, każdy materiał ma swoje ograniczenia. Szczególnie jeśli mowa o nagraniach z mniejszą ilością danych np. tj. jak pliki 8-bitowe. Odpowiadając na pytanie, takie działania mogą działać destrukcyjnie, szczególnie przy nagraniu obrazu w Rec.709, gdzie możliwości korekcji barwnej obrazu podczas postprodukcji będą mocno ograniczone.

  • Czy będzie widać tą degradację w jakimś narzędziu w programie?

Degradację obrazu możemy zaobserwować oczywiście na monitorze referencyjnym na którym mogą pojawić sie artefakty. Możemy też posiłkować się wykresem CIE Chromaticity, które podpowiada co dzieję się z sygnałem w obrębie standardu / gamutu w którym pracujemy.

Cześć, pokażesz jeszcze jak ustawić odpowiedni kontrast / ekspozycję na podstawie pasków poziomych?

Możemy posiłkować się wykresem Waveform i w taki sposób ustawić poziom luminancji aby czarne pole (Color Checker Passport Video) znajdowało się w 80-90 %, pole szare w środku wykresu natomiast czarne pomiędzy 0 a 10 %.

A jesli mam dwa klipy nagrane różnymi kamerami (z colorchecker w kadrze) i chcę tylko żeby klip z kamery 2 dopasować do klipu z kamery 1 (klip z kamery 1 ma już jakiś color grading i chcę żeby ten z kamery 2 miał taki sam). Jeśli nie wiem jak został zrobiony grading z kamery 1?

Wtedy przeprowadzamy proces ręcznie zestawiając ujęcia ze sobą lub używamy opcji Shot Match.

Czy może być Color Checker Passport podobnie użyteczny? Więcej fotografuję jak na razie.

ColorChecker Passport Photo 2 nie posiada wszystkich pól, które odnoszą się do wektroskopu, nie ma również czerni wzorcowej i poziomów szarości z relacjami IRE, pól odcieni skóry. Posiada niestety swoje ograniczenia przy zastosowaniach wideo.

  • Czy takie trackowanie trzeba wykonać na każdym jednym, pojedynczym ujęciu? 🙂

Tak, dla wtyczki Face Refinement program musi przeprowadzić analizę dla każdego ujęcia. Wtyczka tworzy szczegółową maskę portretu właśnie poprzez przeanalizowanego ujęcia i wychwycenie istotnych elementów twarzy.

  • Najlepszy sposób (chociaż hasłowo) na montaż w Premiere Pro a korekcja barwna w Davinci Resolve, z opcją powrotu do Premiere w celu dalszych korekt?

Przygotowujemy montaż w Premiere a następnie eksportujemy projekt za pomocą komendy Export the Project to Final Cut XML. Kolejny krok to import projektu do Resolve. Otwieramy DaVinci i wybieramy opcję File>Import Timeline>Import AAF, EDL, XML. Następnie musimy podlinkować właściwe ujęcia w odniesieniu do układki montażowej utworzonej w APP. Po przeprowadzeniu korekcji barwnej w DVR eksportujemy każde ujęcie w Deliver Page do osobnych plików (opcje: individual clips oraz Filename uses>source name) oraz projekt XML (np. z Edit Page – File>Export XML). Z poziomu Deliver Page mamy również dostępny preset exportu do APP (zarówno pliki oraz proj. XML do jednej paczki). Na koniec zostanie nam otworzenie projektu XML w APP wyeksportowanego z DVR wraz z ujęciami po korekcji barwnej.

Informacje o prowadzących Webinar:

Maciej Gryzełko i Szymon Antoni Jędrys to związane z branżą od wielu lat osoby aktywne zawodowo na rynku usług postprodukcji filmowej. Trenerzy z „Frank.”

Prowadzą certyfikowane szkolenia DaVini Resolve (bit.ly/DaVinciResolve16).
To aktywni moderatorzy i administratorzy grupy DaVinci Resolve 16 Polska (https://www.facebook.com/groups/DVRpl).

Dodaj komentarz

one × five =