1 00:00:02.350 --> 00:00:03.010 실감 2 00:00:04.474 --> 00:00:08.795 실감 심화편 ICVFX 시스템 구성을 위한 개념 3 00:00:08.795 --> 00:00:11.518 CC사관학교 4 00:00:27.500 --> 00:00:33.100 안녕하세요 ICVFX 통합 어플 플로우에 대한 강의를 하게 된 박지용입니다 5 00:00:33.500 --> 00:00:38.310 ICVFX 통합 워크 플로우에 대한 강의는 총 4개 차시에 나눠서 진행됩니다 6 00:00:38.764 --> 00:00:45.124 실시간 게임 엔진을 활용해 인카메라 프리패스를 구현하는 전반적인 기술에 대해서 다룰 예정입니다 7 00:00:45.550 --> 00:00:49.560 이를 통해 ICVFX 시스템 구성을 위한 기본 개념부터 8 00:00:49.561 --> 00:00:52.481 실무에 필요한 협업과 버전 관리 9 00:00:52.481 --> 00:00:55.920 랜 디스플레이를 활용한 멀티 디스플레이 셋업 10 00:00:55.921 --> 00:01:00.781 그리고 실시간 협업과 제어 설정까지 깊이 있게 다루려고 합니다 11 00:01:00.781 --> 00:01:07.680 이번 강의에서 배운 개념을 바탕으로 각자 추가적인 공부를 해보시면 더욱 좋을 것 같습니다 12 00:01:07.680 --> 00:01:11.500 VP의 기본 개념 13 00:01:11.700 --> 00:01:16.290 버추얼 프로덕션을 다루기 이전에 전통적인 제작 방식에 기대해 간략하게 살펴보겠습니다 14 00:01:16.569 --> 00:01:19.369 첫번째로 로케이션 촬영 방식입니다 15 00:01:19.569 --> 00:01:22.989 촬영은 실제 장소에 나가서 촬영하는 방식으로 16 00:01:22.990 --> 00:01:26.009 도심지부터 자연 속 오지 까지 17 00:01:26.010 --> 00:01:29.070 다양한 배경을 활용할 수 있다는 특징이 있습니다 18 00:01:29.210 --> 00:01:33.161 예를 들어 현대 배경을 담은 영화나 드라마 촬영은 19 00:01:33.161 --> 00:01:35.609 주로 도심 로케이션에서 이뤄지곤 합니다 20 00:01:35.680 --> 00:01:39.040 이 방법은 현실감 있는 이미지를 얻을 수 있지만 21 00:01:39.041 --> 00:01:43.600 날씨와 시간대 등 여러 외부 요인에 큰 영향을 받기 때문에 22 00:01:43.600 --> 00:01:46.300 촬영 환경을 제어하기 어렵다는 단점이 있습니다 23 00:01:46.400 --> 00:01:49.353 두번째로는 오픈세트 촬영 방식입니다 24 00:01:49.413 --> 00:01:54.723 오픈세트는 촬영에 필요한 배경과 소품을 실제로 제작하여 촬영하는 방식입니다 25 00:01:54.870 --> 00:02:00.270 이 방식은 영화나 드라마, 시대극이나 판타지 장면을 표현할 때 자주 사용됩니다 26 00:02:00.356 --> 00:02:04.616 마지막으로 크로마키 촬영 방식에 대해 말씀드리겠습니다 27 00:02:04.916 --> 00:02:08.700 크로마키 촬영은 주로 녹색 배경 앞에서 촬영한 후 28 00:02:08.701 --> 00:02:11.661 후반 작업에서 가상 배경을 덧붙이는 방식입니다 29 00:02:12.160 --> 00:02:17.761 크로마키 방식은 다양한 장소와 환경을 후반 작업에서 자유롭게 구현할 수 있어 30 00:02:17.761 --> 00:02:21.341 매우 유연한 촬영 방식을 가지고 있습니다 31 00:02:21.720 --> 00:02:24.260 다만 후반 작업의 의존도가 매우 높기 때문에 32 00:02:24.261 --> 00:02:28.121 작업 과정이 복잡하고 비용이 추가로 발생할 수 있습니다 33 00:02:28.320 --> 00:02:33.320 그렇다면 여기서 계속 말하고 있는 버추얼 프로덕션은 무엇일까요 34 00:02:33.580 --> 00:02:39.800 버추얼 프로덕션은 일반적으로 LED 월을 활용한 RC100X만 칭한다고 생각할 수 있습니다 35 00:02:39.800 --> 00:02:46.540 하지만 버추얼 프로덕션은 미디엄 및 엔터테인먼트의 여러가지 새로운 측면을 포괄하는 용어입니다 36 00:02:46.840 --> 00:02:52.260 VP에는 다음과 같은 구체적인 용어의 일부 또는 조합을 의미할 수 있습니다 37 00:02:52.520 --> 00:02:55.580 하나씩 간단히 살펴보겠습니다 38 00:02:55.800 --> 00:02:59.280 첫번째는 앞서 말했던 ICVFX입니다 39 00:02:59.280 --> 00:03:02.240 이는 앞서 말씀드린 것과 같이 LED 벽을 통해 40 00:03:02.815 --> 00:03:06.275 가상의 배경을 카메라에 직접 투영하는 방식입니다 41 00:03:06.435 --> 00:03:10.360 두번째는 모션 캡처, 줄여서 모캡입니다 42 00:03:10.480 --> 00:03:14.920 모캡은 배우나 사물의 움직임을 실시간으로 캡처해 43 00:03:14.921 --> 00:03:18.421 가상의 캐릭터나 오브젝트에 적용하는 기술입니다 44 00:03:18.621 --> 00:03:23.400 세번째는 프리비주얼라이저이션, 즉 프리비즈입니다 45 00:03:23.580 --> 00:03:26.660 촬영 전에 장면을 3D 시뮬레이션으로 시각화해 46 00:03:26.661 --> 00:03:30.621 구도, 동선, 조명 등을 미리 계획할 수 있게 해줍니다 47 00:03:31.020 --> 00:03:32.901 이렇게 미리 시뮬레이션하면 48 00:03:32.901 --> 00:03:36.980 촬영 전에 예상치 못한 문제를 미리 발견하고 해결할 수 있어 49 00:03:36.980 --> 00:03:38.220 매우 효율적입니다 50 00:03:38.440 --> 00:03:41.800 이어서 VR입니다 51 00:03:41.800 --> 00:03:45.100 VR은 가상 환경에서 세트를 탐색하거나 52 00:03:45.440 --> 00:03:49.280 촬영 계획을 미리 시뮬레이션 하는데 유용하게 활용됩니다 53 00:03:49.680 --> 00:03:55.740 감독이 VR 헤드셋을 쓰고 세트를 돌아보면서 촬영 계획을 미리 조정할 수 있습니다 54 00:03:55.940 --> 00:03:59.160 이를 버츄얼 스카우팅이라고도 합니다 55 00:03:59.200 --> 00:04:01.240 다음은 MR입니다 56 00:04:01.240 --> 00:04:05.180 MR은 현실과 가상 결합된 환경을 제공해 57 00:04:05.460 --> 00:04:08.960 배우가 가상 요소와 실시간으로 상호작용할 수 있게 합니다 58 00:04:09.360 --> 00:04:14.220 가상과 현실이 자연스럽게 융합되도록 해주는 것이 가장 큰 특징입니다 59 00:04:14.220 --> 00:04:16.360 또한 XR이 있습니다 60 00:04:16.360 --> 00:04:21.761 XR은 AR, VR, MR을 통합해 가상과 현실을 넘나드는 61 00:04:21.761 --> 00:04:24.379 확장된 경험을 제공하는 기술입니다 62 00:04:24.579 --> 00:04:28.460 이를 통해 더 몰입감 있는 환경을 조성할 수 있습니다 63 00:04:28.460 --> 00:04:31.940 그 다음으로는 버츄얼 카메라 기능도 있습니다 64 00:04:32.160 --> 00:04:37.660 가상의 카메라를 통해 가상 환경의 앵글과 동선을 자유롭게 탐색할 수 있고 65 00:04:37.660 --> 00:04:40.334 앞서 말한 모캡 데이터를 연동하여 66 00:04:40.334 --> 00:04:44.094 실제 촬영에 앞서 최적의 앵글을 미리 결정하고 67 00:04:44.095 --> 00:04:46.175 계획을 세우는데 유용합니다 68 00:04:46.375 --> 00:04:49.200 마지막으로 사이머 캠이 있습니다 69 00:04:49.200 --> 00:04:52.153 이는 앞서 말한 AR의 확장된 개념으로 70 00:04:52.333 --> 00:04:56.413 실제 촬영 장면의 가상 요소를 실시간으로 합성해 보여줍니다 71 00:04:56.700 --> 00:04:59.427 특히 모캡 데이터를 실시간으로 적용하여 72 00:04:59.427 --> 00:05:04.207 배우와 가상 캐릭터가 어떻게 어우러지는지 바로 확인할 수 있습니다 73 00:05:04.447 --> 00:05:09.800 각각 용어들만 보면 VP라는 개념이 발생하기 이전부터 있던 기술들이 많습니다 74 00:05:10.100 --> 00:05:14.040 그런데 왜 현재 VPR에 해당 기술들이 묶였을까요 75 00:05:14.220 --> 00:05:19.800 버츄얼 프로덕션에 속한 기능들이 가진 공통된 특징에 대해서 알아보겠습니다 76 00:05:19.800 --> 00:05:24.140 첫 번째로 실시간 상호작용과 피드백입니다 77 00:05:24.140 --> 00:05:30.640 VP는 실시간으로 가상 환경과 카메라를 연결해 즉각적인 피드백을 받을 수 있도록 합니다 78 00:05:30.640 --> 00:05:34.060 두 번째 특징은 가상과 현실의 융합입니다 79 00:05:34.220 --> 00:05:39.400 VP는 가상 환경과 현실 공간이 자연스럽게 결합될 수 있도록 하여 80 00:05:39.401 --> 00:05:45.161 물리적 세트와 가상의 세트가 하나로 연결된 환경을 제공합니다 81 00:05:45.540 --> 00:05:49.041 이를 통해 배우가 실제 세트에서 연기하듯 82 00:05:49.041 --> 00:05:52.381 가상 배경과 자연스럽게 상호작용할 수 있게 됩니다 83 00:05:52.721 --> 00:05:57.440 세 번째로 사전 시각화와 계획 최적화 기능이 있습니다 84 00:05:57.440 --> 00:06:01.400 VP는 사전의 3D로 촬영 장면을 미리 확인하고 85 00:06:01.401 --> 00:06:05.289 최적의 앵글과 동선을 조정할 수 있는 기능을 제공합니다 86 00:06:05.309 --> 00:06:10.000 덕분에 촬영 전에 발생할 수 있는 문제를 미리 발견하고 수정할 수 있습니다 87 00:06:10.000 --> 00:06:14.560 이러한 특징들 덕분에 VP는 새로운 기술임에도 불구하고 88 00:06:14.560 --> 00:06:20.014 전통적인 방식과 조화롭게 사용될 수 있는 선택지로 점차 자리 잡고 있습니다 89 00:06:20.014 --> 00:06:27.000 이러한 공통적인 특징을 가진 기술들이 모두 VP의 광범위하게 포함되어 설명됩니다 90 00:06:27.000 --> 00:06:33.380 이번에는 LED 벽을 활용한 버츄얼 프로덕션 기술 3가지를 간단히 살펴보겠습니다 91 00:06:33.380 --> 00:06:36.420 첫 번째는 인카메라 VFX입니다 92 00:06:36.420 --> 00:06:40.753 이 방식은 영화와 드라마에서 주로 사용되며 93 00:06:41.133 --> 00:06:45.223 LED 벽에 실시간 3D 배경을 투영해 촬영합니다 94 00:06:45.480 --> 00:06:49.960 이를 통해 배우가 가상의 배경을 실제처럼 보며 연기할 수 있어 95 00:06:49.961 --> 00:06:53.201 현장에서 바로 완성도 높은 장면을 얻을 수 있습니다 96 00:06:53.300 --> 00:06:56.500 두 번째는 2D 인카메라 VFX입니다 97 00:06:56.740 --> 00:07:01.260 이 방식 또한 영화와 드라마 촬영에서 주로 사용됩니다 98 00:07:01.440 --> 00:07:06.500 이 방식은 고정된 2D 배경 영상을 LED 벽에 투사해 사용합니다 99 00:07:06.500 --> 00:07:10.220 주로 움직임이 적은 배경이 필요한 장면에 적합합니다 100 00:07:10.420 --> 00:07:16.420 이는 소스 제작이 상대적으로 쉽기 때문에 시간과 비용을 절감할 수 있습니다 101 00:07:16.540 --> 00:07:19.560 그에 비해 영상의 퀄리티는 높게 가져갈 수 있습니다 102 00:07:19.740 --> 00:07:22.040 마지막으로 XR입니다 103 00:07:22.200 --> 00:07:26.121 XR은 라이브 이벤트와 방송에서 활용되며 104 00:07:26.121 --> 00:07:30.441 LED 벽과 AR, VR 기술들이 통합하여 105 00:07:30.442 --> 00:07:32.593 몰입감 있는 환경을 제공합니다 106 00:07:32.813 --> 00:07:37.140 관객과의 상호작용이 중요한 환경에서 특히 유용합니다 107 00:07:37.320 --> 00:07:44.240 이 세 가지 기술은 각각 영화, 드라마, 라이브 엔터테인먼트 등 목적에 맞춰 선택됩니다 108 00:07:44.440 --> 00:07:48.000 각 기술별로 조금 더 디테일하게 알아보겠습니다 109 00:07:48.100 --> 00:07:53.140 인카메라 VFX는 언리얼 엔진을 활용한 것이 가장 중요한 특징입니다 110 00:07:53.540 --> 00:07:58.621 언리얼 엔진을 사용하면 고품질 3D 환경을 실시간으로 렌더링하여 111 00:07:58.621 --> 00:08:00.541 LED 벽에 투사할 수 있습니다 112 00:08:00.661 --> 00:08:04.294 이 방식은 가상 배경을 자유롭게 변경하고 113 00:08:04.294 --> 00:08:07.768 조명과 앵글을 즉각적으로 조정할 수 있어 114 00:08:07.768 --> 00:08:10.208 현장에서 바로 피드백을 받기 용이합니다 115 00:08:10.900 --> 00:08:12.658 그리고 해당 영상처럼 116 00:08:13.358 --> 00:08:17.718 카메라가 움직임에 따라 이너 프로스톰이 함께 움직이며 117 00:08:17.954 --> 00:08:22.054 가상의 배경도 실시간으로 조정되는 모습을 볼 수 있습니다 118 00:08:22.380 --> 00:08:26.520 이번에는 2D 인카메라 VFX 방식에 대해 설명드리겠습니다 119 00:08:27.020 --> 00:08:34.800 2D 인카메라 VFX는 미리 촬영하거나 제작된 2D 영상을 LED 벽에 투사하여 촬영하는 방식입니다 120 00:08:34.800 --> 00:08:39.780 이 방식은 주로 특정 배경이나 고정된 이미지를 표현할 때 사용됩니다 121 00:08:40.120 --> 00:08:43.467 예를 들어 창밖의 풍경이나 고정된 배경 122 00:08:43.467 --> 00:08:47.242 차량 주행할 때 창문 밖 외경이 필요한 장면에서는 123 00:08:47.262 --> 00:08:50.323 복잡한 3D 환경을 렌더링하지 않고도 124 00:08:50.323 --> 00:08:52.970 LED 벽을 통해 쉽게 구현할 수 있습니다 125 00:08:53.130 --> 00:08:58.700 2D 인카메라 VFX는 설정과 렌더링이 상대적으로 간단하기 때문에 126 00:08:58.700 --> 00:09:01.074 시간과 비용을 절약할 수 있습니다 127 00:09:01.500 --> 00:09:05.780 또한 실제 영상 또는 렌더링한 영상이기 때문에 128 00:09:05.781 --> 00:09:09.661 보다 사실적인 영상을 투영하기 유리합니다 129 00:09:10.100 --> 00:09:16.680 디테일한 내용을 너무 보기 전에 ICVFX 구성을 보여주는 다이어그램을 간단히 보겠습니다 130 00:09:16.680 --> 00:09:23.185 ICVFX 시스템은 카메라, 트래킹 시스템, 렌더 머신, LED 패널 131 00:09:23.185 --> 00:09:29.305 LED 이미지 프로세서, 싱크 제너레이터 등 다양한 구성 요소들이 함께 작동합니다 132 00:09:29.880 --> 00:09:32.620 각 구성 요소들은 함께 작동하여 133 00:09:32.620 --> 00:09:36.770 가상 환경을 실제 카메라 촬영에 통합하는 구조로 이루어져 있습니다 134 00:09:37.050 --> 00:09:41.200 각 장비들은 서로 다른 케이블을 통해 연결되고 135 00:09:41.201 --> 00:09:45.661 수많은 데이터와 신호가 오가며 동기화된 상태로 운영됩니다 136 00:09:45.940 --> 00:09:51.220 이러한 작동 방식을 이해하는 것이 시스템 설정과 조정에서 매우 중요합니다 137 00:09:51.600 --> 00:09:54.660 ICVFX는 복잡한 작업이기 때문에 138 00:09:54.661 --> 00:09:59.361 중간에 설정 하나라도 잘못되면 전체 시스템에 에러가 발생할 수 있기 때문입니다 139 00:09:59.500 --> 00:10:06.160 현재 이 다이어그램을 처음 보신 분들이라면 전체적인 구조가 잘 이해되지 않으실 수 있는데요 140 00:10:06.400 --> 00:10:10.985 모든 교육이 끝나고 나서 다시 보면 더욱 쉽게 이해할 수 있으니 141 00:10:10.985 --> 00:10:13.345 너무 걱정하지 않으셔도 될 것 같습니다 142 00:10:13.900 --> 00:10:16.000 조금 더 세분화해서 한번 보겠습니다 143 00:10:16.400 --> 00:10:23.920 이 다이어그램은 앞에 영상에서 본 ICVFX를 하기 위한 시스템 구성 다이어그램입니다 144 00:10:23.920 --> 00:10:29.500 각각의 구성 요소들은 서로 다른 종류의 케이블을 통해 연결되어 145 00:10:29.501 --> 00:10:32.161 수많은 데이터와 신호를 주고받고 있습니다 146 00:10:32.720 --> 00:10:35.477 하나씩 더 세세하게 설명드리겠지만 147 00:10:35.477 --> 00:10:39.057 전체적인 그림을 보며 간단히 구성을 설명드리면 148 00:10:39.340 --> 00:10:43.380 트래킹 시스템은 카메라의 움직임과 렌즈의 초점 149 00:10:43.381 --> 00:10:47.261 줌 데이터를 실시간으로 추적하여 가상 환경에 반영합니다 150 00:10:48.080 --> 00:10:53.220 카메라 좌측에 있는 옵티트랙 카메라가 스위치와 연결되어 있는데 151 00:10:53.220 --> 00:10:57.640 이 옵티트랙 카메라들이 카메라에 붙어있는 센서를 인식하여 152 00:10:57.640 --> 00:11:00.083 카메라 위치를 정확하게 트래킹합니다 153 00:11:00.540 --> 00:11:03.340 다이어그램에서 총 4대의 랜덤 머신이 있는데 154 00:11:03.340 --> 00:11:07.700 이 컴퓨터들은 실시간으로 3D 그래픽을 렌더링하여 155 00:11:07.701 --> 00:11:10.821 LED 스크린에 출력하는 핵심적인 역할을 합니다 156 00:11:11.240 --> 00:11:16.660 각 렌더링 머신은 언리얼 엔진을 실행하여 실시간으로 3D 환경을 렌더링합니다 157 00:11:17.340 --> 00:11:22.540 LED 스크린과 LED 프로세서는 실질적으로 영상 출력을 담당하며 158 00:11:22.540 --> 00:11:25.840 랜덤 머신에서 실시간으로 렌더링하는 이미지를 159 00:11:25.840 --> 00:11:29.413 대형 LED 스크린에 나오게 하는 중요한 역할을 하고 있습니다 160 00:11:30.140 --> 00:11:36.460 싱크 제너레이터는 모든 장비들이 정확하게 동기화 되어 작동할 수 있게 해주는 161 00:11:36.460 --> 00:11:39.099 타이밍 신호를 생성하는 역할을 하고 있습니다 162 00:11:39.620 --> 00:11:44.500 ICVFX에서는 수많은 장비들이 동시에 작동해야 하기 때문에 163 00:11:44.501 --> 00:11:45.990 동기화는 매우 중요합니다 164 00:11:46.560 --> 00:11:50.100 ICVFX구성요소 165 00:11:50.520 --> 00:11:55.740 ICVFX를 진행하기 위해서는 여러가지 하드웨어들이 필요합니다 166 00:11:55.900 --> 00:12:02.320 앞서 보셨던 다이어그램의 구성요소를 큰 단위로 나눠서 간단히 소개하겠습니다 167 00:12:02.440 --> 00:12:06.200 그 이후에 하나씩 자세하게 설명을 드릴 수 있도록 하겠습니다 168 00:12:06.320 --> 00:12:09.640 구성요소 중 첫 번째로 LED 월입니다 169 00:12:09.880 --> 00:12:14.170 LED 월은 가상 배경을 화면에 투영하는 핵심 장치로 170 00:12:14.171 --> 00:12:20.111 실제 촬영 현장에 설치되어 배우가 연기하는 배경, 환경을 제공하고 171 00:12:20.112 --> 00:12:23.012 카메라에 담기는 배경을 동시에 제공합니다 172 00:12:23.012 --> 00:12:25.640 다음은 이미지 프로세서입니다 173 00:12:25.860 --> 00:12:32.860 이미지 프로세서는 렌더된 데이터를 LED 월에 최적화된 신호로 변환을 해주는 장치입니다 174 00:12:32.940 --> 00:12:36.820 해상도 조정, 색상 보정, 밝기 조정 등을 통해 175 00:12:36.821 --> 00:12:40.961 LED 월에서 고품질의 이미지를 표현할 수 있도록 도와줍니다 176 00:12:40.961 --> 00:12:43.500 그리고 카메라와 렌즈입니다 177 00:12:43.500 --> 00:12:46.661 ICVFX 촬영에서는 카메라와 렌즈가 178 00:12:46.662 --> 00:12:52.502 가상의 배경과 정확히 맞아떨어지도록 트래킹 시스템과 함께 사용되며 179 00:12:52.661 --> 00:12:57.181 배우와 가상의 배경이 자연스럽게 조화를 이루도록 합니다 180 00:12:57.181 --> 00:13:01.040 미디어 서버 또는 렌더 PC도 중요한 요소입니다 181 00:13:01.140 --> 00:13:05.600 이 장치는 디스가이즈 또는 언리얼 렌즈 NDC를 실행하여 182 00:13:05.673 --> 00:13:09.293 3D 가상 환경을 실시간으로 렌더링하는 역할을 합니다 183 00:13:09.293 --> 00:13:13.280 젠락 장비는 모든 장치 간의 동기화를 담당합니다 184 00:13:13.540 --> 00:13:18.127 ICVFX 시스템에서는 모든 장치가 동일한 타이밍으로 작동하므로 185 00:13:18.248 --> 00:13:25.128 젠록을 통해 카메라와 LED 월, 렌더 머신 등의 장비가 정확하게 동기화 됩니다 186 00:13:25.493 --> 00:13:28.940 마지막으로 카메라 트래킹 시스템과 관련된 요소입니다 187 00:13:29.360 --> 00:13:33.240 렌즈 데이터 스트리밍과 유축 트래킹이 포함됩니다 188 00:13:33.360 --> 00:13:39.200 이들은 카메라 위치, 렌즈 초점, 줌 데이터 등을 실시간으로 수정하여 189 00:13:39.201 --> 00:13:40.980 가상 배경에 반영합니다 190 00:13:41.260 --> 00:13:47.040 이처럼 ICVFX 시스템의 각 구성 요소들은 서로 협력하여 구동하게 됩니다 191 00:13:47.260 --> 00:13:50.220 각 구성 요소에 대해 조금 더 살펴보겠습니다 192 00:13:50.680 --> 00:13:56.320 먼저 VP에서 사용하고 있는 LED 월의 다양한 형태에 대해서 살펴보겠습니다 193 00:13:56.460 --> 00:14:03.240 LED 월은 평면형, 곡선형, MR SET의 3가지 대표적인 형태를 가지고 있습니다 194 00:14:03.480 --> 00:14:06.340 각각의 목적에 따라 선택이 달라집니다 195 00:14:06.640 --> 00:14:09.720 평면형 LED 월은 가장 기본적인 형태로 196 00:14:09.721 --> 00:14:11.568 설치가 비교적 간단하고 197 00:14:11.569 --> 00:14:14.629 특정 앵글에서 촬영하기 적합합니다 198 00:14:14.849 --> 00:14:19.820 단순한 인터뷰 장면이나 움직임이 적은 촬영에서 자주 사용됩니다 199 00:14:20.140 --> 00:14:24.340 특히 최근에는 창문 배경 솔루션에서 자주 사용되고 있습니다 200 00:14:24.680 --> 00:14:28.800 곡선형 LED 월은 현재 가장 많이 사용되고 있는 형태입니다 201 00:14:29.140 --> 00:14:33.020 다양한 카메라 앵글에서 일관된 배경을 제공합니다 202 00:14:33.100 --> 00:14:36.580 카메라의 좌우 이동이나 회전에 유리합니다 203 00:14:36.920 --> 00:14:43.000 드라이빙씬 촬영에도 넓은 부분의 리플렉션을 커버할 수 있기 때문에 많이 사용되고 있습니다 204 00:14:43.360 --> 00:14:47.620 그리고 MR SET LED 월은 바닥까지 LED 월을 설치해 205 00:14:47.621 --> 00:14:52.475 가상 배경이 설치 공간 이상으로 확장되어 합성됩니다 206 00:14:52.660 --> 00:14:58.720 작은 LED를 사용하더라도 LED 월 밖의 영역도 가상 배경 확장이 가능합니다 207 00:14:58.960 --> 00:15:04.780 다음으로 MR SET과 ICVFX LED 월의 차이점을 간단하게 알아보겠습니다 208 00:15:04.980 --> 00:15:08.001 MR SET은 앞서 얘기했던 것처럼 209 00:15:08.001 --> 00:15:10.827 바닥 LED를 포함하는 것이 특징입니다 210 00:15:10.827 --> 00:15:14.120 바닥까지 가상 배경을 표현하는데 사용됩니다 211 00:15:14.120 --> 00:15:20.860 반면 ICVFX는 바닥 LED를 사용하지 않고 벽과 천장 LED만을 사용하고 있습니다 212 00:15:20.860 --> 00:15:25.000 이 차이는 각각의 시스템 목적에 따라 구별됩니다 213 00:15:25.000 --> 00:15:29.000 MR SET은 가상 배경을 전체적으로 확장하여 214 00:15:29.001 --> 00:15:32.371 바닥까지 이미지 표현이 가능하도록 설계되어 있습니다 215 00:15:32.371 --> 00:15:37.820 ICVFX는 바닥에는 실제 소품이나 장식을 교체하고 216 00:15:37.820 --> 00:15:42.625 벽과 천장 LED만 가상 배경으로 활용하여 현실감을 극대화합니다 217 00:15:42.900 --> 00:15:48.960 따라서 ICVFX에서는 바닥 LED가 없는 세트를 사용하는 것이 중요합니다 218 00:15:49.160 --> 00:15:54.240 이제 ICVFX 구성 요소 두 번째인 LED 프로세서에 대해 알아보겠습니다 219 00:15:54.360 --> 00:15:59.260 이미지 프로세서는 LED 월의 가상 배경을 정확하게 송출하기 위해 220 00:15:59.261 --> 00:16:05.136 랜덤 머신에서 출력된 이미지를 받아 LED 스크린에 올바르게 배분하고 221 00:16:05.137 --> 00:16:10.585 색상과 밝기를 조정하여 최종 화면의 품질을 관리하는 장치입니다 222 00:16:10.660 --> 00:16:14.720 ICVFX에서 LED 월의 영상 품질이 중요하기 때문에 223 00:16:14.721 --> 00:16:18.081 이미지 프로세서가 아주 핵심적인 역할을 담당하고 있습니다 224 00:16:18.581 --> 00:16:26.220 가장 많이 사용되는 대표적인 제품은 메가 픽셀사의 헬리우스와 브롬튼사의 XS40입니다 225 00:16:26.220 --> 00:16:30.280 각 제조사의 이미지 프로세서는 다양한 사양으로 제공되며 226 00:16:30.281 --> 00:16:33.401 스튜디오의 요구와 환경에 맞춰 선택할 수 있습니다 227 00:16:33.620 --> 00:16:36.800 LED 월은 여러 개의 패널로 구성이 되는데요 228 00:16:37.000 --> 00:16:42.321 예를 들어 가로 20m, 세로 6m의 LED 월을 구성한다고 가정하면 229 00:16:42.401 --> 00:16:47.421 가로 50cm, 세로 50cm 패널 480개를 사용하게 됩니다 230 00:16:47.640 --> 00:16:50.240 각 패널은 하나의 화면 역할을 하며 231 00:16:50.241 --> 00:16:55.833 이미지 프로세서는 480개의 패널이 하나의 대형 화면처럼 작동하도록 232 00:16:55.834 --> 00:17:00.082 모든 데이터를 배분하고 연결해주는 중요한 장비입니다 233 00:17:00.320 --> 00:17:05.600 LED 이미지 프로세서의 작동 방식을 다이어그램으로 간단히 살펴보겠습니다 234 00:17:05.600 --> 00:17:08.940 이 다이어그램에서 보다시피 이미지 프로세서는 235 00:17:08.941 --> 00:17:14.001 여러 개의 작은 LED 패널에 네트워크 케이블을 통해 데이터를 전달합니다 236 00:17:14.001 --> 00:17:19.040 각 패널이 전체 화면의 일부분을 정확하게 출력할 수 있도록 돕고 있습니다 237 00:17:19.040 --> 00:17:23.160 각 패널은 하나의 독립적인 모니터처럼 동작하고 238 00:17:23.161 --> 00:17:28.321 프로세서는 이들을 통합해 하나의 일관된 이미지를 LED 월 전체에 보여줍니다 239 00:17:28.660 --> 00:17:34.135 이 다이어그램을 통해 이미지 프로세서가 각 패널의 데이터를 배분하여 240 00:17:34.135 --> 00:17:40.115 LED 월 전체를 하나의 통일된 화면으로 구성하는 핵심 장치임을 알 수 있습니다 241 00:17:40.380 --> 00:17:45.300 ICVFX 촬영에 필요한 다음 요소로는 카메라와 렌즈가 있습니다 242 00:17:45.480 --> 00:17:48.400 어떤 카메라든 상관없이 사용이 가능한 것은 아니며 243 00:17:48.857 --> 00:17:52.437 특정 기능을 제공하는 제품을 사용하기를 권장합니다 244 00:17:52.500 --> 00:17:55.860 대부분의 시네카메라는 사용에 지장이 없습니다 245 00:17:56.040 --> 00:18:00.980 다만 중요한 몇가지 기능에 대해서 간략히 말씀드리겠습니다 246 00:18:01.200 --> 00:18:04.320 첫번째로 가장 중요한 기능은 젠락입니다 247 00:18:04.780 --> 00:18:09.301 젠락은 카메라와 LED 월을 포함한 모든 장비를 정확하게 248 00:18:09.301 --> 00:18:11.881 동기화해서 촬영할 수 있도록 해주는 기능입니다 249 00:18:12.181 --> 00:18:16.300 ICVFX 촬영에서는 여러 장치들이 동시에 작동해야 하므로 250 00:18:16.301 --> 00:18:19.581 모든 장비가 일관되게 연동되지 않으면 251 00:18:19.582 --> 00:18:21.766 영상이 불안정해질 수 있습니다 252 00:18:22.000 --> 00:18:25.180 두번째로는 글로벌 셔터가 있는 카메라 253 00:18:25.180 --> 00:18:28.695 또는 매우 빠른 속도를 가진 롤링 셔터 기능입니다 254 00:18:29.000 --> 00:18:34.000 이는 LED 화면의 가상 배경을 정확하게 담기 위해 필수적입니다 255 00:18:34.000 --> 00:18:38.240 다음으로는 ICVFX 시스템에서 사용하는 랜더머신 256 00:18:38.241 --> 00:18:40.628 즉 랜더 PC에 대해 설명드리겠습니다 257 00:18:41.000 --> 00:18:44.320 먼저 랜더머신은 특정 장비라기보다는 258 00:18:44.321 --> 00:18:48.481 고성능 GPU를 탑재한 고사양 컴퓨터라고 보시면 됩니다 259 00:18:48.800 --> 00:18:53.540 ICVFX는 LED 월에 실시간으로 이미지를 내보내야 하기 때문에 260 00:18:53.541 --> 00:18:57.221 빠르고 안정적인 랜더링 성능이 요구됩니다 261 00:18:57.581 --> 00:19:00.140 그래서 일반적으로 NVIDIA A6000 262 00:19:00.141 --> 00:19:03.881 또는 A6000 ADA 그래픽카드를 권장하고 있습니다 263 00:19:04.000 --> 00:19:07.240 하지만 LED 월의 해상도가 매우 높은 경우 264 00:19:07.241 --> 00:19:11.261 하나의 랜더머신으로 전체 해상도를 랜더링하기 어려울 수도 있습니다 265 00:19:11.400 --> 00:19:17.350 예를 들어 앞에 이미지에서 보시는 초록색 박스를 LED 월로 가정하고 266 00:19:17.351 --> 00:19:22.611 해상도가 9504x1769로 267 00:19:22.612 --> 00:19:25.108 약 10K 해상도에 달한다고 해보겠습니다 268 00:19:25.700 --> 00:19:30.081 이러한 해상도는 하나의 컴퓨터로는 감당할 수 없기 때문에 269 00:19:30.081 --> 00:19:36.021 여러 대의 랜더머신을 사용해 각각의 영역을 나누어 랜더링을 진행하게 됩니다 270 00:19:36.021 --> 00:19:41.700 이미지에서 보이는 빨간색 선은 LED 월을 4개의 영역으로 나눈 예시입니다 271 00:19:41.700 --> 00:19:48.760 이렇게 나누면 각 랜더머신은 2376x1769 해상도를 담당하여 272 00:19:48.761 --> 00:19:50.941 전체 해상도를 맞추게 됩니다 273 00:19:51.421 --> 00:19:56.020 이 방식은 각각의 랜더머신이 맡은 영역만 처리하면 되기 때문에 274 00:19:56.021 --> 00:20:00.901 시스템에 걸리는 부담을 줄이고 안정적인 영상 출력을 할 수 있게 합니다 275 00:20:01.201 --> 00:20:03.941 이러한 기능을 지원하는 N디스플레이가 276 00:20:03.941 --> 00:20:08.006 바로 언리얼 엔진에서 제공하는 다중 디스플레이 기능입니다 277 00:20:08.366 --> 00:20:13.140 여러 대의 랜더머신이 협력해 하나의 LED 월을 구성할 수 있도록 도와줍니다 278 00:20:13.440 --> 00:20:18.340 잠시 뒤 실습을 통해 N디스플레이 기능을 직접 확인해 보겠습니다 279 00:20:18.560 --> 00:20:22.180 랜더머신은 실제 랜더링 작업만 집중하여 280 00:20:22.181 --> 00:20:27.461 이미지와 컨텐츠를 제어하는 별도의 오퍼레이팅용 컴퓨터가 따로 필요합니다 281 00:20:27.921 --> 00:20:33.520 오퍼레이팅용 컴퓨터는 각 랜더머신과의 동기화와 제어 역할을 담당하여 282 00:20:33.521 --> 00:20:37.460 전체 시스템을 원활하게 작동하도록 합니다 283 00:20:37.780 --> 00:20:43.828 이처럼 고해상도 LED 월을 구현하기 위해서는 여러 대의 랜더머신이 필요하며 284 00:20:43.947 --> 00:20:49.907 N디스플레이와 같은 시스템을 통해 작업 영역을 효율적으로 나눠 랜더링하게 됩니다 285 00:20:50.116 --> 00:20:56.160 다음으로는 앞서 설명드렸던 ICVFX 구성 요소인 젠록에 대해서 알아보겠습니다 286 00:20:56.180 --> 00:21:01.000 젠록 시스템의 동기화에 대한 간단한 다이어그램입니다 287 00:21:01.000 --> 00:21:07.740 이 다이어그램은 젠록 마스터 장비가 카메라, 랜더머신, 이미지, 프로세서 등 288 00:21:07.741 --> 00:21:11.061 각 장비와 어떻게 연동되는지 보여줍니다 289 00:21:11.061 --> 00:21:16.020 중앙에 있는 젠록 마스터 장비가 전체 시스템에 타이밍 신호를 제공하여 290 00:21:16.021 --> 00:21:20.521 모든 장비가 동일한 타이밍에 맞춰 작동할 수 있도록 합니다 291 00:21:20.721 --> 00:21:26.540 이를 통해 LED 월과 카메라, 랜더머신이 완벽하게 동기화되어 292 00:21:26.540 --> 00:21:28.941 하나의 일관된 화면을 유지하게 됩니다 293 00:21:29.280 --> 00:21:33.580 이러한 방식으로 각 장비가 정확한 타이밍으로 움직이기 때문에 294 00:21:33.581 --> 00:21:38.321 ICVFX 시스템에서는 깜빡임이나 화면 불안정이 발생하지 않고 295 00:21:38.322 --> 00:21:40.362 안정적인 촬영을 유지할 수 있습니다 296 00:21:41.022 --> 00:21:46.400 다음으로 엔비디아 쿼드라싱크 기능을 활용한 랜더머신 간의 젠록 동기화입니다 297 00:21:46.400 --> 00:21:51.300 보시는 것처럼 각 랜더머신마다 엔비디아 쿼드라싱크 기능을 통해 298 00:21:51.300 --> 00:21:54.532 젠록 신호를 연결하고 동기화할 수 있습니다 299 00:21:54.640 --> 00:21:58.100 이 기능은 여러 대의 랜더머신이 함께 사용될 때 300 00:21:58.100 --> 00:22:02.694 각 머신이 같은 타이밍 신호에 맞춰 렌더링을 수행할 수 있도록 합니다 301 00:22:02.694 --> 00:22:06.840 해당 이미지는 엔비디아 쿼드라싱크 제품의 구성 방식입니다 302 00:22:06.840 --> 00:22:09.380 해당 카드는 그래픽 카드와 연결되어 303 00:22:09.380 --> 00:22:12.449 다른 컴퓨터와 연결될 때에는 랜 케이블을 통해 304 00:22:12.450 --> 00:22:14.469 체인 형식으로 연결하게 됩니다 305 00:22:14.580 --> 00:22:18.560 ICVFX 구성 요소의 마지막으로 트래킹 시스템입니다 306 00:22:18.940 --> 00:22:22.780 트래킹 시스템 또한 매우 중요한 구성 요소 중 하나입니다 307 00:22:22.980 --> 00:22:27.061 트래킹 시스템의 핵심 역할은 카메라의 위치와 렌즈 데이터 값을 308 00:22:27.061 --> 00:22:31.741 실시간으로 언리얼 엔진 내의 가상 카메라에 그대로 입력하는 것입니다 309 00:22:32.041 --> 00:22:35.240 이를 통해 현실에서의 카메라 움직임과 310 00:22:35.240 --> 00:22:38.810 동일한 시점과 구도를 가상 공간에 구현할 수 있게 됩니다 311 00:22:39.200 --> 00:22:42.400 이때 활용되는 방식이 육측 트래킹 방식으로 312 00:22:42.401 --> 00:22:45.106 카메라의 앞뒤 상하 좌우 이동 뿐만 아니라 313 00:22:45.107 --> 00:22:48.652 회전까지 감지하여 가상 공간에 반영합니다 314 00:22:48.932 --> 00:22:53.500 여기까지 ICVFX를 구성한 요소들에 대해 간략하게 살펴보았고 315 00:22:53.501 --> 00:22:59.301 이제 각 구성 요소와 관련된 개념에 대해 조금 더 자세히 알아보도록 하겠습니다 316 00:22:59.641 --> 00:23:02.480 셔터와 스캔 방식에 대해 살펴보겠습니다 317 00:23:02.480 --> 00:23:06.960 먼저 롤링 셔터와 글로벌 셔터의 차이를 보여주는 이미지를 보겠습니다 318 00:23:06.960 --> 00:23:10.460 롤링 셔터는 이미지 센서가 위에서 아래로 319 00:23:10.461 --> 00:23:13.441 한 줄씩 순차적으로 캡쳐하는 방식입니다 320 00:23:13.441 --> 00:23:19.740 이 때문에 빠르게 움직이는 피사체를 촬영할 때 이미지가 왜곡되는 현상을 발생할 수 있습니다 321 00:23:19.740 --> 00:23:24.820 반면 글로벌 셔터는 센서의 모든 픽셀이 동시에 노출되기 때문에 322 00:23:24.821 --> 00:23:30.001 빠르게 움직이는 장면에서도 왜곡 없이 선명하게 캡쳐할 수 있습니다 323 00:23:30.181 --> 00:23:33.060 그 다음은 젠록에 대해서 알아보겠습니다 324 00:23:33.060 --> 00:23:36.860 각 렌더링 머신들은 젠록이 되어야 하는데요 325 00:23:36.860 --> 00:23:41.900 총 두 대의 컴퓨터가 LED 패널 절반씩 렌더링을 한다고 가정해보겠습니다 326 00:23:42.400 --> 00:23:50.020 1번 컴퓨터와 2번 컴퓨터는 각각 동시에 이미지를 렌더링해서 LED 패널로 영상을 보냅니다 327 00:23:50.580 --> 00:23:54.740 렌더링 할 때 이 두 대의 컴퓨터가 젠록이 안되면 328 00:23:54.998 --> 00:23:59.198 즉 싱크가 되지 않으면 오른쪽 이미지처럼 싱크가 틀어지게 됩니다 329 00:23:59.418 --> 00:24:03.640 젠록이 되어야지만 왼쪽처럼 각각의 다른 컴퓨터에서 330 00:24:03.641 --> 00:24:06.321 같은 타이밍의 이미지를 내보낼 수 있게 됩니다 331 00:24:06.680 --> 00:24:11.200 이 영상은 제가 젠락 테스트 했을 때 오류가 발생했을 때의 영상입니다 332 00:24:11.800 --> 00:24:16.520 보시면 저희가 동일한 색을 차례대로 보이게 테스트 영상을 플레이 했습니다 333 00:24:16.980 --> 00:24:20.340 동일한 색이 동시에 플레이 되지 않은 것을 보면 334 00:24:20.340 --> 00:24:23.455 싱크가 크게 틀어진 것을 확인할 수 있습니다 335 00:24:23.840 --> 00:24:26.500 그럼 젠록의 작동 방식은 어떻게 될까요 336 00:24:26.900 --> 00:24:31.960 타임코드 기반으로 동시에 진행하면 모든 것이 잘 맞을 것이라고 보통 생각합니다 337 00:24:32.200 --> 00:24:36.420 하지만 젠록을 통한 싱크가 되지 않는다고 하면 올바르게 작동하지 않습니다 338 00:24:36.580 --> 00:24:40.580 LED와 카메라는 디지털 신호에 기반합니다 339 00:24:40.840 --> 00:24:45.820 만약 1초당 24프레임을 LED가 신호를 내보내고 340 00:24:45.820 --> 00:24:49.950 카메라가 1초당 24프레임을 캡처한다고 가정해 보겠습니다 341 00:24:50.370 --> 00:24:54.436 만약 젠록을 하지 않아서 모든 시스템을 동기화하지 않는다고 하면 ㅁ 342 00:24:54.436 --> 00:24:59.640 이 사진처럼 신호를 내보내고 캡처하는 타이밍이 달라지게 됩니다 343 00:25:00.120 --> 00:25:05.594 완벽하게 같은 타이밍에 LED에서 신호를 내보내고 카메라가 캡처를 해야지만 344 00:25:05.594 --> 00:25:07.294 올바른 이미지를 얻을 수 있습니다 345 00:25:07.800 --> 00:25:12.120 젠록으로 동기화를 하지 않았을 경우에 어떤 문제가 발생하는지는 346 00:25:12.120 --> 00:25:15.546 여러분도 충분히 주변에서 경험을 해보셨을 겁니다 347 00:25:15.826 --> 00:25:18.920 예를 들어 핸드폰으로 텔레비전을 찍었을 경우 348 00:25:18.920 --> 00:25:22.457 좌우로 긴 선들이 위아래로 흘러가는 것을 많이 봤을 것입니다 349 00:25:22.740 --> 00:25:25.420 이러한 플리커 문제는 동기화 문제입니다 350 00:25:25.840 --> 00:25:29.000 젠록이 되지 않았을 경우 플리커가 발생합니다 351 00:25:29.860 --> 00:25:33.680 젠록이 올바르게 되었을 때 올바른 이미지를 캡처할 수 있습니다 352 00:25:34.100 --> 00:25:39.100 이렇듯 LED에 투사되는 이미지를 올바르고 사실적으로 캡처하기 위해서는 353 00:25:39.100 --> 00:25:41.604 핵심적인 요소가 젠록입니다 354 00:25:42.060 --> 00:25:47.740 퍼스펙티브와 카메라의 거리 변화에 따른 이미지 변화에 대해 좀 더 자세하게 설명드리겠습니다 355 00:25:47.740 --> 00:25:53.920 이 다이어그램을 보시면 카메라 센터 중심에서 오브젝트까지의 거리를 기준으로 356 00:25:53.921 --> 00:25:56.481 이미지가 어떻게 형성되는지 나타내고 있습니다 357 00:25:57.020 --> 00:26:01.920 카메라가 오브젝트와 가까워질수록 오브젝트의 크기가 358 00:26:01.921 --> 00:26:05.041 이미지 평면에 더 크게 투영된 것을 알 수 있습니다 359 00:26:05.540 --> 00:26:10.800 이 거리와 투영 비율이 바로 퍼스펙티브를 형성하는 원리입니다 360 00:26:10.900 --> 00:26:14.440 이 이미지를 통해 구체적인 예시를 볼 수 있습니다 361 00:26:15.040 --> 00:26:20.500 상단 그림에서는 중경에 있는 인물과 원경에 있는 나무가 같이 보이고 있는데요 362 00:26:20.900 --> 00:26:26.380 카메라가 가까워지면 하단 이미지처럼 나무의 크기가 상대적으로 작아집니다 363 00:26:27.080 --> 00:26:31.860 카메라가 인물에 가까워질수록 원경에 있는 나무가 더 작아보이는 것이 364 00:26:31.860 --> 00:26:33.538 바로 퍼스펙티브 효과입니다 365 00:26:33.960 --> 00:26:36.993 이러한 퍼스펙티브 효과는 ICVFX에서 366 00:26:36.993 --> 00:26:41.642 가상의 배경과 실제 소품을 자연스럽게 일치시키는데 매우 중요한 역할을 합니다 367 00:26:42.380 --> 00:26:46.186 카메라와 오브젝트의 거리와 각도에 따라 368 00:26:46.186 --> 00:26:49.806 캡쳐되는 이미지의 크기와 깊이감이 변하기 때문에 369 00:26:49.806 --> 00:26:54.920 이 원리를 바탕으로 가상과 현실의 일관된 연결력을 표현할 수 있습니다 370 00:26:55.240 --> 00:26:58.980 이렇듯 퍼스펙티브는 카메라의 위치와 거리의 변화에 따라 371 00:26:58.980 --> 00:27:03.037 이미지에 어떤 영향을 미치는지 이해하는 중요한 개념입니다 372 00:27:03.720 --> 00:27:09.740 이번에는 이 퍼스펙티브가 ICVFX에서 어떻게 반영되는지에 대해 설명드리겠습니다 373 00:27:10.420 --> 00:27:15.040 이너프로스텀과 아워프로스텀이라는 두 가지 영역으로 LED 월이 구성됩니다 374 00:27:15.300 --> 00:27:19.300 먼저 왼쪽의 이미지는 언리얼 엔진 화면을 보여주고 있습니다 375 00:27:20.000 --> 00:27:22.440 초록색 영역이 바로 이너프로스텀인데요 376 00:27:23.000 --> 00:27:27.032 이 부분은 실제로 카메라에 촬영된 주요 영역으로 377 00:27:27.032 --> 00:27:33.372 카메라의 위치와 각도에 따라 LED 월에서 이 영역이 위치를 바뀌면서 조정됩니다 378 00:27:34.040 --> 00:27:39.220 반면 초록색 영역을 제외한 LED 월의 다른 부분이 아워프로스텀입니다 379 00:27:39.740 --> 00:27:43.160 이 영역은 실제 카메라에 촬영되지는 않지만 380 00:27:43.161 --> 00:27:47.301 앞에 있는 인물이나 물체의 조명과 관사 효과를 제공하는 역할을 합니다 381 00:27:47.720 --> 00:27:53.160 이러한 시스템이 없다면 단순히 LED 화면 앞에서 촬영하는 것과 크게 다르지 않으며 382 00:27:53.161 --> 00:27:57.641 원근감과 현실감이 떨어지는 어색한 결과를 탄할 것입니다 383 00:27:58.220 --> 00:28:01.880 이처럼 실시간 렌더링과 카메라 트래킹이 결합되어야 384 00:28:01.881 --> 00:28:04.562 가상 배경과 실제 환경이 자연스럽게 연결되는 385 00:28:04.562 --> 00:28:07.802 몰입감 높은 ICVFX촬영이 가능해집니다 386 00:28:08.220 --> 00:28:12.240 이제 ICVFX에서 렌즈 데이터 스트리밍이 왜 중요한지 387 00:28:12.241 --> 00:28:14.981 그리고 어떻게 작동하는지 살펴보겠습니다 388 00:28:15.620 --> 00:28:19.220 방금까지는 카메라의 위치 트래킹에 대한 설명이었지만 389 00:28:19.221 --> 00:28:21.861 렌즈 데이터도 매우 중요한 역할을 하고 있습니다 390 00:28:22.121 --> 00:28:25.920 이미지를 보시면 현실에서 촬영한다고 가정했을 때 391 00:28:25.921 --> 00:28:31.081 5m 거리에 있는 강아지와 20m 거리에 있는 나무는 초점이 맞지 않습니다 392 00:28:31.560 --> 00:28:34.860 10m 거리에 있는 꼬마아이만 포커스가 맞는 상태입니다 393 00:28:35.720 --> 00:28:39.080 이 상황을 LED 월로 옮겨서 생각해 보겠습니다 394 00:28:39.540 --> 00:28:45.460 빨간색 선이 LED 월이라고 가정했을 때 LED 월에 투사된 가상 배경은 395 00:28:45.461 --> 00:28:50.909 카메라에서 가까운 꼬마아이와 동일한 포커스 범위 안에 있기 때문에 396 00:28:50.910 --> 00:28:53.439 모두 초점이 맞게 보일 것입니다 397 00:28:53.859 --> 00:28:56.020 이대로 촬영을 진행하게 되면 398 00:28:56.020 --> 00:28:59.216 현실에서는 초점이 맞지 않아야 할 먼 거리의 나무가 399 00:28:59.217 --> 00:29:01.577 LED 월에서 또렷하게 보이게 되므로 400 00:29:01.577 --> 00:29:03.342 현실감이 떨어질 수 있습니다 401 00:29:03.702 --> 00:29:08.000 이를 해결하기 위해 렌즈 데이터를 실시간으로 트래킹합니다 402 00:29:08.400 --> 00:29:11.280 카메라와 가상 나무 간의 거리를 계산하여 403 00:29:11.547 --> 00:29:16.347 LED 월에서는 포커스가 나간 상태의 나무 이미지를 투사하는 방식입니다 404 00:29:16.627 --> 00:29:20.240 이렇게 하면 실제 촬영 시 초점이 맞지 않는 나무가 405 00:29:20.241 --> 00:29:23.441 가상 환경에서도 동일하게 포커스 아웃이 되어 406 00:29:23.442 --> 00:29:26.871 거리감과 깊이감이 더 자연스럽게 느껴집니다 407 00:29:27.440 --> 00:29:31.420 이처럼 카메라 위치와 렌즈 데이터를 실시간으로 트래킹하고 408 00:29:31.421 --> 00:29:36.201 LED 월에 투사되는 이미지의 포커스와 심도를 조정하는 것은 409 00:29:36.201 --> 00:29:41.660 ICVFX에서 현실감 있는 이미지를 만들어내기 위한 핵심 요소입니다 410 00:29:42.160 --> 00:29:46.960 이러한 기술 덕분에 가상 배경과 실제 소품이 자연스럽게 어우러지는 411 00:29:46.961 --> 00:29:49.144 완성도 높은 장면을 얻을 수 있습니다 412 00:29:49.660 --> 00:29:53.920 이제 ICVFX에서 N디스플레이를 사용하기 위해 필요한 413 00:29:53.921 --> 00:29:56.181 LED 메쉬에 대해 설명드리겠습니다 414 00:29:57.060 --> 00:30:02.500 N디스플레이 시스템을 통해 LED 월의 각 부분에 맞는 이미지를 정확하게 투사하려면 415 00:30:02.501 --> 00:30:07.061 실제 LED 월의 형태와 크기를 반영한 LED 메쉬 파일이 필요합니다 416 00:30:07.340 --> 00:30:10.560 LED 메쉬는 3D 모델의 기본 구조로 417 00:30:10.561 --> 00:30:14.561 실제 LED 월의 형태와 동일한 모양으로 만들어져야 합니다 418 00:30:15.060 --> 00:30:21.760 메쉬는 각각의 랜덤 워신이 LED 월에 어느 영역을 담당할지를 지정하는 기준이 되며 419 00:30:21.760 --> 00:30:25.060 언리얼 엔진에 이 메쉬 파일을 입력해야 420 00:30:25.061 --> 00:30:29.181 언리얼 내에서 정확한 영역 분할과 렌더링이 가능합니다 421 00:30:29.720 --> 00:30:33.680 이처럼 LED 메쉬 파일을 정확하게 제작하고 422 00:30:33.681 --> 00:30:36.081 UV 맵을 올바르게 설정하는 것은 423 00:30:36.081 --> 00:30:41.061 ICVFX환경에서 가상 배경과 실제 공간의 일관성을 유지하고 424 00:30:41.061 --> 00:30:44.861 몰입감을 높이는데 매우 중요한 요소입니다 425 00:30:45.260 --> 00:30:47.840 이제 카메라 트래킹 시스템에 대해 알아보겠습니다 426 00:30:48.820 --> 00:30:54.520 ICVFX에서 실제 카메라의 움직임을 가상 배경과 정확히 일치시키기 위해 427 00:30:54.520 --> 00:30:56.321 카메라 트래킹이 필수적입니다 428 00:30:56.820 --> 00:30:58.760 트래킹 방식은 크게 두 가지입니다 429 00:30:59.227 --> 00:31:02.907 아웃사이드 인 트래킹과 인사이드 아웃 트래킹 방식으로 나눠집니다 430 00:31:03.540 --> 00:31:08.700 먼저 아웃사이드 인 트래킹은 외부에 설치된 카메라나 센서가 431 00:31:08.701 --> 00:31:11.221 내부의 트래킹 대상을 추적하는 방식입니다 432 00:31:11.420 --> 00:31:16.220 이 방식은 외부 장치가 고정되어 있어 매우 정밀한 위치 추적이 가능하고 433 00:31:16.221 --> 00:31:18.861 넓은 영역을 커버할 수 있다는 장점이 있습니다 434 00:31:19.260 --> 00:31:24.740 다만 설치가 복잡하고 장애물이 있는 경우 정확도에 영향을 줄 수 있어 435 00:31:24.741 --> 00:31:27.281 주로 고정된 스튜디오 환경에서 사용됩니다 436 00:31:27.741 --> 00:31:32.420 다음으로 인사이드 아웃 트래킹은 카메라 장치 자체에 부착된 센서나 카메라가 437 00:31:32.421 --> 00:31:35.841 주변 환경을 인식하며 위치를 추적하는 방식입니다 438 00:31:36.000 --> 00:31:39.700 이 방식은 추가적인 외부 장치가 필요하지 않아 439 00:31:39.701 --> 00:31:42.761 휴대성이 좋고 환경 변화에도 유연한 편입니다 440 00:31:43.120 --> 00:31:47.560 다만 정확도는 아웃사이드 인 트래킹 방식보다 다소 떨어질 수 있으며 441 00:31:47.561 --> 00:31:50.105 복잡한 환경에서는 오차가 발생할 수 있습니다 442 00:31:50.820 --> 00:31:57.280 마지막으로 소개해드릴 장치는 앤캠과 같은 마커리스 인사이드 아웃 트래킹 시스템입니다 443 00:31:57.280 --> 00:32:02.620 앤캠은 카메라에 부착된 센서가 주변 환경 영상을 실시간으로 분석하여 444 00:32:02.621 --> 00:32:06.661 클라우드 포인트를 생성하고 이를 기반으로 위치를 추적합니다 445 00:32:07.000 --> 00:32:12.860 앤캠의 장점은 마커가 필요 없고 어디서든 빠르게 설치할 수 있는 게 장점이지만 446 00:32:13.412 --> 00:32:17.532 조명 변화에 따른 오류 가능성이 있다는 점도 고려해야 합니다 447 00:32:17.980 --> 00:32:23.981 지금까지 설명드린 트래킹 장비들은 전문적이고 정밀한 트래킹 장치들로 448 00:32:23.981 --> 00:32:26.587 안정성과 정확성이 매우 높습니다 449 00:32:26.927 --> 00:32:29.400 그러나 이 장비들은 가격이 매우 높아 450 00:32:29.401 --> 00:32:33.981 개인이 구매하거나 테스트 용도로 사용하기에는 부담이 큽니다 451 00:32:34.461 --> 00:32:38.621 하지만 개인이 ICVFX 테스트하거나 간단히 사용해보고 싶다면 452 00:32:38.621 --> 00:32:40.161 몇 가지 대안이 있습니다 453 00:32:40.820 --> 00:32:45.141 예를 들어 오큘러스 퀘스트 컨트롤러나 바이브 트랙커 같은 454 00:32:45.141 --> 00:32:48.101 VR 장비 트래킹 기능을 활용할 수 있습니다 455 00:32:48.440 --> 00:32:53.220 이 장비들은 언리얼 엔진과 연동해 트래킹 데이터를 받을 수 있으 456 00:32:53.221 --> 00:32:56.921 ICVFX에서 기본적인 테스트 용도로 사용하기에 적합합니다 457 00:32:57.120 --> 00:33:01.500 이 장비들은 전문가용 트래킹 장비보다는 정밀도가 떨어질 수 있지만 458 00:33:01.501 --> 00:33:07.301 개인적인 테스트나 소규모 프로젝트에서는 충분히 유용한 대안이 될 수 있습니다 459 00:33:07.920 --> 00:33:13.540 이번에는 렌즈 데이터 스트리밍 시스템이 어떻게 언리얼 엔진에 적용되는지 살펴보겠습니다 460 00:33:13.880 --> 00:33:18.320 이 시스템의 핵심은 ARRI 렌즈 데이터 트래킹 시스템을 통해 461 00:33:18.321 --> 00:33:24.541 카메라의 렌즈 데이터, 초점, 줌, 조리개 같은 데이터를 실시간으로 측정하여 462 00:33:24.542 --> 00:33:26.688 언리얼 엔진에 전달하는 것입니다 463 00:33:26.948 --> 00:33:30.640 이를 위해 UMC4와 같은 장비가 필요하며 464 00:33:30.641 --> 00:33:36.121 이 장비를 통해 카메라에서 수집된 렌즈 데이터를 컴퓨터로 전송됩니다 465 00:33:36.640 --> 00:33:41.300 그 이후 라이브링크 기능과 ARRI 메타 데이터 플러그인을 사용하여 466 00:33:41.301 --> 00:33:44.501 언리얼 엔진으로 데이터가 스트리밍 됩니다 467 00:33:44.900 --> 00:33:47.200 이렇게 실시간으로 데이터를 반영함으로써 468 00:33:47.200 --> 00:33:50.402 가상 환경과 카메라의 움직임이 일치해 469 00:33:50.402 --> 00:33:53.501 더욱 자연스러운 시각 효과를 구현할 수 있습니다 470 00:33:53.880 --> 00:33:57.960 ARRI의 UMC4와 LDS에 대해 좀 더 살펴보겠습니다 471 00:33:58.380 --> 00:34:05.200 UMC4는 ARRI카메라 시스템에서 렌즈 데이터를 정확하게 스트리밍 할 수 있도록 설계된 장비입니다 472 00:34:05.400 --> 00:34:09.600 이 장치는 렌즈의 메타 데이터를 직접 수집해 언리얼 엔진으로 보내며 473 00:34:09.601 --> 00:34:12.836 데이터 전송은 네트워크 케이블을 통해 이루어집니다 474 00:34:13.141 --> 00:34:16.961 ICVFX의 다이어그램을 통한 개념 이해 475 00:34:17.081 --> 00:34:22.560 지금까지 ICVFX를 위한 주요 구성 요소와 개념들을 하나씩 살펴보았습니다 476 00:34:23.000 --> 00:34:26.660 이제 처음에 보셨던 이 다이어그램으로 다시 돌아와 477 00:34:26.661 --> 00:34:30.901 전체 시스템이 어떻게 구성되고 작동하는지 정리해보겠습니다 478 00:34:31.200 --> 00:34:36.000 다이어그램을 보시면 ICVFX시스템의 핵심적인 구성은 다음과 같습니다 479 00:34:36.820 --> 00:34:38.940 첫째, 오퍼레이팅 머신입니다 480 00:34:39.540 --> 00:34:42.861 이 머신은 전체 시스템의 제어와 관리 481 00:34:42.861 --> 00:34:45.081 그리고 네트워크 통신을 담당하며 482 00:34:45.082 --> 00:34:48.562 여러 렌더링 머신과 네트워크 장치와 연결되어 있습니다 483 00:34:49.000 --> 00:34:51.000 둘째, 렌더링 머신입니다 484 00:34:51.540 --> 00:34:56.580 각 렌더링 머신은 언리얼 엔진을 통해 실시간으로 3D 환경을 렌더링하여 485 00:34:56.581 --> 00:34:58.461 LED 화면에 출력하는 역할을 합니다 486 00:34:59.340 --> 00:35:05.800 셋째, 모든 장치들을 동기화해주는 네트워크 스위치 허브와 싱크 제너레이터가 있습니다 487 00:35:06.280 --> 00:35:11.660 이 장치들은 각 장치 간의 정확한 신호 동기화를 유지하여 488 00:35:11.661 --> 00:35:14.541 화면 끊김이나 오차가 발생하지 않도록 합니다 489 00:35:15.180 --> 00:35:17.740 넷째, LED 이미지 프로세서입니다 490 00:35:18.060 --> 00:35:22.041 렌더링된 이미지를 최종적으로 LED 화면에 맞게 조정하여 491 00:35:22.041 --> 00:35:25.801 고품질의 시각적 결과물을 제공하는 역할을 합니다 492 00:35:26.180 --> 00:35:31.100 마지막으로 카메라 위치 트래킹 시스템과 렌즈 데이터 트래킹 시스템입니다 493 00:35:31.720 --> 00:35:38.601 이 시스템들은 실제 카메라의 움직임과 렌즈 데이터가 가상 환경에 정확히 반영되도록 하여 494 00:35:38.601 --> 00:35:42.521 더욱 자연스럽고 현실감 있는 장면을 구현할 수 있게 해줍니다 495 00:35:42.840 --> 00:35:48.620 이로써 ICVFX를 구성하는 주요 요소들에 대해 전체적인 이해를 마쳤습니다 496 00:35:49.120 --> 00:35:53.380 이 다이어그램을 통해 각 구성요소들이 어떻게 상호작용하며 497 00:35:53.381 --> 00:35:57.321 가상 환경을 실제 환경과 매끄럽게 연결하는지 확인할 수 있습니다 498 00:35:57.700 --> 00:36:00.600 이어서 지금까지 배운 내용을 토대로 499 00:36:00.601 --> 00:36:05.294 실제 스튜디오에서 각 구성요소, 장비가 어떻게 세팅되어 있는지 500 00:36:05.295 --> 00:36:08.037 어떻게 연결되어 있는지 알아보도록 하겠습니다 501 00:36:08.524 --> 00:36:12.344 VX스튜디오 현장 시연 502 00:36:33.900 --> 00:36:38.860 여기는 광주 실감 콘텐츠 큐브 GCC 내에 있는 VX 스튜디오입니다 503 00:36:39.690 --> 00:36:42.461 이곳에서 앞서 이론 강의에서 배웠던 504 00:36:42.461 --> 00:36:46.742 각각의 장비에 대해 직접 보여드리면서 간략하게 설명드리려고 합니다 505 00:36:47.680 --> 00:36:51.580 먼저 규모가 매우 큰 LED 월을 보실 수 있는데요 506 00:36:51.880 --> 00:36:55.800 이 LED 월은 브레인바에서 컨트롤을 하게 되는데 507 00:36:55.801 --> 00:37:03.161 지금 이 공간이 ICVFX 핵심적인 모든 컨트롤이 이루어지는 브레인바입니다 508 00:37:03.541 --> 00:37:07.420 여기서 슈퍼바이저 및 오퍼레이터 분들의 컨트롤을 통해서 509 00:37:07.421 --> 00:37:11.981 LED 월의 감독이 원하는 것을 이루어지는 공간으로 볼 수 있습니다 510 00:37:12.540 --> 00:37:16.000 이제 하나씩 구성요소에 대해서 살펴보도록 하겠습니다 511 00:37:17.000 --> 00:37:20.531 인카메라 VFX에서 가장 핵심인 LED 월은 512 00:37:20.531 --> 00:37:23.232 하나의 큰 디스플레이를 볼 수 있겠지만 513 00:37:23.232 --> 00:37:26.706 사실은 작은 모듈이라고 하는 디스플레이가 514 00:37:26.707 --> 00:37:29.493 전체로 크게 결합된 것으로 볼 수 있습니다 515 00:37:29.673 --> 00:37:32.140 이제 이 패널에서 간략하게 보여드리겠는데요 516 00:37:33.300 --> 00:37:37.080 일반적으로 지금 저희가 사용하고 있는 모듈들은 보통 517 00:37:37.081 --> 00:37:43.400 50cm, 50cm 하나로 크게 해서 하나의 캐비넷이 형성이 됩니다 518 00:37:43.600 --> 00:37:50.700 지금 보시는 것처럼 소자 하나와 하나 사이의 거리를 피치 픽셀이라고 하고 있습니다 519 00:37:50.700 --> 00:37:55.660 지금 여기 설치된 LED 월은 2.6의 피치 픽셀을 가지고 있습니다 520 00:37:56.100 --> 00:38:03.020 그 뒤에 보시면 이런 식으로 파워보드에 연결될 수 있는 별도의 커넥터가 있습니다 521 00:38:03.340 --> 00:38:08.532 이제 하나의 파워보드에 총 4개의 모듈이 부착이 되면서 522 00:38:08.533 --> 00:38:09.533 하나의 판이 되고 523 00:38:09.534 --> 00:38:14.879 이것들을 키워나갈수록 점점 거대한 LED 월이 된다고 보시면 됩니다 524 00:38:15.799 --> 00:38:20.480 그리고 이제 지금 보시는 것처럼 이것은 벽에 사용되는 LED이고 525 00:38:20.481 --> 00:38:25.281 사실 천장과 바닥 LED는 아예 다른 종류라고 보시면 될 것 같습니다 526 00:38:26.840 --> 00:38:29.840 네 지금 저는 LED 월의 뒤에 와 있습니다 527 00:38:29.840 --> 00:38:31.840 자세하게 살펴보도록 하겠습니다 528 00:38:32.540 --> 00:38:37.300 앞서 보였던 모듈이 지금 여기서 봤을 때 어떤 것인지 정확히 구분 안되는데 529 00:38:37.300 --> 00:38:41.280 보시면 여기 있는 사각형 하나의 패널이 530 00:38:41.281 --> 00:38:43.768 앞에서 제가 말씀드렸던 하나의 모듈입니다 531 00:38:44.008 --> 00:38:47.300 그 모듈이 하나, 둘, 셋, 네 개 532 00:38:47.301 --> 00:38:50.311 네 개가 하나가 돼서 하나의 캐비넷이 됩니다 533 00:38:50.311 --> 00:38:55.660 캐비넷의 숫자가 늘어날수록 저희가 사용할 수 있는 LED 크기가 늘어난다고 보실 수 있을 것 같습니다 534 00:38:56.060 --> 00:38:59.280 보시면 케이블이 총 네 개가 있는데 535 00:38:59.281 --> 00:39:01.243 한쪽은 데이터 인 536 00:39:01.244 --> 00:39:02.063 전원 인 537 00:39:02.063 --> 00:39:03.643 다른 한쪽은 데이터 아웃 538 00:39:03.644 --> 00:39:05.099 전원 아웃 정식입니다 539 00:39:05.500 --> 00:39:13.080 가장 큰 장점은 메인에서 각각의 패널마다 전원과 데이터를 넣어주는 방식이 아니라 540 00:39:13.080 --> 00:39:18.660 한 곳에 넣은 상태에서 줄줄이 체인 방식으로 설치를 할 수가 있습니다 541 00:39:18.660 --> 00:39:22.740 그래서 만약에 한쪽이 문제가 발생하면 전체 라인이 다 꺼지거나 542 00:39:22.740 --> 00:39:24.361 이런 방식으로 진행되고 있습니다 543 00:39:24.580 --> 00:39:29.000 하나의 전체적인 구성을 하게 된다는 게 가장 큰 핵심이라고 보시면 됩니다 544 00:39:29.160 --> 00:39:32.420 추가적으로 하나의 패널에 문제가 생겼을 때 545 00:39:32.421 --> 00:39:36.356 이 친구만 바로 빼서 다른 걸로 교체가 되면 546 00:39:36.357 --> 00:39:41.349 바로 해결이 가능해서 유지 보수도 더 유용하다고 볼 수 있습니다 547 00:39:41.669 --> 00:39:46.500 그럼 이제 메인으로 이동해서 한번 전반적으로 좀 더 디테일하게 살펴보도록 하겠습니다 548 00:39:47.100 --> 00:39:50.200 지금 LED 월에서 조금 더 뒤로 와봤습니다 549 00:39:50.380 --> 00:39:53.780 보시는 것처럼 엄청나게 많은 랙이 있는데요 550 00:39:54.000 --> 00:39:59.045 여기가 LED 월 전체를 구동하는 가장 핵심적인 심장 역할을 한다고 보시면 될 것 같습니다 551 00:39:59.334 --> 00:40:01.755 여기 보시면 작은 친구가 있는데 552 00:40:01.755 --> 00:40:07.418 이 친구가 LED 월 전체에 전원을 공급하는 전원 박스라고 보시면 됩니다 553 00:40:07.875 --> 00:40:12.960 그리고 여기 있는 이 친구들은 브롬튼사의 XD라고 하는 제품으로 554 00:40:12.960 --> 00:40:18.059 이 친구는 LED 이미지 프로세서에서 받고 있는 데이터를 555 00:40:18.060 --> 00:40:23.227 각 패널에게 올바르게 뿌리는 역할을 한다고 보면 될 것 같습니다 556 00:40:23.227 --> 00:40:26.622 이 모든 것들은 네트워크 케이블로 이루어지고 있습니다 557 00:40:26.982 --> 00:40:30.175 여기 뒤에 한번 간단하게 살펴보도록 하겠습니다 558 00:40:30.490 --> 00:40:33.349 이번에는 XD의 뒤편으로 와봤는데요 559 00:40:33.675 --> 00:40:36.912 여기 뒤에는 정말 수많은 랜선 케이블들이 있습니다 560 00:40:37.065 --> 00:40:40.773 이 랜선 케이블의 간단한 역할을 말씀을 드리면 561 00:40:40.774 --> 00:40:43.214 위에 나란히 있는 케이블들은 562 00:40:43.214 --> 00:40:47.805 LED 패널에 데이터를 쏴주고 있는 역할을 보시면 되고요 563 00:40:47.882 --> 00:40:51.542 각 기기마다 하단에 있는 광 랜 케이블은 564 00:40:51.542 --> 00:40:55.233 이미지 프로세서에서 데이터를 받는 역할을 하고 있습니다 565 00:40:55.335 --> 00:41:01.168 이런 식으로 모든 게 네트워크 망으로 데이터를 주고 받는다고 보시면 될 것 같습니다 566 00:41:01.221 --> 00:41:04.758 해당 장비는 LED 이미지 프로세서입니다 567 00:41:04.758 --> 00:41:09.410 보시는 것처럼 여기부터 이런 식으로 다 구성이 되어 있는데요 568 00:41:09.410 --> 00:41:16.268 이 장치는 ICVFX에서 LED 월에 전달될 이미지를 계산을 해서 569 00:41:16.269 --> 00:41:20.064 관리를 하고 보내는 역할의 장비라고 보시면 될 것 같습니다 570 00:41:20.064 --> 00:41:25.651 간단히 말해 LED 패널로 가는 영상 신호를 최적화하고 571 00:41:25.652 --> 00:41:30.248 패널에 정확하게 쏴주는 역할을 하고 있다 보시면 될 것 같습니다 572 00:41:30.250 --> 00:41:32.189 프로세서는 앞면 보시면 573 00:41:32.189 --> 00:41:34.363 사실 크게 할 수 있는 부분은 없습니다 574 00:41:34.659 --> 00:41:39.130 앞에 보시면 크게 두 가지의 버튼만 있는데요 575 00:41:39.130 --> 00:41:42.834 사실은 이 모든 버튼들은 컴퓨터에서 별도로 실행할 수 있기 때문에 576 00:41:42.840 --> 00:41:48.207 한 번 서버실로 들어오면 별도로 세팅할 필요는 없다고 보시면 될 것 같습니다 577 00:41:48.207 --> 00:41:51.378 제일 중요한 이 프로세서의 뒤로 가서 578 00:41:51.378 --> 00:41:55.074 간략하게 어떻게 구성되어 있는지 살펴보겠습니다 579 00:41:55.800 --> 00:41:59.709 저는 이미지 프로세서의 뒷편으로 와봤습니다 580 00:41:59.709 --> 00:42:02.774 지금 매우 좁고 복잡하긴 한데 581 00:42:02.775 --> 00:42:05.024 간단하게 한번 살펴보도록 하겠습니다 582 00:42:05.024 --> 00:42:09.820 여기 보시면 이렇게 파란색 케이블로 된 것들이 광케이블인데 583 00:42:09.823 --> 00:42:14.936 이 친구들이 저희가 방금 봤던 XD로 데이터를 보내는 역할을 한다고 보시면 됩니다 584 00:42:15.092 --> 00:42:22.524 보시면 하나의 이미지 프로세서당 총 4개의 XD로 데이터를 보내고 있는 걸 볼 수 있고요 585 00:42:23.033 --> 00:42:29.496 보시면 여기 있는 초록색 케이블은 젠락신호를 내보내고 있습니다 586 00:42:29.871 --> 00:42:32.796 그리고 여기 있는 케이블들은 587 00:42:32.797 --> 00:42:39.207 이 모든 것들을 원격으로 컨트롤할 수 있도록 지원하는 케이블로 볼 수 있습니다 588 00:42:39.471 --> 00:42:41.413 보시면 좀 많이 복잡하긴 한데 589 00:42:41.414 --> 00:42:43.844 정리를 엄청 깔끔하게 한 걸 볼 수 있습니다 590 00:42:43.844 --> 00:42:47.815 깔끔하게 정리하고 각각마다 레벨링을 하는데요 591 00:42:47.815 --> 00:42:51.050 이런 정말 중요한 것들은 유지관리 보수를 할 때 592 00:42:51.051 --> 00:42:53.369 어떤 문제가 발생했을 때 593 00:42:53.370 --> 00:42:58.276 어떤 케이블이 문제 있는지 빠르고 쉽게 찾을 수 있도록 594 00:42:58.277 --> 00:43:00.161 정리한걸로 볼 수 있을 것 같습니다 595 00:43:00.415 --> 00:43:03.086 그럼 이제 여기까지 하드웨어적인 것을 봤는데 596 00:43:03.087 --> 00:43:07.243 이 친구들을 실제로 컴퓨터에서 어떻게 컨트롤하고 활용하는지 597 00:43:07.244 --> 00:43:10.151 한 번 가서 살펴보도록 하겠습니다 598 00:43:10.411 --> 00:43:14.029 이번에는 앞서 살펴봤던 이미지 프로세서를 599 00:43:14.030 --> 00:43:17.166 컴퓨터에서 컨트롤할 수 있는 것을 한번 보여드리면서 600 00:43:17.167 --> 00:43:19.873 어떤 기능들을 가지고 있는지, 어떤 역할을 하고 있는지 601 00:43:19.874 --> 00:43:22.509 한 번 디테일하게 살펴보도록 하겠습니다 602 00:43:23.449 --> 00:43:27.373 보시면 바탕화면에 테세라 리모트라는 소프트웨어가 있습니다 603 00:43:28.167 --> 00:43:32.508 이 친구는 기본적으로 네트워크 기반으로 컨트롤할 수 있는 기반이고요 604 00:43:32.887 --> 00:43:34.518 스타트 한번 눌러주시면 605 00:43:34.519 --> 00:43:41.396 앞에 저희가 서버실에서 봤던 모든 이미지 프로세서를 원격으로 들어갈 수 있습니다 606 00:43:41.641 --> 00:43:48.145 보시면 여기에서는 구성이 천장, 메인 월바닥이 되어있습니다 607 00:43:48.145 --> 00:43:51.143 보시면 실링은 실링이라고 표기가 되어 있고 608 00:43:51.143 --> 00:43:53.084 바닥은 플로어라고 표기가 되어있습니다 609 00:43:53.634 --> 00:43:58.000 우선 저희는 기본적으로 메인 월만 한번 컨트롤 해보도록 하겠습니다 610 00:43:58.877 --> 00:44:00.112 실행을 해보겠습니다 611 00:44:08.707 --> 00:44:13.129 실행을 하게 되면 이런 식으로 기본적인 UI가 나타나게 됩니다 612 00:44:13.457 --> 00:44:16.236 이 UI에 대해서 간략하게 설명을 한번 드리고 613 00:44:16.236 --> 00:44:21.040 그 다음에 각각 가지고 있는 기능들에 대해서 말씀드리겠습니다 614 00:44:22.207 --> 00:44:28.622 보시면 UI가 기본적으로 프로젝트, 에디트, 뷰, 툴 이런 식으로 되어있습니다 615 00:44:28.855 --> 00:44:31.122 보시면 프로젝트 같은 경우는 616 00:44:31.123 --> 00:44:35.719 실제로 이 이미지 프로세서를 사용하는 유저마다 다양하게 617 00:44:35.720 --> 00:44:37.623 다르게 사용할 수 있기 때문에 618 00:44:37.623 --> 00:44:39.608 그런 부분을 관리한다고 보시면 되고요 619 00:44:39.727 --> 00:44:42.836 에디트는 이 모든 설정 값에 대해서 620 00:44:42.837 --> 00:44:45.128 편집을 하고 되돌리고 621 00:44:45.128 --> 00:44:48.374 앞으로 다시 되돌아가고 이런 모든 기능들을 할 수가 있습니다 622 00:44:49.040 --> 00:44:52.330 그래서 이것들을 다 저장하고 끄기 전에는 623 00:44:52.331 --> 00:44:56.382 컨트롤 Z로 저희가 앞에 했던 걸로 다시 다 돌아갈 수가 있습니다 624 00:44:56.382 --> 00:45:03.345 그래서 혹시나 저희가 작업을 하다가 뭔가 실수가 있을 때에도 625 00:45:03.346 --> 00:45:06.210 문제가 있어도 다시 돌아갈 수 있습니다 626 00:45:07.103 --> 00:45:11.295 지금 LED 화면에서는 잘 보일지 모르겠는데 627 00:45:11.296 --> 00:45:14.905 이런 식으로 제가 움직이게 되면 628 00:45:14.906 --> 00:45:18.054 LED 화면에서 뭔가 변화가 있는 것을 확인할 수 있습니다 629 00:45:18.147 --> 00:45:23.000 이것들은 컨트롤 Z를 눌러서 원상복귀를 할 수 있다고 보시면 될 것 같습니다 630 00:45:23.360 --> 00:45:28.612 결과적으로 방금 보신 이 화면은 LED 화면을 컴픽하는 거라고 보시면 되는데 631 00:45:29.178 --> 00:45:31.337 여기 보시면 이 화살표 632 00:45:31.338 --> 00:45:35.110 이게 앞서서 저희가 저번 시간에 배웠던 633 00:45:35.111 --> 00:45:39.385 LED 패널 뒤에서 봤던 데이터 케이블 체인 형식입니다 634 00:45:39.775 --> 00:45:46.727 이 패널에서 받아서 다음 패널로 데이터를 옮겨준다는 개념으로 보시면 될 것 같고요 635 00:45:48.190 --> 00:45:50.509 그리고 밑에 있는 이것들은 636 00:45:50.510 --> 00:45:56.182 프로젝트마다 어떻게 세팅이 되어 있는지 했는지에 대한 프리셋이라고 보시면 됩니다 637 00:45:56.182 --> 00:46:01.375 보통 저희 같은 경우는 프로젝트별로 컬러 세팅이라던지 구성이 달라지기 때문에 638 00:46:01.376 --> 00:46:04.518 프로젝트별로 프리셋을 만들어 놓고 사용하는 편이고요 639 00:46:05.828 --> 00:46:09.000 가장 중요한 위의 부분을 한번 살펴보도록 하겠습니다 640 00:46:09.000 --> 00:46:12.045 여기는 매우 직관적으로 되어 있는데요 641 00:46:12.045 --> 00:46:14.485 인풋이 있고 프로세싱 642 00:46:14.486 --> 00:46:16.011 어떻게 하고 있는지 643 00:46:16.012 --> 00:46:19.685 그리고 이걸 오버라이드해서 어떻게 치우고 뭔가 할지 644 00:46:19.686 --> 00:46:21.711 한 다음에 최종적으로 아웃풋까지 645 00:46:21.712 --> 00:46:24.722 이 모든 것을 한 번에 다 볼 수가 있고요 646 00:46:25.049 --> 00:46:29.037 기본적으로 인풋 같은 경우는 저희가 아까 뒤에서 봤던 것처럼 647 00:46:29.038 --> 00:46:32.618 HDMI가 인풋이 되는 형식인데요 648 00:46:32.632 --> 00:46:34.319 사실 SDI도 박을 수 있습니다 649 00:46:35.259 --> 00:46:38.268 우선은 인풋을 HDMI 부분을 본다고 하면 650 00:46:38.268 --> 00:46:40.527 이걸 클릭했을 때 651 00:46:40.528 --> 00:46:43.211 기본적인 정보를 볼 수가 있습니다 652 00:46:43.943 --> 00:46:47.200 예를 들어 해상도, 프레임 레이트 653 00:46:47.200 --> 00:46:51.126 컬러, 비트뎁스 등이 어떻게 설정되어 있는지 확인할 수가 있고요 654 00:46:51.540 --> 00:46:56.183 그리고 저희가 쏴주는 이미지 컬러 값에 따라서 655 00:46:56.184 --> 00:46:59.892 PQ를 할지 SDI를 할지를 설정할 수 있습니다 656 00:47:01.645 --> 00:47:08.334 또는 컬러 스페이스를 2020을 할지 709를 할지 설정할 수 있습니다 657 00:47:08.334 --> 00:47:12.632 지금 상태에서는 이 스튜디오는 커스텀한 컬러 스페이스를 사용하고 있고요 658 00:47:13.722 --> 00:47:16.396 이렇게 인풋을 넣어준 것을 확인한 다음에 659 00:47:16.397 --> 00:47:19.891 프로세싱에서 저희가 추가적인 세팅을 할 수가 있습니다 660 00:47:21.158 --> 00:47:24.260 여기 보시면 해상도를 별도로 수정하거나 661 00:47:26.220 --> 00:47:30.265 이런 식으로 컬러에 대한 기본적인 것들을 추가적으로 진행할 수가 있는데 662 00:47:30.625 --> 00:47:33.818 사실 대부분은 여기서 컨트롤하는 것보다는 663 00:47:33.819 --> 00:47:37.630 미디어 서버에서 컨트롤하는 것을 저희는 추천드리고 있습니다 664 00:47:38.384 --> 00:47:42.000 때때로 LUT를 씌워서 별도의 작업을 할 수도 있는데요 665 00:47:47.793 --> 00:47:50.301 이제 이것들은 상황에 따라서 만약에 666 00:47:50.729 --> 00:47:54.707 저희가 조금 더 디테일한 컬러를 맞추고 싶다 하면 667 00:47:54.934 --> 00:48:00.238 특정 컬러 파이프라인을 따라서 만든 큐브 파일을 넣어서 사용하는 경우도 있습니다 668 00:48:01.458 --> 00:48:04.335 그리고 여기에 오버라이드가 있고 프리즈가 있습니다 669 00:48:04.337 --> 00:48:06.201 오버라이드 보시면 패턴에 670 00:48:06.202 --> 00:48:11.671 기본적으로 저희가 대기상태에 어떤 화면을 띄워놓을지 671 00:48:11.671 --> 00:48:13.735 간략하게 선택해서 진행할 수가 있고요 672 00:48:14.283 --> 00:48:19.521 평소에는 저희가 스크롤링이라고 해서 673 00:48:19.522 --> 00:48:24.438 기본적인 컬러바를 계속 돌아갈 수 있도록 설정해놓고 있습니다 674 00:48:27.341 --> 00:48:30.040 또는 프리즈 같은 경우는 675 00:48:30.041 --> 00:48:34.484 보통 저희가 어떤 이미지를 LED 띄워놓고 다른 작업을 할 때 676 00:48:34.485 --> 00:48:35.921 계속 화면이 바뀌기 때문에 677 00:48:35.921 --> 00:48:38.322 그걸 멈추는 것이라고 보시면 되고요 678 00:48:38.323 --> 00:48:42.249 블랙아웃은 전반적으로 모든 걸 끄는 행위라고 볼 수 있습니다 679 00:48:43.176 --> 00:48:48.731 그리고 니트 같은 경우는 이런 식으로 밝기를 올리고 내리고 680 00:48:49.253 --> 00:48:52.425 이런 부분을 통합적으로 설정할 수 있습니다 681 00:48:54.560 --> 00:48:57.470 여기 보시면 네트워크 부분이 있는데 682 00:48:57.470 --> 00:49:01.448 지금 저희가 뒤에서 봤던 XD 장비 하나당 683 00:49:01.449 --> 00:49:04.386 이런 식으로 데이터 처리 상태를 볼 수가 있고요 684 00:49:04.809 --> 00:49:08.144 만약에 문제가 있을 경우에 이런 것들이 초록색이 아니라 685 00:49:08.144 --> 00:49:10.609 빨간색으로 표기가 될 수도 있습니다 686 00:49:10.609 --> 00:49:12.726 이런 부분들을 같이 확인할 수가 있고 687 00:49:13.502 --> 00:49:16.155 저희가 젠락을 뒤에서 같이 봤는데 688 00:49:16.156 --> 00:49:21.045 젠락은 저희가 총 59.94를 사용하고 있어서 689 00:49:21.046 --> 00:49:24.486 레퍼런스 인을 통해서 외부에서 동기화 신호를 받아서 690 00:49:24.487 --> 00:49:26.361 사용하고 있다고 보시면 될 것 같습니다 691 00:49:26.612 --> 00:49:30.288 여기까지가 기본적인 이미지 프로세서에 대한 설명입니다 692 00:49:30.821 --> 00:49:34.833 이것들은 프로젝트 진행하는 내내 이걸 켜놓고 693 00:49:34.834 --> 00:49:37.679 혹시나 발생하는 문제들을 여기서 모니터링하면서 694 00:49:37.871 --> 00:49:42.584 관리하고 유지 보수한다고 보시면 될 것 같습니다 695 00:49:43.101 --> 00:49:47.534 이번에 살펴볼 ICVFX의 가장 중요한 요소 중 또 하나 696 00:49:47.535 --> 00:49:50.362 카메라 트래킹 먼저 알아보도록 하겠습니다 697 00:49:50.673 --> 00:49:55.013 지금 여기 VX스튜디오에는 총 두 가지의 시스템을 사용하고 있는데요 698 00:49:55.013 --> 00:49:56.738 첫 번째 설명드릴 것은 699 00:49:56.739 --> 00:50:00.495 앞에 보이는 스파이더라는 장비를 사용하고 있습니다 700 00:50:00.511 --> 00:50:04.061 스파이더는 단독으로 작동하는 것은 아니고요 701 00:50:04.062 --> 00:50:07.951 LED 월 위에 보시면 자그마한 카메라가 다 달려있습니다 702 00:50:08.101 --> 00:50:10.272 저 카메라들은 팔로워라고 하는 건데요 703 00:50:10.607 --> 00:50:15.594 저 친구들이 여기서 발산하는 광을 캡처하는 방식입니다 704 00:50:15.910 --> 00:50:22.335 이거의 장점은 뭐냐면 어떤 카메라든 이 스파이더만 가져서 올려놓으면 705 00:50:22.336 --> 00:50:24.542 트래킹이 가능하다는 게 가장 큰 장점입니다 706 00:50:25.007 --> 00:50:27.761 그래서 보시면 여기 원형으로 되어 있는데요 707 00:50:27.761 --> 00:50:29.534 여기 안에 카메라 들어가서 트래킹할 때 708 00:50:29.535 --> 00:50:32.256 아주 유용하게 사용할 수가 있고요 709 00:50:33.137 --> 00:50:35.208 기본적으로 얘가 발광하는 건데 710 00:50:35.208 --> 00:50:39.081 그렇기 때문에 기본적인 전기 신호가 들어가야 되고 711 00:50:39.087 --> 00:50:42.240 렌을 통해서 얘가 가지고 있는 정보를 받아야 됩니다 712 00:50:43.761 --> 00:50:46.884 여기까지 기본적인 스파이더의 설명이고 713 00:50:46.885 --> 00:50:49.652 그 다음으로 다른 시스템에 대해서 설명을 드리겠습니다 714 00:50:50.149 --> 00:50:51.284 이쪽으로 오시면 715 00:50:53.196 --> 00:50:57.673 이렇게 레드 스파이라는 카메라가 달려있는 것을 확인할 수 있습니다 716 00:50:57.897 --> 00:51:01.078 이 카메라 같은 경우는 위에 렌즈가 달려있고 717 00:51:01.079 --> 00:51:03.231 발광하는 LED가 있습니다 718 00:51:03.231 --> 00:51:07.055 이 발광하는 LED가 위에 천장에 지금 보이지는 않는데 719 00:51:07.056 --> 00:51:08.916 위에 수많은 스티커가 붙여있습니다 720 00:51:09.072 --> 00:51:13.060 이 스티커를 향해서 빛을 발사하고 721 00:51:13.061 --> 00:51:15.645 반사해서 내려오는 것들을 캡처해서 722 00:51:15.646 --> 00:51:17.326 위치를 캡처한다고 보실 수 있습니다 723 00:51:17.326 --> 00:51:21.967 이거의 장점은 위에 있는 스티커 위치만 바뀌지 않는다고 하면 724 00:51:21.968 --> 00:51:26.294 언제 어느 순간 켜기만 하면 트래킹이 된다는 게 가장 큰 장점입니다 725 00:51:26.843 --> 00:51:30.152 이제 이거를 실제로 컨트롤하는 것을 726 00:51:30.152 --> 00:51:32.752 컴퓨터에 가서 한번 확인할 수 있도록 해보겠습니다 727 00:51:33.087 --> 00:51:34.463 한번 이동하시죠 728 00:51:36.239 --> 00:51:44.000 이제 보시면 여기에 있는 게 방금 봤던 레드 스파이의 맵 화면이라고 보시면 됩니다 729 00:51:44.000 --> 00:51:47.330 이거 하나하나가 천장에 박혀있는 스티커라고 보시면 되고요 730 00:51:48.629 --> 00:51:53.117 이제 각각의 위치 값을 전체적으로 다 계산을 해서 731 00:51:53.118 --> 00:51:56.673 맵을 읽는 거라고 보시면 됩니다 732 00:51:57.748 --> 00:51:59.387 카메라 한번 움직여 볼게요 733 00:52:03.256 --> 00:52:05.528 이런 식으로 카메라가 움직일 때마다 734 00:52:05.987 --> 00:52:07.658 이 점들은 그대로 있는 거라서 735 00:52:07.658 --> 00:52:11.045 사실은 얘가 봤을 때 점이 움직인다고 생각할 수 있지만 736 00:52:11.047 --> 00:52:13.019 이 점은 가만히 있는 거고 737 00:52:13.231 --> 00:52:21.780 이게 움직이면서 발생하는 그 데이터 값을 통해서 위치를 추적한다고 보시면 됩니다 738 00:52:23.205 --> 00:52:26.076 여기까지가 기본적으로 여기에 설치되어 있는 거긴 한데 739 00:52:26.077 --> 00:52:28.563 이걸 또 보완하는 트래킹 장비가 있거든요 740 00:52:28.563 --> 00:52:30.985 그것도 추가적으로 한번 살펴보도록 하겠습니다 741 00:52:32.103 --> 00:52:38.531 지금까지 앞에서 말씀드렸던 트래킹 두 가지는 위치, 육축에 대한 데이터들이고요 742 00:52:39.047 --> 00:52:41.608 추가적 로테이션 플러스 포커스 등 743 00:52:41.609 --> 00:52:43.964 카메라 데이터를 추가적으로 트래킹하는 장비가 있는데 744 00:52:43.964 --> 00:52:48.291 여기에는 스타이프 추가적인 장비가 달려있습니다 745 00:52:48.678 --> 00:52:51.680 이 장비는 카메라랑 연결되어 있고 746 00:52:51.681 --> 00:52:53.125 헤드랑 연결되어 있어서 747 00:52:53.125 --> 00:52:56.673 이 헤드 돌아가는 모든 데이터를 추가적으로 얻어서 748 00:52:56.674 --> 00:52:58.277 스트리밍 할 수 있다고 보시면 될 것 같습니다 749 00:52:58.516 --> 00:53:02.000 이 데이터들은 추가적으로 컨트롤할 수 있는 패널로 이동하게 됩니다 750 00:53:11.031 --> 00:53:15.272 그래서 앞에 있던 그 추가적인 데이터들은 여기로 들어와서 751 00:53:15.273 --> 00:53:19.402 이 패널에서 추가적으로 컨트롤할 수 있도록 만들어져 있습니다 752 00:53:20.000 --> 00:53:22.228 지금 보시는 장비들은 753 00:53:22.852 --> 00:53:27.619 이제 ICVFX 시스템에서 가장 핵심적인 역할을 하고 있는 미디어 서버 754 00:53:27.620 --> 00:53:29.224 디스가이즈입니다 755 00:53:29.224 --> 00:53:32.777 이제 앞에 있는 장비들은 기기명은 VX4 인데요 756 00:53:32.777 --> 00:53:34.726 이제 이 장비들로 하여금 757 00:53:34.727 --> 00:53:38.457 실시간으로 고품질 영상을 렌더링하고 송출하는 758 00:53:38.457 --> 00:53:41.328 가장 큰 역할을 한다고 보시면 될 것 같습니다 759 00:53:41.393 --> 00:53:44.269 기본적으로 젠락 관련된 모든 부분을 할 수 있습니다 760 00:53:45.075 --> 00:53:46.790 하나씩 간단하게 설명을 드리면 761 00:53:46.791 --> 00:53:51.881 레퍼런스는 만약 이 친구를 다른 장비에서 신호를 받을 경우는 762 00:53:51.881 --> 00:53:55.086 외부에서 받아서 설정할 수 있고요 763 00:53:55.518 --> 00:53:58.978 이 친구가 지금 마스터를 쓰고 있기 때문에 인터널로 되어 있습니다 764 00:53:59.699 --> 00:54:02.613 여기 가장 중요한 부분은 이 블랙 부분인데요 765 00:54:02.615 --> 00:54:08.917 이 블랙 부분이 저희가 외부로 동기화 신호를 내보내는 데 설정을 하고 있습니다 766 00:54:09.510 --> 00:54:15.742 만약에 여기서 저희가 포맷을 다른 걸로 변경하게 된다고 하면 767 00:54:15.743 --> 00:54:19.540 모든 장비의 신호가 해당 신호로 변경되게 됩니다 768 00:54:20.472 --> 00:54:25.145 가장 큰 특징은 각 단자별로 신호를 변경해 줄 수가 있는데요 769 00:54:27.912 --> 00:54:35.498 현재는 여기 세팅으로는 1080-59.94i로 되어 있는 걸 볼 수가 있습니다 770 00:54:35.780 --> 00:54:38.809 추가적으로 만약에 타임 코드가 필요하다고 하시면 771 00:54:38.810 --> 00:54:42.042 LTC 신호로 추가로 맞출 수 있습니다 772 00:54:43.073 --> 00:54:47.599 가장 핵심은 이 상태창에서 모든 아웃풋이 어떻게 나가고 있는지 773 00:54:47.609 --> 00:54:49.528 관리를 하는 것이 가장 중요합니다 774 00:54:49.635 --> 00:54:54.107 때때로 여러 팁을 사용하다 보면은 이런 부분 놓치기가 쉬운데 775 00:54:54.108 --> 00:54:57.597 항상 이 부분은 맨 처음에 체크를 하고 넘어가야 됩니다 776 00:54:58.216 --> 00:55:02.283 마지막으로 이제 다른 장비에서 젠락은 다 저희가 확인했는데 777 00:55:02.644 --> 00:55:07.487 미디어 서버에서 젠락 싱크에 대한 부분을 한번 확인해 보도록 하겠습니다 778 00:55:07.935 --> 00:55:11.357 이 소프트웨어에서 상단에 보시면 피드 탭이 있습니다 779 00:55:11.790 --> 00:55:13.960 이 피드 탭을 눌러보시면 780 00:55:13.961 --> 00:55:20.513 이런 식으로 실제로 저희가 아웃풋을 내보내는 것에 대한 세팅들을 전부 볼 수 있습니다 781 00:55:20.955 --> 00:55:26.610 여기 보시면 리플레이스 레이트가 59.94로 되어 있는 걸 확인할 수가 있는데 782 00:55:27.007 --> 00:55:29.908 여기에 보시면 다양하게 783 00:55:29.909 --> 00:55:33.225 저희가 원하는 대로 프레임 레이트를 설정하실 수 있습니다 784 00:55:33.906 --> 00:55:35.813 또는 레이턴시 모드라고 해서 785 00:55:35.814 --> 00:55:38.816 풀 스피드로 할지 아니면 하프로 할지 786 00:55:38.817 --> 00:55:40.602 이런 부분도 설정이 가능하고요 787 00:55:41.227 --> 00:55:42.972 그리고 가장 중요한 부분이 788 00:55:44.227 --> 00:55:49.406 이쪽 부분에서 우측 상단에 있는초록색 칸이 있습니다 789 00:55:49.720 --> 00:55:55.816 이 칸이 뭐냐면은 젠락이 올바르게 해당 장비에 들어가고 있는지를 790 00:55:55.823 --> 00:55:58.961 확인할 수 있는 인디케이터로 보시면 됩니다 791 00:55:59.536 --> 00:56:05.759 지금 보시면 전체가 초록색으로 잘 들어와 있는 것을 확인할 수 있습니다 792 00:56:06.021 --> 00:56:11.315 이렇게 된다고 하면은 모든 장비가 하나의 싱크 아래에 동시에 작동한다고 보시면 되고요 793 00:56:12.118 --> 00:56:14.725 지금 보시면 여기는 검은색으로 되어 있는데 794 00:56:14.726 --> 00:56:19.704 어떤 신호도 내보내거나 받거나 하지 않는 상태를 의미합니다 795 00:56:20.069 --> 00:56:23.442 만약에 이게 빨간색이 되어 있는 상태라고 하면 796 00:56:23.443 --> 00:56:26.421 문제가 있기 때문에 해결을 해야 되고요 797 00:56:26.593 --> 00:56:28.378 이런 부분에 맞출 수 있는 방법은 798 00:56:28.378 --> 00:56:32.812 저희가 아까 말했던 마스터 장비에서 젠락을 받았을 때 799 00:56:33.477 --> 00:56:38.068 여기 있는 어플라이 젠락을 눌러서 한번 환기를 시키고 800 00:56:38.069 --> 00:56:41.742 내가 올바른 신호를 다시 받을 수 있는 준비를 시켜놔야 됩니다 801 00:56:42.000 --> 00:56:46.023 이걸 누르면 보통 한 3분에서 5분 정도 시간이 걸리는데 802 00:56:46.024 --> 00:56:49.479 그 시간 동안 모든 하드웨어의 젠락을 803 00:56:49.479 --> 00:56:54.410 다시 저희가 원하는 대로 바꿀 수 있다고 보시면 될 것 같습니다 804 00:56:55.482 --> 00:57:00.429 여기까지 VX스튜디오에서 배운 ICVFX 전체 구성 요소였습니다 805 00:57:00.907 --> 00:57:03.667 지금까지 저희가 이론으로 학습했던 부분들 806 00:57:03.668 --> 00:57:09.432 ICVFX 전체 구성 요소에 대해 VX스튜디오에서 간략하게 보여드렸습니다 807 00:57:09.950 --> 00:57:13.530 이렇게 여러 장비와 소프트웨어가 유기적으로 연결되어 808 00:57:13.531 --> 00:57:16.064 하나의 산출물을 만들어내기 때문에 809 00:57:16.064 --> 00:57:21.352 장비 하나하나가 매우 중요한 역할을 하고 있다는 점을 기억해 주시면 좋을 것 같습니다 810 00:57:21.524 --> 00:57:27.693 지금까지 ICVFX의 기본기념과 주요 구성 요소들에 대해 살펴보았습니다 811 00:57:27.823 --> 00:57:32.281 오늘 강의를 통해 ICVFX가 단순히 LED 월을 사용하는 것 이상의 812 00:57:32.281 --> 00:57:37.825 복합적인 기술과 정교한 장비의 조합으로 이루어졌다는 점을 이해하셨길 바랍니다 813 00:57:38.417 --> 00:57:44.389 여러분이 이번 시간을 통해 얻은 지식이 앞으로 프로젝트나 작업에 큰 도움이 되길 바랍니다 814 00:57:44.718 --> 00:57:47.850 ICVFX는 빠르게 발전하는 분야인 만큼 815 00:57:47.851 --> 00:57:51.857 계속해서 새로운 기술과 장비가 등장하고 있습니다 816 00:57:52.330 --> 00:57:55.840 여러분도 계속해서 호기심을 갖고 참고하시면서 817 00:57:55.841 --> 00:58:00.207 현장에 필요한 실질적인 경험과 지식을 쌓아 나아가시길 바랍니다 818 00:58:00.378 --> 00:58:04.353 그럼 이번 시간 학습한 내용을 정리하면서 마무리하겠습니다 819 00:58:04.354 --> 00:58:05.782 감사합니다 820 00:58:05.782 --> 00:58:07.013 VP의 기본 개념 전통적인 촬영방식의 종류 로케이션 촬영 오픈세트장 촬영 크로마 배경 촬영 후 VFX 821 00:58:07.014 --> 00:58:10.794 VP의 기술 ICVFX MOCAP PREVIZ VR MR XR VIRTUAL CAMERA SIMULCAM 822 00:58:10.794 --> 00:58:15.754 VP의 기본개념 LED Wall을 활용한 VP기술 ICVFX 2D ICVFX XR 823 00:58:15.754 --> 00:58:20.739 ICVFX 구성 요소 LED Walls 이미지 프로세서 카메라&렌즈 미디어서버 or렌더pc 젠록 싱크 in all 디바이스 카메라 트래킹 시스템 824 00:58:20.739 --> 00:58:22.059 ICVFX의 다이어그램을 통한 개념 이해 오퍼레이팅 머신 전체 시스템의 제어와 관리,네트워크 통신을 담당 여러 렌더링 머신과 네트워크 장치와 연결 825 00:58:22.059 --> 00:58:22.841 렌더링 머신 언리얼 엔진을 통해 실시간으로 3d환경을 렌더링하여 led화면에출력하는 역할 826 00:58:22.841 --> 00:58:23.722 네트워크 스위치 허브와 싱크제너레이터 모든 장치들을 동기화함 각 장치간의 정확한 신호 동기화를 유지하여 화면 끊김이나 오차가 발생하지 않도록 함 827 00:58:23.722 --> 00:58:24.363 led이미지 프로세서 렌더링된 이미지를 최종적으로 led화면에 맞게 조정하여 고품질의 시각적 결과물을 제공 828 00:58:24.363 --> 00:58:24.844 카메라 위치 트래킹 시스템과 렌즈 데이터 트래킹 시스템 실제 카메라의 움직임과 렌즈 데이터가 가상 환경에 정확히 반영되도록 하여 829 00:58:24.844 --> 00:58:25.603 더욱 자연스럽고 현실감 있는 장면을 구현할 수 있도록 도움 830 00:58:25.603 --> 00:58:30.523 VX스튜디오 현장시연 led wall 브레인바 led이미지 프로세서 카메라 트래킹 미디어 서버 마스터 젠록