1 00:00:04.201 --> 00:00:09.072 실감 심화편 미디어서버 디스가이즈 활용(1) 2 00:00:09.072 --> 00:00:11.626 GCC 사관학교 3 00:00:27.181 --> 00:00:29.776 안녕하세요 오늘 디스가이즈의 활용의 4 00:00:29.776 --> 00:00:34.080 첫 번째 시간 강의를 진행하게 된 박지용입니다 5 00:00:34.080 --> 00:00:39.230 이번 강의에서는 XR 2D, 2.5D와 같은 6 00:00:39.230 --> 00:00:42.180 다양한 기술적 개념과 워크플로우를 이해하고 7 00:00:42.180 --> 00:00:46.156 실제 적용방법을 학습 하는 것을 목표로 합니다 8 00:00:46.156 --> 00:00:48.756 이를 위해 다음과 같은 4가지 주제를 9 00:00:48.756 --> 00:00:51.279 중심으로 진행하려고 합니다 10 00:00:51.279 --> 00:00:55.029 우선 XR과 함께 2D, 2.5D라는 워크플로우가 11 00:00:55.029 --> 00:00:56.827 각각 무엇을 의미하며 12 00:00:56.827 --> 00:01:01.077 어떤 제작환경에서 활용되는지 알아보겠습니다 13 00:01:01.077 --> 00:01:04.160 각 기술의 장점과 한계를 비교하며 14 00:01:04.160 --> 00:01:07.060 어떤 상황에서 가장 적합한 소유선인지 15 00:01:07.060 --> 00:01:09.400 이해할 수 있도록 하겠습니다 16 00:01:09.400 --> 00:01:12.850 다음으로는 콘텐츠를 디스플레이나 표면에 17 00:01:12.850 --> 00:01:16.499 정확하게 투영하는 매핑에 대해 알아볼텐데 18 00:01:16.499 --> 00:01:18.790 2D, 3D 그리고 다양한 형태의 19 00:01:18.790 --> 00:01:21.552 매핑 방식에 대해서 알아보겠습니다 20 00:01:21.562 --> 00:01:23.908 세 번째로는 XR을 구현하기 위해 21 00:01:23.908 --> 00:01:26.377 필요한 구성 요소들을 탐구하고 22 00:01:26.377 --> 00:01:32.056 미디어 서버, LED 스크린, 트래킹 시스템, 렌더링 엔진 등 23 00:01:32.056 --> 00:01:35.556 XR 환경을 구축하는 데 필요한 핵심 기술을 24 00:01:35.556 --> 00:01:37.519 이해하게 될 것입니다 25 00:01:37.519 --> 00:01:39.919 마지막으로 실제 XR 환경을 26 00:01:39.919 --> 00:01:42.320 세팅하는 과정을 학습합니다 27 00:01:42.320 --> 00:01:45.520 다양한 환경에서 다양한 디스플레이와 28 00:01:45.520 --> 00:01:48.584 트래킹 시스템을 연결하고 동기화하며 29 00:01:48.584 --> 00:01:51.884 안정적인 촬영과 렌더링을 위한 30 00:01:51.884 --> 00:01:55.007 실질적인 설정 방법을 알아봅니다 31 00:01:55.007 --> 00:01:58.160 이 4가지 주제를 통해 XR과 관련된 32 00:01:58.160 --> 00:02:01.310 최신 기술을 이해하고 이를 활용하여 33 00:02:01.310 --> 00:02:04.175 창의적이고 효율적인 콘텐츠 제작방법을 34 00:02:04.175 --> 00:02:05.799 배우는 시간을 갖겠습니다 35 00:02:06.135 --> 00:02:09.986 XR, 2D, 2.5D 및 Mapping의 이해 36 00:02:10.531 --> 00:02:13.381 먼저 XR에 대해 알아보겠습니다 37 00:02:13.381 --> 00:02:15.531 디스가이즈에서 XR이란 38 00:02:15.531 --> 00:02:19.065 AR, MR, VR의 요소들을 결합하여 39 00:02:19.065 --> 00:02:21.848 완전한 몰입형 경험을 제공하는 40 00:02:21.848 --> 00:02:24.287 라이브 프로덕션의 총칭입니다 41 00:02:24.287 --> 00:02:26.449 XR을 활용하면 관객들에게 42 00:02:26.449 --> 00:02:29.233 몰입감 있는 가상 환경을 제공하며 43 00:02:29.233 --> 00:02:32.126 제품의 기능과 디자인을 보다 실감나게 44 00:02:32.126 --> 00:02:34.276 전달할 수 있습니다 45 00:02:34.276 --> 00:02:37.186 단순한 프레젠테이션을 넘어 관객들이 46 00:02:37.186 --> 00:02:39.851 제품의 매력을 직접 체감할 수 있는 47 00:02:39.851 --> 00:02:41.970 경험을 제공할 수 있습니다 48 00:02:41.970 --> 00:02:44.232 간단하게 살펴봤고 이번에는 49 00:02:44.232 --> 00:02:46.995 2D 워크플로우에 대해 알아보겠습니다 50 00:02:46.995 --> 00:02:50.095 2D 워크플로우는 스틸 이미지나 51 00:02:50.095 --> 00:02:53.240 동영상을 캡쳐하고 이를 편집하여 52 00:02:53.240 --> 00:02:57.039 LED 스크린의 배경으로 사용하는 방식입니다 53 00:02:57.039 --> 00:03:00.989 이 방식은 깊이감과 시차 효과는 부족하지만 54 00:03:00.989 --> 00:03:04.733 특정 환경에서 매우 효과적으로 사용될 수 있습니다 55 00:03:04.733 --> 00:03:08.475 우선 2D 워크플로우는 플레이트로 구성됩니다 56 00:03:08.475 --> 00:03:12.380 플레이트는 현장에서 촬영된 사진이나 비디오를 57 00:03:12.380 --> 00:03:14.430 기반으로 만들어지며 58 00:03:14.430 --> 00:03:16.960 여러가지 툴에서 편집됩니다 59 00:03:16.960 --> 00:03:18.662 이렇게 완성된 플레이트는 60 00:03:18.662 --> 00:03:21.800 버추얼 프로덕션에서 배경으로 제공됩니다 61 00:03:21.800 --> 00:03:25.550 특히 이 방식은 카메라가 고정된 장면이나 62 00:03:25.550 --> 00:03:27.893 제한된 이동 범위가 요구되는 상황에서 63 00:03:27.893 --> 00:03:30.593 매우 유용하게 활용됩니다 64 00:03:30.593 --> 00:03:33.880 2D 워크플로우에 대한 주요 장점은 65 00:03:33.880 --> 00:03:37.230 먼저 유연성과 확장성이 뛰어납니다 66 00:03:37.230 --> 00:03:40.491 2D 워크플로우는 다수의 카메라 설정을 사용하여 67 00:03:40.491 --> 00:03:43.087 고해상도 이미지를 생성할 수 있기 때문에 68 00:03:43.087 --> 00:03:46.737 다양한 촬영환경에서 쉽게 적용할 수 있습니다 69 00:03:46.737 --> 00:03:49.831 또한 배경의 질감과 디테일을 유지하면서도 70 00:03:49.831 --> 00:03:53.039 특정 장면의 요구에 맞게 스케일링 할 수 있습니다 71 00:03:53.039 --> 00:03:55.839 이는 단순히 시각적 요소를 넘어서 72 00:03:55.839 --> 00:03:58.929 촬영 환경에서 높은 활용도를 제공합니다 73 00:03:58.929 --> 00:04:01.782 하지만 2D 워크플로우에는 몇 가지 한계와 74 00:04:01.782 --> 00:04:03.182 주의사항이 있습니다 75 00:04:03.182 --> 00:04:06.679 가장 큰 한계는 깊이감이 제한적이고 76 00:04:06.679 --> 00:04:09.279 패럴랙스 이펙트가 없다는 점입니다 77 00:04:09.279 --> 00:04:12.099 즉 카메라가 움직일 때 배경이 자연스럽게 78 00:04:12.099 --> 00:04:14.399 따라오지 않는다는 의미입니다 79 00:04:14.399 --> 00:04:16.920 이는 카메라 움직임이 큰 장면에서는 80 00:04:16.920 --> 00:04:19.220 한계가 될 수 있습니다 81 00:04:19.220 --> 00:04:22.861 또한 촬영 현장에서 반복적인 변경이 불가능하기 때문에 82 00:04:22.861 --> 00:04:26.559 유연성이 요구되는 환경에서는 적합하지 않을 수 있습니다 83 00:04:26.559 --> 00:04:29.309 그렇다면 2D 플레이트를 사용할 때 84 00:04:29.309 --> 00:04:31.272 무엇을 주의해야 할까요? 85 00:04:31.272 --> 00:04:35.200 가장 중요한 점은 원본 플레이트의 품질입니다 86 00:04:35.200 --> 00:04:39.557 LED 볼륨에서 재촬영될 때 좋은 결과물을 얻기 위해서는 87 00:04:39.557 --> 00:04:41.457 원본 카메라의 데이터와 88 00:04:41.457 --> 00:04:44.532 백그라운드 플레이트에서 최대한 높은 해상도 89 00:04:44.532 --> 00:04:48.232 다이나믹 레인지 선명도를 유지하는 것이 중요합니다 90 00:04:48.232 --> 00:04:52.386 VP에서는 이미지가 원본 크기의 수천 배로 확대되어 91 00:04:52.386 --> 00:04:57.555 LED 화면에 표시되기 때문에 해상도 부족이나 노이즈는 92 00:04:57.555 --> 00:04:59.455 현실감을 저해할 수 있습니다 93 00:04:59.455 --> 00:05:03.338 따라서 최소 8K 해상도 이상의 카메라를 사용하고 94 00:05:03.338 --> 00:05:06.538 가능한 최고의 비트레이트와 로그 95 00:05:06.538 --> 00:05:10.020 또는 로우 형식으로 촬영하는 것이 권장됩니다 96 00:05:10.020 --> 00:05:14.594 결론적으로 2D 플레이트는 VP 환경에서 비용 효율적이고 97 00:05:14.594 --> 00:05:17.959 사실적인 배경을 구현할 수 있는 강력한 도구입니다 98 00:05:17.959 --> 00:05:20.755 하지만 명확한 단점을 인지한 상태에서 99 00:05:20.755 --> 00:05:24.601 이 방식의 장점을 극대화하여 사용하는 것이 중요합니다 100 00:05:24.601 --> 00:05:27.176 오히려 카메라가 고정되거나 101 00:05:27.176 --> 00:05:29.576 제한적인 움직임이 요구되는 환경에서는 102 00:05:29.576 --> 00:05:32.119 2D 플레이트가 3D 워크플로우보다 103 00:05:32.119 --> 00:05:35.679 효율적이고 간편한 선택이 될 수 있습니다 104 00:05:35.679 --> 00:05:38.429 첫 번째로 소개할 저희 사례는 105 00:05:38.429 --> 00:05:42.208 영화 파묘에서 진행되었던 2D 플레이트입니다 106 00:05:42.208 --> 00:05:46.143 이 장면은 호텔의 창문 배경으로 활용되었는데요 107 00:05:46.143 --> 00:05:48.399 실제로 도시 야경을 촬영해 와서 108 00:05:48.399 --> 00:05:50.981 스튜디오 내 호텔 세트 밖에서 109 00:05:50.981 --> 00:05:53.399 LED 설치해놓고 촬영한 사례입니다 110 00:05:53.399 --> 00:05:56.801 2D 플레이트는 이처럼 어느정도 고정된 카메라 위치에서 111 00:05:56.801 --> 00:05:59.551 매우 효과적으로 사용될 수 있으며 112 00:05:59.551 --> 00:06:01.201 배경과 캐릭터 간의 113 00:06:01.201 --> 00:06:04.531 자연스러운 조화를 이끌어낼 수 있습니다 114 00:06:04.531 --> 00:06:07.399 파묘의 장소처럼 고급 호텔의 경우 115 00:06:07.399 --> 00:06:09.399 실제 로케이션 촬영이 어렵고 116 00:06:09.399 --> 00:06:11.222 로케이션 촬영을 한다 해도 117 00:06:11.222 --> 00:06:14.372 창문 밖에서 촬영할 수 없는 고층이기 때문에 118 00:06:14.372 --> 00:06:16.282 이처럼 로케이션 특수 상황에서는 119 00:06:16.282 --> 00:06:18.642 아주 적합한 솔루션입니다 120 00:06:18.642 --> 00:06:22.522 카메라 앵글에 맞춰 정확한 배경이미지를 제공하기 때문에 121 00:06:22.522 --> 00:06:26.480 관객은 마치 실제로 창밖을 보고 있는 듯한 122 00:06:26.480 --> 00:06:28.480 몰입감을 느낄 수 있습니다 123 00:06:28.480 --> 00:06:31.320 다음으로는 저희가 작업했던 작품은 124 00:06:31.320 --> 00:06:34.370 넷플릭스의 D.P. 시즌2입니다 125 00:06:34.370 --> 00:06:38.670 여기에서 2D 기차 드라이빙 씬 작업을 진행했었는데 126 00:06:38.670 --> 00:06:42.448 해당 장면에서 배우들이 기차 세트에서 연기를 하고 127 00:06:42.448 --> 00:06:44.248 기차 밖에서 보이는 배경은 128 00:06:44.248 --> 00:06:47.538 2D 플레이트로 구현이 되었습니다 129 00:06:47.538 --> 00:06:52.619 시리즈를 보시면 아시겠지만 기차씬이 굉장히 격하고 130 00:06:52.619 --> 00:06:56.857 동선도 복잡하며 인물도 많이 나오는 장면이기 때문에 131 00:06:56.857 --> 00:06:58.707 2D 드라이빙을 진행하는 것이 132 00:06:58.707 --> 00:07:01.760 탁월한 선택임을 알 수 있습니다 133 00:07:01.760 --> 00:07:04.160 보다 안전한 환경에서 배우의 액션을 134 00:07:04.160 --> 00:07:05.633 자유롭게 촬영할 수 있고 135 00:07:05.633 --> 00:07:09.880 시간의 구애 없이 다양한 반복 촬영이 가능하였습니다 136 00:07:09.880 --> 00:07:12.635 이 기차 씬은 사전에 철저한 테스트를 통해서 137 00:07:12.635 --> 00:07:14.399 계획된 것인데요 138 00:07:14.399 --> 00:07:18.099 디스가이즈로 사전에 구현된 세트와 139 00:07:18.099 --> 00:07:21.409 LED를 통해서 테크비즈를 진행하였습니다 140 00:07:21.409 --> 00:07:23.600 여기서 테크비즈란 이와 같은 141 00:07:23.600 --> 00:07:26.350 복잡한 촬영을 계획하는 과정으로 142 00:07:26.350 --> 00:07:30.296 가상의 요소와 실제 오브젝트 및 장비들을 결합하여 143 00:07:30.296 --> 00:07:32.496 사전에 기술적인 시뮬레이션을 하는 것이라 144 00:07:32.496 --> 00:07:33.929 생각하시면 됩니다 145 00:07:33.929 --> 00:07:36.636 테크비즈는 실제 촬영에 들어가기 전 146 00:07:36.636 --> 00:07:39.686 카메라 움직임이라든지 카메라 배치, 147 00:07:39.686 --> 00:07:43.914 렌즈 선택 등 필요한 중요한 선택 과정입니다 148 00:07:43.914 --> 00:07:48.324 실제 테크비즈를 진행한 팀과 진행하지 않은 팀과의 차이는 149 00:07:48.324 --> 00:07:51.239 현장에서 엄청나게 벌어지게 됩니다 150 00:07:51.239 --> 00:07:54.881 테크비즈는 현장에서 작업시간을 최소화 시켜주며 151 00:07:54.881 --> 00:07:59.181 비용 및 여러가지 변수에도 대비할 수 있는 작업인 만큼 152 00:07:59.181 --> 00:08:02.318 필수적으로 해야 되는 과정입니다 153 00:08:02.318 --> 00:08:05.235 지금까지 우리는 2D 워크플로우와 154 00:08:05.235 --> 00:08:08.185 그 활용사에 대해서 알아봤습니다 155 00:08:08.185 --> 00:08:11.933 2D는 고정된 배경과 간단한 시각적 요소를 156 00:08:11.933 --> 00:08:13.683 효율적으로 구현하는 데 157 00:08:13.683 --> 00:08:16.679 강력한 도구임을 확인할 수 있습니다 158 00:08:16.679 --> 00:08:20.429 하지만 복잡한 장면, 카메라 움직임 159 00:08:20.429 --> 00:08:24.111 그리고 더 높은 몰입감을 요구하는 경우에는 160 00:08:24.111 --> 00:08:28.000 2D만으로 한계가 존재하는 것도 알 수 있었습니다 161 00:08:28.000 --> 00:08:30.450 이러한 한계를 해결하기 위해 등장한 것이 162 00:08:30.450 --> 00:08:33.760 바로 2.5D 워크플로우입니다 163 00:08:33.760 --> 00:08:38.453 2.5D 워크플로우에서는 기존의 2D 비디오 플레이트와 164 00:08:38.453 --> 00:08:42.753 풀3D 생성 장면 간의 간극을 연결하는 기술입니다 165 00:08:42.753 --> 00:08:48.411 쉽게 말해 이미지나 비디오 플레이트에 레이어를 쌓아올리고 166 00:08:48.411 --> 00:08:52.000 여기서 깊이감과 형태를 추가함으로써 167 00:08:52.000 --> 00:08:55.150 패럴랙스 이펙트를 구현하는 방식입니다 168 00:08:55.150 --> 00:08:58.222 이 과정을 통해 보다 현실감 있는 장면을 169 00:08:58.222 --> 00:09:02.161 빠르고 효율적으로 생성 할 수 있습니다 170 00:09:02.161 --> 00:09:04.811 그렇다면 2.5D 워크플로우가 가지는 171 00:09:04.811 --> 00:09:07.280 주요 장점은 무엇일까요? 172 00:09:07.280 --> 00:09:10.430 패럴랙스 이펙트와 깊이감 제공입니다 173 00:09:10.430 --> 00:09:13.921 2.5D 워크플로우는 소규모 카메라 움직임과 174 00:09:13.921 --> 00:09:17.719 약간의 깊이를 요구하는 장면의 이상적인 솔루션입니다 175 00:09:17.719 --> 00:09:20.569 특히 포토리얼리즘을 희생하지 않으면서도 176 00:09:20.569 --> 00:09:24.672 현실감 있는 장면을 연출할 수 있는 큰 장점이 있습니다 177 00:09:24.672 --> 00:09:29.498 카메라가 움직일 때 배경의 깊이가 자연스럽게 표현되면서 178 00:09:29.498 --> 00:09:33.359 관객은 더 몰입감 있는 환경을 경험할 수 있습니다 179 00:09:33.359 --> 00:09:36.839 두 번째로는 시간과 예산의 절감입니다 180 00:09:36.839 --> 00:09:40.924 2.5D 워크플로우는 레이어드 플레이트를 활용하여 181 00:09:40.924 --> 00:09:45.574 깊이 있는 화면을 생성합니다 182 00:09:45.574 --> 00:09:47.424 긴 사전 제작 시간 없이도 183 00:09:47.424 --> 00:09:49.760 몰입감 있는 환경을 조성할 수 있고 184 00:09:49.760 --> 00:09:52.060 3D 애셋 제작 비용이나 185 00:09:52.060 --> 00:09:55.960 VAD에 대한 비용을 절감할 수 있습니다 186 00:09:55.960 --> 00:10:00.610 이로 인해 대규모 제작 뿐만 아니라 소규모 제작에서도 187 00:10:00.610 --> 00:10:02.011 버추얼 프로덕션 혜택을 188 00:10:02.011 --> 00:10:04.799 예산 제약 없이 누릴 수 있게 됩니다 189 00:10:04.799 --> 00:10:09.399 세 번째로는 버추얼 프로덕션의 유연성 확장입니다 190 00:10:09.399 --> 00:10:12.649 2.5D 워크플로우는 버추얼 프로덕션이 191 00:10:12.649 --> 00:10:15.840 이미 제공하는 유연성을 더욱 확장합니다 192 00:10:15.840 --> 00:10:18.690 화면에 추가적인 깊이를 더하고 193 00:10:18.690 --> 00:10:22.440 배경과 차별화된 중간지점을 생성함으로써 194 00:10:22.440 --> 00:10:27.040 사실적인 환경을 보다 간단히 구현할 수 있습니다 195 00:10:27.040 --> 00:10:29.690 특히 감독과 촬영 감독에게 196 00:10:29.690 --> 00:10:33.490 예산 내에서 화면에 무엇을 더 추가할 수 있을지 197 00:10:33.490 --> 00:10:37.709 탐색할 수 있는 더 많은 가능성을 제공합니다 198 00:10:37.709 --> 00:10:39.931 결론적으로 2.5D 워크플로우는 199 00:10:39.931 --> 00:10:42.631 예산과 시간의 제약 속에서도 200 00:10:42.631 --> 00:10:46.440 현실감 있는 장면과 몰입형 환경을 구현할 수 있는 201 00:10:46.440 --> 00:10:49.640 효율적이고 유연한 솔루션이라고 볼 수 있습니다 202 00:10:49.640 --> 00:10:53.040 2.5D 워크플로우는 다양한 제작 환경에서 203 00:10:53.040 --> 00:10:55.520 폭넓게 적용될 수 있습니다 204 00:10:55.520 --> 00:11:01.020 가장 흔한 예는 영화 및 TV 드라마에서 세트 확장입니다 205 00:11:01.020 --> 00:11:03.670 실제로 물리적으로 제작하기 어려운 206 00:11:03.670 --> 00:11:06.070 대규모의 배경이나 환경을 207 00:11:06.070 --> 00:11:09.599 이미지 플레이트와 깊이 레이어를 통해서 208 00:11:09.599 --> 00:11:11.849 간단하게 확장할 수 있습니다 209 00:11:11.849 --> 00:11:17.599 이를 통해 제작 비용과 시간을 크게 절감할 수 있습니다 210 00:11:17.599 --> 00:11:21.849 앞서 2D, 2.5D, 3D 에 대해서 알아보았다면 211 00:11:21.849 --> 00:11:25.442 디스가이즈에서 콘텐츠를 어떻게 매핑하는지에 대해서 212 00:11:25.442 --> 00:11:29.799 간단히 이해하고 넘어가는 시간을 가져보도록 하겠습니다 213 00:11:29.799 --> 00:11:32.549 일단 매핑이란 무엇일까요? 214 00:11:32.549 --> 00:11:37.159 매핑은 콘텐츠를 특정 화면이나 무대의 표현으로 215 00:11:37.159 --> 00:11:41.509 정확히 전달하는 과정에서 사용되는 중요한 특성입니다 216 00:11:41.509 --> 00:11:44.359 단일 비디오 레이어의 콘텐츠를 217 00:11:44.359 --> 00:11:47.640 단일 또는 다수의 화면에 전달하거나 218 00:11:47.640 --> 00:11:51.440 불규칙한 형태와 해상도를 가진 화면에 219 00:11:51.440 --> 00:11:54.119 콘텐츠를 매핑할 수 있습니다 220 00:11:54.119 --> 00:11:58.919 매핑을 통해 디지털 콘텐츠와 물리적 공간을 결합하여 221 00:11:58.919 --> 00:12:02.269 보다 몰입감 있고 다차원적인 시각적 경험을 222 00:12:02.269 --> 00:12:04.239 제공할 수 있게 됩니다 223 00:12:04.239 --> 00:12:06.989 이어서 디스가이즈 매핑의 다양한 종류와 224 00:12:06.989 --> 00:12:10.159 각 유형의 특징에 대해서 살펴볼텐데요 225 00:12:10.159 --> 00:12:13.963 매핑은 크게 2D, 3D, 지오메트리 226 00:12:13.963 --> 00:12:16.400 세 가지 카테고리로 나눠집니다 227 00:12:16.400 --> 00:12:21.750 각 분류는 콘텐츠의 성격과 매핑 대상에 따라 선택되며 228 00:12:21.750 --> 00:12:24.250 스태틱 또는 다이나믹 매핑, 229 00:12:24.250 --> 00:12:26.919 2D, 3D로 나눌 수 있습니다 230 00:12:26.919 --> 00:12:29.619 스태틱 매핑은 화면에 고정된 이미지나 231 00:12:29.619 --> 00:12:32.069 영상을 투영할 때 적합한 방식이며 232 00:12:32.069 --> 00:12:35.640 환경 변화가 적은 설정에 유용합니다 233 00:12:35.640 --> 00:12:38.440 다이나믹 매핑은 실시간으로 변하는 콘텐츠를 234 00:12:38.440 --> 00:12:39.740 매핑할 때 활용되며 235 00:12:39.740 --> 00:12:42.919 라이브 이벤트에서 많이 활용됩니다 236 00:12:42.919 --> 00:12:46.119 그리고 2D와 3D 매핑을 나누는 기준은 237 00:12:46.119 --> 00:12:50.359 2D 매핑은 평면적인 화면에 콘텐츠를 배치할 때 적합하며 238 00:12:50.359 --> 00:12:55.599 LED 월과 같은 직사각형 디스플레이에서 주로 사용된다는 점 239 00:12:55.599 --> 00:12:59.299 반면 3D 매핑은 복잡한 형태의 표면이나 240 00:12:59.299 --> 00:13:03.119 물체, 윗공간에 매핑하는 것을 의미합니다 241 00:13:03.119 --> 00:13:06.019 Geometric Mapping의 경우는 242 00:13:06.019 --> 00:13:09.919 Spherical 또는 Cylindrical Mapping의 경우 243 00:13:09.919 --> 00:13:13.630 부채 또는 원통형 표면에 매핑하는 것을 의미합니다 244 00:13:13.630 --> 00:13:17.580 Parallel, Perspective, Radial Mapping의 경우 245 00:13:17.580 --> 00:13:22.305 여러 표면을 하나의 캔버스처럼 사용하거나 원근감을 적용해 246 00:13:22.305 --> 00:13:25.440 콘텐츠를 투영하는 방식의 매핑을 말합니다 247 00:13:25.440 --> 00:13:28.340 그럼 대표적인 매핑 방식 몇 가지에 대해서 248 00:13:28.340 --> 00:13:30.359 더 살펴보도록 하겠습니다 249 00:13:30.359 --> 00:13:33.359 첫 번째로는 다이렉트 매핑입니다 250 00:13:33.359 --> 00:13:36.919 다이렉트 매핑은 스태틱 매핑의 방법 중 하나이며 251 00:13:36.919 --> 00:13:41.469 디스가이즈에서 가장 기본적인 형태의 매핑 방식으로 252 00:13:41.469 --> 00:13:46.119 스크린을 생성할 때 자동으로 설정되는 매핑 방식입니다 253 00:13:46.119 --> 00:13:51.219 콘텐츠를 객체의 텍스처 좌표에 직접 적용하기 때문에 254 00:13:51.219 --> 00:13:53.319 객체가 이동하더라도 255 00:13:53.319 --> 00:13:56.239 콘텐츠가 해당 스크린에 고정되어 있습니다 256 00:13:56.239 --> 00:13:59.889 처음에 콘텐츠를 불러오면 디스가이즈 소프트웨어에서 257 00:13:59.889 --> 00:14:04.389 Clip to canvas로 기본값이 세팅되어 있기 때문에 258 00:14:04.389 --> 00:14:07.479 화면비가 고정되어서 보여집니다 259 00:14:07.479 --> 00:14:11.529 하지만 콘텐츠의 종횡비가 스크린의 종횡비와 다를 경우 260 00:14:11.529 --> 00:14:17.209 오퍼레이터는 콘텐츠를 크롭하거나 핏하거나 확장하거나 261 00:14:17.209 --> 00:14:21.759 또는 픽셀 단위로 정확하게 픽셀 퍼펙트를 선택해서 262 00:14:21.759 --> 00:14:23.679 적용할 수도 있습니다 263 00:14:23.679 --> 00:14:26.079 두 번째는 피드 매핑입니다 264 00:14:26.079 --> 00:14:30.080 피드 매핑은 매우 유용하고 유연한 매핑 방식입니다 265 00:14:30.080 --> 00:14:34.280 이를 통해 특정 영역을 특정 화면 및 표면에 266 00:14:34.280 --> 00:14:36.559 라우팅할 수 있습니다 267 00:14:36.559 --> 00:14:40.659 피드 매핑의 주요 장점은 단일 콘텐츠 소스를 사용하여 268 00:14:40.659 --> 00:14:45.440 여러 화면에 동시에 콘텐츠를 공급할 수 있는 점입니다 269 00:14:45.440 --> 00:14:46.990 특히 다수의 화면을 사용하는 270 00:14:46.990 --> 00:14:49.840 쇼 프로그래밍에서 매우 실용적이며 271 00:14:49.840 --> 00:14:53.119 동시에 여러 화면에 콘텐츠를 공급하기 위해 272 00:14:53.119 --> 00:14:55.069 필요한 레이어 수를 줄여 273 00:14:55.069 --> 00:14:58.039 서버의 성능 향상에도 도움이 됩니다 274 00:14:58.039 --> 00:15:00.539 세 번째는 패럴렐 매핑입니다 275 00:15:00.539 --> 00:15:02.889 패럴렐 매핑은 콘텐츠를 276 00:15:02.889 --> 00:15:05.880 장면에 기하학적으로 투사하는 방식으로 277 00:15:05.880 --> 00:15:09.280 마치 프로젝터와 같은 발광체에서 278 00:15:09.280 --> 00:15:13.559 콘텐츠를 가상으로 촬영하는 것처럼 작동합니다 279 00:15:13.559 --> 00:15:18.059 다른 매핑 방식과 달리 패럴렐 매핑은 콘텐츠의 화면에 280 00:15:18.059 --> 00:15:22.159 UV에 직접 고정하는 방식이 아닌 투사를 합니다 281 00:15:22.159 --> 00:15:24.509 이 방식은 콘텐츠의 위치가 282 00:15:24.509 --> 00:15:27.509 3D 공간 내에서 변경될 때마다 283 00:15:27.509 --> 00:15:30.280 동적으로 업데이트 될 수 있도록 해줍니다 284 00:15:30.280 --> 00:15:33.730 이 말은 다이렉트나 피드 매핑과 달리 285 00:15:33.730 --> 00:15:37.706 콘텐츠가 표면에 직접 고정되지 않아 286 00:15:37.706 --> 00:15:40.356 시점 변경이나 객체 이동시 287 00:15:40.356 --> 00:15:42.906 콘텐츠가 다르게 보이게 됩니다 288 00:15:42.906 --> 00:15:45.806 자동차의 외관처럼 물리적인 스크린 배열이 289 00:15:45.806 --> 00:15:50.299 고정되지 않는 환경에서 유리하게 적응됩니다 290 00:15:50.299 --> 00:15:53.949 지금까지 2D, 3D, 2.5D의 개념과 291 00:15:53.949 --> 00:15:57.200 다양한 매핑 방식에 대해서 알아보았습니다 292 00:15:57.200 --> 00:15:59.400 그렇다면 이제 중요한 질문은 293 00:15:59.400 --> 00:16:02.750 어떤 상황에서 2D, 3D, 2.5D 중 294 00:16:02.750 --> 00:16:05.239 어떤 것을 선택할지 하는 것입니다 295 00:16:05.239 --> 00:16:09.889 각 워크플로우와 매핑 방식에는 고유의 장단점이 있으며 296 00:16:09.889 --> 00:16:12.689 프로젝트 목적과 요구 사항에 따라 297 00:16:12.689 --> 00:16:16.039 적합한 방식을 선택하는 것이 매우 중요합니다 298 00:16:16.039 --> 00:16:17.943 2D는 고정된 배경이나 299 00:16:17.943 --> 00:16:21.320 간단한 시각적 요소가 필요한 경우 적합합니다 300 00:16:21.320 --> 00:16:25.570 비용이 효율적이며 제작시간 또한 짧은 것이 큰 장점이고 301 00:16:25.570 --> 00:16:28.880 후반 작업도 3D에 비해 간단합니다 302 00:16:28.880 --> 00:16:30.930 하지만 깊이감이 부족하고 303 00:16:30.930 --> 00:16:34.479 카메라 움직임이 제한적이라는 한계가 있습니다 304 00:16:34.479 --> 00:16:38.129 따라서 정적이거나 단순한 장면에는 적합하지만 305 00:16:38.129 --> 00:16:41.479 복잡한 시각적 연출에는 한계가 있을 수 있습니다 306 00:16:41.479 --> 00:16:44.279 3D는 영화나 드라마 같은 307 00:16:44.279 --> 00:16:46.215 대규모 프로젝트에 많이 사용되며 308 00:16:46.215 --> 00:16:50.915 실제 물리적 세트와 디지털 환경을 실시간으로 통합하여 309 00:16:50.915 --> 00:16:54.520 보다 몰입감 있는 시각적 효과를 제공합니다 310 00:16:54.520 --> 00:16:57.820 가장 큰 장점은 실시간 카메라 트래킹을 통해 311 00:16:57.820 --> 00:17:01.679 현실감 높은 화면을 구현할 수 있다는 점입니다 312 00:17:01.679 --> 00:17:03.429 카메라의 움직임에 따라 313 00:17:03.429 --> 00:17:05.779 디지털 배경이 동적으로 반응하기 때문에 314 00:17:05.779 --> 00:17:09.129 감독과 스탭들이 즉각적으로 장면을 확인하고 315 00:17:09.129 --> 00:17:10.800 수정할 수 있습니다 316 00:17:10.800 --> 00:17:14.200 하지만 이 방식은 2D에 비해 높은 제작 비용과 317 00:17:14.200 --> 00:17:17.040 복잡한 세팅 과정이 필수로 이루어져야 됩니다 318 00:17:17.040 --> 00:17:20.140 또한 고성능 하드웨어 시스템이 요구되기 때문에 319 00:17:20.140 --> 00:17:23.199 소규모 프로젝트에는 적용이 어려울 수 있습니다 320 00:17:23.199 --> 00:17:26.449 말씀드린 2D와 3D 중간에 있는 방식이 321 00:17:26.449 --> 00:17:29.719 2.5D라고 생각하시면 될 것 같습니다 322 00:17:29.719 --> 00:17:31.719 각각의 장단을 가져가며 323 00:17:31.719 --> 00:17:35.719 비용과 시간의 효율성을 제공하는 중간 지점에 해당합니다 324 00:17:35.719 --> 00:17:39.219 여러 레이어를 활용하여 2D 처럼 작업하면서도 325 00:17:39.219 --> 00:17:42.479 3D 효과를 일부 얻어낼 수 있습니다 326 00:17:42.479 --> 00:17:46.779 이와 같은 각각의 장단점을 확실히 파악하여 잘 활용한다면 327 00:17:46.779 --> 00:17:50.825 효율적인 제작과 동시에 최고의 결과물을 얻을 수 있습니다 328 00:17:51.228 --> 00:17:55.119 XR의 구성 요소 및 워크플로우 329 00:17:55.400 --> 00:17:58.400 다시 XR로 돌아와 보도록 하겠습니다 330 00:17:58.400 --> 00:18:02.700 XR은 앞서 말씀드렸다시피 확장현실로 331 00:18:02.700 --> 00:18:07.350 가상현실, 증강현실, 혼합현실 기술을 332 00:18:07.350 --> 00:18:09.719 모두 포함한 개념입니다 333 00:18:09.719 --> 00:18:12.369 XR은 실시간 가상환경을 334 00:18:12.369 --> 00:18:15.519 LED 화면과 같은 물리적 요소에 결합하여 335 00:18:15.519 --> 00:18:20.239 가상과 현실의 경계를 허무는 혁신적인 기술입니다 336 00:18:20.239 --> 00:18:23.189 이러한 기술은 앞에서 말씀드린 것처럼 337 00:18:23.189 --> 00:18:26.689 뮤직비디오, 라이브 방송, 영화 제작 등 338 00:18:26.689 --> 00:18:28.560 다양한 산업에서 활용되며 339 00:18:28.560 --> 00:18:31.959 시청자들에게 놀라운 시각적 경험을 제공합니다 340 00:18:31.959 --> 00:18:35.059 이제 XR 스테이지가 어떻게 구성되는지 341 00:18:35.059 --> 00:18:37.640 구체적으로 알아보도록 하겠습니다 342 00:18:37.640 --> 00:18:40.959 먼저 카메라 뷰에 대해 설명드리겠습니다 343 00:18:40.959 --> 00:18:44.109 카메라 뷰는 XR 환경이 최종적으로 344 00:18:44.109 --> 00:18:47.239 어떻게 렌더링되는지 보여줍니다 345 00:18:47.239 --> 00:18:50.889 이 뷰를 통해 감독과 제작팀은 실시간으로 346 00:18:50.889 --> 00:18:53.389 최종 시각적 결과물을 확인하며 347 00:18:53.389 --> 00:18:56.359 필요한 조정을 즉시 반영할 수 있습니다 348 00:18:56.359 --> 00:18:58.709 따라서 카메라 뷰는 제작 과정에서 349 00:18:58.709 --> 00:19:00.880 매우 중요한 역할을 합니다 350 00:19:00.880 --> 00:19:04.880 다음으로 XR 스테이지의 중심 요소인 LED 스테이지입니다 351 00:19:04.880 --> 00:19:08.180 LED 스테이지는 XR 환경의 핵심 기술로 352 00:19:08.180 --> 00:19:12.839 가상 배경이 LED 패널을 통해 물리적으로 표현됩니다 353 00:19:12.839 --> 00:19:17.039 배우와 진행자는 LED 스크린을 통해 가상의 배경을 보며 354 00:19:17.039 --> 00:19:20.319 자연스럽게 연기하거나 진행할 수 있습니다 355 00:19:20.319 --> 00:19:22.319 그리고 LED 스테이지의 외부는 356 00:19:22.319 --> 00:19:25.160 가상 세트 확장으로 표현됩니다 357 00:19:25.160 --> 00:19:27.660 이 확장은 LED 패널 바깥에서도 358 00:19:27.660 --> 00:19:29.810 가상 환경이 계속 이어지며 359 00:19:29.810 --> 00:19:33.280 관객에게 무한한 공간감을 제공합니다 360 00:19:33.280 --> 00:19:36.530 이로 인해 실제 물리적 공간의 제약을 361 00:19:36.530 --> 00:19:39.319 뛰어넘는 연출이 가능해집니다 362 00:19:39.319 --> 00:19:41.079 마지막으로 바닥입니다 363 00:19:41.079 --> 00:19:44.879 바닥은 물리적 요소와 LED 패널을 결합하여 364 00:19:44.879 --> 00:19:48.229 배우나 진행자가 XR 환경에 자연스럽게 365 00:19:48.229 --> 00:19:51.760 상호작용할 수 있도록 돕는 역할을 합니다 366 00:19:51.760 --> 00:19:56.210 LED 패널이 포함된 바닥은 조명과 반사 효과를 강화해 367 00:19:56.210 --> 00:19:59.327 더욱 현실감 있는 환경을 조성합니다 368 00:19:59.327 --> 00:20:01.977 XR 스튜디오에서 몰입감 있는 콘텐츠와 369 00:20:01.977 --> 00:20:04.427 시각적 효과를 구현하기 위해서는 370 00:20:04.427 --> 00:20:08.640 다양한 구성 요소들이 유기적으로 연결되어야 합니다 371 00:20:08.640 --> 00:20:11.090 여기에서 XR 구현에 필수적인 372 00:20:11.090 --> 00:20:13.880 5가지 핵심 요소를 살펴보겠습니다 373 00:20:13.880 --> 00:20:16.719 먼저 LED 스크린입니다 374 00:20:16.719 --> 00:20:19.453 LED 스크린은 XR의 물리적 기반을 375 00:20:19.453 --> 00:20:21.019 형성하는 디스플레이 장치로 376 00:20:21.019 --> 00:20:24.080 가상 배경을 실시간으로 표현합니다 377 00:20:24.080 --> 00:20:27.440 두 번째는 카메라 트래킹 시스템입니다 378 00:20:27.440 --> 00:20:31.244 카메라 트래킹 시스템은 카메라의 위치, 각도, 379 00:20:31.244 --> 00:20:34.094 움직임 데이터를 실시간으로 기록하고 380 00:20:34.094 --> 00:20:37.160 이를 다른 시스템에 전달합니다 381 00:20:37.160 --> 00:20:39.959 세 번째는 미디어 서버입니다 382 00:20:39.959 --> 00:20:42.509 미디어 서버는 전체 XR 시스템의 383 00:20:42.509 --> 00:20:44.680 허브 역할을 하고 있습니다 384 00:20:44.680 --> 00:20:47.360 네번째는 젠록 싱크입니다 385 00:20:47.360 --> 00:20:50.460 젠록 싱크는 모든 장치와 시스템 간의 386 00:20:50.460 --> 00:20:53.880 프레임 동기화를 유지하는 역할을 하고 있습니다 387 00:20:53.880 --> 00:20:58.240 마지막으로 리얼 타임 콘텐츠 렌더링 엔진입니다 388 00:20:58.240 --> 00:21:01.940 실시간 렌더링 엔진은 고해상도 3D 그래픽과 389 00:21:01.940 --> 00:21:04.879 물리 기반 렌더링을 실시간으로 제공하며 390 00:21:04.879 --> 00:21:09.120 XR에서 시각적 요소를 완성하는 핵심 기술입니다 391 00:21:09.120 --> 00:21:13.470 이처럼 XR의 구성 요소들은 각각의 역할을 하면서도 392 00:21:13.470 --> 00:21:17.503 서로 유기적으로 연결되어 가상과 현실이 393 00:21:17.503 --> 00:21:21.959 자연스럽게 융화된 몰입형 환경을 만들어냅니다 394 00:21:21.959 --> 00:21:26.239 이 각각의 요소에 대해 좀 더 자세히 알아보겠습니다 395 00:21:26.239 --> 00:21:29.139 XR 스테이지에서 가장 중요한 구성 요소 중 396 00:21:29.139 --> 00:21:31.839 하나는 바로 LED 스크린입니다 397 00:21:31.839 --> 00:21:35.480 LED 스크린은 가상 환경을 물리적으로 구현하여 398 00:21:35.480 --> 00:21:37.430 배우와 소품이 가상 배경과 399 00:21:37.430 --> 00:21:40.559 실시간으로 상호작용할 수 있도록 돕습니다 400 00:21:40.559 --> 00:21:44.509 XR 스테이지의 핵심은 LED 패널로 구성된 벽, 401 00:21:44.509 --> 00:21:48.400 바닥, 때때로는 천장까지 포함하는 구조입니다 402 00:21:48.400 --> 00:21:50.400 이 설정은 매우 중요합니다 403 00:21:50.400 --> 00:21:54.000 왜냐하면 해상도와 LED 픽셀 피치가 404 00:21:54.000 --> 00:21:56.440 디지털 콘텐츠의 시각적 품질과 405 00:21:56.440 --> 00:21:59.559 선명도에 직접적인 영향을 미치기 때문입니다 406 00:21:59.559 --> 00:22:02.440 XR에서는 모든 세부 사항이 중요합니다 407 00:22:02.440 --> 00:22:04.990 이러한 LED 패널의 픽셀 밀도가 408 00:22:04.990 --> 00:22:07.440 카메라로 가까이 촬영할 때도 409 00:22:07.440 --> 00:22:11.600 가상 환경이 매끄럽고 현실감 있게 보이도록 해줍니다 410 00:22:11.600 --> 00:22:14.400 LED 스크린은 벽, 바닥, 411 00:22:14.400 --> 00:22:17.240 심지어 돔 형태로도 설치할 수 있어 412 00:22:17.240 --> 00:22:20.839 어떤 환경에서도 유연한 배경 구현이 가능합니다 413 00:22:20.839 --> 00:22:24.360 특히 바닥 LED는 XR의 가장 중요한 요소인데 414 00:22:24.360 --> 00:22:27.320 XR이 이름에서 알 수 있듯이 415 00:22:27.320 --> 00:22:30.020 Extended Reality 즉, 공간 확장이 되려면 416 00:22:30.020 --> 00:22:32.919 바닥 LED가 필수적입니다 417 00:22:32.919 --> 00:22:35.769 다음으로 소개할 XR의 핵심 구성 요소는 418 00:22:35.769 --> 00:22:38.039 카메라 트래킹 시스템입니다 419 00:22:38.039 --> 00:22:41.539 이 기술은 XR 환경에서 가상 배경과 420 00:22:41.539 --> 00:22:45.080 실제 카메라 움직임을 동기화하는데 필수적입니다 421 00:22:45.080 --> 00:22:47.530 카메라 트래킹 시스템은 카메라의 위치와 422 00:22:47.530 --> 00:22:50.440 움직임 각도를 실시간으로 추적하여 423 00:22:50.440 --> 00:22:52.940 가상 배경이 카메라의 시점에 맞게 424 00:22:52.940 --> 00:22:55.119 자동으로 조정되도록 합니다 425 00:22:55.119 --> 00:22:58.519 이를 통해 시청자는 마치 카메라가 426 00:22:58.519 --> 00:23:02.000 실제 공간에서 움직이는 것처럼 느끼게 됩니다 427 00:23:02.000 --> 00:23:05.479 카메라가 움직일 때 LED 스크린에 표시된 가상 환경도 428 00:23:05.479 --> 00:23:09.399 카메라의 관점에 따라 정확하게 변화합니다 429 00:23:09.399 --> 00:23:12.161 이로 인해 가상 배경과 실제 인물이 430 00:23:12.161 --> 00:23:15.639 일관성 있는 공간에 있는 것처럼 보이게 됩니다 431 00:23:15.639 --> 00:23:17.806 그럼 이러한 카메라 트래킹 시스템에 432 00:23:17.806 --> 00:23:19.880 어떤 기술들이 사용되는 걸까요? 433 00:23:19.880 --> 00:23:23.000 대표적으로 카메라 트래킹 시스템으로는 434 00:23:23.000 --> 00:23:26.200 앞서 말씀드렸던 Optitrack 이외에도 435 00:23:26.200 --> 00:23:28.839 Skype, Ncam 등이 있습니다 436 00:23:28.839 --> 00:23:31.889 이 장비들은 고정밀 센서를 사용해 437 00:23:31.889 --> 00:23:35.880 카메라의 위치와 움직임을 정밀하게 추적합니다 438 00:23:35.880 --> 00:23:39.730 카메라 트래킹 데이터는 디스가이즈 소프트웨어와 결합되어 439 00:23:39.730 --> 00:23:42.919 실시간으로 가상 환경에 반영됩니다 440 00:23:42.919 --> 00:23:45.519 디스가이즈에서 사용 중인 트래킹 시스템에 맞는 441 00:23:45.519 --> 00:23:48.320 드라이버가 추가 및 활성화하고 442 00:23:48.320 --> 00:23:50.070 포지션 리시버를 생성하여 443 00:23:50.070 --> 00:23:52.960 트래킹 시스템과 연결하는 과정이 필요합니다 444 00:23:52.960 --> 00:23:57.210 카메라 트래킹 시스템은 영화, 광고, 라이브 이벤트 등 445 00:23:57.210 --> 00:23:59.960 모든 종류의 XR 제작에서 필수적이며 446 00:23:59.960 --> 00:24:03.260 XR 환경에서 가상과 현실을 완벽히 447 00:24:03.260 --> 00:24:05.399 융합시켜주는 기술입니다 448 00:24:05.399 --> 00:24:09.240 이어서 디스가이즈 XR 환경에서 핵심적인 역할을 하는 449 00:24:09.240 --> 00:24:12.600 리얼타임 렌더링 엔진에 대해서도 더 알아보겠습니다 450 00:24:12.600 --> 00:24:16.550 XR 콘텐츠의 품질과 실시간 반응성을 결정짓는 451 00:24:16.550 --> 00:24:20.480 핵심 기술이 바로 실시간 렌더링 엔진입니다 452 00:24:20.480 --> 00:24:24.530 리얼타임 렌더링 엔진은 언리얼 엔진과 유니티 같이 453 00:24:24.530 --> 00:24:28.640 실시간으로 3D 콘텐츠를 생성하고 렌더링하여 454 00:24:28.640 --> 00:24:31.240 LED 스크린과 가상 환경에 즉각적인 455 00:24:31.240 --> 00:24:34.480 시각적 피드백을 제공하는 프로그램을 말합니다 456 00:24:34.480 --> 00:24:37.320 Epic Games의 언리얼 엔진이 대표적인 예로 457 00:24:37.320 --> 00:24:41.220 이 엔진은 높은 수준의 현실관과 458 00:24:41.220 --> 00:24:44.600 다이나믹한 환경 조정이 가능합니다 459 00:24:44.600 --> 00:24:47.500 3D로 구성된 환경을 구축하고 460 00:24:47.500 --> 00:24:50.239 하나의 스튜디오 공간을 다목적 공간으로 활용하여 461 00:24:50.239 --> 00:24:52.439 동일한 공간에서 끊임없는 462 00:24:52.439 --> 00:24:55.200 새로운 콘텐츠를 제작할 수 있습니다 463 00:24:55.200 --> 00:24:59.800 카메라가 보는 시점 그대로의 장면을 렌더링하고 464 00:24:59.800 --> 00:25:02.920 사실감 있는 것을 그대로 극대화할 수가 있고 465 00:25:02.920 --> 00:25:05.970 장면의 퍼스펙티브를 만들어서 더 깊이 있고 466 00:25:05.970 --> 00:25:08.480 생동감 있는 화면을 제공할 수 있습니다 467 00:25:08.480 --> 00:25:11.930 또한 리얼타임 렌더링 엔진은 노치, 468 00:25:11.930 --> 00:25:14.598 유니티, 언리얼 같은 다양한 툴과의 469 00:25:14.598 --> 00:25:17.000 통합 워크플로우를 지원합니다 470 00:25:17.000 --> 00:25:19.900 카메라가 3D 환경을 자유롭게 다닐 수 있고 471 00:25:19.900 --> 00:25:22.387 고정된 샷이나 제한된 카메라 위치나 472 00:25:22.387 --> 00:25:24.279 얽매일 필요가 없습니다 473 00:25:24.279 --> 00:25:27.200 XR 워크플로우에 대해서 살펴보겠습니다 474 00:25:27.200 --> 00:25:32.079 네트워킹은 모든 XR 프로젝션에서 핵심적인 요소입니다 475 00:25:32.079 --> 00:25:35.191 결국 서버와 렌더링 엔진 간 데이터 흐름은 476 00:25:35.191 --> 00:25:38.920 네트워크 인프라에 크게 의존할 수밖에 없는데요 477 00:25:38.920 --> 00:25:42.386 네트워크는 생성되고 전송되는 모든 데이터의 478 00:25:42.386 --> 00:25:44.799 대역폭을 처리할 수 있어야 합니다 479 00:25:44.799 --> 00:25:46.699 그렇다면 XR 시스템에서 필요한 480 00:25:46.699 --> 00:25:48.679 네트워크 유형은 무엇일까요? 481 00:25:48.679 --> 00:25:51.279 효과적인 XR 시스템을 구축하기 위해서는 482 00:25:51.279 --> 00:25:54.160 다음과 같은 네트워크가 필요합니다 483 00:25:54.160 --> 00:25:58.722 먼저 미디어 서버 네트워크, d3Net입니다 484 00:25:58.722 --> 00:26:02.822 d3Net은 XR 시스템에서 모든 서버 간의 통신을 담당하는 485 00:26:02.822 --> 00:26:04.720 미디어 서버 네트워크입니다 486 00:26:04.720 --> 00:26:09.720 미디어 서버가 빠르고 안정적인 데이터 전송을 지원합니다 487 00:26:09.720 --> 00:26:13.480 다음은 메타 데이터 및 비디오 이더넷 전송입니다 488 00:26:13.480 --> 00:26:15.040 이는 렌더스트림이라고 하는데 489 00:26:15.040 --> 00:26:18.490 렌더스트림은 제3자인 렌더 엔진, 490 00:26:18.490 --> 00:26:24.160 언리얼 엔진과 같은 것들과 소통하기 위한 방식입니다 491 00:26:24.160 --> 00:26:27.710 이를 통해 VX와 RX 간의 메타 데이터 및 492 00:26:27.710 --> 00:26:30.600 비디오 데이터를 전송할 수 있습니다 493 00:26:30.600 --> 00:26:32.900 고품질 비디오 스트림을 위해서는 494 00:26:32.900 --> 00:26:34.839 무압축 데이터를 전송하고 495 00:26:34.839 --> 00:26:37.589 색상 정확도와 디테일을 유지하기 위해 496 00:26:37.589 --> 00:26:40.000 10비트 전송을 지원해야 합니다 497 00:26:40.000 --> 00:26:42.550 대용량 데이터를 빠르게 전송할 수 있는 498 00:26:42.550 --> 00:26:45.440 25Gbps 네트워크를 활용해야 합니다 499 00:26:45.440 --> 00:26:49.079 그리고 자동화 및 카메라 트래킹 네트워크를 통해 500 00:26:49.079 --> 00:26:51.179 카메라 움직임 데이터를 트래킹하여 501 00:26:51.179 --> 00:26:54.480 실시간으로 동기화를 제공해야 합니다 502 00:26:54.480 --> 00:26:56.430 마지막 콘텐츠 관리 네트워크는 503 00:26:56.430 --> 00:26:58.680 콘텐츠를 업로드, 다운로드 및 504 00:26:58.680 --> 00:27:01.079 관리하는데 필요한 연결을 제공합니다 505 00:27:01.079 --> 00:27:04.629 미디어 다운로드를 위한 인터넷 연결 외부 소스에서 506 00:27:04.629 --> 00:27:07.320 미디어 파일을 가져오는데 사용됩니다 507 00:27:07.320 --> 00:27:11.559 XR 시스템에 필요한 다중 네트워크에 대해 알아보겠습니다 508 00:27:11.559 --> 00:27:13.709 VX 시리즈를 보면 시스템에 509 00:27:13.709 --> 00:27:16.920 여러개의 NIC가 장착되어 있습니다 510 00:27:16.920 --> 00:27:22.200 이러한 NIC는 다양한 대역폭 활동을 가능하게 하는데요 511 00:27:22.200 --> 00:27:28.650 VX4+의 경우 1Gb 포트는 1개, 10Gb 포트는 2개, 512 00:27:28.650 --> 00:27:30.819 100Gb 포트는 2개로 구성되어 있고 513 00:27:30.819 --> 00:27:33.069 이러한 구성은 실시간 렌더링과 514 00:27:33.069 --> 00:27:35.679 고속 데이터 전송을 지원합니다 515 00:27:35.679 --> 00:27:39.114 통신, 생성, 콘텐츠 스트리밍 또는 516 00:27:39.114 --> 00:27:42.799 카메라 트래킹 같은 다양한 데이터 유형을 분류함으로써 517 00:27:42.799 --> 00:27:46.160 각 채널이 혼잡 없이 효율적으로 작동하여 518 00:27:46.160 --> 00:27:48.839 시스템 성능을 최적화할 수 있습니다 519 00:27:48.839 --> 00:27:52.189 그렇다면 앞서 말한 구성들의 시스템 520 00:27:52.189 --> 00:27:55.000 네트워크 구성 다이어그램을 정리해볼까요? 521 00:27:55.000 --> 00:27:57.200 먼저 디스가이즈 장비로 중앙에는 522 00:27:57.200 --> 00:28:00.559 VX와 RX 시스템이 위치하고 있습니다 523 00:28:00.559 --> 00:28:02.970 VX는 LED 프로세서와 연결되어 524 00:28:02.970 --> 00:28:05.239 고품질 콘텐츠를 출력하고 525 00:28:05.239 --> 00:28:08.489 RX는 언리얼 엔진과 같은 렌더링 엔진에서 526 00:28:08.489 --> 00:28:12.640 콘텐츠를 수신하여 VX로 전달하게 됩니다 527 00:28:12.640 --> 00:28:16.390 이 모든 과정은 디스가이즈 장비 간의 전용 네트워크인 528 00:28:16.390 --> 00:28:19.640 d3Net을 통해 연결되어 있습니다 529 00:28:19.640 --> 00:28:24.000 왼쪽에는 비디오 카메라와 트래킹 시스템이 있습니다 530 00:28:24.000 --> 00:28:26.950 각 카메라는 실시간 데이터를 캡처하고 531 00:28:26.950 --> 00:28:30.040 트래킹 시스템은 이룰 기반으로 카메라에 위치와 532 00:28:30.040 --> 00:28:33.359 움직임 데이터를 VX4에 전달합니다 533 00:28:33.359 --> 00:28:35.659 또한 젠록 시스템을 통해 534 00:28:35.659 --> 00:28:38.679 전체 시스템이 완벽하게 동기화됩니다 535 00:28:38.679 --> 00:28:40.679 다음은 네트워크입니다 536 00:28:40.679 --> 00:28:44.979 10Gb 네트워크 스위치와 25Gb 멜라녹스 스위치는 537 00:28:44.979 --> 00:28:47.119 대용량 전송을 지원하여 538 00:28:47.119 --> 00:28:50.520 렌더스트림 및 KVM 신호를 처리합니다 539 00:28:50.520 --> 00:28:53.070 오른쪽에는 LED 프로세서와 디스플레이 540 00:28:53.070 --> 00:28:55.200 출력 관련된 부분이 보이는데요 541 00:28:55.200 --> 00:28:59.100 이 프로세서는 VX4에서 전송된 데이터를 받아 542 00:28:59.100 --> 00:29:03.039 LED 화면에 콘텐츠를 정확하게 출력하는 역할을 합니다 543 00:29:03.039 --> 00:29:06.080 여기까지 네트워크에 대해 설명 드렸는데 544 00:29:06.080 --> 00:29:11.039 결국 좋은 네트워크 시스템은 탄탄한 계획에서 시작됩니다 545 00:29:11.039 --> 00:29:13.440 다른 VP 촬영에서도 마찬가지이지만 546 00:29:13.440 --> 00:29:16.590 XR 프로덕션에서 시스템 관리자는 547 00:29:16.590 --> 00:29:18.520 매우 중요한 역할을 합니다 548 00:29:18.520 --> 00:29:23.200 이들은 전체 시스템을 설계하고 계획하는 책임을 맡는데 549 00:29:23.200 --> 00:29:26.200 개별 네트워크를 구성하고 다양한 장비 간에 550 00:29:26.200 --> 00:29:29.239 원활한 통신이 될 수 있도록 해야 합니다 551 00:29:29.239 --> 00:29:32.089 지금까지 XR의 개별 구성 요소 중 552 00:29:32.089 --> 00:29:34.719 중요한 몇 가지를 살펴보았습니다 553 00:29:34.719 --> 00:29:36.969 이번에는 이 요소들이 어떻게 554 00:29:36.969 --> 00:29:39.735 전체 워크플로우에서 유기적으로 연결되는지 555 00:29:39.735 --> 00:29:41.960 설명드리도록 하겠습니다 556 00:29:41.960 --> 00:29:46.760 모든 작업은 디스가이즈 Extended Reality Controller에서 시작됩니다 557 00:29:46.760 --> 00:29:48.960 디스가이즈 디자이너 소프트웨어에서 558 00:29:48.960 --> 00:29:51.060 카메라 및 렌즈 보정, 559 00:29:51.060 --> 00:29:54.039 공간 및 색상 매핑 등의 과정을 통해 560 00:29:54.039 --> 00:29:56.940 정확한 가상 환경을 설정합니다 561 00:29:56.940 --> 00:29:59.950 여기에는 디스가이즈 3D 시뮬레이션 및 562 00:29:59.950 --> 00:30:02.900 비디오 매핑 서버가 포함되어 있어 563 00:30:02.900 --> 00:30:05.340 각 요소가 정확히 동기화됩니다 564 00:30:05.340 --> 00:30:08.859 두 번째 단계는 실시간 그래픽 생성입니다 565 00:30:08.859 --> 00:30:11.007 이 과정에서 앞서 말씀드렸던 566 00:30:11.007 --> 00:30:14.780 언리얼 엔진과 같은 렌더링 엔진이 사용되며 567 00:30:14.780 --> 00:30:17.739 가상 환경이 LED 화면에 출력됩니다 568 00:30:17.739 --> 00:30:20.789 렌더스트림 플러그인을 통해 실시간으로 569 00:30:20.789 --> 00:30:23.260 증강현실 콘텐츠를 생성하고 570 00:30:23.260 --> 00:30:26.010 이 데이터는 카메라 추적 데이터와 함께 571 00:30:26.010 --> 00:30:28.460 실시간으로 렌더링하게 됩니다 572 00:30:28.460 --> 00:30:33.539 그 다음 이 모든 콘텐츠는 LED 월로 전달됩니다 573 00:30:33.539 --> 00:30:37.299 여기서는 LED가 중요한 역할을 하게 됩니다 574 00:30:37.299 --> 00:30:39.799 또한 조명 제어 시스템을 통해 575 00:30:39.799 --> 00:30:44.340 LED 스크린에 나오는 빛과 물리적 조명이 동기화되어 576 00:30:44.340 --> 00:30:47.219 더욱 몰입감 있는 환경을 만들게 됩니다 577 00:30:47.219 --> 00:30:51.020 마지막 단계는 비전 믹서입니다 578 00:30:51.020 --> 00:30:55.380 이곳에서 최종적인 영상 합성이 이루어지게 됩니다 579 00:30:55.380 --> 00:30:58.380 AR 콘텐츠와 렌즈 데이터를 결합하여 580 00:30:58.380 --> 00:31:01.230 실제 카메라와 가상 배경이 완벽하게 581 00:31:01.230 --> 00:31:03.419 통합된 화면을 생성합니다 582 00:31:03.419 --> 00:31:07.119 이 결과물은 방송용 또는 스트리밍 플랫폼에 583 00:31:07.119 --> 00:31:08.900 바로 송출할 수 있게 됩니다 584 00:31:08.900 --> 00:31:11.550 전체적으로 Extended Reality Workflow는 585 00:31:11.550 --> 00:31:14.940 모든 XR 구성 요소를 실시간으로 통합하여 586 00:31:14.940 --> 00:31:17.640 이 과정은 사전 제작, 실시간 조명, 587 00:31:17.640 --> 00:31:19.340 후반 작업을 효율화하여 588 00:31:19.340 --> 00:31:23.340 시간과 비용을 절약하면서도 높은 품질을 보장합니다 589 00:31:23.340 --> 00:31:25.390 디스가이즈 XR 워크플로우에서 590 00:31:25.390 --> 00:31:29.299 3D 무대 보정의 핵심 요소를 알아보도록 하겠습니다 591 00:31:29.299 --> 00:31:32.399 정확한 보정은 실제 세계와 가상 세계가 592 00:31:32.399 --> 00:31:35.380 원활하게 정렬되도록 보장하여 593 00:31:35.380 --> 00:31:37.979 몰입감 있는 제작이 가능하게 합니다 594 00:31:37.979 --> 00:31:40.179 보정에 두 가지 주요 유형이 있는데 595 00:31:40.179 --> 00:31:43.700 바로 공간 보정과 렌즈 보정이 있습니다 596 00:31:43.700 --> 00:31:47.219 공간 보정은 World Alignment를 포함합니다 597 00:31:47.219 --> 00:31:48.892 여기서 World Alignment란 598 00:31:48.892 --> 00:31:52.260 실제 무대나 카메라 위치 등 실제 세계와 599 00:31:52.260 --> 00:31:57.059 언리얼의 가상 세계를 정확히 정렬하는 과정입니다 600 00:31:57.059 --> 00:31:59.609 트래킹 데이터를 정확하게 해석해서 601 00:31:59.609 --> 00:32:02.500 카메라가 물리적 공간에서 움직이는 대로 602 00:32:02.500 --> 00:32:06.350 언리얼의 가상 환경에서도 동일하게 반영하도록 603 00:32:06.350 --> 00:32:08.020 좌표계를 일치시키고 604 00:32:08.020 --> 00:32:11.270 가상 콘텐츠 역시 실제 환경과 왜곡 없이 605 00:32:11.270 --> 00:32:14.140 자연스럽게 어우러지도록 조정합니다 606 00:32:14.140 --> 00:32:16.590 즉 공간 보정은 두 공간 607 00:32:16.590 --> 00:32:20.260 실제와 가상을 정렬하는 기초가 됩니다 608 00:32:20.260 --> 00:32:22.860 렌즈 보정은 실제 카메라 렌즈의 609 00:32:22.860 --> 00:32:25.539 광학적 특성을 프로파일링하여 610 00:32:25.539 --> 00:32:28.260 렌즈 고유의 프로파일을 계산하게 됩니다 611 00:32:28.260 --> 00:32:32.619 이 프로파일은 렌더링된 가상의 확장된 세트와 612 00:32:32.619 --> 00:32:35.669 실제 카메라 렌즈의 왜곡 및 시야각을 613 00:32:35.669 --> 00:32:38.059 일치시키는데 필수적입니다 614 00:32:38.059 --> 00:32:42.099 물리적 무대와 가상 모델이 일치하지 않으면 615 00:32:42.099 --> 00:32:44.749 작은 오차라도 몰입감을 해치고 616 00:32:44.749 --> 00:32:47.820 관객의 몰입을 방해하기 때문에 617 00:32:47.820 --> 00:32:50.220 디스가이즈 내부의 가상 3D 모델은 618 00:32:50.220 --> 00:32:52.500 100% 정확해야 됩니다 619 00:32:52.500 --> 00:32:55.250 마지막으로 실제 XR 시스템을 설계할 때 620 00:32:55.250 --> 00:32:57.700 고려해야 될 요소는 무수히 많지만 621 00:32:57.700 --> 00:33:01.020 특히나 유의할 예시로 몇 가지 알려드리겠습니다 622 00:33:01.020 --> 00:33:04.500 만약 다른 유형의 LED 프로세서를 사용하는 경우라면 623 00:33:04.500 --> 00:33:07.850 LED 프로세서마다 컬러 매핑이나 감마 보정, 624 00:33:07.850 --> 00:33:10.739 밝기 수준이 다르게 설정될 수 있어서 625 00:33:10.739 --> 00:33:12.639 색상 차이가 날 확률이 높고 626 00:33:12.639 --> 00:33:16.820 각 프로세서에 맞는 설정 및 캘리브레이션이 필요합니다 627 00:33:16.820 --> 00:33:20.500 결국 설치 및 세팅 시간이 더 오래 걸릴 수 있습니다 628 00:33:20.500 --> 00:33:23.179 만약 리프레시 속도가 많지 않다면 629 00:33:23.179 --> 00:33:26.780 플리커, 즉 화면 깜빡임이 발생할 수 있습니다 630 00:33:26.780 --> 00:33:29.619 만약 신호 포맷이 일치하지 않는다면 631 00:33:29.619 --> 00:33:32.018 서로 다른 비디오 신호 포맷을 사용하는 632 00:33:32.018 --> 00:33:34.140 장비가 연결되어 있는 경우 633 00:33:34.140 --> 00:33:35.890 신호를 인식하지 못하거나 634 00:33:35.890 --> 00:33:38.480 전송 불능 상태가 될 수 있습니다 635 00:33:38.480 --> 00:33:41.340 장비 간 신호 포맷이 일치하지 않으면 636 00:33:41.340 --> 00:33:45.059 다운 스케일링 또는 업 스케일링이 발생할 수 있어서 637 00:33:45.059 --> 00:33:49.099 화질 저하 및 색상 왜곡 문제가 발생할 수 있습니다 638 00:33:49.099 --> 00:33:52.140 신호 포맷이 안 맞으면 신호 변환이 필요하고 639 00:33:52.140 --> 00:33:55.900 이는 추가적인 레이턴시 유발 원인이 될 수 있습니다 640 00:33:55.900 --> 00:34:00.299 그리고 오디오, 비디오 간 싱크가 어긋날 수 있습니다 641 00:34:00.299 --> 00:34:03.419 여러분도 계속해서 호기심을 갖고 탐구하시면서 642 00:34:03.419 --> 00:34:06.319 현장에 필요한 실질적인 경험과 643 00:34:06.319 --> 00:34:08.780 지식을 쌓아 나가시길 바랍니다 644 00:34:08.780 --> 00:34:12.580 이번 시간에는 디스가이즈 활용의 첫 번째 시간으로 645 00:34:12.580 --> 00:34:16.630 XR, 2D, 2.5D와 같은 다양한 기술적 개념과 646 00:34:16.630 --> 00:34:19.486 워크플로우를 이해하고 실제 적용 방법을 647 00:34:19.486 --> 00:34:22.020 학습하는 것을 목표로 진행해 봤는데요 648 00:34:22.020 --> 00:34:25.419 여러분이 XR에 대해서 최신 기술들을 이해하고 649 00:34:25.419 --> 00:34:27.700 본인의 작품에 좀 더 창의적이고 650 00:34:27.700 --> 00:34:29.350 효율적인 콘텐츠 제작 방법을 651 00:34:29.350 --> 00:34:31.580 배우는 시간이 되었길 바랍니다 652 00:34:31.580 --> 00:34:33.880 그럼 이번 시간 학습한 내용을 복습하면서 653 00:34:33.880 --> 00:34:35.191 마무리하겠습니다 654 00:34:35.191 --> 00:34:35.900 감사합니다 655 00:34:36.251 --> 00:34:37.251 XR, 2D, 2.5D 및 Mapping의 이해 XR (Extended Reality) 656 00:34:37.251 --> 00:34:38.201 AR(증강현실), MR(혼합현실), VR(가상현실) 요소를 결합해 완전한 몰입형 경험을 제공하는 라이브 프로덕션의 총칭 657 00:34:38.201 --> 00:34:39.201 2D Workflow 스틸 이미지나 동영상을 캡처 및 편집하여 LED 스크린 배경으로 사용하는 방식 658 00:34:39.201 --> 00:34:40.201 2D Workflow의 장점 및 한계 유연성 및 확장성이 뛰어남 배경의 질감 및 디테일을 유지하면서 특정 장면의 요구에 맞는 스케일링이 가능함 659 00:34:40.201 --> 00:34:41.230 깊이감이 제한적이며, 시차 효과가 없음 촬영 현장에서 반복적인 변경이 불가능함 660 00:34:41.230 --> 00:34:42.071 2.5D Workflow 이미지나 비디오 플레이트의 레이어를 쌓아 올려 깊이감과 형태를 추가함으로써 Parallax Effect를 구현하는 방식 661 00:34:42.071 --> 00:34:42.930 2.5D Workflow의 장점 Parallax Effect 및 깊이감 제공 시간과 예산의 절감 버추얼 프로덕션의 유연성 확장 662 00:34:42.930 --> 00:34:43.730 Mapping 콘텐츠를 특정 화면 및 무대 표현으로 정확히 전달하는 과정에서 사용되는 주요 속성 663 00:34:43.730 --> 00:34:44.480 대표적인 매핑 방식 Direct Mapping: Static Mapping 중 하나로 스크린을 생성 시 자동으로 설정되는 디스가이즈의 기본 매핑 방식 664 00:34:44.480 --> 00:34:45.330 Feed Mapping: 특정 영역을 특정 화면 및 표현에 라우팅할 수 있는 유용하고 유연한 방식 665 00:34:45.330 --> 00:34:46.220 Parallel Mapping: 콘텐츠를 장면에 기하학적으로 투사하며, 콘텐츠를 가상으로 촬영하는 것처럼 작동하는 방식 666 00:34:46.220 --> 00:34:47.170 XR의 구성 요소 및 워크플로우 XR의 구성 요소 카메라 뷰: XR 환경의 최종적 렌더링 결과를 보여줌 667 00:34:47.170 --> 00:34:48.120 LED 스테이지: XR 환경의 핵심 기술, 가상 배경이 LED 패널을 통해 물리적으로 표현됨 668 00:34:48.120 --> 00:34:49.120 바닥: 물리적 요소와 LED 패널을 결합해 배우 및 진행자와 XR 환경과의 자연스러운 상호작용을 도움 669 00:34:49.120 --> 00:34:50.120 XR 구현 필수 요소 LED Screens(Stage) Camera Tracking System 670 00:34:50.120 --> 00:34:51.140 Media Server(disguise) Genlock Sync Real-Time Content Rendering Engine 671 00:34:51.140 --> 00:34:52.740 XR 시스템 구축에 필요한 네트워크 미디어 서버 네트워크(d3Net) 메타데이터 및 비디오 이더넷 전송(RenderStream) 콘텐츠 관리 네트워크 672 00:34:52.740 --> 00:34:54.390 3D 무대 보정 유형 공간 보정: World Alignment를 포함하는 공간 보정 렌즈 보정: 실제 카메라 렌즈의 광학 특성을 프로파일링하며 렌즈 고유 프로파일을 계산함 673 00:34:54.390 --> 00:34:56.030 XR Workflow Extended Reality Controller 실시간 그래픽 생성 LED Wall(Stage) Vision Mixer