Render Virtual Reality Videos with Cinema 4D: Create YouTube 360° & VR Video using C4D and CV-VRCam

Photo of Rick Barrett

Instructor Rick Barrett

Share this video
  • Duration: 13:00
  • Views: 34366
  • Made with Release: 17
  • Works with Release: 15 and greater

Render Equirectangular and Omni-directional Stereo imagery in Cinema 4D

Learn how to use the CV-VRCam plugin to render 360° and VR Video directly from Cinema 4D using the Advanced or Physical Render engines. You'll first create an omni-directional stereo image for a basic test scene, and then apply the same technique to create a VR version of Beeple's Aquahall. The Aquahall scene can be downloaded freely from Beeple's webiste, beeple-crap.com.

show less

Transcript

- In this tutorial we're going to explore the workflow for delivering YouTube VR content from Cinema 4D using Cinema 4D's advanced or physical render engine and the CV-VRCam plugin. To deliver 360 degree or VR videos to YouTube, they need to be in an equirectangular projection, which is basically what you get if you unwrapped a map or for us 3D artists, it's the way we'll typically unwrap an HDRI image. This format gets re-wrapped around a sphere by the viewer. In the case of a YouTube VR or stereo image, we basically just stack two of these images top to bottom with the left eye on top and the right eye on the bottom. And this what YouTube calls an omnidirectional stereo image. This type of projection can't be rendered natively out of Cinema 4D, but the CV-VRCam plugin from Cineversity allows us to do it quite easily. You simply add the post effect and hit the render button. So we're going to look at this workflow first in a very simple test scene that I have created and then we're going to apply it to a more interesting scene. We'll just delete the camera rig and the way that you'll want to bring that in normally is using the option in the plugins menu. If you just choose CV-VRCam, there's an option to merge the camera rig. So we'll merge that in now. This camera rig is one that I've set up that basically just provides preset cameras for the front, left, reverse, right, up and down views so that you can easily get a quick view of your scene from the various perspectives. If you select the null for the camera rig, you'll see that there's a user data for the eye separation. Now the default standardized separation is 6.5 centimeters, but you may need to adjust this based from the scale of your scene. There's more information on that in the video on Design Considerations. Now if we go ahead and go out of this camera and view from the editor camera, you'll see that this camera rig also has a sphere surrounding it that appears green when the camera's not selected. This elongated sphere shows you the safe zones for your VR content and again, there's information on how and why to use the safe zones in the video on Design Considerations. So once you've got your rig in the scene, it's really quite easy. All you need to do is go up to the plugins menu again, choose CV-VRCam, Create Render Settings and if you go into the render settings dialog now, you'll see that we have three new render setting presets set up. One is the YouTube VR 2160s which would be a 4K YouTube VR image. There's also another option that outputs essentially the same thing, but instead of using CV-VRCams built-in stereo rendering it piggybacks on Cinema 4D's stereo rendering. Now there's a couple of reasons you might want to do this. The stereo functionality built into CV-VRCam renders both eyes in one pass whereas the Cinema 4D's stereoscopic options will render each eye separately and then merge them at the end. Because it renders both eyes in one pass, CV-VRCam will render the stereo image about twice as fast and it's also compatible with team render. However, the Cinema 4D output is slightly better quality and you do also have the option to output the individual channels as well as the merged image which is handy if you want to have the full 4K image for each eye for future proofing. Finally, there's an option for YouTube 360 that disables both stereo options and renders just a single equirectangular image for a simple 360 degree video. Now these render settings have the output size of 4K or 3840 by 2160 already built into them and generally I recommend that you always render out at that size because it's essential that the images be the highest resolution possible. However, for demonstration purposes here on this computer I'm going to go ahead and select all three render settings and reduce the render setting to just 960 by 540. So now if I select the YouTube 360 output and I make sure that my forward facing camera is selected, I can render out just a single equirectangular image for a 360 degree video. If we select the YouTube VR option at the top, we'll get a VR image and if we select the center option, what we're going to get is you'll see a render one eye and then the other eye and then it merges both of them together. Because we're rendering 4K and 4K renders take a really long time, I always recommend just rendering a single frame even if you have an animated scene and you can take this into YouTube VR and just double check that the stereo's working right, everything looks good before you commit to the full render. So what we do now is take this frame into After Effects and we're just going to go ahead and create a new comp and we're going to make it 4K so 3840 by 2160. We go ahead and set however long we want it to be. In this case we'll go with 30 seconds. Hit okay. Go ahead and load our image that we just rendered and this one is 4K, I rendered it earlier. And we'll go ahead and drop this into our comp. There we go. No additional compositing is necessary, however again the benefit of pre-rendered video is that we could do additional stuff to this if we want to in After Effects. We just have to deal with the projection and the stereo which is not trivial, but it is possible. And then we'll just render this out via Adobe Media Encoder and we save it as an mpeg4. We'll call this VRTestScene_Static, render it out and the next step after it finishes rendering is a little bit of extra processing you need to do prior to uploading it to YouTube. I am going to save that for a separate tutorial. For now let's go ahead and jump back into Cinema 4D and if you wanted to go ahead and render this out as an animation what you'd want to do is first animate it and you should always animate this null at the top of the camera if you're actually adding any camera animation. Of course if you are animating the camera, you're going to want to make sure to be very careful about the speed and the direction that the camera moves so you don't disorient the viewer. And more information on that in the Design Considerations tutorial. Once you've got your animation all set up and ready to go, I recommend jumping up to the top render setting here that was your active render setting when you created the YouTube VR render settings. Here you just go into the frame range and go ahead and set the frame range that you want to render. And these other render settings will all inherit that frame range. So now we can go ahead and render out the full animation, but this scene actually is not all that interesting. What we want to do instead is go ahead and grab a more interesting scene. And for that, I went to Beeple. Beeple creates some awesome environments and he's gracious enough to provide a lot of the scene files on his website free and open source to do whatever you want with. So in this case we're going to go ahead and take one of his environments and make it a VR environment for YouTube. You can find all these open source C4D scene files in the resources section and there's files even here from his recent short film of ZERO-DAY which we'll look at later. But for now what I wanted to do is grab something that could be rendered in the standard renderer. Beeple does a lot of renders with Octane, but what I wanted to do is grab something that was set up for the standard renderer and I found this scene called Aquahall that's actually set up for both the standard renderer and Octane at the same time. So I downloaded that Cinema 4D project and we'll just open it up right now. Here in the scene, we basically have an animated camera moving down a hallway with some animation happening on the screens and the pillars and whatnot as we move through. Now, I'm not sure if the camera motion is slow enough yet, but we're just going to go ahead and work with the environment as it is. And so, the first thing we want to do is go ahead and pull in our camera rig. So we'll go ahead and choose plugins, CV-VRCam Merge Camera Rig and because we have an animated camera here what we want to do is go ahead and just put the camera rig as a child of the existing camera. And then you're just going to want to go into the coordinates tab and make sure to zero out the coordinates so that our VR camera is in exactly the same spot as the animated camera. From here you can go ahead and view through the forward camera, the left camera, the reverse camera, the right camera, up and down to get an idea of what the scene looks like from all angles. I'm going to go ahead and jump out of all of the cameras really quick and we're going to go ahead and pan with the editor camera out of this a little bit. And what you'll see is that the camera icon itself in the display is quiet big, and in fact, the safe frame for the camera is way bigger than our scene. If I go ahead and add a figure into the scene, you'll see that the figure is also much bigger than the scene. Beeple created this at a pretty small scale. So let's just go ahead and see how much smaller than a human this scene happens to be and so for that what I'm going to do is switch into the Object tool and we'll go ahead and scale this figure down until he fits in the hallway. And it looks like...that's a pretty good fit. And if we go into the Object tab here you can see that...or the Coordinates tab, you can see that we've scaled them down to about .05 times the current size or a 20th of the size that he was initially. So we could scale this entire scene up, but a little bit easier is, we can just scale the inner pupillary distance or the eye separation on the VR camera. So we'll just multiply this times .05 and we get a new IPD of .325 and you can see now that even though our camera is the same size. Our safe zone is now fitting completely within the scene. So I think we'll now be able to render this without any problem for YouTube VR. Now again, we want to make sure that we're rendering through the forward camera. And even though this is an animation, I always like to start by rendering with just the still frame because, again, we're rendering 4K images here and this one does take a little bit of time to render. It's often a good idea to go somewhere near the middle of the animation especially because that's often going to put you sort of in the middle of your environment. And from here we're just going to go ahead and add our render settings. So we'll choose the CV-VRCam, Create Render Settings and we'll go into the render settings and here you can see those render settings were created as a child of the render setting that was already existing here. Now we can go ahead and choose the YouTube VR output. You can see that we're rendering stereo here and the one little trick here is that the eye separation does not carry over from the object. So what we need to do is go ahead and copy the eye separation here as well. We will multiply that by 5.05 and there we go. Now I'm also going to jump into the parent render setting here and this is physical, but these are not, so I'm just going to go ahead and allow those to be physical as well. And in the physical render settings we're just going to keep this at Low. You might actually want to render even just a progressive render that's really grainy in order to sample how this is going to work out. So we'll go ahead and make sure that we're rendering just a single frame and we'll go ahead and render that out. As I mentioned, these 4K frames do take quite a while to render so we're going to continue this render and continue the process of bringing this file into YouTube VR in the next tutorial.
이번 튜토리알에서는 Cinema 4D에서 YouTube VR 컨텐츠를 만들어 내는 워크플로우 중의 하나인, Cinema 4D 어드밴스드 또는 피지컬 렌더와 CV-VRCam 플러그인을 이용하여 YoutTube VR을 구현하는 과정을 살펴볼 것입니다. 360도 또는 VR 비디오를 YouTube에 전달하려면, 씬을 정방형 프로젝션, 즉 equirectangular 프로젝션되어야 하는 데, 이는 기본적으로 지도를 펼치기하거나 3D 아티스트들을 위하여 HDRI 이미지를 펼치기하는 전형적인 방법입니다. 이 포맷은 시청자에 의하여 구 주위로 다시 랩하여 얻어집니다. YouTube VR이나 스테레오 이미지의 경우, 기본적으로는 이들 두개의 이미지를 위에서 아래로 쌓는 형태로서 왼쪽 눈을 위한 이미지를 위에 그리고 오른쪽 눈을 위한 이미지를 아래에 놓습니다. 이를 YouTube에서는 전방향 스테레오 이미지라고 부릅니다. 이러한 형태의 프로젝션은 Cinema 4D 고유 렌더러에서는 지원하지 않지만, 씨네버시티의 CV-VRCam 플러그인으로 쉽게 처리할 수 있습니다. 간단히 포스트 이펙트를 추가하고 렌더 버튼을 누르기만하면 됩니다. 이제 이 워크플로우를 먼저 살펴보도록 하겠습니다. 여기서는 이미 만들어 놓은 간단한 테스트 씬을 사용하겠습니다. 그런 다음 이를 보다 흥미로운 씬에 적용해 보도록 하겠습니다. 일단 카메라 리그를 없앤 다음, 이를 다시 가져오려면 일반적으로 플러그인 메뉴의 옵션을 사용합니다. 여기서 만일 CV-VRCam을 선택하면, 카메라 리그를 머지할 수 있는 옵션이 나타납니다. 이제 이를 머지하겠습니다. 이 카메라 리그는 제가 미리 설정해 놓은 것으로서, 기본적으로 프론트, 레프트, 리버스, 라이트 및 위 아래 뷰를 위한 프리셋 카메라를 제공하여 손쉽게 여러 방향에서 씬을 빠르게 뷰잉할 수 있게 한 것입니다. 여러분이 카메라 리그를 위한 Null을 선택하면, 눈 분리에 대한 사용자 데이타를 볼 수 있습니다. 기본 표준화된 분리는 6.5Cm이며, 씬의 스케일에 따라 이를 조정할 수 있습니다. 이에 대해서는 본 튜토리알의 이전 비디오를 참조하십시오. 이제 이 카레라 선택을 해제하고 에디터 카메라로 보면, 이 카메라 리그는 카메라를 둘러싸고 있는 구가 보일 것입니다. 이 구는 카메라가 선택되어있지 않을 때에 녹색으로 나타납니다. 이 길게 나타나는 구는 여러분의 VR 컨텐츠 작업을 위한 세이프 존을 보여주는 것으로서 본 튜토리알의 이전 비디오에 세이프 존이 왜 필요한지 그리고 어떻게 활용하는지에 대하여 설명하였습니다. 씬에 리그를 만들어 놓고 나면 나머지는 아주 쉽습니다. 단지 플러그인 메뉴로 가서 CV-VRCam을 선택하고, Create Render Settings를 선택합니다. 그리고 렌더 세팅 다이알로그로 가보면, 세개의 새로운 렌더 세팅 프리셋이 준비되어있는 것을 보실 수 있습니다. 하나는 YouTube VR2160s로서 4K YouTube VR 이미지입니다. 또 다른 하나는 이와 동일하지만 CV-VRCams에 내장된 스테레오 렌더링을 사용하는 대신에 Cinema 4D의 스테레오 렌더링을 사용하는 것입니다. 이를 사용하는 데에는 여러 가지 이유가 있는데, CV-VRCam에 내장된 스테레오 기능은 양 눈의 이미지를 한번에 렌더링하는 데 반하여, Cinema 4D의 스테레오 스코픽 옵션은 각각의 눈에 대한 이미지들을 별도로 렌더링한 후 마지막이 이들을 머지합니다. CV-VRCam은 양 눈의 이미지를 한 패스로 렌더링하기 때문에 스테레오 이미지를 두배 빠르게 렌더링할 수 있으며 Team Render와도 호환됩니다. 그러나, 반면 Cinema 4D 스테레오 스코픽 이미지가 좀더 좋은 품질의 아웃풋이 가능하며, 각각의 채널들을 개별적으로 또는 머지된 상태로 아웃풋할 수 있어, 향후에 보강을 하기 위하여 각각의 눈에 대한 완전한 4K 이미지를 필요로 할 때 유용합니다. 마지막 세번째 설정은 YouTube 360도 비디오를 위한 옵션으로서 앞의 두개의 스테레오 옵션들을 끄고 단순한 360도 비디오를 위하여 단지 하나의 장방형 이미지를 렌더링합니다. 이들 렌더링 설정은 출력 사이즈로 4K 즉, 3840 x 2160픽셀로 설정되어있으며, 일반적으로 항상 이 사이즈로 렌더링할 것을 권장합니다. 그 이유는 이미지들이 가능한 최고의 해상도로 렌더링되는 것이 필수적이기 때문입니다. 그러나 이번 데모를 위해서, 이 컴퓨터에서는 세개의 렌더 설정을 모두 선택하고 렌더 설정을 960 x 540으로 낮추도록 하겠습니다. YouTube 360 output을 선택하고, 프론트를 바라보는 카메라를 선택하면 360도 비디오를 위한 하나의 장방형 이미지를 렌더링할 수 있습니다. 만일 맨위의 YouTube VR 옵션을 선택하면 VR 이미지를 얻을 수 있으며, 만일 가운데에 있는 옵션을 선택하면 한쪽 눈 이미지를 렌더링하고, 그런 다음 다른 쪽 눈 이미지를 렌더링하여 이 둘을 머지하는 것을 볼 수 있습니다. 우리는 4K와 4K를 렌더링하기 때문에 렌더링 시간이 매우 오래 걸릴 것입니다. 그래서 비록 애니메이션되는 씬이라 할지라도 늘 한 프레임을 렌더링할 것을 권장합니다. 그런 다음, YouTube VR로 가져가서 스테레오가 제대로 동작하는지 확인하고, 아울러 전체 렌더링을 시작하기 전에 모든 것들이 제대로 보이는지 확인하는 것이 좋습니다. 이제 우리가 할 일은 렌더링한 이 프레임을 After Effects로 가져가는 것입니다. 이를 위하여 After Effects에서 새로운 comp를 생성하고 4K 즉 3840 x 2160으로 설정합니다. 그리고 여기서는 길이를 30초 길이로 하고 OK를 클릭한 다음, 우리가 방금 렌더링한 이미지를 로드하는 데 이는 전에 이미 렌더링해 놓은 4K 이미지입니다. 로드된 이미지를 방금 생성한 comp에 드롭합니다. 이렇게하여 완료 되었습니다. 추가적인 컴포지팅이 필요하지는 않지만, 프리 렌더드 비디오의 장점은 전에도 말했듯이 원한다면 추가적인 것들을 After Effects에서 추가할 수 있다는 것입니다. 우리는 단지 프로젝션과 스테레오만을 다루는데, 이는 그리 사소한 것이 아니지만 그래도 가능한 일입니다. 이제 이를 Adobe Media Encoder를 통하여 렌더링하여 mpeg 4로 저장할 것입니다. 파일 이름은 VRTestScene_Static으로 하고 렌더링한 후, 그 다음 단계는 YouTube에 올리기 전에 필요한 몇가지 프로세스를 처리합니다. 그 내용은 별도의 튜토리알에서 다루기로 하고, 여기서는 곧바로 Cinema 4D로 되돌아가서, 이를 애니메이션으로 렌더링하려면 먼저 이를 애니메이션 시켜야 할 것입니다. 카메라 애니메이션을 추가하려면, 여러분은 항상 카메라의 맨 위에 있는 이 Null을 애니메이션 시켜야 합니다. 그리고 카메라 애니메이션을 시킬 때에는 카메라가 움직이는 속도와 방향에 세심한 주의를 기울여 시청자가 방향감을 잃지 않도록 해야 합니다. 이전 비디오의 설명을 참조하시기 바랍니다. 이제 애니메이션이 모두 설정되었다면 여기 맨 위의 렌더 설정으로 점프하시기 바랍니다. 이는 YouTube VR 렌더 설정 생성시 활성화된 렌더 설정입니다. 여기서 프레임 레인지로 가서 원하는 프레임 레인지를 설정합니다. 그러면 이들 다른 렌더 설정들도 모두 이 프레임 레인지를 물려 받습니다. 이제 전체 애니메이션을 렌더링할 수 있지만 이 씬은 너무 단순하여 그리 흥미롭지 못합니다. 그래서 보다 흥미로운 씬을 만들어 보겠습니다. 이를 위하여 Beeple로 가보겠습니다. Beeple은 다양한 환경들을 구현해 놓았으며 친절하게도 많은 씬 파일들을 그의 웹사이트에 무료로 사용할 수 있는 오픈 소스로 올려 놓아 원하는 대로 사용할 수 있도록 해주고 있습니다. 여기서는 그가 제공한 여러 환경들 중에서 하나를 골라 YouTube를 위한 VR 환경으로 만들겠습니다. Resources 에서 모든 C4D 오픈 소스 파일들을 보실 수 있고, 여기 보면 그의 최신 단편인 ZERO-DAY의 파일들도 보실 수 있습니다. 하지만 우리가 원하는 것은 스탠다드 렌더러에서 렌더링될 수 있는 파일입니다. Beeple에는 Octane으로 렌더링하는 것들이 많은데, 우리가 지금 원하는 것은 스탠다드 렌더러를 위하여 만들어진 것으로서 여기 Aquahall이라는 이름의 씬이 있네요. 이 씬은 스탠다드 렌더러와 Octane을 위한 씬 모두를 제공합니다. 이 Cinema 4D 프로젝트를 다운로드하여 오픈하겠습니다. 오픈한 씬을 보면 통로를 따라서 진행하는 카메라 애니메이션이 있으며 아울러 스크린과 기둥 및 기타 여러 곳에서 진행되는 애니메이션들을 볼 수 있습니다. 지금 현재로는 카메라 움직임이 충분히 천천히 진행하는지 알수는 없지만, 이 상태대로 환경에 대한 작업을 하도록 하겠습니다. 먼저 할일은 카메라 리그를 씬으로 꺼내 놓는 것입니다. 이를 위하여 플러그인으로 가서 CV-VRCam Merge Camera Rig를 선택합니다. 그리고 우리는 애니메이션되는 카메라가 이미 있으므로 추가한 카메라 리그를 기존의 애니메이션되는 카메라의 차일드로 가져다 놓습니다. 그런 다음 좌표 탭로 가서 좌표들을 0으로 하여 VR 카메라가 기존의 애니메이션 카메라와 정확하게 일치되도록 합니다. 이렇게 하면, 여러분은 전방 카메라, 좌측 카메라, 후방 카메라, 우측 카메라 및 위 아래까지 볼 수 있어 모든 각도에서 어떻게 씬이 보여지는지를 알 수 있습니다. 이제 모든 카메라로부터 빠져나와 에디터 카메라로 약간 패닝을 해 보면, 디스플레이되는 카메라 아이콘이 매우 큰 것을 알 수 있습니다. 또한 카메라에 대한 세이프 존도 씬보다 훨씬 큰 것을 알 수 있습니다. 여기서 인물을 하나 꺼내어 씬에 추가하면 인물 또한 씬에 비하여 매우 큰 것을 알 수 있습니다. 즉, Beeple이 아주 작은 스케일로 이를 만들었다는 것을 알 수 있습니다. 이제 이 씬의 인간이 얼마나 작은지를 보도록 하겠습니다. 이를 위하여 Object 툴로 전환하여 이 인물을 스케일 다운하여 통로에 맞도록 작게 만듭니다. 이제 어느 정도 잘 맞춘 후 Object 탭의 Coordinates로 가면, 우리가 기존 스케일의 약 0.05배 즉 본래 인물 크기의 1/20로 줄였다는 것을 알 수 있습니다. 따라서, 이 전체 씬을 스케일 업시킬 수도 있지만, 보다 쉬운 방법은 VR 카메라의 눈간 간격(IPD) 즉 눈 분리를 스케일하는 것입니다. 따라서 스케일된 배수인 0.05를 곱하여 새로운 IPD 값인 0.325를 얻었습니다. 이를 통하여 비록 카메라는 같은 크기이지만 세이프 존이 씬 내에 맞도록 된 것을 알 수 있습니다. 이제 YouTube VR을 위하여 이 씬을 렌더링하는 데 아무런 문제가 없습니다. 이제 렌더링을 위하여 카메라를 전방 카메라로 전환합니다. 비록 이 씬은 애니메이션 씬이지만, 이미지가 4K라서 렌더링 시간이 오래 소요될 것이익 때문에 이전과 같이 하나의 스틸 프레임을 렌더링하겠습니다. 이런 경우에는 보통 애니메이션의 중간 쯤에 있는 프레임으로 가서 렌더링하는 것이 좋습니다. 보통 여러분이 환경의 가운데 쯤에 놓이는 것이 일반적이기 때문입니다. 이제 렌더 설정을 추가할 것입니다. CV-VRCam, Create Render Settings를 선택하고 렌더 설정으로 들어가서보면, 렌더 설정들이 기존의 렌더 설정 아래에 차일드로 생성되어있는 것을 보실 수 있습니다. 여기서 YouTube VR 아웃풋을 선택합니다. 그러면 이제 우리가 스테레오를 렌더링하게 되는 데, 눈 분리는 오브젝트로부터의 정보를 전달 받지 못하는 문제가 있음을 알 수 있습니다. 따라서, 이 곳의 눈 분리를 복사하여 수동으로 적용시켜야 합니다. 즉, 0.05를 곱하여 줍니다. 그리고 여기 부모 렌더 설정으로 가서 보면 Physical인 반면 차일드 렌더 설정들은 그렇지 않습니다. 따라서, 이들도 모두 Physical로 바꾸어 줍니다. Physical 렌더 설정에서 이 값은 그대로 Low로 유지합니다. 아마도 여러분은 프로그레시브 렌더를 통하여 비록 매우 거칠지만 어떻게 출력이 될지를 샘플로 볼 수도 있을 것입니다. 이제 단지 한개의 프레임만을 렌더링하도록 하겠습니다. 앞서 말한 것처럼, 이들 4K 프레임들은 렌더링에 꽤 많은 시간이 소요될 것이므로, 계속해서 렌더링 및 이 파일을 YouTube VR로 가져오는 프로세스는 다음 튜토리알에서 계속하겠습니다.
En este tutorial vamos a explorar el flujo de trabajo para la entrega de contenidos YouTube VR utilizando de Cinema 4D avanzado o motor físico motor de render y el plugin de CV-VRCAM. Para la entrega de vídeos de 360 grados o vídeos a YouTube VR, que necesitan estar en una proyección cilíndrica equidistante, que es básicamente lo que se obtiene si articulo en su lista un mapa o para nosotros los artistas 3D, la forma en que vamos a trabajar en una imagen HDRI. Este formato se envuelve alrededor de una esfera por el espectador. En el caso de un YouTube VR o imagen estéreo, que, básicamente, sólo apila dos de estas imágenes de arriba a abajo con el ojo izquierdo en la parte superior, y el ojo derecho en la parte inferior. Esto lo llaman en YouTube una imagen estéreo omnidireccional. Este tipo de proyección no se puede representar de forma nativa fuera de Cinema 4D, pero el plugin CV-VRCAM de Cineversity nos permite hacer que sea muy fácil. Sólo tiene que añadir el efecto de correos y pulsa el botón de render. Así que vamos a dar vistazo a este flujo de trabajo por primera vez en una escena de prueba sencilla que he creado y a continuación, vamos a aplicarlo a una escena más interesante. Sólo tendremos que borrar la plataforma de la cámara y la forma en que usted querrá traer eso que normalmente está utilizando la opción en el menú de plugins. Si usted acaba de elegir CV-VRCAM, hay una opción para combinar el aparejo de cámara. Así que tendremos que fusionamos en este momento. Esta plataforma de cámara es uno que he establecido que, básicamente, sólo ofrece pre-establecidos cámaras para el frente, a la izquierda, invierta, derecha, arriba y abajo de vistas para que pueda obtener fácilmente una vista rápida de la escena Si selecciona la opción nulo para la plataforma de la cámara, verá que hay un dato de usuario para la separación del ojo Ahora el valor por defecto estandarizada la separación es de 6,5 centímetros, pero puede que tenga que ajustar esta basada en la escala de su escena. Hay más información sobre eso en el vídeo "En Diseño" Consideraciones. Ahora bien, si seguimos con esta vista de cámara y vista desde la cámara editor, verá que esta plataforma de cámara también tiene un ámbito que lo rodea que aparece en verde cuando la cámara no está seleccionada. Esta esfera alargada muestra las zonas seguras para sus contenidos de RV y de nuevo, no hay información sobre cómo y por qué utilizar las zonas seguras en el video "En Diseño" Consideraciones. Así que una vez que tenga su equipo de rig en la escena, es realmente muy fácil. Todo lo que necesita hacer es ir hasta el plugin de menú de nuevo, elegir CV-VRCAM, cree Render Ajustes y si van los ajustes en los render, verá que tienen tres nuevos parámetros de ajustes preestablecidos definen arriba. Se trata de 2160 YouTube VR sería una imagen 4K YouTube VR. Hay también otra opción que da salida esencialmente la misma cosa, pero en vez de usar CV-VRCams incorporado en la representación estéreo que lleva a cuestas en el equipo estéreo de Cinema 4D. Ahora hay un par de razones es posible que desee hacer esto. La funcionalidad estéreo incorporada en la CV-VRCAM hace que ambos ojos en una sola pasada, mientras que C4D tiene opciones estereoscópicas que harán cada ojo por separado y luego al combinarlos en el extremo. Debido a que hace que los dos ojos en una pasada, CV-VRCAM hará que el estéreo de la imagen dos veces más rápido y también es compatible con el equipo de procesamiento. Sin embargo, la salida de C4D es ligeramente de mejor calidad y usted también tiene la opción de salida de los canales individuales, así como de la imagen fusionada, que es práctico si usted quiere tener la imagen plena en 4K para cada ojo preparadas para el futuro. Por último, hay una opción para YouTube 360 que desactiva ambas opciones estéreo y representa sólo una imagen equirectangular solo por un simple vídeo de 360 grados. Ahora estos ajustes de procesamiento tienen la salida de 4K o 3840 x 2160 ya se construyeron en ellos y, en general recomiendo que siempre rendericen en ese tamaño, ya que es esencial que las imágenes tengan la resolución más alta posible. Sin embargo, para fines de demostración aquí en este equipo voy a seguir adelante y seleccionar los tres ajustes de procesamiento y reducir el ajuste de render a 960 por 540. Así que ahora si selecciono la salida 360 de YouTube, asegúrese de que es hacia adelante frente a la cámara seleccionada, puedo renderizar una sola imagen equirectangular para un grado 360 de vídeo. Si seleccionamos la opción YouTube VR en la parte superior, obtendremos una imagen de realidad virtual y si seleccionamos la opción del centro, lo que vamos a conseguir es encontrar un render un ojo y luego el otro ojo y luego se juntan. Debido a que estamos renderizando 4K y 4K hace que tome un tiempo muy largo, Siempre recomiendo simplemente renderizar un solo frame, incluso si tiene una escena animada y se puede tomar esto en YouTube VR, simplemente vuelva a comprobar que el equipo esta trabajando bien en estéreo, todo se ve bien antes de comprometerse de lleno al render. Asi que lo que hacemos ahora es tomar este frame en After Effects y sólo vamos a ir adelante y crear un borrador, vamos a tomarlo 4K 3840 por 2160. Por delante y establecer sin importar el tiempo que queremos que sea. En este caso vamos a ir con 30 segundos. Vaya por delante y cargue la imagen que acabamos de renderizar y que esteé es 4K, la rendericé antes. Vamos a continuar y colocar este en nuestro borrador. Allá vamos. No es necesaria una composición adicional, sin embargo una vez más el beneficio de vídeos pre-renderizados es que podremos hacer cosas adicionales a esto en After Effects. sólo tendremos que hacer frente a la proyección y el esteréo que no es trivial, pero es posible. Y entonces sólo tendremos que renderizar este a través de Adobe Media Encoder y lo guardamos como MPEG4 Llamaremos a este VRTestScene_Static, renderizarlo hacia fuera y el siguiente paso después de que termine la renderizacion es algo extra de procesamiento que tiene que hacer antes de subirlo a YouTube. voy a guardar esto para otro tutorial. Por ahora vamos a continuar y saltar de nuevo en C4D Si desea continuar y hacer esto como una animación lo que debe hacer primero es animarlo y que siempre se debe animar este "nulo" en la parte superior de la cámara si en realidad está añadiendo cualquier animación de la cámara. Por supuesto, si usted está animando la cámara, usted va a querer asegurarse de que ser muy cuidadoso acerca de la velocidad y la dirección en la que la cámara se mueve para que no desorientar al espectador. Más información sobre esto en el tutorial "En Diseño". Consideraciones. Una vez que tenga la animación todo configurado y listo, te recomiendo que salta hasta la parte superior de configuración de render aquí esta el render activo, ajuste al crear el YouTube VR ajustes de render. Aquí sólo tiene que ir a la zona de frame y continuar, establecer el frame de rango que desea procesar. Y estos otros ajustes de procesamiento estarán todos en el intervalo de fotogramas. Así que ahora continuar y hacer la animación completa, pero esta escena en realidad no es tan interesante. Lo que queremos hacer en su lugar, tomar una escena más interesante. Y por eso, fui a Beeple Beeple crea algunos entornos impresionantes y es muy amigablepara proporcionar una gran cantidad archivos de escena en su página web libre y de código abierto para hacer lo que quiera. Así que en este caso vamos a continuar y tomar uno de sus ambientes y hacer un entorno de realidad virtual para YouTube Usted puede encontrar todos estos archivos en código abierto, la escena en la sección de recursos y no hay archivos; incluso en este caso de su reciente cortometraje, que veremos más adelante. Pero por ahora lo que quería hacer es agarrar algo que podría ser generado en el procesador estándar. Beeple hace mucho de renders con octano, pero lo que quería hacer es agarrar algo que se creó para el procesador estándar y me encontré con esta escena llamada Aquahall que se establece realmente hasta tanto para el procesador estándar y de octano al mismo tiempo. Así que he descargado este proyecto Cinema 4D y sólo tendremos que abrir hasta ahora. Aquí, en la escena, básicamente, tienen una cámara en movimiento por un pasillo con un poco de animación sucediendo en las pantallas y los pilares y otras cosas a medida que avanzamos. Ahora no estoy seguro de si el movimiento de la cámara es lo suficientemente lento todavía, pero sólo vamos a continuar el trabajo con el medio ambiente. Y así, lo primero que queremos hacer es continuar y tirar nuestra plataforma de la cámara. Así que vamos a continuar y elegir los plugins. CV-VRCAM de combinación de plataforma de cámara y porque tenemos una cámara de animación aquí lo que queremos hacer es continuar y sólo hay que poner la cámara como un hijo de la cámara existente. Y a continuación, sólo va a querer ir a la pestaña de coordenadas y asegúrese de estar en cero fuera las coordenadas para que nuestra cámara VR es exactamente en el mismo punto que la cámara animada. Desde aquí se puede continuar y ver a través de la cámara hacia delante, la izquierda de la cámara, la cámara de marcha atrás, la cámara derecha, hacia arriba y hacia abajo para tener una idea de lo que en la escena se ve desde todos los ángulos. Voy a seguir adelante y saltar fuera de todas las cámaras muy rápido y vamos a continuar con el editor de cámara para salir de esto un poco y lo que verá es que el icono de la cámara de sí mismo en la pantalla es muy grande, y de hecho, el frame seguro para la cámara es mucho más grande que nuestra escena. Si voy por delante y añadir una figura en la escena, verá que la cifra es mucho más grande que la escena. Beeple creó esta a una escala muy pequeña Así que vamos a continuar y ver cuánto mas pequeña puede ser que un ser humano esta escena, por lo tanto, lo que voy a hacer es interruptor dentro del objeto y vamos a continuar y hacer pequeña la escala de esta figura hasta que encaje en el pasillo. Y se ve como un buen ajuste. Y si vamos dentro de la pestaña de objeto podrá ver en la pestaña de coordenadas que los hemos reducido a alrededor de .05 veces el tamaño actual o 20 veces el tamaño que estaba inicialmente. Así que podríamos escalar toda esta escena, pero un poco más fácil, es simplemente podemos escalar el interior de distancia pupilar o la separación del ojo en la cámara VR. Por lo que sólo tendremos que multiplicar estos tiempos, 05 y obtenemos un nuevo IPD de .325 y se puede ver ahora que a pesar de que nuestra cámara es del mismo tamaño. Nuestra zona segura es ahora completamente apropiada dentro de la escena. Así que creo que ahora será capaz de renderizar esto sin ningún problema para YouTube VR. Ahora, de nuevo, queremos asegurarnos de que esta representación a través de la cámara hacia delante. Y a pesar de que se trata de una animación, siempre me gusta empezar el procesamiento con sólo el cuadro fijo, ya que, de nuevo, estamos renderizando imágenes 4K aquí y éste lo hace tomar un poco de tiempo en procesarse. A menudo es una buena idea ir a algún lugar cerca de la mitad de la animación sobre todo porque eso va a poner orden en medio de su entorno. Y a partir de aquí solo vamos a continuar y añadir nuestra configuración de render. Así que vamos a elegir la CV-VRCAM, Crear Ajustes de procesamiento, y vamos a entrar en Configuración de procesamiento y aquí se pueden ver los ajustes de procesamiento fueron creados como un hijo de la configuración de render ya existentes aquí. Ahora podemos continuar y elija el resultado de YouTube VR. Se puede ver que estamos renderizando aquí en estéreo el pequeño truco aquí es la separación que el ojo no se transfiere desde el objeto. Así que lo que tenemos que hacer es continuar y copiar la separación de ojo aquí también. Vamos a multiplicar por 5,05. Ahora También voy a saltar dentro del padre, parámetros de render aquí y este es físico, pero estos no son, así que sólo voy a continuar y permitir que esta información esté física Y en los ajustes de render físicos sólo vamos a tener esto abajo. Usted en realidad podría querer hacer incluso sólo un render progresivo eso es muy granulado para probar cómo se va a trabajar fuera. Así que vamos a continuar y nos aseguramos de que que estamos renderizando de un solo frame, y vamos a continuar. como ya he mencionado, estos frames 4K deben tener un buen tiempo para renderizar así que vamos a seguir éste render y continuar el proceso de llevar este archivo en YouTube en el VR siguiente tutorial.
Resume Auto-Scroll?