AU Class
AU Class
class - AU

Innovating the Future Pipeline: Bridging 3D to AI Render

이 강의 공유하기

설명

As technology continues to evolve, the intersection of 3D design and artificial intelligence (AI) presents exciting opportunities for innovation in content creation. In this session, we'll showcase experimentation with innovative techniques—namely, ComfyUI, ControlNet, and Stable Diffusion—to forge a future pipeline that seamlessly integrates 3D rendering with AI-driven processes. We'll outline a visionary approach toward empowering artists and streamlining the content creation process. By using advanced AI algorithms and data-driven insights, we aspire to give artists greater control over their creations as they enhance their efficiency and creativity while using Autodesk tools, specifically Maya and Arnold software. Our vision for the future pipeline revolves around achieving a seamless transition from 3D design to AI render, while empowering artists with unprecedented control over their creations.

주요 학습

  • Explore the empowerment of artists through enhanced control and creative autonomy.
  • Learn about the integration of AI-driven insights to enrich 3D creations and elevate visual quality.
  • Learn about streamlined content-creation processes, leading to increased productivity and efficiency.

발표자

  • John Paul Giancarlo 님의 아바타
    John Paul Giancarlo
    John Paul Giancarlo. JP is a 3D expert, who will expand our team by bringing his extensive knowledge as Visual Effects TD and Technical Lighting Artist with him. He brings wide-ranging knowledge of Shotgun, Arnold, Maya, MEL, 3dsMax and Nuke with him, which makes him a great contributor to help achieve our goals in Create, Connect and Compute in FY18 and beyond.   John Paul has been working in the TV/Film Industry for over 15+ years. He started his career as a lighting artist for Brown Bag Films and quickly made the jump from TV series to commercials to be the studio 3D R&D Technical Director. He was instrumental in integrating Maya and Shotgun in Brownbags’ Pipeline and has worked on Emmy awarded TV show "DocMcStuffin" currently on Disney Jr, Octonauts on Cbeebeis, Peter Rabbit on Nick Jr, among others
  • Roland Reyer 님의 아바타
    Roland Reyer
    Roland Reyer has started in 1992 as an Application Engineer at Wavefront Technologies GmbH in Germany. He became an industry expert for the entire M&E product portfolio of Wavefront Technologies, later Alias | Wavefront, Alias and finally Autodesk. In his role as an application specialist he tested, showcased and trained Maya from its very first version. With over 25 years product and market experience, Roland now works at Autodesk as a Solutions Engineer for Maya, Arnold, Shotgun, Mudbox and Motionbuilder throughout Europe.
Video Player is loading.
Current Time 0:00
Duration 0:00
Loaded: 0%
Stream Type LIVE
Remaining Time 0:00
 
1x
  • Chapters
  • descriptions off, selected
  • subtitles off, selected
      Transcript

      JOHN PAUL GIANCARLO: Hello, everybody. Thank you for being here today. Today I'm presenting Innovating the Future Pipeline and Bringing 3D to AI Render. My name is John Paul Giancarlo. I'm a former 3D artist, VFX, R&D, and Pipeline Technical Director. I've been working in the TV and film industry for over 20 years with a focus on the latest technologies, productivity, and efficiency. If you want to know a little bit more about myself, you can always ask Copilot and you can see some of the projects that I work in the past.

      So a little introduction. As you may know, technology continues to evolve. So the intersection of 3D design and artificial intelligence, AI, present exciting opportunities for innovation in content creation. In this presentation, I will showcase my experimentation with cutting-edge techniques, namely ComfyUI Control net, and Stable diffusion to forge a future pipeline that seamlessly integrates 3D with AI-driven processes.

      So in the agenda today, first of all, we're going to see which ones are the top AI services available for content creation today. Then we're going to see ComfyUI workflows, basically how to give artists control back over their tools and their desired results, and ComfyUI integration to 3DS MAX through TyFlow, or Ty Diffusion.

      So AI technologies, we have content creation for 2D and 3D. So we'll start with 2D images generation. As you may know already, there's a bunch of different services like DALL-E, Midjourney, Adobe Firefly, Runway, Haiper, Kling AI, and Leonardo. A thing that all they have in common is that you need to purchase a subscription if you want to get unlimited generations. Otherwise, you are very limited to what you can do.

      They all live in different servers, so it's quite high. It's quite difficult to set up a proper pipeline. It's not really an ecosystem. So in order to test a few of them, I've come up with a very difficult prompt. And I quote, the process as follows-- "A highly photorealistic image of an adult person inside of a floating placenta, set in a futuristic sci-fi laboratory inspired by the style of the movie Prometheus.

      The person is in a fetal position, surrounded by a dense network of cables and wires connected to their body and the placenta. The environment is dark and high-tech, with advanced equipment, glowing screens, and additional sci-fi details like holographic displays, robotic arms, and intricate control panels. The style is heavily inspired by heavy metal, with an intense atmosphere, metallic elements, intricate details and bold, aggressive designs.

      The person appears more diffused and partially obscured by the cables and shadows, creating a mysterious and eerie effect. The background is blurred and dimly lit to focus the illumination on the character and the placenta, with design elements reminiscent of the aesthetics from Prometheus." As you can tell, this is a very elaborated prompt.

      So let's start to see some of the results. So DALL-E, as you can see here, it gives me a really pleasant result. It's almost everything that I asked for, except for a few might minor details, small details. As you can see, I didn't ask for a capsule. I only wanted to have a placenta hanging out there somewhere. Anyways, I think this is a pretty good result, so I'm just going to give it a pass.

      Next is Haiper. So Haiper gave me this out of this prompt. I was not totally satisfied. It does look a little bit more like the Prometheus, like movie Prometheus. But as you can see here, there's no placenta. The woman is not in a fetal position, or not really what I asked for. I don't see a placenta anyways.

      From the KLING AI, I got very weird results. You can see here, this doll's kind of hanging from the cables. It is an adult person, but with a baby face. So not really-- not really pleased with this result. So Leonardo gave me this. This is the first try, by the way. This fat man sitting in somewhat of a chair with some sort of a fleshy kind of texture, not sure. It looks like gum or something. Not really what I asked for. Overall, it's a pretty good image, though.

      And now Adobe Firefly, out of them all, this is probably the one that is the most cartoon-y. I guess it's because of the data it's been trained on. And finally, Runway. So Runway unfortunately didn't allow me to produce this because it was flagged by their content policy. So I was not allowed to create an image out of this prompt.

      So next, we like to-- I'd like to show you my experimentation with image to video generation and video to video generation using the services mentioned in here. So again, we're going to see Runway, Luma, Haiper, PixVerse, KLING AI, among a few others.

      I have to mention Sora, even though I couldn't test it because it's not out yet. Sora is-- it's one of the video services for AI that looks very promising. A lot of people is talking about this, and it's been a trend for a while. So we actually just expecting for this to come out so we can test it.

      But in the meantime, I have tested a few others. Hotshot is one of them. I gave it the prompt and Hotshot gave me this result. I couldn't choose a specific model or style, so it gave me this. So I'm happy with the results, since I couldn't get any LoRAs, or any diffusion models, or any of that.

      In the case of PixVerse, it can be two shots. One perfect, perfectly understandable. Quite hard to understand what it is, kind of a blob or something. And a pregnant woman. Not really what I asked for. Overall, the image looks pretty pleasing. But as you know, if you want to get to what you want, you have to iterate a lot in order to get to the result that you're expecting.

      Next in the list is then PixVerse again. This time around, I had the opportunity to produce a video from an image, so I fitted with this particular image over here. And I quote, the prompt says, "The person looks to the camera in a real fast move, then opens his mouth, sticks his tongue out, and then turns into a lizard. His eyes turn yellow and his pupils move like of a reptile. Dynamic motion, handheld, fast moving, 35 mil cameras moving closer to the subject." And this is what he produced.

      [LAUGHS]

      Yep. As you can see, that's what I call a AI hallucination. It just produced whatever it wanted to produce. So I'm going to just give it a fail stamp because of that. I could iterate more and try it more times, but in this particular experiment, I wanted to just do one try for each one of these services.

      So in this case, I now have Haiper that image that it produced. And I asked for it to do the following. The person is trying to free himself from the cables and drops to the ground. That didn't happen. So I try Haiper again, give it another try. So I give it this image. And it produced that awful warping video, which, not quite sure why it did that.

      So I give it another try, as he has a keyframe condition on the option in which you can add a first frame, middle frame, and a last frame. In this case, I just gave it a last frame. And he gave me this. Again, Haiper was probably the worst, doing this. So it's a big fail. And it also reminded me of the movie Beetlejuice, for some reason. So that's why I put that in there. I just recently watched the movie.

      So next is KLING AI. So I went ahead and just gave it the image to video prompt. And it's the same that you saw before. This one is a lot more stable. It's a little bit of warping here and there, but it's not terrible. Leonardo, on the other hand, it wouldn't generate a video if you had a free plan, so I just couldn't do it unfortunately, this time around.

      Luma gave me this result out of the very first prompt that I read to you. And as you can see, not really what I was expecting. I didn't ask for a baby. I did ask for a placenta. So there's a lot of hallucinations and basically, doing whatever you want it to do, not really following the prompt. I guess it could have been more specific, but the whole point of the test was just to give a very complicated prompt.

      And now you can see here, these are the one. This pupil is doing something really weird. It's just not doing what I asked for entirely. So I gave Luma another try. So with this first and last frame, again, same prompt as before. And this is what Luma gave me. So I'm going to give it a pass stamp in this case, even though it's not totally stable, you can see some warping over here in the forehead and the head. I guess, good enough for certain things, so I give it a pass.

      So now, we're going to go to Runway. So Runway deserves special, extra time because of all the things that it does. So if you see here in the website, you can notice that they have a lot of different services like generating video, audio, lip sync, remove background, text to image, image to image, infinite image, expand image, video to video, color grade, all this stuff. And there's a lot of stuff you can do with it.

      And it's so good that a lot of people are actually using it and creating content already. So there's a film festival event called The Grand Prix, and you can go ahead and watch what people is generating nowadays with this technology. So in the case of Runway, gave the same prompt, no last frame, just the one frame. And he's the one, actually, he was the one who produced this. Runway, in this case, would not generate that image, but it wouldn't complain about the video. So as you can see, the video is actually-- the result, in my opinion, is quite awesome. It's very stable, as you can see. I mean, there's very little to no warping whatsoever in this one in particular.

      So I just try to do different things. We experimented with these services, I thought, was probably the best out of them all. And I gave different images to produce. In this case, I asked a man walks towards the camera while dragging his chains, fast motion. The chains didn't get dragged at all, as you can see. It's not really interacting with the chains at all.

      And this one here is a man running fast, deep into the forest while lifting dust, fast motion. But you can tell there's a walkie talkie that actually disappeared. So again, in my opinion, it's not good, very good handling prompts. Same in this case, another chain, another problem, not really doing anything with them. And it's quite saturated, in this particular case. But still, the produce results is not terrible. It's quite good.

      And here, you can see the man is walking fast with the camera, and the man swing way, particles are floating, and dust is moving as he walks, dynamic movement, handheld camera, time lapse. So you can see, it's-- now, I don't know. It's good. A little bit exaggerated, but good.

      Now, I also tested video to video. So I fed it with a man dancing on a green screen, and you can see here the results. I just basically changed the styles, just to produce a very obvious difference between those videos.

      So I guess this is the reason why Runway managed to partner with Lionsgate as of September 18 this year. They are partnering to explore the use of AI in film production. So I can tell the future is going to be very bright. So now, talking about 3D model generation, I also explore Meshy, CSM, and Rodin. The very first one was Meshy, as you can see here. I gave it a very simple prompt, an alien reptile, tall and scary. I gave me four different results over here. They can preview. It's got an automatic kind of view, which you can rotate the model automatically, as well. And if you want, you can generate a texture.

      So here, we can see how the texture gets generated and how it's being displayed. It's actually quite a beautiful animation of the texture. You can also just select a texture. And if you're happy with the results, you can download either an FBX, or a blend file, among others. But if you have a free account, you cannot download an FBX. You can only download a blend, unfortunately.

      So another thing you can do is to rig, actually, this character. So if you want to click next, it will give you this example that you need to follow, which is basically placing those points in the right places or the right positions for chin, shoulder, elbow, wrist, et cetera. Once you hit next, it's going to take a little bit of time to generate the rig, as you may see now. But once it's done, you're able to animate this object using some of the libraries you already have.

      And we'll see in a few seconds from now. There you go. So you can apply different animations if you want to, or just download the FBX file so you can animate some of the place.

      So another thing you can do is create models out of images. So this is the image right here. And this is the model that created for me. It's not an amazing approximation, but at least a pretty good start, in my opinion.

      So once you have that model, you're obviously free to import it into Maya. I start checking it out, see what you can do. If you need to retopo the mesh and start working on it, you're happy to do so. But after Maya 25, you can now use our flow retopology service, which is also in the cloud, so you can continue to work while you perform a retopology on this particular models.

      I'll show you this example because whenever you have, say, a project which you have tons and tons of prompts, you can maybe generate them with the help of AI. So when the artist opens the file for the first time, it's not an empty scene. At least it has something to start from.

      You can definitely also add a quick rig inside of Maya, if you'd rather use our character system instead of Maya. And then you can start animating inside of Maya, or connect any motion file from Rococos or any other library.

      Another thing that I thought was worth mentioning is that you can also export as quads, although that's only available when you upgrade or get a subscription with Meshy. Plus, you can see it's quite good. So that'll be a lot easier to retopo. So it wouldn't be no manifold, or any errors.

      So now, we'll give a try to Rodin. So Rodin's another service. I have some other controls. You can import 3D models, so bounding box controls, that kind of thing. You can also generate by text, generate by image. So in this case, I'm generating by image. So I give it that specific image there. Sorry. My mistake. That was the text. An alien creature with spiked armor, red glowing eyes. That's what I gave him.

      So pretty good results. You can also download OBJ, FBX, USZZ, STL, et-cetera. You don't need a subscription for that. You can download an FPX out of this one. So unfortunately, CSM, I just couldn't get a proper model because the servers would take 50.1 hours to generate and refine a mesh, so they kind of force you to buy a subscription, which is not good.

      And well, in the other hand, I'm pretty sure you already know this, but Autodesk has-- we have our own project called Project Bernini, which I'm just going to hit play to this video so you can see what it's all about.

      [MUSIC PLAYING]

      PRESENTER: At Autodesk, we're obsessed with geometry, and that obsession is reflected in our software. Introducing research Project Bernini, experimental generative AI for quickly generating functional 3D shapes from 2D images, text, voxels, or point clouds. Our first Bernini model is focused on unlocking professional workflows, generating multiple, geometrically realistic 3D objects to accelerate every stage of the creative design process.

      As Autodesk trains its generative AI on larger, higher quality data sets and modalities, the technology will become increasingly useful and compelling, producing 3D models and objects that work in the real world and serve the purpose a designer has in mind. Because the world's designers, engineers, builders, and creators trust Autodesk to help them make anything.

      JOHN PAUL GIANCARLO: All right. That was Project Bernini. So in conclusion from this very first part, we know by now the tons and tons of different services are there. So OpenAI, Runway, CMS, I mean, there's so many of them. It's really hard to put them into one page only. But after weeks of experimentation, these are my impressions. So all services are web-based, so pipeline automation would be difficult to set up. You never get the same result and similar, not the same.

      Results can be very unstable and produces too many artifacts, especially in video-- that not all the cases, not video to video, but image to video. These services do not connect with each other, so it's not really an ecosystem. You cannot create a sequence of images using these services in a consistent manner, at least not good for storyboard, not good for video, not good for any of that stuff. 3D models are very low res, thus, not good for production, only for low poly game assets.

      Textures are very small and unusable for film or TV, so-- and also requires too much work to get right. It's too many tries needed before getting to the desired results, image and videos. So this is not really cost effective because you spend so much money trying to get to the right thing. Even when you get good at it, you still have to iterate a bunch of times.

      So in my opinion, it's only good for advertisement. So when you have to produce one shot only, maybe YouTube videos, again, you produce a series of videos that do not really relate to each other. So it's a sequence of shots or scenes. Presentations, among some other use cases, for example, game-- producing game assets, that kind of thing in terms of 3D modeling.

      So I guess you'd be crazy to make a film or TV show today with only on available AI technologies. That's the quote of the day. So now, let's go into ComfyUI what we're here for. So this is a case study. But first, what is ComfyUI? So ComfyUi is a powerful and modular graphical user interface, which is designed for creating and managing advanced workflows in Stable Diffusion, which is a deep learning model used for generating images from text descriptions. It uses a node-based interface, allowing users to design complex pipelines without needing to write code.

      It is a node graph flowchart interface. This makes it easy to experiment and create intricate workflows. It supports various models like Stable Diffusion 1, 2, and SDXL. And got lots of optimizations, and it's very versatile. So you can see, he can handle tasks like ink painting, upscaling, model merging, so on and so forth.

      But what are the key components needed for this to work? You first need to have Stable Diffusion models or Diffusion models. These are the ones they use to generate data similar to the data on which they are trained. So fundamentally, Diffusion models work by destroying training data through the successive addition of Gaussian noise, and then learning to recover the data by reversing this noise process.

      We also need ControlNet models. These are neural network architectures that can be used to control Diffusion models. It works by adding extra conditioning to the Diffusion model with an input image as an additional constraint to guide the Diffusion process. Basically, it's guiding that Diffusion process you described before by using, for example, a depth, mask, normals, and lines.

      You also need LoRAs. LoRAs are lightweight models that are used in conjunction with the base models. And these LoRAs, basically modules that are trained in specific concepts or styles and increase the range of concepts that a checkpoint can depict. The checkpoint is basically the Diffusion model. That's where everything starts. So you can add different styles on top of this, which is quite good. And the VAEs are generative models using machine learning to generate new data in the form of variations of the input data they are trained on. Also, more variations.

      So when you start COMFY-UI you first get a CMD command window, and then you have a-- on the default browser, which is where it deploys, you have only this empty space with this little window. Now, you can load or start creating workflows, like the ones you see in these on this image right here.

      So you can start by adding nodes. In this case, you can, for example, load image, and you can start creating from there on. All right. So next, I'd like to show you the COMFY-UI workflow so we can render 3D objects with AI, using Stable Diffusion. So for that, I have set up a scene here. Basically, which is an old scene that I had in the past, which is this guy running, just like a zombie, or a monster or some sort, in this city ruins.

      So what we need to do, we don't need to render or export any model. We need to get a mask color. Cryptomatte, could be a normal map. A Z-depth map as well, and a contour. Once we've done that, we can start generating away and create results like the ones you see over here.

      But first of all, the thing we need to do is to either load the scene or start creating. In this case, I'm going to load a scene, which was started by Mickmumpitz. In this very first part of the workflow, what we can find here is that we have the ability to add a width and a height on the video. We also have the ability to add a mask, which is what we're going to do now.

      So right after that, we can load the Z-depth map, which is the passes that we need, I mentioned before, and the line art, or outline, or contour. All right? So next step, we need to extract those colors. So in this part of the workflow, I will need to do is find the hex color of each. In this case, in the green. Apply the hex color and go into the prompt section, in the primitive, change the title to character, just to be sure that we are working on the right one. And then we need to repeat the steps for the trees, the ground, and the sky.

      Once we've done all that and we rename all our primitives over there, we should now proceed and disable by pressing Control B, all the rest of the nodes, and queue the prompt, just to be sure that we extracted the right data. So you can see, we have all the data necessary, extracted in the right way. Now, we can start adding prompts.

      So the very, very first one is the master prompt, or just going to be applied for the entire scene. And then we can add prompts exclusively just to each one of the masks. In this case, I'm going to type this is a person, a happy one, and might be maybe a sportsman. So on the top in the primitive, I also added this is a cartoon, stylized, et-cetera. So there's a lot of other things that didn't show, but it's basically right over there.

      So now, we can proceed to select all the rest of the nodes and re-enable them back. Now, on the control net section, you'll see that we have two control net tensors, or safe tensors. In this case, we have to choose first the depth so we can control the depth. And we also have a canny with the outline. Basically, that's all we are doing. And if we go back to the load checkpoint, this is where we are going to specify which model we want to use. In this case, I'm going to be using a one called Juggernaut Excel, which is quite nice for the things that I'm trying to do.

      Now we can cue the prompt, and it seems like nothing's happening. But if you see the command window, the job is loaded, and it's going to start to render right now. So you can see the progression bar in the common line, and also in the workflow. So you see we have a result, not the best, just because we need to do some changes.

      So now, the K sampler node, we need to change some things. So we have the control after generate, which at the moment is randomized, but we can change that to fixed. So just to make sure everything is going to be controlled, and then change the steps to 32. And now, we can cue that prompt again.

      And finally, this is what we get here. It's kind of what I was looking for. So it's basically a sportsman, happy man. It did all the rest for me. And now, I can basically just change this back to randomize or increment, and start rendering a bunch of images to produce different results and see what is the one that I like the best. Over here in the history, we can always click on that and go back and reload whatever result what we want.

      So as you can see, there's a lot of renders or generations out of that. So you can mix different models with different LoRAs and get different results, as you can see over here. This is another example where instead of using random generations, I'm using a fixed generation with some increments.

      OK. So next, I'd like to show you the integration in 3DS Max from TyDiffusion or TyFlow flow team. So here, a little video so that you can see what they're doing with this technology.

      [MUSIC PLAYING]

      All right. So that's TyDiffusion in a nutshell. And now, I'm just going to jump into 3DS Max, and I'm going to show you a little testing that I did myself here. So as you can see, you have the basic settings where you can change the model. You have the ease. You also have the ability to change the resolution mode to set really-- You have control net as well, where you can basically define whether you want to use a depth, or edges, or poses, et cetera, et cetera. And you can upscale images, and a bunch of other things.

      Here, you have the steps, and then here, you have the prompt where you can basically change and add, and do whatever you need. So in this case, I'm going to change this prompt from a zombie to an alien. As you can see, I've already generated something. And if you see the-- whatever color you have in the shader will affect the final result a lot. So bear that in mind whenever you have your shaders. It will actually use them for final results whenever it's producing the final results, or generating the final result. So here, we just change the perspective and generate another one.

      So now, if you already have an animation like I did in this case, this is the animation.

      And this is the frame that I would have liked to produce. Unfortunately, I lost that one. But in case you wanted to, all you need to do is just create an animation over here and make sure auto seed is turned off. That's quite important.

      So here are some of the resources that I was able to produce using TyDiffusion. As you can see here, the generation time was 15 seconds using 20 steps. The resolution was 1344 by 768 with an op scale of 1.5 times. So the results are pretty good. I see some more variations of that, just by having an auto seed turned on.

      Then I just changed the model and the style basically to cyberpunk, or I can't remember which one it was, but you can see there's some real, real cool results over here. So now, for the first animation test, here you can see swapping on stable. And I guess this has a lot to do with the fact that I was rendering only every second frame with the frame interpolation set to one. So I had a total frame of 50.

      So as you can see, not really very stable. It's warping a lot. Second test with this guy, so produced this other version. In this case, warping was less and a bit more stable of a result, rendering 100 frames instead of 50.

      Yeah. As you can tell, there's tons and tons of slides-- sorry, styles that you can use in order to produce different results out of the same geometry. So this is quite-- pretty useful, or quite impressive, in my opinion, and very useful for concept art. You can produce somewhat animations.

      But in conclusion, I think COMFY-UI is pretty good for control, storyboard, and concept art with those variations that you saw. A positive things that you have access to multiple styles and models, you can mix Diffusion models and LoRAs, et cetera. It's very scalable, so stable results using control net not for animation. But for fixed images, yes. You have a great potential for production of final renders. And as you can see, we already saw it can be integrated into a DCC like Max in this case, through TyFlow, Maya, or Arnold.

      And one thing I have to mention, it is highly addictive. You can spend hours and hours and hours generating and generating and generating without getting tired. So in my opinion, this is the beginning of a new era for content creation, and it's going to be the era of AI. So a new era is coming. So thank you very much for your attention, and I hope you had a great time, and you learned something new today.

      ______
      icon-svg-close-thick

      쿠기 기본 설정

      오토데스크는 고객의 개인 정보와 최상의 경험을 중요시합니다. 오토데스크는 정보를 사용자화하고 응용프로그램을 만들기 위해 고객의 본 사이트 사용에 관한 데이터를 수집합니다.

      오토데스크에서 고객의 데이터를 수집하고 사용하도록 허용하시겠습니까?

      오토데스크에서 사용하는타사 서비스개인정보 처리방침 정책을 자세히 알아보십시오.

      반드시 필요 - 사이트가 제대로 작동하고 사용자에게 서비스를 원활하게 제공하기 위해 필수적임

      이 쿠키는 오토데스크에서 사용자 기본 설정 또는 로그인 정보를 저장하거나, 사용자 요청에 응답하거나, 장바구니의 품목을 처리하기 위해 필요합니다.

      사용자 경험 향상 – 사용자와 관련된 항목을 표시할 수 있게 해 줌

      이 쿠키는 오토데스크가 보다 향상된 기능을 제공하고 사용자에게 맞는 정보를 제공할 수 있게 해 줍니다. 사용자에게 맞는 정보 및 환경을 제공하기 위해 오토데스크 또는 서비스를 제공하는 협력업체에서 이 쿠키를 설정할 수 있습니다. 이 쿠키를 허용하지 않을 경우 이러한 서비스 중 일부 또는 전체를 이용하지 못하게 될 수 있습니다.

      광고 수신 설정 – 사용자에게 타겟팅된 광고를 제공할 수 있게 해 줌

      이 쿠키는 사용자와 관련성이 높은 광고를 표시하고 그 효과를 추적하기 위해 사용자 활동 및 관심 사항에 대한 데이터를 수집합니다. 이렇게 데이터를 수집함으로써 사용자의 관심 사항에 더 적합한 광고를 표시할 수 있습니다. 이 쿠키를 허용하지 않을 경우 관심 분야에 해당되지 않는 광고가 표시될 수 있습니다.

      icon-svg-close-thick

      타사 서비스

      각 범주에서 오토데스크가 사용하는 타사 서비스와 온라인에서 고객으로부터 수집하는 데이터를 사용하는 방식에 대해 자세히 알아보십시오.

      icon-svg-hide-thick

      icon-svg-show-thick

      반드시 필요 - 사이트가 제대로 작동하고 사용자에게 서비스를 원활하게 제공하기 위해 필수적임

      Qualtrics
      오토데스크는 고객에게 더욱 시의적절하며 관련 있는 이메일 컨텐츠를 제공하기 위해 Qualtrics를 이용합니다. 이를 위해, 고객의 온라인 행동 및 오토데스크에서 전송하는 이메일과의 상호 작용에 관한 데이터를 수집합니다. 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID, 이메일 확인율, 클릭한 링크 등이 포함될 수 있습니다. 오토데스크는 이 데이터를 다른 소스에서 수집된 데이터와 결합하여 고객의 판매 또는 고객 서비스 경험을 개선하며, 고급 분석 처리에 기초하여 보다 관련 있는 컨텐츠를 제공합니다. Qualtrics 개인정보취급방침
      Akamai mPulse
      오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Akamai mPulse를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID 및 오토데스크 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. Akamai mPulse 개인정보취급방침
      Digital River
      오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Digital River를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID 및 오토데스크 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. Digital River 개인정보취급방침
      Dynatrace
      오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Dynatrace를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID 및 오토데스크 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. Dynatrace 개인정보취급방침
      Khoros
      오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Khoros를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID 및 오토데스크 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. Khoros 개인정보취급방침
      Launch Darkly
      오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Launch Darkly를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID 및 오토데스크 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. Launch Darkly 개인정보취급방침
      New Relic
      오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 New Relic를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID 및 오토데스크 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. New Relic 개인정보취급방침
      Salesforce Live Agent
      오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Salesforce Live Agent를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID 및 오토데스크 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. Salesforce Live Agent 개인정보취급방침
      Wistia
      오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Wistia를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID 및 오토데스크 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. Wistia 개인정보취급방침
      Tealium
      오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Tealium를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. Upsellit
      오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Upsellit를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. CJ Affiliates
      오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 CJ Affiliates를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. Commission Factory
      Typepad Stats
      오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Typepad Stats를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID 및 오토데스크 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. Typepad Stats 개인정보취급방침
      Geo Targetly
      Autodesk는 Geo Targetly를 사용하여 웹 사이트 방문자를 가장 적합한 웹 페이지로 안내하거나 위치를 기반으로 맞춤형 콘텐츠를 제공합니다. Geo Targetly는 웹 사이트 방문자의 IP 주소를 사용하여 방문자 장치의 대략적인 위치를 파악합니다. 이렇게 하면 방문자가 (대부분의 경우) 현지 언어로 된 콘텐츠를 볼 수 있습니다.Geo Targetly 개인정보취급방침
      SpeedCurve
      Autodesk에서는 SpeedCurve를 사용하여 웹 페이지 로드 시간과 이미지, 스크립트, 텍스트 등의 후속 요소 응답성을 측정하여 웹 사이트 환경의 성능을 모니터링하고 측정합니다. SpeedCurve 개인정보취급방침
      Qualified
      Qualified is the Autodesk Live Chat agent platform. This platform provides services to allow our customers to communicate in real-time with Autodesk support. We may collect unique ID for specific browser sessions during a chat. Qualified Privacy Policy

      icon-svg-hide-thick

      icon-svg-show-thick

      사용자 경험 향상 – 사용자와 관련된 항목을 표시할 수 있게 해 줌

      Google Optimize
      오토데스크는 사이트의 새 기능을 테스트하고 이러한 기능의 고객 경험을 사용자화하기 위해 Google Optimize을 이용합니다. 이를 위해, 고객이 사이트를 방문해 있는 동안 행동 데이터를 수집합니다. 이 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID, 오토데스크 ID 등이 포함될 수 있습니다. 고객은 기능 테스트를 바탕으로 여러 버전의 오토데스크 사이트를 경험하거나 방문자 특성을 바탕으로 개인화된 컨텐츠를 보게 될 수 있습니다. Google Optimize 개인정보취급방침
      ClickTale
      오토데스크는 고객이 사이트에서 겪을 수 있는 어려움을 더 잘 파악하기 위해 ClickTale을 이용합니다. 페이지의 모든 요소를 포함해 고객이 오토데스크 사이트와 상호 작용하는 방식을 이해하기 위해 세션 녹화를 사용합니다. 개인적으로 식별 가능한 정보는 가려지며 수집되지 않습니다. ClickTale 개인정보취급방침
      OneSignal
      오토데스크는 OneSignal가 지원하는 사이트에 디지털 광고를 배포하기 위해 OneSignal를 이용합니다. 광고는 OneSignal 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 OneSignal에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 OneSignal에 제공하는 데이터를 사용합니다. OneSignal 개인정보취급방침
      Optimizely
      오토데스크는 사이트의 새 기능을 테스트하고 이러한 기능의 고객 경험을 사용자화하기 위해 Optimizely을 이용합니다. 이를 위해, 고객이 사이트를 방문해 있는 동안 행동 데이터를 수집합니다. 이 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID, 오토데스크 ID 등이 포함될 수 있습니다. 고객은 기능 테스트를 바탕으로 여러 버전의 오토데스크 사이트를 경험하거나 방문자 특성을 바탕으로 개인화된 컨텐츠를 보게 될 수 있습니다. Optimizely 개인정보취급방침
      Amplitude
      오토데스크는 사이트의 새 기능을 테스트하고 이러한 기능의 고객 경험을 사용자화하기 위해 Amplitude을 이용합니다. 이를 위해, 고객이 사이트를 방문해 있는 동안 행동 데이터를 수집합니다. 이 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID, 오토데스크 ID 등이 포함될 수 있습니다. 고객은 기능 테스트를 바탕으로 여러 버전의 오토데스크 사이트를 경험하거나 방문자 특성을 바탕으로 개인화된 컨텐츠를 보게 될 수 있습니다. Amplitude 개인정보취급방침
      Snowplow
      오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Snowplow를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID 및 오토데스크 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. Snowplow 개인정보취급방침
      UserVoice
      오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 UserVoice를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID 및 오토데스크 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. UserVoice 개인정보취급방침
      Clearbit
      Clearbit를 사용하면 실시간 데이터 보강 기능을 통해 고객에게 개인화되고 관련 있는 환경을 제공할 수 있습니다. Autodesk가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. Clearbit 개인정보취급방침
      YouTube
      YouTube는 사용자가 웹 사이트에 포함된 비디오를 보고 공유할 수 있도록 해주는 비디오 공유 플랫폼입니다. YouTube는 비디오 성능에 대한 시청 지표를 제공합니다. YouTube 개인정보보호 정책

      icon-svg-hide-thick

      icon-svg-show-thick

      광고 수신 설정 – 사용자에게 타겟팅된 광고를 제공할 수 있게 해 줌

      Adobe Analytics
      오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Adobe Analytics를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID 및 오토데스크 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. Adobe Analytics 개인정보취급방침
      Google Analytics (Web Analytics)
      오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Google Analytics (Web Analytics)를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. AdWords
      Marketo
      오토데스크는 고객에게 더욱 시의적절하며 관련 있는 이메일 컨텐츠를 제공하기 위해 Marketo를 이용합니다. 이를 위해, 고객의 온라인 행동 및 오토데스크에서 전송하는 이메일과의 상호 작용에 관한 데이터를 수집합니다. 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID, 이메일 확인율, 클릭한 링크 등이 포함될 수 있습니다. 오토데스크는 이 데이터를 다른 소스에서 수집된 데이터와 결합하여 고객의 판매 또는 고객 서비스 경험을 개선하며, 고급 분석 처리에 기초하여 보다 관련 있는 컨텐츠를 제공합니다. Marketo 개인정보취급방침
      Doubleclick
      오토데스크는 Doubleclick가 지원하는 사이트에 디지털 광고를 배포하기 위해 Doubleclick를 이용합니다. 광고는 Doubleclick 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Doubleclick에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Doubleclick에 제공하는 데이터를 사용합니다. Doubleclick 개인정보취급방침
      HubSpot
      오토데스크는 고객에게 더욱 시의적절하며 관련 있는 이메일 컨텐츠를 제공하기 위해 HubSpot을 이용합니다. 이를 위해, 고객의 온라인 행동 및 오토데스크에서 전송하는 이메일과의 상호 작용에 관한 데이터를 수집합니다. 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID, 이메일 확인율, 클릭한 링크 등이 포함될 수 있습니다. HubSpot 개인정보취급방침
      Twitter
      오토데스크는 Twitter가 지원하는 사이트에 디지털 광고를 배포하기 위해 Twitter를 이용합니다. 광고는 Twitter 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Twitter에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Twitter에 제공하는 데이터를 사용합니다. Twitter 개인정보취급방침
      Facebook
      오토데스크는 Facebook가 지원하는 사이트에 디지털 광고를 배포하기 위해 Facebook를 이용합니다. 광고는 Facebook 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Facebook에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Facebook에 제공하는 데이터를 사용합니다. Facebook 개인정보취급방침
      LinkedIn
      오토데스크는 LinkedIn가 지원하는 사이트에 디지털 광고를 배포하기 위해 LinkedIn를 이용합니다. 광고는 LinkedIn 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 LinkedIn에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 LinkedIn에 제공하는 데이터를 사용합니다. LinkedIn 개인정보취급방침
      Yahoo! Japan
      오토데스크는 Yahoo! Japan가 지원하는 사이트에 디지털 광고를 배포하기 위해 Yahoo! Japan를 이용합니다. 광고는 Yahoo! Japan 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Yahoo! Japan에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Yahoo! Japan에 제공하는 데이터를 사용합니다. Yahoo! Japan 개인정보취급방침
      Naver
      오토데스크는 Naver가 지원하는 사이트에 디지털 광고를 배포하기 위해 Naver를 이용합니다. 광고는 Naver 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Naver에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Naver에 제공하는 데이터를 사용합니다. Naver 개인정보취급방침
      Quantcast
      오토데스크는 Quantcast가 지원하는 사이트에 디지털 광고를 배포하기 위해 Quantcast를 이용합니다. 광고는 Quantcast 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Quantcast에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Quantcast에 제공하는 데이터를 사용합니다. Quantcast 개인정보취급방침
      Call Tracking
      오토데스크는 캠페인을 위해 사용자화된 전화번호를 제공하기 위하여 Call Tracking을 이용합니다. 그렇게 하면 고객이 오토데스크 담당자에게 더욱 빠르게 액세스할 수 있으며, 오토데스크의 성과를 더욱 정확하게 평가하는 데 도움이 됩니다. 제공된 전화번호를 기준으로 사이트에서 고객 행동에 관한 데이터를 수집할 수도 있습니다. Call Tracking 개인정보취급방침
      Wunderkind
      오토데스크는 Wunderkind가 지원하는 사이트에 디지털 광고를 배포하기 위해 Wunderkind를 이용합니다. 광고는 Wunderkind 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Wunderkind에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Wunderkind에 제공하는 데이터를 사용합니다. Wunderkind 개인정보취급방침
      ADC Media
      오토데스크는 ADC Media가 지원하는 사이트에 디지털 광고를 배포하기 위해 ADC Media를 이용합니다. 광고는 ADC Media 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 ADC Media에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 ADC Media에 제공하는 데이터를 사용합니다. ADC Media 개인정보취급방침
      AgrantSEM
      오토데스크는 AgrantSEM가 지원하는 사이트에 디지털 광고를 배포하기 위해 AgrantSEM를 이용합니다. 광고는 AgrantSEM 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 AgrantSEM에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 AgrantSEM에 제공하는 데이터를 사용합니다. AgrantSEM 개인정보취급방침
      Bidtellect
      오토데스크는 Bidtellect가 지원하는 사이트에 디지털 광고를 배포하기 위해 Bidtellect를 이용합니다. 광고는 Bidtellect 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Bidtellect에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Bidtellect에 제공하는 데이터를 사용합니다. Bidtellect 개인정보취급방침
      Bing
      오토데스크는 Bing가 지원하는 사이트에 디지털 광고를 배포하기 위해 Bing를 이용합니다. 광고는 Bing 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Bing에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Bing에 제공하는 데이터를 사용합니다. Bing 개인정보취급방침
      G2Crowd
      오토데스크는 G2Crowd가 지원하는 사이트에 디지털 광고를 배포하기 위해 G2Crowd를 이용합니다. 광고는 G2Crowd 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 G2Crowd에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 G2Crowd에 제공하는 데이터를 사용합니다. G2Crowd 개인정보취급방침
      NMPI Display
      오토데스크는 NMPI Display가 지원하는 사이트에 디지털 광고를 배포하기 위해 NMPI Display를 이용합니다. 광고는 NMPI Display 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 NMPI Display에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 NMPI Display에 제공하는 데이터를 사용합니다. NMPI Display 개인정보취급방침
      VK
      오토데스크는 VK가 지원하는 사이트에 디지털 광고를 배포하기 위해 VK를 이용합니다. 광고는 VK 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 VK에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 VK에 제공하는 데이터를 사용합니다. VK 개인정보취급방침
      Adobe Target
      오토데스크는 사이트의 새 기능을 테스트하고 이러한 기능의 고객 경험을 사용자화하기 위해 Adobe Target을 이용합니다. 이를 위해, 고객이 사이트를 방문해 있는 동안 행동 데이터를 수집합니다. 이 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID, 오토데스크 ID 등이 포함될 수 있습니다. 고객은 기능 테스트를 바탕으로 여러 버전의 오토데스크 사이트를 경험하거나 방문자 특성을 바탕으로 개인화된 컨텐츠를 보게 될 수 있습니다. Adobe Target 개인정보취급방침
      Google Analytics (Advertising)
      오토데스크는 Google Analytics (Advertising)가 지원하는 사이트에 디지털 광고를 배포하기 위해 Google Analytics (Advertising)를 이용합니다. 광고는 Google Analytics (Advertising) 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Google Analytics (Advertising)에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Google Analytics (Advertising)에 제공하는 데이터를 사용합니다. Google Analytics (Advertising) 개인정보취급방침
      Trendkite
      오토데스크는 Trendkite가 지원하는 사이트에 디지털 광고를 배포하기 위해 Trendkite를 이용합니다. 광고는 Trendkite 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Trendkite에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Trendkite에 제공하는 데이터를 사용합니다. Trendkite 개인정보취급방침
      Hotjar
      오토데스크는 Hotjar가 지원하는 사이트에 디지털 광고를 배포하기 위해 Hotjar를 이용합니다. 광고는 Hotjar 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Hotjar에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Hotjar에 제공하는 데이터를 사용합니다. Hotjar 개인정보취급방침
      6 Sense
      오토데스크는 6 Sense가 지원하는 사이트에 디지털 광고를 배포하기 위해 6 Sense를 이용합니다. 광고는 6 Sense 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 6 Sense에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 6 Sense에 제공하는 데이터를 사용합니다. 6 Sense 개인정보취급방침
      Terminus
      오토데스크는 Terminus가 지원하는 사이트에 디지털 광고를 배포하기 위해 Terminus를 이용합니다. 광고는 Terminus 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Terminus에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Terminus에 제공하는 데이터를 사용합니다. Terminus 개인정보취급방침
      StackAdapt
      오토데스크는 StackAdapt가 지원하는 사이트에 디지털 광고를 배포하기 위해 StackAdapt를 이용합니다. 광고는 StackAdapt 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 StackAdapt에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 StackAdapt에 제공하는 데이터를 사용합니다. StackAdapt 개인정보취급방침
      The Trade Desk
      오토데스크는 The Trade Desk가 지원하는 사이트에 디지털 광고를 배포하기 위해 The Trade Desk를 이용합니다. 광고는 The Trade Desk 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 The Trade Desk에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 The Trade Desk에 제공하는 데이터를 사용합니다. The Trade Desk 개인정보취급방침
      RollWorks
      We use RollWorks to deploy digital advertising on sites supported by RollWorks. Ads are based on both RollWorks data and behavioral data that we collect while you’re on our sites. The data we collect may include pages you’ve visited, trials you’ve initiated, videos you’ve played, purchases you’ve made, and your IP address or device ID. This information may be combined with data that RollWorks has collected from you. We use the data that we provide to RollWorks to better customize your digital advertising experience and present you with more relevant ads. RollWorks Privacy Policy

      정말 더 적은 온라인 경험을 원하십니까?

      오토데스크는 고객 여러분에게 좋은 경험을 드리고 싶습니다. 이전 화면의 범주에 대해 "예"를 선택하셨다면 오토데스크는 고객을 위해 고객 경험을 사용자화하고 향상된 응용프로그램을 제작하기 위해 귀하의 데이터를 수집하고 사용합니다. 언제든지 개인정보 처리방침을 방문해 설정을 변경할 수 있습니다.

      고객의 경험. 고객의 선택.

      오토데스크는 고객의 개인 정보 보호를 중요시합니다. 오토데스크에서 수집하는 정보는 오토데스크 제품 사용 방법, 고객이 관심을 가질 만한 정보, 오토데스크에서 더욱 뜻깊은 경험을 제공하기 위한 개선 사항을 이해하는 데 도움이 됩니다.

      오토데스크에서 고객님께 적합한 경험을 제공해 드리기 위해 고객님의 데이터를 수집하고 사용하도록 허용하시겠습니까?

      선택할 수 있는 옵션을 자세히 알아보려면 이 사이트의 개인 정보 설정을 관리해 사용자화된 경험으로 어떤 이점을 얻을 수 있는지 살펴보거나 오토데스크 개인정보 처리방침 정책을 확인해 보십시오.