AU Class
AU Class
class - AU

Why and How to Build Autodesk Forge Data Exchange Connectors?

이 강의 공유하기
동영상, 발표 자료 및 배포 자료에서 키워드 검색:

설명

In today's hyperconnected world, convenience is the ultimate currency. Autodesk Forge Data Exchange API's genesis is the goal of creating connected platforms with the convenience to end-data consumers. It helps break the barriers of data siloes developed within the organization. Autodesk Forge Data Exchange provides instantaneous access to data for anyone, anywhere, in any app. Autodesk Forge Data Exchange liberates data from proprietary data formats, allowing seamless integration of cross-platform apps that can be desktop apps, web apps, mobiles apps, and apps from different domains and even those used from diverse geographical locations. This class will demonstrate how to use Autodesk Forge to create various types of Autodesk Forge Data Exchange Connectors. We’ll walk through the process of identifying the need and opportunity for building a connection between different apps. We’ll show the steps of creating an Autodesk Forge Data Exchange Connector within a desktop or a web app with sample codes. You’ll learn best practices to build connectors from a security, performance, and future needs perspective.

주요 학습

  • Learn about why businesses need Autodesk Forge Connector for improving business productivity.
  • Learn how to build an Autodesk Forge Connector using Autodesk Forge Data Exchange.
  • Learn how to make the data exchange secured.
  • Learn about conceptualized connected workflows in a cross-platform environment.

발표자

  • Sandip Jadhav 님의 아바타
    Sandip Jadhav
    CEO and Co-Founder of CCTech, a certified Autodesk FORGE SYSTEMS INTEGRATOR partner, digital transformation enabler for AEC and manufacturing industries. CCTech is also a leading cloud platform developer such as simulationHub CFD. We are building a wide range of Autonomous CFD apps HVAC, buildings, and valve industry. We are specialized in engineering application development for our clients using BIM, Machine Learning, AI, WebApps, cloud computing technologies. We building digital twins, engineering configurators, by the convergence of REVIT IO, Inventor IO, various forge services.
  • Nem Kumar 님의 아바타
    Nem Kumar
    Nem Kumar is director of consulting at CCTech and has been doing product development with companies from Manufacturing, Oil & Gas and AEC domain. He has vast experience in Desktop as well as Cloud software development involving CAD, CAM, complex visualization, mathematics and geometric algorithms. He has been actively working with Autodesk Vertical and AEC product teams. His current areas of interest are Generative Modeling and Machine Learning.
  • Vijay Mali 님의 아바타
    Vijay Mali
    Vijay is passionate about people and technology and working on how to bring them together to make the world a better place, a place to fulfill individual dreams. In the role of COO, his vision is to build a people-centric organization with excellent processes and systems. He is on the mission of creating an environment of freedom, collaboration, and growth for people. He wants to harness the technology to build agile and scalable systems supporting the growth of both people and organization. In his 15 years of career, Vijay has played many technical roles. He has experience in providing CFD solutions for many complex problems. He has conceptualized many software solutions, including the Pedestrian Comfort Analysis & Control Valve Performer app developed on Autodesk Forge and simulationHub. Vijay is known for his transformative way of teaching and trained more than 500 candidates on complex topics like computational fluid dynamics and design optimization. He has delivered talks at various events and engineering colleges about CFD and its use in product design optimization. Vijay holds a master's degree in aerospace engineering from the Indian Institute of Technology (IIT Bombay).
Video Player is loading.
Current Time 0:00
Duration 0:00
Loaded: 0%
Stream Type LIVE
Remaining Time 0:00
 
1x
  • Chapters
  • descriptions off, selected
  • subtitles off, selected
      Transcript

      SANDIP JADHAV: Hello, everyone. Welcome to our class, Why and How to Build Autodesk Forge Data Exchange Connectors? I'm Sandip. I'm with my colleague, Nem. We are going to walk through how to build Forge Data Exchange Connectors.

      Before diving into the details of class, let me do a quick introduction about myself. I'm Sandip. I'm a CEO of CCTech. I've been working into the space of architecture, manufacturing, engineering over the last 22 years. I am a developer by heart, and I really like to develop a great product and platforms. So this is a great opportunity for me to present Forge Data Exchange Connectors to this class. Nem, would you like to introduce yourself?

      NEM KUMAR: Hey, guys, I'm Nem Kumar. I had consultancy at CCTech. We have been working in a AC domain for part 16 years. And we see an exciting years coming ahead. Thank you.

      SANDIP JADHAV: Thank you, Nem. So this is the outline of our class, I'm going to talk about the building data, or the AC space, in more detail because AC is a space where have a lot of data that we crunch. And I'm going to talk about the changing technology scenarios and how the data can help us to solve our problems.

      I'm also going to talk about data exchange platform. I'm going to go through the workflows, the data structure model. And I'm also going to talk about how you can build connectors to connect the different systems and the BIM systems.

      And at the last, I'm also going to compare with Forge Model derivative and the Data Exchange, because they look like similar, but they are not. And I'm going to also talk about when to use Forge Data Action and when to use for Forge Model derivative.

      So today, we are living in a hyperconnected world. Wherever we go, we have our devices, we have our laptops, we have our mobile devices, and we are in continuous touch with each other. We are getting a lot of information very quickly.

      So in social life, we are updated every second of what's happening in other parts of the world. This has led to our physical life being driven by the digital world. We click a button, and we get a car.

      So the question comes in our mind, how can we leverage this hyperconnected world for improving our productivity in architecture, in manufacturing, in fabrication, in construction, in all product development? We work with today with diverse teams who are in different geographical domains, on different engineering disciplines, and who are using different kinds of software systems. Each of these software systems has a very different sort of representation of data.

      So we need a bridge who can help us to interpret the data from one software system to other software system. If we can do that, what can happen is we can create autonomous workflows. We need workflows which, on themselves, which are basically automated also, and intelligent. This means we should have a platform or a data platform where we can reinterpret the data and contextualize as per the software and the engineering discipline that we work in.

      So I'm going to talk on this for next 40 to 45 minutes. So let's take an example of a building design. When we start with any building, we work with, really, a broad level of themes and broad level of what I would say is specializations.

      In buildings, we are having a construction team. We are having a structural team. We are having an [INAUDIBLE] team. We are having aesthetic teams. We have a factory design team. We have electrical teams. All of these teams are working with a very specialized focus in development, but we are developing a single system that is building.

      Now, to work with this cross-discipline, cross-domain system, what we have done is we have built interfaces through APIs. We all use our drawings for a very detailed level of fabrication design. We use Excel for our cost calculation. We use Revit for the modeling. We use Inventor for our factor design.

      So to connect this, from last 30 years, we have been building connectors, and we have been building the workflow through files or, what I would say, data are being reinterpreted there. Now, when we move the data to a file, there is a loss, because the data, what you write in Revit file, when it gets opened into Inventor, it has to be reinterpreted.

      So this creates a lot of problems. And I think some of the customers have said that they spent more than 30% time in exchanging data and coordinating between the tools. So wouldn't it be great if we can just get a very small portion of data that is being changed? Because when something changes in the system, it is not the whole thing that change. It's a very, very small change that happens. So to go to a file-based approach is very discomforting. If we can transfer only a very small set of data, that will be really great.

      The second thing is, when we create connected workflows like this, right now, the only way is that we transfer complete design data to the other software, and then that design data transfer to the other software. We are working with the different vendors. Those vendors themselves are working with other vendors. So data keeps on flowing from one machine to other machine, one company to other company, and one person to other person.

      This creates a problem about intellectual properties. So one question that always is in mind of owners and the customers is that, how do we make sure that we protect this data? So this is one of the, definitely, a very big problem that customers face.

      And they always say this-- why I need to share my complete model? Can I share a small subset of data? It's pretty dangerous, also, if it reaches to the wrong hands. So this is another pain point that we realize that customers are facing.

      The third problem is that, how do we move the data? So if you want to move data, you again need different translators. You need the different licenses. This industry is highly regulated by the government, so there are a lot of government norms that you need to satisfy. So to do that, you also need to build a lot of model [INAUDIBLE].

      Again, so the data you're moving from one place to other place. And then, to do that, there is, again, time and costs that get involved. So these are the really key problems that we see.

      So again, some of these customers have highlighted this, that I don't want to keep on doing this again, and again, and again. I don't want to create a hack solution. I want something, I would say, persistent and permanent solution.

      So if you look at our building design from abstract level, it's a multi-objective system. We have a client whose expectations are continuously changing, who does have a client who's going to ask for more and more as time progress and progresses. There is a design. There's design requirements which we need to satisfy. There is sustainability objective. You also need to make sure that you are doing the whole project within the cost, within a budget.

      There are climate challenges. We need to also make sure that we are not harming to the world. And also, our design changes with a changing climate. And then, there is always a rework, which makes the whole job very, very challenging.

      So it's a continuously changing system. We are looking at a system which is multiple objective, which is dynamically changing, and we need to do something about it. Another interesting that happens in AC industry is that there are different consumers, and there are different producers for that data.

      So architectural data can be consumed by civil structure. Structure data can be consumed in construction. So these are the consumers and producers where the data moves from one location to other. And it's, again, a continuous process. It's a bidirectional process. It's not a one-directional process. And all good building designers have to make sure that we factor in this, and with these challenges, also, we produce a system which is able to respond to these changes.

      With this thing, everyone is saying, OK, let's try to solve this problem with data. So we are now putting the cameras. We are putting the sensors. We are trying to do drones. And so much of things that are now coming in, and then everyone is capturing the data.

      This itself has created a data deluge. How do we process this data? We are having the files and files with terabytes of data getting accumulated in our servers, but it's not actionable data. Because if you cannot make the decisions off of that data, that data is of no use.

      So what is the solution for this problem? How do we go ahead of these challenges? The solution to these challenges is in data engineering.

      Data engineering is, in a sense, I would say, not well understood, and also being not looked at right. People consider AI, ML at a very high level and data engineering at a very basic level. But today's world needs a lot more data engineering than any other thing.

      And data gathering is going to be pervasive. It is going to be part of architecture. It is going to be part of engineering, manufacturing-- everywhere.

      So we need to devise the strategies. We need to devise the platform which can help us to solve the data engineering problem. And to do that, data exchange platform definitely is a real step ahead.

      So let me explain what the data, when we say, means. So we take the smallest unit of factual information that can be used as a basis for calculations, reasonings, or for discussions. So this is, again, a very interesting part. When we say that, oh, I have a data, and then people say that, I have terabytes of data. But if it's a black box of data, it's generally you cannot make a decision out of that data. That data is of no use. We generally need a very, very small sort of data on which basis you can make a decision.

      For example, you have a door into your building or a windows into your buildings. So you are interested to know whether those doors open inside or outside. That's a very small amount of information. But if, to get that data, you need to download the complete BIM model, then it's useless.

      So this is the sort of thing that we are talking about. And this is a very, very important area where all the architecture engineering, manufacturing, specialized people will be working on. So when we start to talk about data engineering, the first thing that comes in our mind is the files. Definitely, file has served us, I think, on thousands of years.

      Earlier, it was paper-based data. It has moved to digital. And then, there's a lot of data we have been using in the form of Revit, AutoCAD files, Inventor files that we are moving the data. So it's really good if you have a large data with very little changes that you are doing, and it has served us well. We have been able to create a big project with just working with the files.

      But when we start to look at making our applications smarter, and when we start to look at making our application of, autonomous this file starts to become a hindrance. Because when you want to create a workflow which is very fast responsive, which is highly distributed, then what you need is a very small amount of data that is being continuously communicated. Because most of the time, in the project, we are making the small changes, and that small changes need to be communicated across very quickly.

      So this distinction, I think, is one of the foundations to build our data platform. So I hope that you are able to understand this and you can dive in this more to understand what our data means. So one of the concepts that, once you start with the data, is about the CRUD. That is Create, Read, Update, Delete.

      It's not really a new term. This was written by James Martin in 1983, a book. So what we are talking about that we have a data. We should able to persistently refer that data.

      That data can be in file. It can be in a database or anywhere. So we should be able to create the data, we should able to read the data, we should able to update the data, and we should be able to delete it.

      The efficiency of any database depends on how quickly we are able to create the data, how fast we are able to read the data persistently, how easily we are able to update the data, and how accurately we are able to read the data. So based on that, you will compare it two databases, you will compare two data systems that are available to you.

      So as we go progressively ahead, we will be seeing this coming in the form of APIs. So any data system always has an API for creating the data, reading the data, updating the data, and deleting the data. And the interfaces will be changing with system to system, as we will see.

      One more concept that I would like to introduce before going more into [INAUDIBLE] data is graph viewing. We were grown up with Oracle. They were one of the rational databases. Then that went into SQL, and then NoSQL came, which opened up other possibilities. That was definitely a great way of doing it.

      Then, we wrapped those databases with the REST APIs to start fetching the data from our cloud systems. This helped us to create the last 10 years of Renaissance in the world of cloud computing and creating connected workflows. But this also became a problem when you have a data which is you've not earlier thought of.

      So you end up calling hundreds of REST APIs to find out one particular set of data. With GraphQL, what you can do is you can choose what it is that you want to query. So it's a kind of query-based system. And people are saying that it will, REST, REST peacefully in the past. But I think REST will stay, but GraphQL is definitely going to catch up.

      So here, what you can do is you can specify what that you want. This is an example of-- Star Wars example, where you ask for a hero, name, frame, and it gives you that information. Fusion Data API today from Autodesk is using GraphQL. We are going to see this more and more, so it will be great if you learn about this, do some small courses in Coursera, and build your expertise, because GraphQL is here to stay. It is going to be an important thing to work with the cloud application.

      So Forge Data, this is the one process, the one thing that has occurred has been working for a long time, it's one of the areas that is I would say holy grail of CAD, of BIM. We are having good data, but how are we able to get a very small portion of data is not that easy. And I would say this is one of the first systems in the world which is able to give you small data from gigabytes of data in a very easily persistent manner.

      I think this slide is explained pretty well, what is the Forge Data Vision. I believe what we had was a file-based interconnect between the software. So we were creating a Revit file or Inventor file, sharing those files, and then we were looking, writing a translator after translator after translator. And then, we were building our own apps, which we were trying to make a sense of this to our data. Every time we make a change, we were required to work with the files or with the API, and that itself was a challenging task.

      What we were missing was that we were already always working on the very top level of this software, with Revit or with the Inventor. We were working with the API, which was on a presentation level or business logic level. Now, with our Forge Data, we are able to work with real data structures. So we are directly able to communicate at a data structure level. It is like a connection between two human beings at our neural network.

      So if our neural networks get connected, we can communicate very fast. I think Elon Musk is trying to do that for humans. But here, we can see, we are able to do it with a CAD application. That's really great.

      We are-- now, we will able to talk with Revit, AutoCAD employee at their data structure level. And that opens up an infinite number of possibilities, because once you have that data structure level of access, you can get the data and interpret as the way you want it at a very micro level of granularity that you will able to get. So this is now really foundation for Forge data, in which you are able to work at a data level, not at a very higher level of communication.

      This is a work in progress. So I think this is not still completely being, I would say, launched. But we can see something in the Forge-- sorry Fusion, data, Fusion BIM APIs. as we are able to get a manufacturing date of the product, markup information data.

      There is going to be now more cloud information models. There's going to be a cloud information model for architectural space. There's going to be a cloud information for model for media space. And there is a cloud information model for manufacturing space.

      Interesting thing is that what you see in architectural space is not same as what you see in manufacturing space. So for example, when you look at a window in architectural space, it's a block of a thing which constitutes a shape like a window. When you look at a manufacturing, you are looking at a very high level of details in a window. You need to know a window which can be manufactured. So you're talking about a very micro, microns level of accuracy of details, whereas in architecture space, you are comfortable working with a limited kind of accuracy.

      So it's the same window. But when it comes to architectural space, it is interpreted differently. When you come to manufacturing, it's interpreted differently. And that is the way it's supposed to be.

      The question is, how they talk with each other. And this is where the Forge detection is. It is going to help you to interpret the cloud information model of architecture and a cloud information model for manufacturing. And connectors are going to play a very, very important role in doing that.

      Well, as you can see, there is a plan to build a lot of new connectors. Already, there are connectors for some of the softwares like Revit, Rhino, like the one we have created, PowerPoint. But the need for building of connectors is, again, going to be really a lot.

      And you can even do same-- I would say from the same data, you can interpret a different kind of information. So there can be two different connectors that's going to be possible going forward that you might build. So this is one of the areas that is going to be fast-growing and fast-exploring.

      We have seen what is the Forge Data. We have understood that there are going to be a different cloud information model, and we are going to get a lot of data from this cloud information model. So let's try to understand what is a Forge Data Exchange.

      Data exchange, basically, helps you or enables you to share subsets of data across your design and make applications at scale. So three important points. One is a subset of data. So we are not talking about the complete data. If you want to work with the complete data, there are already solutions [INAUDIBLE]. You want to work with a subset of data.

      And then, you make that available to other software, other applications. And third is that it should work at a scale. So we are not looking at a query at one or two. It will be thousands of query.

      So this is the key part that differentiates data exchange with other platforms. So it is able to bring your design data, make data to other applications. So let's see. This is a good example to understand what we are trying to see.

      The current world that we live is of files and apps. And these applications have definitely helped us, like AutoCAD really invented. And we need to move that data to other applications. So what it does is that you bring that data to a single source of truth. That is the cloud information model.

      The Data Exchange helps you to bring that data there. It keeps the data secure. It keeps that data persistent, which is a very, very important task to build that.

      Those who are coming from a developer background, this is your GitHub. This is the GitHub. Like the GitHub what you had for a code, now we're talking for the design, make, construction data. I mean, and so data is very huge, very diverse. We are not looking at the C++ files, but we are looking at the Revit file, AutoCAD file, proprietary files. And to be able to do this is really a challenging task, and I'm very glad that Atlas is able to solve these challenges.

      So what we do is here, from, say, applications like Revit, you take a subset of data, pass that data to a cloud information model. Once you have that data in cloud information model, any of the connectors of Forge data can start consuming it. So in this case, Autodesk Revit is a producer of data, and all these other applications are the consumer of this data.

      One good thing that I realize is that it is not restricted, that only Autodesk applications can consume. Any application in the world can consume it, and anyone can develop that. That's really the democratization of data that I see, and I think that is what going to drive this platform ahead.

      So let's try to understand, basically, what is it that we mean by granular data, or a subset of data? So I will go with an example. So you have a building design which is in Revit. What you want to do is you want to share this only small portion of it.

      So what you do is you create an exchange. In Revit, there is an option where now, you can choose a particular view. Only that view will be uploaded to your ACC.

      Those who you want to invite, you send a message or email that this is the data I would like to share with you. So let's say you're working with someone on elevator or building, some one with railings, or some one with certain artifacts. You can share that particular information.

      They can take that data. They might be working, as I said, in mechanical space. They might be using Inventor. They will get that small portion of data.

      Again, this is a very rich information of data. This is not just a geometric information. This is complete property metadata kind of information.

      So that data needs to go to people in Inventor. Once you get that data in Inventor, you start to build your railings or things that you want. Let's see you make some changes. So in our case, David is our producer. So it changes-- as those changes are made, you can push those changes to your cloud information model.

      Once you push those changes to cloud information model, the consumer, Inventor, can get those updates. So there is a kind of arrangement there where the data itself updates. So data itself is doing a follow-up with you.

      So you do that, and it will say, oh, there is a new update, that things have changed. Would you like to change it? You accept it, and you will get that information.

      So to do this, there is a very-- what I would say, very detailed information that is being passed in a sort of graph-based fashion like we talked earlier. And that information is then being loaded into another connector which can be used by many other applications, not just Inventor. It can be consumed by Power Automate, a cost engineering application, a simulation application, structural application. It can be consumed by anyone.

      So this is a very interesting thing. This is not one to one This is one to many. So here, we are looking at one consumer, multiple connectors to consume that data.

      So this is the way this data works. You can also take it to applications like [INAUDIBLE] and others where you want to do other design parts, other than Inventor. So multiple parts, [INAUDIBLE].

      So let's try to do some abstraction, because we are talking over the data engineering, and then we need to see how we can scale it for others. So for this particular example, what we can observe is our data is getting produced in Revit. So we take that data. So we have something called a Producer Connector, which that data into Autodesk Docs, and then there is a connector at Inventor end which consumes that data, and it creates a model in Inventor.

      So one question that might come in your mind-- why don't we directly build a connector between Revit and Inventor, no intermediate connection? The thing is, let's say that person who is working on Inventor is not present, or the application is not started. What will happen? Where that data will reside? So that's one of the parts.

      So there are multiple challenges in that, and that data need to be consistently available. You don't want to keep on doing this again, and again, and again. So having a hosting provider is a very, very essential part.

      And it also is a controller. It is a place where you keep your trust. So this is the data you are giving it, and you are trusting it.

      So again, Autodesk is one of the important trusted partners for all these big companies. And that's where the Autodesk Docs, Autodesk ACC plays a critical role. Once we have that data in Autodesk Docs, then you can write multiple connectors.

      You can write a connector for Power Automate. You can write a connector for Teams. You can write a connector for PowerBI. Infinite possibilities.

      So this is what it is that you can do. But is it like you can do only for Revit, or is it only that you can do it for Inventor? No. Actually, once you look at this, it is possible that, going forward, that there could be an application, one, which did not [INAUDIBLE] application. It still will be able to work with a connector, give that data to a hosting provider, something like ACC. And so tomorrow, there could be another hosting provider that, I think, Autodesk will come up with for a generic kind of data. And that can be used by another consumer, and it is going to this.

      So this is, on a broad level, that is happening. The data is getting uploaded from one application, and it has been consumed by another application. So we saw a workflow. Let's try to see it in action.

      So let me play this small video. The quality of video is not great because I'm trying to capture three screens. One is Revit, in which, as you can see, we are drawing over the wall. And this geometry change is being pushed into our ACC server.

      Here, you will push this geometry into the Data Exchange tool on the ACC server, and it will get reflected here on the second window. As you can see, it's pulling up that information. And then, you will able to see an update into Inventor window. So once you see that update in the Inventor window, you can give a permission to update your geometry. It will bring that data into Inventor.

      So this is the way it works. You have Revit as a producer. You have inventor as a consumer. And ACC is the broker through which you talk this communications.

      So let me go to our next slide. So we are talking about the data, and then, the one question that comes in mind is how this data is being organized. And as we know, we are looking at a very diverse set of systems, so there will be always ever-expanding representation and format.

      So here, the data team has used entity component system-- ECS-- design pattern to represent the data. Here, we have some important new concepts that will be coming in. I think Forge documentation is a good source to learn about it.

      So there will be collections, spaces, assets, relationships, snapshots, and revisions. And there is an excellent tutorial, excellent information that is available on Autodesk documentation. I will not spend too much time on this.

      And the third and last concept that I would like to cover is about security. One of the challenges when people share their data, or apprehension that they share the data, is about the security. In two-legged authorization, you authorize your app to access your data, and then, once you get authorization, for everybody to be able to do it unless you revoke that authorization.

      In three-legged authorization, you have a Forge, you have app, and you also have end user. So end user has to give explicit consent to share data with your application. So this is really great to make sure that the data that you are sharing, that it's being shared with your knowledge, and it is-- you're not getting exploited by anyone else. So this has been, really, a great progress that has happened with the security of data exchange.

      I'm going to now go into Data Exchange Connectors, because that's one of the important objectives of our class. So how do you bring the Data Exchange Connectors? Already, Autodesk has built some data exchange connectors.

      There is a connector for Revit. There is already a lot of connectors in progress for [INAUDIBLE], Grasshopper, and others. And then, there is going to be more, and more, and more. So this is going to be a very expanding and really [INAUDIBLE] explore the space of building our data connectors.

      To build a data connector, there is a data connector feed that is available. Again, a good documentation about that is available on Forge website. This is the part of the [INAUDIBLE] where you basically read the data. So these are the APIs which helps you to read those data into that data structure format. And once you read that data, you can do something about it.

      Again, an example to demonstrate. This is the example we saw earlier, where you can see that all the raw information is coming in a very structured format to you. And any change is made into that vault will be, again, coming in a very structured format.

      So it's a very granular data. So you can quickly make out what is the change that is happening. And this helps you to go to a more autonomous workflow. So here, machine-readable kind of data is there. And that can make sense and make smart workflows.

      We have been also working on building a connector. So the first connector that I will be talking about, our PowerPoint connector that our team build. Why PowerPoint? PowerPoint is used by 500 million people. I'm reaching to you through PowerPoint.

      300 million presentations are made every day. It is covering 95% of the time, and average presentation is four hours. So definitely, this is the place where the business happens. This is the place where the business moves. So it's important that our data also reaches through PowerPoint.

      In PowerPoint, there is an interesting feature that is Microsoft [INAUDIBLE], that you can look at a 3D model within your PowerPoints. This is not a video, so let me just quickly stop it and show you. This is, what I would say, a 3D view that is being embedded.

      So this is really great if you want to build an application for your-- where you want to demonstrate your design intent. So PowerPoint, as I said, is a really great tool for you to communicate your design intent. And you can validate your assumptions and things with your client, collaborate with vendors. And it's a view only, so pretty secure.

      The question is, if there is some change that happens in design, how do we communicate that? You can build a connector. That's the part that we have built. And this definitely helps you to get more customers, be able to get a new client.

      So this is an example where we are using a Revit, in which we have built a two-bedroom, hall, kitchen kind of apartment. This design is being, again, shared to Data Exchange. So once you share with the Data Exchange, in our PowerPoint, we have built a connector-- so a consumer kind of connector-- where I'm able to see the view of this apartment.

      So this is great I can show to my customer that, OK, this is the apartment that I'm working on, and this is how your design looks like. Let's say there is a manufacturer of railings, and he is working with your customer. So it's important that we create a different type of railings and demonstrate to the customer.

      But the process of going from a Revit kind of application to PowerPoint is time-consuming. And you might be sitting at a very small, light machine or a laptop or tablet where you are doing a demonstration to a customer, and your designer is sitting at some other place at the back office. So how do we communicate these design changes?

      Again, a connector is a good solution. As you can see, the designer has drawn the certain railings. Now, these railings, what we will do is we will upload this to the ACC server, in which it will create as a new version. Once you've created a new version, we will go to a PowerPoint and try to grab those changes.

      So it's uploading the data. The data is updated. And now, here you can see the new railing has come in. So it's very persistent, consistent data, and this is with no File Transfer. I think that's really a thing. We are talking about a workflow which is working in autonomous fashion.

      Let me go to our next slide. So this is the workflow of our application. You go to Revit, it connects to your Autodesk Construction Cloud. You take authorization. You build this thing using web hooks. So this is how-- we already saw a demonstration of that.

      The data is being returned to a state right now. So we have to convert it into GITF or OBJ. That's another of the things. And Autodesk team is working on directly exporting to the OBJ files, which will be, I think, faster.

      Implementation of it was, again, straightforward. Basically, we are taking the data and then checking whether that is the same file or not. If it's not the same, then we are updating the exchange and then bringing down that data to PowerPoint seamlessly. I will show a last connector and then go to move towards concluding this class.

      PRESENTER: Here is a quick demo--

      SANDIP JADHAV: This is a class-- this is the connector for which we are collaborating with Autodesk. So the video was created by Autodesk and is showing.

      PRESENTER: Here is a quick demo to our Rhino Read Connector. The Rhino Read Connector enables users to read geometry and properties data from an exchange into Rhino. This will help our customers share a subset of data from their working models with the users who are leveraging Rhino. This will enable workflows like sharing an architectural Revit model with a designer who can use it to leverage the Rhino capabilities, such as create complex geometries and easy integration with other plug-ins for downstream analysis and automation. For this example, our workflow starts with Revit.

      [AUDIO OUT]

      SANDIP JADHAV: As you can see, the Rhino Read connector provides a great connection between Revit and Rhino. So you can not just bring geometry data, but you also bring a lot of metadata, proper data, and layer information, and that data is actionable. You can create a really intelligent model out of this exchange.

      Let me move to the next slide.

      PRESENTER: Here is a quick--

      SANDIP JADHAV: So one of the parts that I think that you will be wondering, when to use the Data Exchange? Because we already have something called Model Derivative service from [INAUDIBLE], and it also is able to do some of these things. Model Derivative service is great if you have a large data, and the data is very logically and hierarchically organized. But when you want to do very small data, Model Derivative Service is not good.

      And we have seen, if you are working with a configurator, things, Model Derivative does take time. Data Exchange will definitely change that. We will be able to pass on this small amount of data, very small amount of changes. And it can very quickly take your data from one system to another system.

      So if you have large data, definitely, or you go for a Model Derivative. If you want to do with a small amount of data, Data Exchange Service is the one that we prefer. So basically, Data Exchange is definitely good for a subset of data, a very granular type of data. And if you have a really big model, big data that you are looking at completely, the data that you want, then going with your file-based approach or going with the modularity would be a better option.

      So after going through this class, definitely, you would have thought, OK, I understood all of this. How do I start? Where do I start?

      So first thing is definitely, you've come to this class is a good start. Educating yourself about different data platform services is definitely a great start. This will definitely help you to go a long way.

      I think many of you are coming from the architecture engineering construction background. So you basically try to identify the gaps in current workflow-- the business problems. Find the cause and cost escalation reasons in your projects. That is a good point to start building your data exchange connectors.

      You can use work with companies like us who are system implementation partners to build these connectors or you can use your in-house teams if you have the full-stack developers and data engineers to build the solutions. Our journey will be going to be small. We are starting with a very small subset of things. But believe me, this is going to be the whole thing as we go higher.

      These are some of the references I would recommend you to go through. Every month, these documents are getting updated, and a lot more information is coming across. I will be happy to connect with you in our booth. We are exhibiting in AU At Construction 366 booth number. Me and my colleagues will be there. You can also reach us through our email addresses, and we'll be happy to interact and discuss further on Forge Data Exchange. Thank you.

      Downloads

      ______
      icon-svg-close-thick

      쿠기 기본 설정

      오토데스크는 고객의 개인 정보와 최상의 경험을 중요시합니다. 오토데스크는 정보를 사용자화하고 응용프로그램을 만들기 위해 고객의 본 사이트 사용에 관한 데이터를 수집합니다.

      오토데스크에서 고객의 데이터를 수집하고 사용하도록 허용하시겠습니까?

      오토데스크에서 사용하는타사 서비스개인정보 처리방침 정책을 자세히 알아보십시오.

      반드시 필요 - 사이트가 제대로 작동하고 사용자에게 서비스를 원활하게 제공하기 위해 필수적임

      이 쿠키는 오토데스크에서 사용자 기본 설정 또는 로그인 정보를 저장하거나, 사용자 요청에 응답하거나, 장바구니의 품목을 처리하기 위해 필요합니다.

      사용자 경험 향상 – 사용자와 관련된 항목을 표시할 수 있게 해 줌

      이 쿠키는 오토데스크가 보다 향상된 기능을 제공하고 사용자에게 맞는 정보를 제공할 수 있게 해 줍니다. 사용자에게 맞는 정보 및 환경을 제공하기 위해 오토데스크 또는 서비스를 제공하는 협력업체에서 이 쿠키를 설정할 수 있습니다. 이 쿠키를 허용하지 않을 경우 이러한 서비스 중 일부 또는 전체를 이용하지 못하게 될 수 있습니다.

      광고 수신 설정 – 사용자에게 타겟팅된 광고를 제공할 수 있게 해 줌

      이 쿠키는 사용자와 관련성이 높은 광고를 표시하고 그 효과를 추적하기 위해 사용자 활동 및 관심 사항에 대한 데이터를 수집합니다. 이렇게 데이터를 수집함으로써 사용자의 관심 사항에 더 적합한 광고를 표시할 수 있습니다. 이 쿠키를 허용하지 않을 경우 관심 분야에 해당되지 않는 광고가 표시될 수 있습니다.

      icon-svg-close-thick

      타사 서비스

      각 범주에서 오토데스크가 사용하는 타사 서비스와 온라인에서 고객으로부터 수집하는 데이터를 사용하는 방식에 대해 자세히 알아보십시오.

      icon-svg-hide-thick

      icon-svg-show-thick

      반드시 필요 - 사이트가 제대로 작동하고 사용자에게 서비스를 원활하게 제공하기 위해 필수적임

      Qualtrics
      오토데스크는 고객에게 더욱 시의적절하며 관련 있는 이메일 컨텐츠를 제공하기 위해 Qualtrics를 이용합니다. 이를 위해, 고객의 온라인 행동 및 오토데스크에서 전송하는 이메일과의 상호 작용에 관한 데이터를 수집합니다. 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID, 이메일 확인율, 클릭한 링크 등이 포함될 수 있습니다. 오토데스크는 이 데이터를 다른 소스에서 수집된 데이터와 결합하여 고객의 판매 또는 고객 서비스 경험을 개선하며, 고급 분석 처리에 기초하여 보다 관련 있는 컨텐츠를 제공합니다. Qualtrics 개인정보취급방침
      Akamai mPulse
      오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Akamai mPulse를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID 및 오토데스크 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. Akamai mPulse 개인정보취급방침
      Digital River
      오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Digital River를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID 및 오토데스크 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. Digital River 개인정보취급방침
      Dynatrace
      오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Dynatrace를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID 및 오토데스크 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. Dynatrace 개인정보취급방침
      Khoros
      오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Khoros를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID 및 오토데스크 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. Khoros 개인정보취급방침
      Launch Darkly
      오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Launch Darkly를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID 및 오토데스크 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. Launch Darkly 개인정보취급방침
      New Relic
      오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 New Relic를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID 및 오토데스크 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. New Relic 개인정보취급방침
      Salesforce Live Agent
      오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Salesforce Live Agent를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID 및 오토데스크 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. Salesforce Live Agent 개인정보취급방침
      Wistia
      오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Wistia를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID 및 오토데스크 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. Wistia 개인정보취급방침
      Tealium
      오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Tealium를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. Upsellit
      오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Upsellit를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. CJ Affiliates
      오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 CJ Affiliates를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. Commission Factory
      Typepad Stats
      오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Typepad Stats를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID 및 오토데스크 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. Typepad Stats 개인정보취급방침
      Geo Targetly
      Autodesk는 Geo Targetly를 사용하여 웹 사이트 방문자를 가장 적합한 웹 페이지로 안내하거나 위치를 기반으로 맞춤형 콘텐츠를 제공합니다. Geo Targetly는 웹 사이트 방문자의 IP 주소를 사용하여 방문자 장치의 대략적인 위치를 파악합니다. 이렇게 하면 방문자가 (대부분의 경우) 현지 언어로 된 콘텐츠를 볼 수 있습니다.Geo Targetly 개인정보취급방침
      SpeedCurve
      Autodesk에서는 SpeedCurve를 사용하여 웹 페이지 로드 시간과 이미지, 스크립트, 텍스트 등의 후속 요소 응답성을 측정하여 웹 사이트 환경의 성능을 모니터링하고 측정합니다. SpeedCurve 개인정보취급방침
      Qualified
      Qualified is the Autodesk Live Chat agent platform. This platform provides services to allow our customers to communicate in real-time with Autodesk support. We may collect unique ID for specific browser sessions during a chat. Qualified Privacy Policy

      icon-svg-hide-thick

      icon-svg-show-thick

      사용자 경험 향상 – 사용자와 관련된 항목을 표시할 수 있게 해 줌

      Google Optimize
      오토데스크는 사이트의 새 기능을 테스트하고 이러한 기능의 고객 경험을 사용자화하기 위해 Google Optimize을 이용합니다. 이를 위해, 고객이 사이트를 방문해 있는 동안 행동 데이터를 수집합니다. 이 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID, 오토데스크 ID 등이 포함될 수 있습니다. 고객은 기능 테스트를 바탕으로 여러 버전의 오토데스크 사이트를 경험하거나 방문자 특성을 바탕으로 개인화된 컨텐츠를 보게 될 수 있습니다. Google Optimize 개인정보취급방침
      ClickTale
      오토데스크는 고객이 사이트에서 겪을 수 있는 어려움을 더 잘 파악하기 위해 ClickTale을 이용합니다. 페이지의 모든 요소를 포함해 고객이 오토데스크 사이트와 상호 작용하는 방식을 이해하기 위해 세션 녹화를 사용합니다. 개인적으로 식별 가능한 정보는 가려지며 수집되지 않습니다. ClickTale 개인정보취급방침
      OneSignal
      오토데스크는 OneSignal가 지원하는 사이트에 디지털 광고를 배포하기 위해 OneSignal를 이용합니다. 광고는 OneSignal 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 OneSignal에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 OneSignal에 제공하는 데이터를 사용합니다. OneSignal 개인정보취급방침
      Optimizely
      오토데스크는 사이트의 새 기능을 테스트하고 이러한 기능의 고객 경험을 사용자화하기 위해 Optimizely을 이용합니다. 이를 위해, 고객이 사이트를 방문해 있는 동안 행동 데이터를 수집합니다. 이 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID, 오토데스크 ID 등이 포함될 수 있습니다. 고객은 기능 테스트를 바탕으로 여러 버전의 오토데스크 사이트를 경험하거나 방문자 특성을 바탕으로 개인화된 컨텐츠를 보게 될 수 있습니다. Optimizely 개인정보취급방침
      Amplitude
      오토데스크는 사이트의 새 기능을 테스트하고 이러한 기능의 고객 경험을 사용자화하기 위해 Amplitude을 이용합니다. 이를 위해, 고객이 사이트를 방문해 있는 동안 행동 데이터를 수집합니다. 이 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID, 오토데스크 ID 등이 포함될 수 있습니다. 고객은 기능 테스트를 바탕으로 여러 버전의 오토데스크 사이트를 경험하거나 방문자 특성을 바탕으로 개인화된 컨텐츠를 보게 될 수 있습니다. Amplitude 개인정보취급방침
      Snowplow
      오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Snowplow를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID 및 오토데스크 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. Snowplow 개인정보취급방침
      UserVoice
      오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 UserVoice를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID 및 오토데스크 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. UserVoice 개인정보취급방침
      Clearbit
      Clearbit를 사용하면 실시간 데이터 보강 기능을 통해 고객에게 개인화되고 관련 있는 환경을 제공할 수 있습니다. Autodesk가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. Clearbit 개인정보취급방침
      YouTube
      YouTube는 사용자가 웹 사이트에 포함된 비디오를 보고 공유할 수 있도록 해주는 비디오 공유 플랫폼입니다. YouTube는 비디오 성능에 대한 시청 지표를 제공합니다. YouTube 개인정보보호 정책

      icon-svg-hide-thick

      icon-svg-show-thick

      광고 수신 설정 – 사용자에게 타겟팅된 광고를 제공할 수 있게 해 줌

      Adobe Analytics
      오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Adobe Analytics를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID 및 오토데스크 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. Adobe Analytics 개인정보취급방침
      Google Analytics (Web Analytics)
      오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Google Analytics (Web Analytics)를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. AdWords
      Marketo
      오토데스크는 고객에게 더욱 시의적절하며 관련 있는 이메일 컨텐츠를 제공하기 위해 Marketo를 이용합니다. 이를 위해, 고객의 온라인 행동 및 오토데스크에서 전송하는 이메일과의 상호 작용에 관한 데이터를 수집합니다. 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID, 이메일 확인율, 클릭한 링크 등이 포함될 수 있습니다. 오토데스크는 이 데이터를 다른 소스에서 수집된 데이터와 결합하여 고객의 판매 또는 고객 서비스 경험을 개선하며, 고급 분석 처리에 기초하여 보다 관련 있는 컨텐츠를 제공합니다. Marketo 개인정보취급방침
      Doubleclick
      오토데스크는 Doubleclick가 지원하는 사이트에 디지털 광고를 배포하기 위해 Doubleclick를 이용합니다. 광고는 Doubleclick 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Doubleclick에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Doubleclick에 제공하는 데이터를 사용합니다. Doubleclick 개인정보취급방침
      HubSpot
      오토데스크는 고객에게 더욱 시의적절하며 관련 있는 이메일 컨텐츠를 제공하기 위해 HubSpot을 이용합니다. 이를 위해, 고객의 온라인 행동 및 오토데스크에서 전송하는 이메일과의 상호 작용에 관한 데이터를 수집합니다. 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID, 이메일 확인율, 클릭한 링크 등이 포함될 수 있습니다. HubSpot 개인정보취급방침
      Twitter
      오토데스크는 Twitter가 지원하는 사이트에 디지털 광고를 배포하기 위해 Twitter를 이용합니다. 광고는 Twitter 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Twitter에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Twitter에 제공하는 데이터를 사용합니다. Twitter 개인정보취급방침
      Facebook
      오토데스크는 Facebook가 지원하는 사이트에 디지털 광고를 배포하기 위해 Facebook를 이용합니다. 광고는 Facebook 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Facebook에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Facebook에 제공하는 데이터를 사용합니다. Facebook 개인정보취급방침
      LinkedIn
      오토데스크는 LinkedIn가 지원하는 사이트에 디지털 광고를 배포하기 위해 LinkedIn를 이용합니다. 광고는 LinkedIn 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 LinkedIn에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 LinkedIn에 제공하는 데이터를 사용합니다. LinkedIn 개인정보취급방침
      Yahoo! Japan
      오토데스크는 Yahoo! Japan가 지원하는 사이트에 디지털 광고를 배포하기 위해 Yahoo! Japan를 이용합니다. 광고는 Yahoo! Japan 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Yahoo! Japan에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Yahoo! Japan에 제공하는 데이터를 사용합니다. Yahoo! Japan 개인정보취급방침
      Naver
      오토데스크는 Naver가 지원하는 사이트에 디지털 광고를 배포하기 위해 Naver를 이용합니다. 광고는 Naver 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Naver에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Naver에 제공하는 데이터를 사용합니다. Naver 개인정보취급방침
      Quantcast
      오토데스크는 Quantcast가 지원하는 사이트에 디지털 광고를 배포하기 위해 Quantcast를 이용합니다. 광고는 Quantcast 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Quantcast에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Quantcast에 제공하는 데이터를 사용합니다. Quantcast 개인정보취급방침
      Call Tracking
      오토데스크는 캠페인을 위해 사용자화된 전화번호를 제공하기 위하여 Call Tracking을 이용합니다. 그렇게 하면 고객이 오토데스크 담당자에게 더욱 빠르게 액세스할 수 있으며, 오토데스크의 성과를 더욱 정확하게 평가하는 데 도움이 됩니다. 제공된 전화번호를 기준으로 사이트에서 고객 행동에 관한 데이터를 수집할 수도 있습니다. Call Tracking 개인정보취급방침
      Wunderkind
      오토데스크는 Wunderkind가 지원하는 사이트에 디지털 광고를 배포하기 위해 Wunderkind를 이용합니다. 광고는 Wunderkind 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Wunderkind에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Wunderkind에 제공하는 데이터를 사용합니다. Wunderkind 개인정보취급방침
      ADC Media
      오토데스크는 ADC Media가 지원하는 사이트에 디지털 광고를 배포하기 위해 ADC Media를 이용합니다. 광고는 ADC Media 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 ADC Media에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 ADC Media에 제공하는 데이터를 사용합니다. ADC Media 개인정보취급방침
      AgrantSEM
      오토데스크는 AgrantSEM가 지원하는 사이트에 디지털 광고를 배포하기 위해 AgrantSEM를 이용합니다. 광고는 AgrantSEM 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 AgrantSEM에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 AgrantSEM에 제공하는 데이터를 사용합니다. AgrantSEM 개인정보취급방침
      Bidtellect
      오토데스크는 Bidtellect가 지원하는 사이트에 디지털 광고를 배포하기 위해 Bidtellect를 이용합니다. 광고는 Bidtellect 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Bidtellect에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Bidtellect에 제공하는 데이터를 사용합니다. Bidtellect 개인정보취급방침
      Bing
      오토데스크는 Bing가 지원하는 사이트에 디지털 광고를 배포하기 위해 Bing를 이용합니다. 광고는 Bing 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Bing에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Bing에 제공하는 데이터를 사용합니다. Bing 개인정보취급방침
      G2Crowd
      오토데스크는 G2Crowd가 지원하는 사이트에 디지털 광고를 배포하기 위해 G2Crowd를 이용합니다. 광고는 G2Crowd 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 G2Crowd에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 G2Crowd에 제공하는 데이터를 사용합니다. G2Crowd 개인정보취급방침
      NMPI Display
      오토데스크는 NMPI Display가 지원하는 사이트에 디지털 광고를 배포하기 위해 NMPI Display를 이용합니다. 광고는 NMPI Display 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 NMPI Display에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 NMPI Display에 제공하는 데이터를 사용합니다. NMPI Display 개인정보취급방침
      VK
      오토데스크는 VK가 지원하는 사이트에 디지털 광고를 배포하기 위해 VK를 이용합니다. 광고는 VK 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 VK에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 VK에 제공하는 데이터를 사용합니다. VK 개인정보취급방침
      Adobe Target
      오토데스크는 사이트의 새 기능을 테스트하고 이러한 기능의 고객 경험을 사용자화하기 위해 Adobe Target을 이용합니다. 이를 위해, 고객이 사이트를 방문해 있는 동안 행동 데이터를 수집합니다. 이 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID, 오토데스크 ID 등이 포함될 수 있습니다. 고객은 기능 테스트를 바탕으로 여러 버전의 오토데스크 사이트를 경험하거나 방문자 특성을 바탕으로 개인화된 컨텐츠를 보게 될 수 있습니다. Adobe Target 개인정보취급방침
      Google Analytics (Advertising)
      오토데스크는 Google Analytics (Advertising)가 지원하는 사이트에 디지털 광고를 배포하기 위해 Google Analytics (Advertising)를 이용합니다. 광고는 Google Analytics (Advertising) 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Google Analytics (Advertising)에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Google Analytics (Advertising)에 제공하는 데이터를 사용합니다. Google Analytics (Advertising) 개인정보취급방침
      Trendkite
      오토데스크는 Trendkite가 지원하는 사이트에 디지털 광고를 배포하기 위해 Trendkite를 이용합니다. 광고는 Trendkite 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Trendkite에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Trendkite에 제공하는 데이터를 사용합니다. Trendkite 개인정보취급방침
      Hotjar
      오토데스크는 Hotjar가 지원하는 사이트에 디지털 광고를 배포하기 위해 Hotjar를 이용합니다. 광고는 Hotjar 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Hotjar에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Hotjar에 제공하는 데이터를 사용합니다. Hotjar 개인정보취급방침
      6 Sense
      오토데스크는 6 Sense가 지원하는 사이트에 디지털 광고를 배포하기 위해 6 Sense를 이용합니다. 광고는 6 Sense 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 6 Sense에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 6 Sense에 제공하는 데이터를 사용합니다. 6 Sense 개인정보취급방침
      Terminus
      오토데스크는 Terminus가 지원하는 사이트에 디지털 광고를 배포하기 위해 Terminus를 이용합니다. 광고는 Terminus 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Terminus에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Terminus에 제공하는 데이터를 사용합니다. Terminus 개인정보취급방침
      StackAdapt
      오토데스크는 StackAdapt가 지원하는 사이트에 디지털 광고를 배포하기 위해 StackAdapt를 이용합니다. 광고는 StackAdapt 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 StackAdapt에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 StackAdapt에 제공하는 데이터를 사용합니다. StackAdapt 개인정보취급방침
      The Trade Desk
      오토데스크는 The Trade Desk가 지원하는 사이트에 디지털 광고를 배포하기 위해 The Trade Desk를 이용합니다. 광고는 The Trade Desk 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 The Trade Desk에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 The Trade Desk에 제공하는 데이터를 사용합니다. The Trade Desk 개인정보취급방침
      RollWorks
      We use RollWorks to deploy digital advertising on sites supported by RollWorks. Ads are based on both RollWorks data and behavioral data that we collect while you’re on our sites. The data we collect may include pages you’ve visited, trials you’ve initiated, videos you’ve played, purchases you’ve made, and your IP address or device ID. This information may be combined with data that RollWorks has collected from you. We use the data that we provide to RollWorks to better customize your digital advertising experience and present you with more relevant ads. RollWorks Privacy Policy

      정말 더 적은 온라인 경험을 원하십니까?

      오토데스크는 고객 여러분에게 좋은 경험을 드리고 싶습니다. 이전 화면의 범주에 대해 "예"를 선택하셨다면 오토데스크는 고객을 위해 고객 경험을 사용자화하고 향상된 응용프로그램을 제작하기 위해 귀하의 데이터를 수집하고 사용합니다. 언제든지 개인정보 처리방침을 방문해 설정을 변경할 수 있습니다.

      고객의 경험. 고객의 선택.

      오토데스크는 고객의 개인 정보 보호를 중요시합니다. 오토데스크에서 수집하는 정보는 오토데스크 제품 사용 방법, 고객이 관심을 가질 만한 정보, 오토데스크에서 더욱 뜻깊은 경험을 제공하기 위한 개선 사항을 이해하는 데 도움이 됩니다.

      오토데스크에서 고객님께 적합한 경험을 제공해 드리기 위해 고객님의 데이터를 수집하고 사용하도록 허용하시겠습니까?

      선택할 수 있는 옵션을 자세히 알아보려면 이 사이트의 개인 정보 설정을 관리해 사용자화된 경험으로 어떤 이점을 얻을 수 있는지 살펴보거나 오토데스크 개인정보 처리방침 정책을 확인해 보십시오.