AU Class
AU Class
class - AU

Outcome-Based Design: The Shift of Design Technology and Tools

이 강의 공유하기

설명

The evolution of design and drafting has increasingly given us tools that inform and expedite our processes. But what can we learn from the implementation of CAD, building information modeling (BIM), and now AI to prepare teams for the future of design tools? Working at a multidisciplinary design firm encompassing planning, landscape, architecture, and interiors has shown me that technology adoption and digital maturity happen at different rates. But regardless of the tools used and efficiency in practice, projects are completed. Focusing on the finished work, lessons learned can become the quantitative outcomes we bring to the beginning of projects in this era of outcome-focused process. By distilling 50+ years of digital asset creation and the analysis of completed projects, we can uncover the potential embedded within our digital archives.

주요 학습

  • Learn about the abridged history of design technologies.
  • Discover challenges and strategies associated with organizing digital archives and assets.
  • Compare digital-maturity impact and adoption approaches across design disciplines.

발표자

  • Harrison Daigle
    An architect and design technologist originally from Tennessee, now based in California. Guided by a curiosity for how digital tools can support and influence design and construction in the built environment, focused on digital maturity and transformation for Planning, Landscape, Architecture, and Interiors. Currently leading efforts to integrate data analytics in design practice, aiming to streamline workflows and inspire innovative design solutions across multiple disciplines.
Video Player is loading.
Current Time 0:00
Duration 46:31
Loaded: 0%
Stream Type LIVE
Remaining Time 46:31
 
1x
  • Chapters
  • descriptions off, selected
  • en (Main), selected
Transcript

HARRISON DAIGLE: Hi, everyone. We want to start off today with talking about, interestingly enough, what I started to learn at AU last year. So I heard this term passed around a couple times, outcome-based design, and this idea of strategic foresight of where the tools that we're using in the industry are heading. And so from a couple of those lessons, I started to do some research over the past year and really wanted to dive into what outcome-based design could be, maybe is. And so today is talking through what I discovered.

So a little bit about myself as to why I'm giving this presentation. So I've been in the industry about 12 years at this point. And I've been fortunate enough to where I've spanned a number of different offices of different size.

So I started off as an architect at a firm of 10 people, and I grew into roles at a firm of 300 people and then scaled up as a BIM coordinator at a firm of 30,000 people. So I've seen a lot of different projects of different scales, different complications, technicalities. So I'm really interested and curious as an individual of how these technologies are used across those scales.

A little bit about where I work. I work at Hart Howerton as a design technology manager. Ultimately, I'm really fortunate that I get to work with a multidisciplinary firm of planners, architects, landscape architects, and interior designers, where we focus on the design of complete environments and enhance value for clients and steward their natural resources.

So what we're going to be breaking down today. As we're looking towards the tools of the future, I thought it was really important to talk about where we've been in the past. So the breakdown of today is going to be talking about where those tools came from, what those tools look like in the hands of people, what people create with those tools. And then as we start to head towards outcome-based design, how do we start to unpack and learn from what we can find in our archives.

So this is going to be a high-level overview, really abridged. But before we get there, I think it's also important to explain a little bit about my background and why I'm interested in data as an architect. I'm fortunate enough to live in Northern California, where there's some really incredible trails, where I go running almost every weekend during the fall.

And so one of those things that I carry around with me is a GPS watch. And while I'm tracking while I run, I find it really interesting of, OK, maybe I'm going a little slower this lap. Maybe I'm picking up the pace. But it's really after I'm done with a run where I kind of see those metrics and understand, oh, that's really why I was going slow. This hill was a much, much tougher than I thought it was. So I take that curiosity with me from outdoors and from GPS tracking into everyday workplace and in the AEC industry.

So one of the things that I really feel compelled and stumble upon are these really complicated graphs. So there's a bit of a theme of twos throughout the whole presentation. So I'm going to highlight two graphs and then start to share how those impacted me and how I start to frame the tech stack that I use.

So the first of those two graphs is this history of BIM diagram or mind map. When I stumbled across this, I'm already walking into it, just open to understanding data. But it was the first time that I had seen not just the tools themselves, but the history of those tools and the people and the external factors that start to impact the ecosystem of the tools that we use.

Now, this is really interesting from a highlighted level. And, of course, it's a Miro board, so we can zoom in and out of it, but where to really start? So this was one of those things that I indexed, really cool. I revisit it from time to time. But still framing of how do I dive into specific tools?

So then along with that, a couple years ago, I stumbled across an article that was talking about Revit and how architects are using and trying to understand how the improvements to Revit can be integrated into their modern practice. And so the article itself was really compelling. But, really, this diagram at the very end of it was what I lingered on the most. It was the first time that I had seen Revit positioned, and it's kind of explaining, OK, here's the center of our spoke and understanding here's the capabilities that we can use within Revit.

But, also, here are some external tools that maybe are Autodesk provided, maybe they're not. But what are the capabilities of Revit? And so I started to think about not just Revit, but all of the tools.

When I started in practice as a designer, I had a general sense that, OK, for documentation, for model creation, I would be using Autodesk tools. For presentation, I would be using the Adobe suite. For early concept modeling, I might be using [INAUDIBLE] or at the time Google SketchUp.

But now seeing how these tools are progressing, I started to take these primary categories and develop a little bit of my own map to understand, OK, not specific to Revit anymore, but what is important in modern day practice of these different categories and how we break them down and how they start to fill into our workflow? So we'll revisit this as we go on throughout the presentation.

But these are those primary categories of thinking, where do we start when we model? What are we offering in? How are we optimizing that workflow? Are there ways for us to share that information with colleagues? How are we collaborating externally as well as internally?

How are we taking that authoring information and presenting it to a client or to internal stakeholders? How are we taking that presentation that may just be a drawing and actually adding that next level of character to it? And then as we move forward in sustainability, in practice, how do we critique and analyze the performance of those buildings? And so, of course, documentation being the underpinning, so really lingering on documentation as we head into what I want to start to outline as really this continuum of design technology history.

So it's interesting to point-- and I really want to start at basics, not digital technologies, but haptic physical technologies. As an industry, we started on paper. And so I'm not stating that we started using paper in the 1930s.

But there's a much richer history to this, much more than I could fit onto this diagram. But generally speaking, these paper practices were labor intensive and took a lot of physical storage and management of documents. So time consumption, limited ability to share and collaborate those documents.

Now, I do want to linger on this last bullet on this slide in saying that a lot of the mechanisms that we use in practice from a legal standpoint were established in this era and are still used as a dominant reference point. But as we started to understand, OK, how can we drive efficiencies, we moved to this next era of CAD. And interestingly, as we start to look at this and build out this diagram, some of you might start to think, why is Harrison listing this in the '50s? I didn't start using the tool until much later.

So the first instance, we see the remaining of these tools is going to be when we start to see academic settings. And those terms show up in academic papers and research. But CAD starts to represent, of course, that task translation from paper into a digital medium. We can increase precision. Now we can store those documents digitally, which means revisions become easier, and we can share those files more readily.

So that reference point back to when we first start to see AutoCAD hit the Market-- it launched in 1982, so really calling attention to the fact that there is this time gap before when we first see the term and when it becomes a tool that is ready for the marketplace and for our industry and AECO to use. So, of course, with that required significant training. And from a firm standpoint, there was an investment. How do you train people? How do you understand the hardware and the software that needs to be leveraged in practice?

So continuing to build on this timeline, in the '70s, we start to see the term BPD pop up. And so no longer were we just thinking about the digital translation of the task. But what if we were to design the system inside of a digital framework that we're not just thinking about points and lines on a paper, but what if we think about these objects as a database, something that we can start to run analysis on, something that we can start to query against where we're not just thinking about lines, but we're thinking about walls? OK? Then we can think about what objects get hosted into walls.

So a lot of you will recognize this framing is exactly what we talk about when we use Revit. But again, we see-- in the '70s, the terminology comes out. But it's not until 2000 that tool hits the marketplace in a way that we can consume it and use it for everyday practice. And again, the same thing, same translation. Except to a greater extent, there's a steep learning curve, specifically with BIM tools.

And it completely changes. No longer-- so it's an inversion of our production where it's not just a task translation. We're forced to think about our process differently. What becomes important? So those same software and hardware implications exist to a greater extent now. And we haven't gotten rid of CAD. We're using it in tandem alongside BIM.

So now, we get to today. And again, we're building down as we go. But now academically, we're a little bit into the past. So there's been a period of times of understanding. OK, the terminology comes out, we see it progressed in certain extents. And then we see, specifically with AI-- machine learning and AI-- stops and starts. AI winters, where the technology receives a lot of investment and just doesn't necessarily get to where we expected it to be or hope that it would.

But now we see something like Forma launch. After Autodesk acquisition of Spacemaker and then translation into Forma, we can start to see where these tools will start to land in practice. And we're just starting to hit that era-- so starting to hear the terminology that did last year at AU-- where we heard outcome based design or outcome based BIM. It's interesting. OK, what does that start to mean to practice? What can we learn from the translation from paper to CAD and CAD to BIM that starts to give us a little bit of a glimpse to what we can expect from tools like Forma?

And so like I mentioned, I want to start to build out this specific diagram. So these are just content headings that I was trying to tease out in modern day practice of understanding what we can do. Now, if we apply that to the paper era where we had these physical translations, maybe this is what each of these tools would be.

So maybe we had one tool that was used to optimize. Maybe we had a Mayline. In institutional knowledge management, maybe we had a guidebook-- standards document in the office that everyone would reference. And so as we build this out, these do represent specific tools to my firm, Hart Howerton. So keep that in mind, that these are specific reference points that I can explain. So very small set of tools here in the paper era.

Now we move to the CAD shift where there are still a lot of tools or we're adding tools on, but it's not insurmountable. It's reasonably expected that one person or a handful of people in the firm are going to have a great depth of knowledge of each of these tools. So we've added hardware. We've added software. We've added technical ads and pickups from a digital standpoint for improvements, but still relatively manageable.

Now we get to the BIM paradigm. Like I said, this is Hart Howerton's active tool stack. So when I think about each of these tools-- there's a specific tool that we use for authoring. And it understands, OK, are we thinking about-- are we starting a model in Revit? Are we starting it using SketchUp? Are we starting it using Rhino? Each of those would fall into our authoring bucket where as we move around, is it reasonable for any one person within the firm to be able to leverage that knowledge that becomes that knowledge component?

And while I'm here, I think it's interesting to point out that we are a heavily Revit and Autodesk dependent firm at Hart Howerton. But it's interesting that there are lots of functionalities that can be added by reaching out and finding developers that are adjacent to the industry-- or adjacent to Autodesk, that is. And of course, we also use tools that are not Autodesk provided. As I mentioned, Adobe products. So it's interesting to see how that tech stack plays out, and how we can start to leverage it as we move forward.

And now, along with that terminology that I was starting to hear last year at AU, I attended a very impactful session for me that was given by the strategic foresight team at Autodesk. And it presented this diagram on the cone of plausibility, and I want to present it here today as we talk about the context of past tools and where we're headed.

And so we think about the continuum moving forward, and we start to think about where these tools are headed and how we might leverage them. Some are going to be more probable than not. Of course, we as practitioners and design technologists, we have to attempt to find the area that's going to be best suited for our firms. But I find this to be a really compelling diagram that just helps to explain potential futures.

Now the history of the tools. They're just tools, in a general sense, right? They're hoping to find the right audience for a use case of pickup, and to start to implement into practice. But ultimately, where we see those tools is in the hands of people. So it's important to talk about what digital maturity looks like at a firm and for individuals.

So to talk a little bit through technology acceptance and through how to frame this diagram, think about the stack on the right as the barriers to entry for technology acceptance. And on the top of this graph, we have not addressed. And on the bottom, we have resolved. So the further, we get to not addressed, maybe it's something that we as individuals in the industry, or me as a design technologists at Hart Howerton-- I need to clear those barriers for my team.

So if we think-- let's look at the middle of these three diagrams, as it were. Maybe a firm goes out and strategically hires the design technologists so they have that in-house expertise component covered. Along with that, maybe they're positioning them as a trainer of staff, so that staff training is covered. But there's still the component of cost software, so we're kind of sitting in the middle of the diagram with cost software.

And maybe at this point, we're anticipating some client demand. But it's not quite sitting there yet in terms of utilization of new tools. And then we're working-- of course, it's a new tool to us, so we don't have any established or recognized use cases, and we're starting to build out those standardized protocols. So start to think about the tools within your company. And whenever they're brought in, how do they start to disseminate and how are they accepted?

So with each individual that you confront, there's this technology acceptance model. And what it states is that there's two general gates for an individual. We'll keep it with individuals at now. But there's two gates that have to be passed. Does the individual perceive it to be useful, and is it easy to use? So those are the two components that are really important.

And as I start to head into this next-- like I said, diagrams of twos. So we have the technology acceptance model, and now we're moving into diffusion of innovation. So the second of these two diagrams, as we start to think about-- OK, we're perceiving it to be easy to use and we're perceiving it to be useful-- think about these as the individuals that you confront and that you work with in your own firms.

So the innovators are always going to find the silver lining and a use case for those tools, and want to get their hands on it. And then as we move along, as we're building out this bell curve, we have early adopters-- typically in leadership roles-- expecting change. They want to find things that are easy to use to implement into practice.

Then behind those, we have our early majority. And continuing to move forward, we have the late majority where typically, it's a little bit tougher. Right? We're on the other side of our bell curve where we have to provide statistics or information to win these people over. So the perception of ease of use or the ease of use of a tool is not as palpable to this group of individuals.

And then at the very end, just to round this out, is to talk about laggards where it's typically fear that's driving them or the fear of being left behind, in a general sense. So is the technology-- it's no longer beyond just being useful. We have all of our adopters before that. But we need to get this last group.

So if we take this diffusion of innovation and apply it back to our timeline, I found it interesting to think about what if I were to take this graph and kind of extrude it and twist it, and think about what does this look like on the timeline? So if we look at CAD first, we start to build out our tool adoption and think about-- OK. When was the first time-- or when did we move out of innovation and early adopters and into the early majority?

So the purple bar that I have positioned in the middle part of this graph is really starting to allude to, OK, we've probably hit early adoption. So if we take that and we extrapolate it, and place it on both CAD and BIM, it starts to show this compelling overlap between CAD and in BIM where we had the late majority joining CAD at the same time that we were seeing the early adopters really get into BIM.

So interestingly for me, having worked at a number of firms where CAD and BIM were heavily utilized in both settings-- or in all settings-- it's compelling and helps me understand, oh, that's why there was friction. These people maybe were already or still struggling to understand what the use cases for CADs were, and we're getting to BIM already. I'm not ready for this.

And obviously, I haven't built out the AI side of this graph because Forma is relatively new to us as of 2023. So time will tell when we'll start to see the early adoption really hit for this, especially at the rate of technology is moving. But it's compelling to start to think about what are the overlaps that we're going to see in individuals, and what is the friction that we're going to start to feel? How do we provide those use cases, and provide the insight to those potential late adopters or to those laggards in a way that compels them to be part of the conversation so that we can knowledge share and gain from their experience?

So with that individual level, want to take it back to new hires in a general sense. So every individual is a product of their education and of their past experiences. And so when they join the workforce, they're typically what we've seen in my experience-- and leveraging knowledge resources out there as well-- that they're not necessarily versed in the tools themselves. The knowledge that they gain in education is on their content specific.

So as an architect, I didn't learn how to use Revit or how to use AutoCAD, necessarily. They were tools that I practiced, certainly. But the primary emphasis of the curriculum was on form, and on standard of care, and on professional practice. And so when we think about these tools as they implement, I wanted to start to extract that knowledge base.

So honing in on Hart Howerton-- my company-- specifically, we can start to think about the core disciplines-- that multidisciplinary firm of planning, landscape, architecture, and interiors. Now it's reasonable for the people that I work with that there's going to be some overlap where, OK, maybe planning and landscape architects and architects are sharing knowledge and thinking through a puzzle at the service of a client. So I want to move quickly past that line and actually into titles.

So in every firm, generally speaking, has this kind of career matrix. So it's just starting to extrapolate and think through these pieces that we have at our disposal. So if we think about designers, associates, directors, and principals-- fantastic. Those are external titles. Let's go one level deeper. Let's think about the roles themselves, because ultimately, it's the role that predicates how the tool or what tool is being chosen for a given assignment for a given project.

So from those roles, I started to group these two together and understand-- OK, as we think about growth through a career, who is the ultimate party that is going to be driving or creating digital content, and who is going to be guiding that process? So we have our BIM authors as one party that's creating that content, and we have the process leader.

Maybe they don't have the depth of knowledge in a specific tool, but they understand the standard of care and the legal mechanisms, and are teaching and are mentoring that younger generation utilizing the tools, or helping red line culture of, OK, this needs to be changed. So they might not know the specific mouse movements or the commands to use, but again, it's the importance of that process.

So let's go back to that tech stack diagram. Let's think about the process leader leveraging and understanding the tech stack. And the BIM author understanding and saying, OK, this is going to be the right tool. This is our scope of work. This is our client. How do we start to leverage these to become better at them?

And of course, with any company, we're going to be in this situation to where we have those process leaders and BIM authors who are accepting that technology. And they're going to be a product of the diffusion of innovation within that company. So have we cleared those barriers to entry? Are we standardized? Do we have protocols? Do we have in-house expertise? Or is that going to free up bandwidth or the clarity so that we're in the early majority and feel confident moving forward?

So as these process leaders and BIM authors head into a project environment, this is what we start to see. And so these are diagrams, of course, that are fascinating, and happy to answer any questions on them. But of course, they start to represent what we might see and what I've seen in practice, where maybe we have one design BIM author who's really hyper focused on a project. And the process leader is balancing multiple contracts, multiple clients. And so they are dedicated to the project, but they're also focused on other work. So it's really the BIM author who's helping to shepherd the initiative forward.

And at the same time, we're going to have our engineering team, and our construction team, and our client owners and operators who are all part of this conversation within this Prozac bubble. So is it reasonable that we're going to have six power users or early adopters or, if we're lucky, innovators who understand the technology at a granular level, and are able to push it forward not just at an efficiency standpoint, but in a data integrity standpoint? They understand it for what it's doing. So each of these bubbles and each of these modules start to represent how we might start to see practicality.

So honing into one of those specifically that I interface with a lot is a landscape team. So let's say the landscape team is making a distinction depending on where their site is in the world. And they need to understand based on who the BIM author is and their technical capabilities, and who the process leader is, and their confidence either to use a new tool or to use something that already has major adoption.

So this is what, as I mentioned, each of those bubbles within that tech stack diagram starts to represent specific tools. So maybe for a lot of the work that I do-- or not maybe-- for a lot of the work that I do, we use Esri JS as a resource because we're comfortable and confident starting off with that. We can get our State Plane Coordinate System and understand the impacts very closely.

But we need to move that into a modeling software. Well, depending on the process leader in their confidence and ability, are we moving that into SketchUp? Are we taking that into an Autodesk product like Civil 3D or maybe AutoCAD? Or are we moving towards Rhino and Grasshopper? It's going to be determined by those individuals. And so as we think about projects and we think about individuals, it doesn't just become this tool is the tool. It's what's going to be best suited for this project and this client.

So with that concept of thinking about multiple tools as we spread out across different projects, I want to start to dive into what project archives actually look like. Now, before we get to that, I want to distinguish between process management and task management.

The more and more I started to think about and look into outcome based design, I started to understand that there is this distinction between process and task. And so are we really expecting support from algorithms on a process standpoint, or is it best suited from a task standpoint? So we'll continue to revisit this, but are we thinking about the sum of all these parts or are we thinking about a very specific task that we take on with this short term objective?

So if we hone in on those processes, I'm going to use the AIA Basic-- Architect's Basic Services as a grounding mechanism for us as we move through this. But if we think about those core services-- schematic design, design development, construction documents, bidding and negotiation, and contract or construction administration. If we think about them, just as five equal bubbles, it's not really what they are.

What do they represent to you and to your company as it relates to revenue? And these are going to be different for each. I'm just using these to ground and think through this. So from a revenue standpoint, maybe the diagram looks like that. How much time are you spending on that? Maybe you have a general understanding of your revenue and your time expenditures for those five services. But have you ever thought about the digital assets you create during those processes? Regardless of the tool, just what are you creating and how much overlap there is.

So if we take those processes and start to think about the individual tasks, maybe we start to find areas where we can infuse algorithmic thinking and start to expedite processes. Do we need support in refining the 3D model? Or are we really trying to go from text to 3D massing as quickly as possible rather than just saying, OK, we're going to do all of schematic using an algorithm or outcome based focused?

So I was fortunate enough, being in the Bay Area, to attend a seminar or symposium for Autodesk Platform Services. And at that seminar, Jim Quanci stood up and gave this compelling argument that was talking about Autodesk. Now, the Platform Services event was specific to software developers, but I found this analogy really compelling.

As he was referencing Autodesk as this elephant moving forward-- this powerhouse of technology creation for the industry-- and to the individual software developers in the room, they could start to leverage Platform Services, but they had to be very wary and skeptical of which path they chose. Were they going to do something that was directly in the path of the elephant in this scenario? Or were they going to do something off to the side that supplements the industry?

And so back to that tech stack diagram that we saw that referenced those kind of supplemental tools that we use at Hart Howerton, we really like to work with a lot of those-- maybe not direct path developers, but off to the side because they're really helpful and supportive of those efficiencies.

So not just from a developer standpoint though, but I have this expectation now seeing Forma come out and saying, OK, we're starting to use terms like outcome based BIM and outcome based design. Autodesk is thinking about these things. They're forging a path ahead. So what becomes important to me as an individual design technologist supporting a firm? How do I stay out of their direct path and help my company prepare information and data that we can learn from our archives to prepare to use those tools?

So the first step that I took on was just trying to think about our digital asset creation process. So what I did, what you're looking at here are these asset ribbon diagrams. And so these represent four distinct projects where I went in and looked at project archives and said, OK, I just want to know the magnitude of all of the files that we have within a given folder on our server.

And so if we look at project A, I started to find these things pretty interesting the more and more of them I put together. But if we look at project A, we see that first real peak. So it's this kind of light gray, but that first peak represents JPEGs. And I started to see that appear on multiples of these diagrams.

So if we look at the same peak in project C and in project B, to me, that started to echo-- OK, we are in concept design. We're going on site. We're taking a site visit. We're understanding. We're creating site analysis. And as we move through each of these diagrams, they start to be a little different. We're catering to the client's needs. And this is not something that we're asking the teams to actively manage. This is passive data where we're just peering in after the fact and creating that timeline.

So we see this mass-- looking now at project C, I started to see these spikes of data and information that I could start to really unpack and peer into deeper. Where the largest masses that we see on any of these diagrams, with the exception of JPEGs-- that light gray, those first spikes-- it's really starting to become PDFs and email messages-- correspondence as we're just tracking for record keeping purposes.

But I started to linger more and more onto those PDFs. Is that really the data richness? Now, this is a magnitude. This is a count. So maybe I'm thinking about the wrong metric here. It's not just about how much, but what is quality data? What does quality data start to look like?

So as we extrapolate that project workflow, going to grossly simplify here. So in a general sense, we're awarded a project. We do the work. Does it fulfill the contract? Doesn't? We're going to continue to do the work. Once it fulfills their contract, we give it to the client.

Now reaching from my own experience across different firms, how often does this process happen where you're seeing it? And don't necessarily mean QA/QC from do we meet the standard of care, and do the documents correlate and correspond appropriately? I mean, the QA/QC that is looking at the digital documents and the digital files that are creating these data sources that we're going to start to try to tap into when we get to outcome based design.

So this last question here-- how much do we deviate from our standards and templates? How often do we think about that? How often do we track it? So just pulling some real quotes from some colleagues that I've worked with. QA/QC really being focused on that document process. And of course, there are clients pushing BIM initiatives.

But looking at critical mass of the industry, how are we preparing to think about digital QA/QC where it's not client driven? And even if we have a client driven process, is it something that is-- how are we translating that internally so that all of our information internally aligns?

So some of my favorite here-- or one of my favorite is to point out is we only use Revit for the drawings. We don't need the data to be accurate. We don't need the model to be accurate. OK. That's an index for me as a technologist. I can have confidence in the drawings. And of course, we can debate that. But when I hear that statement, it's an indicator that I need to be skeptical of that model. And here's a couple of use cases that-- some are admittedly fabricated for this presentation, but I've seen all of these in practice.

So things like geometry warnings. OK. If I want to start to harvest information or look for data within models, can I pull geometry from this model? I have to be skeptical. And then some of the ones that are a little bit more egregious-- thinking about revisions.

So the revisions aren't actually native to the model. So maybe we're trying to create these closeout documents, but someone has created a clever workaround that works for the documents, works for the contract, what we're responsible to the client. But it's not actually tracked back to the model. So again, this is pushing me more and more towards PDFs.

And then maybe this is one that I shouldn't be sharing as a presentation. But knowing that there is the possibility to override a dimension in Revit, how confidently can I use details if I scale them? If I am able to communicate to a machine, OK, here's what the graphics scale is. Well, how do you read the dimension versus the graphics scale? What's the conflict inherent when you find a difference?

So one of the things that we started to do at Hart Howerton in my team was lean into and try to peer what can we leverage. We know, again, Autodesk is forging ahead. And we're going to start to see more and more tools come that we can tap into, but how do we prepare our information and our data to be able to engage in that conversation when it comes?

So we honed in on these three areas of our work breakdown structure, project directories, and our digital and physical archives. Now, these are simple. We're going to start to unpack these even more, but it's just thinking about where our primary data source is.

So as we really start to break down our work breakdown structure, it gets even more confusing than that. As a company, we have a solid foundation. We understand what each of these means for project, step, and task. But how we converse and how we communicate with our partners either as tool providers of tool for sustainability analysis, or when we're contributing that data to the [INAUDIBLE] DDx, the way that we're using words is different.

So if we're trying to do an analysis just using something like a word count-- well, if we're using that against my company information or Cove.tool or the DDx, project is going to mean something different, or it does mean something different. So creating these relationship diagrams has become kind of a hobby of mine of just understanding what do all of these different terms mean. And even though we're using the same word, they mean different things.

OK. So we're starting to explain and really dive into the history of the tools for tools sakes, what those tools look like in the hands of people, and what people create with those tools. And so if we start to then peer to the next step of this argument where what is the information that we can take from the content people create? So the whole goal of this exercise is to think about what is the intent of the data.

So when it's created, what can we start to leverage? We're at the end of the process. We're peering back in general 2020 vision of saying, how can we harvest the information? We did a lot of good effort. How do we take those lessons learned and feed them back to the beginning of the loop in a way that either teams are confronted with or we're building these intelligent systems that can support us along the way?

So me and a colleague have really started to think through this idea of business intelligence is out there as a practice. We see it in Power BI. If you're in data visualization, analytics, it's a common term. But internally we've started to use this term-- design intelligence. So not just thinking about the infrastructure or the business operations, but how do we focus the design data back to what's important for our standard of care, and for the images and depictions and creativity that we can give back to the client?

So it's thinking about these internal versus external factors, business intelligence on the right being, infrastructural and internal. And of course, there's overlap within project support because we're in the business of design. But if we think about those primary objects-- if we think about those documents, those models that are intended to be represented externally-- that's where we start to create this framework for design intelligence.

So how do we source it? Design intelligence is the goal. What is the process to compile relevant data, and what are the tasks we can use to augment through the machine learning and AI? So our first approach at Hart Howerton was to think about our data sources.

So if we think about these different data sources as buckets of what information or what data points we might find, we'll see things like our business data, our technology data, information that's coming from those tools that we've been talking about. Or the results of those tools where we have the project drives, where all of these things get saved, where I had those ribbon diagrams that starts to talk about things.

And oh, by the way, we have to recognize pieces that maybe we want to try to avoid. But how many people are saving standard templates to their C drive? How many people have created a deviation? Is that deviation something we should actually be training on? How do we find that?

So these aren't there to say this is everything we're tapping into today. It's how do we start to think about those locations and data sources. So when we think about what those data models look like today, if we try to create relationship diagrams, it's very much point to point. We can tap in. We can use APIs to say, OK, I want to take this Revit information and I want to point it over to another location. So we can use things like ACC, and we can use the data model explorer to understand how do I extract in the data model exchange?

But in a general sense, I'm thinking about outcomes. If I have to think about two tools at the same time, that's a great starting point. But I'm going to be a little bit more selfish than that. I have a conception of-- there's a lot of data out there. How do I start to bucket these things together?

So we're borrowing from tech and understanding, OK, business, intelligence, business data-- we have this concept of creating data lakes-- data warehouses. Why can't we do that for design? How do we create a data lake for our design intelligence data and start to path it into an analytical process where we can peer in, we can query, and we can define outcomes that we want to take into task optimization?

So at Hart Howerton, we started with a simple use case, or seemingly simple use case. So focusing on contract documents-- so we want to start at the end of the process. What did we create? What did we deliver to the client? So the reason these numbers are out of sequence is to talk through those intricacies. But contract documents is the end of the process. That's what we're focused on today.

We know eventually that we want to use our contracts and proposals as either validation or a back check to understand, OK, there's going to be deviations as it relates to either scope creep or time increase or external factors that we didn't account for in the contract phase. And ideally, we've received more work from the client, so new work authorizations.

But we're going to start with contracts and then eventually we'll go from contracts-- sorry. Contract documents-- the end of the process to contracts. And then eventually-- again, understanding that Autodesk and other developers are working towards these authoring models, how can we start to see glimpses of these things?

So contract documents. While we started to look into these things, the more and more we appeared, it wasn't-- we didn't just pick contract documents because that's what we wanted. I would love to take all of my Revit models and all of my CAD models or CAD files, smash them together, and take the data, flip it upside down, and see what I can take out of it.

But as we were leveraging some of these modern AI, generative AI tools, generative algorithms, we were noticing that the tools we can leverage were mostly based on text extraction or text search. So where do we have lots of text? Contract documents. How can we start to leverage that? It's also this interesting interplay between we can start to try to push vision models towards it, but ultimately, we do have a lot of text embedded in it.

So the first simple process here is this is our, quote unquote, "latest and greatest diagram". So if we really extract this process and think about what we can find and what we can start to learn from, we have our latest and greatest documents of-- OK, we've made it to the end of the process. We have an as built file. If there is not an as built file in one of these folders, then we're going to search for revision.

We're going to continue down the chain until we find a document that fits this criteria. And the title block recognition is where we can start to see, OK, can we leverage OCR? And can we point specific page labels and create page labels from certain areas? So that's where standardization comes into practice. Are we using those standard protocols. But we can start to use naming protocols.

So what did that process look like for us at Hart Howerton? We started with the network server. First and foremost, we wanted to diagram or create a process that we did not have to rely on a checkbox or someone to validate the information. We just wanted to run it in one fell swoop. So is the folder empty? It's not. We found files. Fantastic.

Now, within all of those files-- which could represent 40,000 files within a given folder-- we need to find one or a handful that represent the area of the WBS that we're looking for. So we're finding that latest and greatest documents. And then while we're going through it, we're already going through the pains of trying to find something. Is it going to match our naming convention? Because the more and more we're learning about these standard processes and scripting, we're understanding that it's really important to have these systems in play.

So while we're doing this, we can kick it out. We can look at the data tagging and start to create data tagging. But is this something that we need to create a feedback loop to notify RPMs so we can improve the processes as we go? That's why we see this chain up to the top of naming convention.

Now, sample questions you can ask. These were questions that we were fielding and saying, OK, we're going do this exercise at Hart Howerton as a design technology team. Designers, what are questions that you want to know from the data today? Not necessarily talking about outcome, but we're starting to find glimpses of it. OK, what are the questions that you want to be able to query from our information, from our institutional knowledge?

Interestingly enough, we get this question a lot. How many projects have pools or what projects have pools? Do we have projects that have scope for electrical vehicle charging? So maybe that's not widely known in the firm, and so finding those things can be really helpful when we're trying to reference details.

Where are all the projects in my portfolio that you see as a structural material. So just very simple. Maybe one. We can do a quick query for these things, but what if we start to stack these? What are all the projects that have a pool, electrical charging stations, and contain CMU structures?

Now we can start to see these complex querying that is going to require a different setup. And oh, by the way, our users don't just want to know the answer to this question, they want to know where to be able to find it. So we have to map that back to its original location.

So where we're at today, here's what we did. We trained GPT model and actually extracted metadata from those construction documents, or the approved latest and greatest that we found. And we started to synthetically create metadata as extractions from those files.

So as you can see here, we were up to about 416 of those projects based on documents. And so what we're able to use from this is this natural language querying that any user can go in and prompt that type of question that I asked, and it can create that feedback list. We have these mapped to where it's going to tell you where on the network drive to find this project.

So it's personalized to our company, which makes it fantastic. So it's not just going to Google. There's a use case to actually use this specifically to Hart Howerton knowledge management, and it's a quick reference. But these are the pieces that we knew were inherent as we were confronting the vision models where there are geometry deficiencies.

So we were having a lot of fun with it. But we were prompting and saying, OK, tell me about the style of the building. We would run the documents through the vision model, and it didn't know how to read an architectural or a floor plan in the way that a designer or a human would today. We tried to get a little bit more nuanced with it and just ask a simple question. What's the style of roof in this project?

And we got some great results. And, hopefully maybe some of you have found it as well. But one of the interesting things that we discovered is that it's ultimately looking at the text today. So it's not trained on AEC data. We have hoped that this is going to continue to move forward. I'm going to expect it to. So again, how are we preparing our information and recognizing where the deficiencies are with these technologies today?

So of course, that's where we're at today, but that's not where we started. We kind of took this multiple direction approach of saying, OK, we're going to shoot for that. But if we don't get that, where do we land? Well, we ended up getting both, which is fantastic.

But this is more of a simplified query search where it's the same metadata extracted, but it's mapped back to those individual project records. So a user can come in here and say, I want to understand all of the projects in the firm that were using this building code. So I have IBC 2018 listed in the query or the search here. So that's just one use case.

But it's really interesting to see the types of queries that people will ask, the metadata that they're interested in, and how we can very quickly-- because we have all of these documents-- reiterate on top of it and start to use that knowledge sharing back and forth to bring those lessons learned to the forefront. But of course, even though the search is simplified and easy to use, it just relies on traditional querying format.

So really, what is outcome based design? And why am I talking about it? And why am I so heavily leaning into data? Outcome based design is about leveraging human knowledge to establish the goals and processes of a project. Algorithms will iterate those tasks to present the best solution for the desired outcome.

So through the review of design technology's history to date, illuminating why and how people adopt those technologies, and sharing how we're making the effort to not just throw information at the wall and see what sticks, but actually learn from the history of data, we can develop informed processes that leverage human knowledge to produce more and better with limited resources and talent.

______
icon-svg-close-thick

쿠기 기본 설정

오토데스크는 고객의 개인 정보와 최상의 경험을 중요시합니다. 오토데스크는 정보를 사용자화하고 응용프로그램을 만들기 위해 고객의 본 사이트 사용에 관한 데이터를 수집합니다.

오토데스크에서 고객의 데이터를 수집하고 사용하도록 허용하시겠습니까?

오토데스크에서 사용하는타사 서비스개인정보 처리방침 정책을 자세히 알아보십시오.

반드시 필요 - 사이트가 제대로 작동하고 사용자에게 서비스를 원활하게 제공하기 위해 필수적임

이 쿠키는 오토데스크에서 사용자 기본 설정 또는 로그인 정보를 저장하거나, 사용자 요청에 응답하거나, 장바구니의 품목을 처리하기 위해 필요합니다.

사용자 경험 향상 – 사용자와 관련된 항목을 표시할 수 있게 해 줌

이 쿠키는 오토데스크가 보다 향상된 기능을 제공하고 사용자에게 맞는 정보를 제공할 수 있게 해 줍니다. 사용자에게 맞는 정보 및 환경을 제공하기 위해 오토데스크 또는 서비스를 제공하는 협력업체에서 이 쿠키를 설정할 수 있습니다. 이 쿠키를 허용하지 않을 경우 이러한 서비스 중 일부 또는 전체를 이용하지 못하게 될 수 있습니다.

광고 수신 설정 – 사용자에게 타겟팅된 광고를 제공할 수 있게 해 줌

이 쿠키는 사용자와 관련성이 높은 광고를 표시하고 그 효과를 추적하기 위해 사용자 활동 및 관심 사항에 대한 데이터를 수집합니다. 이렇게 데이터를 수집함으로써 사용자의 관심 사항에 더 적합한 광고를 표시할 수 있습니다. 이 쿠키를 허용하지 않을 경우 관심 분야에 해당되지 않는 광고가 표시될 수 있습니다.

icon-svg-close-thick

타사 서비스

각 범주에서 오토데스크가 사용하는 타사 서비스와 온라인에서 고객으로부터 수집하는 데이터를 사용하는 방식에 대해 자세히 알아보십시오.

icon-svg-hide-thick

icon-svg-show-thick

반드시 필요 - 사이트가 제대로 작동하고 사용자에게 서비스를 원활하게 제공하기 위해 필수적임

Qualtrics
오토데스크는 고객에게 더욱 시의적절하며 관련 있는 이메일 컨텐츠를 제공하기 위해 Qualtrics를 이용합니다. 이를 위해, 고객의 온라인 행동 및 오토데스크에서 전송하는 이메일과의 상호 작용에 관한 데이터를 수집합니다. 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID, 이메일 확인율, 클릭한 링크 등이 포함될 수 있습니다. 오토데스크는 이 데이터를 다른 소스에서 수집된 데이터와 결합하여 고객의 판매 또는 고객 서비스 경험을 개선하며, 고급 분석 처리에 기초하여 보다 관련 있는 컨텐츠를 제공합니다. Qualtrics 개인정보취급방침
Akamai mPulse
오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Akamai mPulse를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID 및 오토데스크 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. Akamai mPulse 개인정보취급방침
Digital River
오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Digital River를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID 및 오토데스크 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. Digital River 개인정보취급방침
Dynatrace
오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Dynatrace를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID 및 오토데스크 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. Dynatrace 개인정보취급방침
Khoros
오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Khoros를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID 및 오토데스크 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. Khoros 개인정보취급방침
Launch Darkly
오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Launch Darkly를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID 및 오토데스크 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. Launch Darkly 개인정보취급방침
New Relic
오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 New Relic를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID 및 오토데스크 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. New Relic 개인정보취급방침
Salesforce Live Agent
오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Salesforce Live Agent를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID 및 오토데스크 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. Salesforce Live Agent 개인정보취급방침
Wistia
오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Wistia를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID 및 오토데스크 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. Wistia 개인정보취급방침
Tealium
오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Tealium를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. Upsellit
오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Upsellit를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. CJ Affiliates
오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 CJ Affiliates를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. Commission Factory
Typepad Stats
오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Typepad Stats를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID 및 오토데스크 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. Typepad Stats 개인정보취급방침
Geo Targetly
Autodesk는 Geo Targetly를 사용하여 웹 사이트 방문자를 가장 적합한 웹 페이지로 안내하거나 위치를 기반으로 맞춤형 콘텐츠를 제공합니다. Geo Targetly는 웹 사이트 방문자의 IP 주소를 사용하여 방문자 장치의 대략적인 위치를 파악합니다. 이렇게 하면 방문자가 (대부분의 경우) 현지 언어로 된 콘텐츠를 볼 수 있습니다.Geo Targetly 개인정보취급방침
SpeedCurve
Autodesk에서는 SpeedCurve를 사용하여 웹 페이지 로드 시간과 이미지, 스크립트, 텍스트 등의 후속 요소 응답성을 측정하여 웹 사이트 환경의 성능을 모니터링하고 측정합니다. SpeedCurve 개인정보취급방침
Qualified
Qualified is the Autodesk Live Chat agent platform. This platform provides services to allow our customers to communicate in real-time with Autodesk support. We may collect unique ID for specific browser sessions during a chat. Qualified Privacy Policy

icon-svg-hide-thick

icon-svg-show-thick

사용자 경험 향상 – 사용자와 관련된 항목을 표시할 수 있게 해 줌

Google Optimize
오토데스크는 사이트의 새 기능을 테스트하고 이러한 기능의 고객 경험을 사용자화하기 위해 Google Optimize을 이용합니다. 이를 위해, 고객이 사이트를 방문해 있는 동안 행동 데이터를 수집합니다. 이 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID, 오토데스크 ID 등이 포함될 수 있습니다. 고객은 기능 테스트를 바탕으로 여러 버전의 오토데스크 사이트를 경험하거나 방문자 특성을 바탕으로 개인화된 컨텐츠를 보게 될 수 있습니다. Google Optimize 개인정보취급방침
ClickTale
오토데스크는 고객이 사이트에서 겪을 수 있는 어려움을 더 잘 파악하기 위해 ClickTale을 이용합니다. 페이지의 모든 요소를 포함해 고객이 오토데스크 사이트와 상호 작용하는 방식을 이해하기 위해 세션 녹화를 사용합니다. 개인적으로 식별 가능한 정보는 가려지며 수집되지 않습니다. ClickTale 개인정보취급방침
OneSignal
오토데스크는 OneSignal가 지원하는 사이트에 디지털 광고를 배포하기 위해 OneSignal를 이용합니다. 광고는 OneSignal 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 OneSignal에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 OneSignal에 제공하는 데이터를 사용합니다. OneSignal 개인정보취급방침
Optimizely
오토데스크는 사이트의 새 기능을 테스트하고 이러한 기능의 고객 경험을 사용자화하기 위해 Optimizely을 이용합니다. 이를 위해, 고객이 사이트를 방문해 있는 동안 행동 데이터를 수집합니다. 이 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID, 오토데스크 ID 등이 포함될 수 있습니다. 고객은 기능 테스트를 바탕으로 여러 버전의 오토데스크 사이트를 경험하거나 방문자 특성을 바탕으로 개인화된 컨텐츠를 보게 될 수 있습니다. Optimizely 개인정보취급방침
Amplitude
오토데스크는 사이트의 새 기능을 테스트하고 이러한 기능의 고객 경험을 사용자화하기 위해 Amplitude을 이용합니다. 이를 위해, 고객이 사이트를 방문해 있는 동안 행동 데이터를 수집합니다. 이 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID, 오토데스크 ID 등이 포함될 수 있습니다. 고객은 기능 테스트를 바탕으로 여러 버전의 오토데스크 사이트를 경험하거나 방문자 특성을 바탕으로 개인화된 컨텐츠를 보게 될 수 있습니다. Amplitude 개인정보취급방침
Snowplow
오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Snowplow를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID 및 오토데스크 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. Snowplow 개인정보취급방침
UserVoice
오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 UserVoice를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID 및 오토데스크 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. UserVoice 개인정보취급방침
Clearbit
Clearbit를 사용하면 실시간 데이터 보강 기능을 통해 고객에게 개인화되고 관련 있는 환경을 제공할 수 있습니다. Autodesk가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. Clearbit 개인정보취급방침
YouTube
YouTube는 사용자가 웹 사이트에 포함된 비디오를 보고 공유할 수 있도록 해주는 비디오 공유 플랫폼입니다. YouTube는 비디오 성능에 대한 시청 지표를 제공합니다. YouTube 개인정보보호 정책

icon-svg-hide-thick

icon-svg-show-thick

광고 수신 설정 – 사용자에게 타겟팅된 광고를 제공할 수 있게 해 줌

Adobe Analytics
오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Adobe Analytics를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID 및 오토데스크 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. Adobe Analytics 개인정보취급방침
Google Analytics (Web Analytics)
오토데스크 사이트에서 고객의 행동에 관한 데이터를 수집하기 위해 Google Analytics (Web Analytics)를 이용합니다. 여기에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 오토데스크는 사이트 성과를 측정하고 고객의 온라인 경험의 편리함을 평가하여 기능을 개선하기 위해 이러한 데이터를 이용합니다. 또한, 이메일, 고객 지원 및 판매와 관련된 고객 경험을 최적화하기 위해 고급 분석 방법도 사용하고 있습니다. AdWords
Marketo
오토데스크는 고객에게 더욱 시의적절하며 관련 있는 이메일 컨텐츠를 제공하기 위해 Marketo를 이용합니다. 이를 위해, 고객의 온라인 행동 및 오토데스크에서 전송하는 이메일과의 상호 작용에 관한 데이터를 수집합니다. 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID, 이메일 확인율, 클릭한 링크 등이 포함될 수 있습니다. 오토데스크는 이 데이터를 다른 소스에서 수집된 데이터와 결합하여 고객의 판매 또는 고객 서비스 경험을 개선하며, 고급 분석 처리에 기초하여 보다 관련 있는 컨텐츠를 제공합니다. Marketo 개인정보취급방침
Doubleclick
오토데스크는 Doubleclick가 지원하는 사이트에 디지털 광고를 배포하기 위해 Doubleclick를 이용합니다. 광고는 Doubleclick 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Doubleclick에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Doubleclick에 제공하는 데이터를 사용합니다. Doubleclick 개인정보취급방침
HubSpot
오토데스크는 고객에게 더욱 시의적절하며 관련 있는 이메일 컨텐츠를 제공하기 위해 HubSpot을 이용합니다. 이를 위해, 고객의 온라인 행동 및 오토데스크에서 전송하는 이메일과의 상호 작용에 관한 데이터를 수집합니다. 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID, 이메일 확인율, 클릭한 링크 등이 포함될 수 있습니다. HubSpot 개인정보취급방침
Twitter
오토데스크는 Twitter가 지원하는 사이트에 디지털 광고를 배포하기 위해 Twitter를 이용합니다. 광고는 Twitter 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Twitter에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Twitter에 제공하는 데이터를 사용합니다. Twitter 개인정보취급방침
Facebook
오토데스크는 Facebook가 지원하는 사이트에 디지털 광고를 배포하기 위해 Facebook를 이용합니다. 광고는 Facebook 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Facebook에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Facebook에 제공하는 데이터를 사용합니다. Facebook 개인정보취급방침
LinkedIn
오토데스크는 LinkedIn가 지원하는 사이트에 디지털 광고를 배포하기 위해 LinkedIn를 이용합니다. 광고는 LinkedIn 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 LinkedIn에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 LinkedIn에 제공하는 데이터를 사용합니다. LinkedIn 개인정보취급방침
Yahoo! Japan
오토데스크는 Yahoo! Japan가 지원하는 사이트에 디지털 광고를 배포하기 위해 Yahoo! Japan를 이용합니다. 광고는 Yahoo! Japan 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Yahoo! Japan에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Yahoo! Japan에 제공하는 데이터를 사용합니다. Yahoo! Japan 개인정보취급방침
Naver
오토데스크는 Naver가 지원하는 사이트에 디지털 광고를 배포하기 위해 Naver를 이용합니다. 광고는 Naver 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Naver에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Naver에 제공하는 데이터를 사용합니다. Naver 개인정보취급방침
Quantcast
오토데스크는 Quantcast가 지원하는 사이트에 디지털 광고를 배포하기 위해 Quantcast를 이용합니다. 광고는 Quantcast 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Quantcast에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Quantcast에 제공하는 데이터를 사용합니다. Quantcast 개인정보취급방침
Call Tracking
오토데스크는 캠페인을 위해 사용자화된 전화번호를 제공하기 위하여 Call Tracking을 이용합니다. 그렇게 하면 고객이 오토데스크 담당자에게 더욱 빠르게 액세스할 수 있으며, 오토데스크의 성과를 더욱 정확하게 평가하는 데 도움이 됩니다. 제공된 전화번호를 기준으로 사이트에서 고객 행동에 관한 데이터를 수집할 수도 있습니다. Call Tracking 개인정보취급방침
Wunderkind
오토데스크는 Wunderkind가 지원하는 사이트에 디지털 광고를 배포하기 위해 Wunderkind를 이용합니다. 광고는 Wunderkind 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Wunderkind에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Wunderkind에 제공하는 데이터를 사용합니다. Wunderkind 개인정보취급방침
ADC Media
오토데스크는 ADC Media가 지원하는 사이트에 디지털 광고를 배포하기 위해 ADC Media를 이용합니다. 광고는 ADC Media 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 ADC Media에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 ADC Media에 제공하는 데이터를 사용합니다. ADC Media 개인정보취급방침
AgrantSEM
오토데스크는 AgrantSEM가 지원하는 사이트에 디지털 광고를 배포하기 위해 AgrantSEM를 이용합니다. 광고는 AgrantSEM 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 AgrantSEM에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 AgrantSEM에 제공하는 데이터를 사용합니다. AgrantSEM 개인정보취급방침
Bidtellect
오토데스크는 Bidtellect가 지원하는 사이트에 디지털 광고를 배포하기 위해 Bidtellect를 이용합니다. 광고는 Bidtellect 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Bidtellect에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Bidtellect에 제공하는 데이터를 사용합니다. Bidtellect 개인정보취급방침
Bing
오토데스크는 Bing가 지원하는 사이트에 디지털 광고를 배포하기 위해 Bing를 이용합니다. 광고는 Bing 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Bing에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Bing에 제공하는 데이터를 사용합니다. Bing 개인정보취급방침
G2Crowd
오토데스크는 G2Crowd가 지원하는 사이트에 디지털 광고를 배포하기 위해 G2Crowd를 이용합니다. 광고는 G2Crowd 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 G2Crowd에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 G2Crowd에 제공하는 데이터를 사용합니다. G2Crowd 개인정보취급방침
NMPI Display
오토데스크는 NMPI Display가 지원하는 사이트에 디지털 광고를 배포하기 위해 NMPI Display를 이용합니다. 광고는 NMPI Display 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 NMPI Display에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 NMPI Display에 제공하는 데이터를 사용합니다. NMPI Display 개인정보취급방침
VK
오토데스크는 VK가 지원하는 사이트에 디지털 광고를 배포하기 위해 VK를 이용합니다. 광고는 VK 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 VK에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 VK에 제공하는 데이터를 사용합니다. VK 개인정보취급방침
Adobe Target
오토데스크는 사이트의 새 기능을 테스트하고 이러한 기능의 고객 경험을 사용자화하기 위해 Adobe Target을 이용합니다. 이를 위해, 고객이 사이트를 방문해 있는 동안 행동 데이터를 수집합니다. 이 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역, IP 주소 또는 장치 ID, 오토데스크 ID 등이 포함될 수 있습니다. 고객은 기능 테스트를 바탕으로 여러 버전의 오토데스크 사이트를 경험하거나 방문자 특성을 바탕으로 개인화된 컨텐츠를 보게 될 수 있습니다. Adobe Target 개인정보취급방침
Google Analytics (Advertising)
오토데스크는 Google Analytics (Advertising)가 지원하는 사이트에 디지털 광고를 배포하기 위해 Google Analytics (Advertising)를 이용합니다. 광고는 Google Analytics (Advertising) 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Google Analytics (Advertising)에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Google Analytics (Advertising)에 제공하는 데이터를 사용합니다. Google Analytics (Advertising) 개인정보취급방침
Trendkite
오토데스크는 Trendkite가 지원하는 사이트에 디지털 광고를 배포하기 위해 Trendkite를 이용합니다. 광고는 Trendkite 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Trendkite에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Trendkite에 제공하는 데이터를 사용합니다. Trendkite 개인정보취급방침
Hotjar
오토데스크는 Hotjar가 지원하는 사이트에 디지털 광고를 배포하기 위해 Hotjar를 이용합니다. 광고는 Hotjar 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Hotjar에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Hotjar에 제공하는 데이터를 사용합니다. Hotjar 개인정보취급방침
6 Sense
오토데스크는 6 Sense가 지원하는 사이트에 디지털 광고를 배포하기 위해 6 Sense를 이용합니다. 광고는 6 Sense 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 6 Sense에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 6 Sense에 제공하는 데이터를 사용합니다. 6 Sense 개인정보취급방침
Terminus
오토데스크는 Terminus가 지원하는 사이트에 디지털 광고를 배포하기 위해 Terminus를 이용합니다. 광고는 Terminus 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 Terminus에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 Terminus에 제공하는 데이터를 사용합니다. Terminus 개인정보취급방침
StackAdapt
오토데스크는 StackAdapt가 지원하는 사이트에 디지털 광고를 배포하기 위해 StackAdapt를 이용합니다. 광고는 StackAdapt 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 StackAdapt에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 StackAdapt에 제공하는 데이터를 사용합니다. StackAdapt 개인정보취급방침
The Trade Desk
오토데스크는 The Trade Desk가 지원하는 사이트에 디지털 광고를 배포하기 위해 The Trade Desk를 이용합니다. 광고는 The Trade Desk 데이터와 고객이 사이트를 방문하는 동안 오토데스크가 수집하는 행동 데이터 모두에 기초하여 제공됩니다. 오토데스크가 수집하는 데이터에는 고객이 방문한 페이지, 시작한 체험판, 재생한 동영상, 구매 내역 및 IP 주소 또는 장치 ID가 포함될 수 있습니다. 이 정보는 The Trade Desk에서 고객으로부터 수집한 데이터와 결합될 수 있습니다. 오토데스크는 디지털 광고 경험에 대한 사용자화를 개선하고 고객에게 더욱 관련 있는 광고를 제시하기 위해 The Trade Desk에 제공하는 데이터를 사용합니다. The Trade Desk 개인정보취급방침
RollWorks
We use RollWorks to deploy digital advertising on sites supported by RollWorks. Ads are based on both RollWorks data and behavioral data that we collect while you’re on our sites. The data we collect may include pages you’ve visited, trials you’ve initiated, videos you’ve played, purchases you’ve made, and your IP address or device ID. This information may be combined with data that RollWorks has collected from you. We use the data that we provide to RollWorks to better customize your digital advertising experience and present you with more relevant ads. RollWorks Privacy Policy

정말 더 적은 온라인 경험을 원하십니까?

오토데스크는 고객 여러분에게 좋은 경험을 드리고 싶습니다. 이전 화면의 범주에 대해 "예"를 선택하셨다면 오토데스크는 고객을 위해 고객 경험을 사용자화하고 향상된 응용프로그램을 제작하기 위해 귀하의 데이터를 수집하고 사용합니다. 언제든지 개인정보 처리방침을 방문해 설정을 변경할 수 있습니다.

고객의 경험. 고객의 선택.

오토데스크는 고객의 개인 정보 보호를 중요시합니다. 오토데스크에서 수집하는 정보는 오토데스크 제품 사용 방법, 고객이 관심을 가질 만한 정보, 오토데스크에서 더욱 뜻깊은 경험을 제공하기 위한 개선 사항을 이해하는 데 도움이 됩니다.

오토데스크에서 고객님께 적합한 경험을 제공해 드리기 위해 고객님의 데이터를 수집하고 사용하도록 허용하시겠습니까?

선택할 수 있는 옵션을 자세히 알아보려면 이 사이트의 개인 정보 설정을 관리해 사용자화된 경험으로 어떤 이점을 얻을 수 있는지 살펴보거나 오토데스크 개인정보 처리방침 정책을 확인해 보십시오.