AU Class
AU Class
class - AU

Dynamo and AEC Generative Design Product Briefing

Partager ce cours
Rechercher des mots-clés dans les vidéos, les diapositives des présentations et les supports de cours :

Description

This product briefing will showcase the latest advances in Dynamo visual scripting, Dynamo Player for workflow automation, and Generative Design in Revit software for automated design exploration. Come learn from Autodesk AEC Generative Design product managers about where they've been focusing their efforts and what's on the road map for future releases. We'll use real-world examples to showcase these tools and show how we've improved the authoring experience in Dynamo and the running experience in both Dynamo Player and Generative Design in Revit. This briefing will demonstrate the value that Dynamo and Generative Design in Revit bring to the design process. We'll show how customers are using the tools to automate their workflows and design explorations in their projects in order to optimize sustainability and efficiency and produce less construction waste. We'll cover the product principles that we use to prioritize new work and future direction. Finally, we'll address the future of the product.

Principaux enseignements

  • Discover the value of Dynamo, Dynamo Player, and Generative Design in Revit.
  • Discover three examples of how customers are using these tools.
  • Learn about the driving principles for future prioritization.
  • Discover the future direction of the product and road map.

Intervenants

  • Avatar de Lilli Smith
    Lilli Smith
    Architect and Digital Enthusiast
  • Steven DeWitt
    With 25 years of experience in electronic modeling for design/construction/fabrication, Steve's passion for helping solve industry problems has led him to FactoryOS. Steve is a Certified Revit Professional and has enjoyed sharing industry trade topics at AU, San Francisco Computational Design user group, CAD Manager Confession, TAPS and is a Co-Founder of KitConnect. Additionally, Steve enjoys being an avid outdoorsman, a softball and baseball coach and playing chess.
  • Karam Baki
    Karam Baki is an Architect who started his BIM journey when he was 16 years old, and since then, his passion for knowledge has never slowed down. He usually solves extremely complex problems related to facade engineering in high profile projects. Karam started AECedx for education and and AEC Group for consultation, utilizing his skills to educate, manage and run teams across multiple countries around the world.
  • Alexandra Nelson
    Alexandra Nelson is an Associate on the Design Technology team at DLR Group, a prominent global integrated design firm. Her expertise lies in Research & Development, where she spearheads innovation in fields such as design automation, data science, and artificial intelligence. In addition to her role at DLR Group, Alexandra serves as a strategic advisor for Acelab, an AEC tech company that is revolutionizing the way architects and design professionals access building products through their data-driven library and product ecosystem. Alexandra has earned a master's degree in both Architecture and Information Technology from the University of North Carolina at Charlotte, reflecting her deep commitment to merging technology and design. Prior to her tenure at DLR Group, she gained valuable experience at distinguished architectural firms, including Grimshaw Architects and Perkins Eastman in New York City.
  • Avatar de Sol Amour
    Sol Amour
    Sol has a background in a myriad of design fields (Construction, Landscaping, Industrial Design and Architecture) but works at Autodesk as the Product Manager of Dynamo, responsible for the strategy, vision, direction and growth of moving forward. His ethos is that we should leverage the computational power available to us to automate many of the back end processes the modern world demands to allow us to get back to what we all want to do - Spend time on the human component of building making; to consider, to think, to play and to feel, to bring design back to the forefront allowing us to beautifully and holistically enhance the built fabric of our world.
  • Benjamin Friedman
    Benjamin Friedman leads DLR Groups Data Science and AI team. He has deep experience in deep learning, optimization, and generative AI that enables him to drive innovation and expand DLR Groups design thinking, quantify evidence-based design, and improve project timelines. After studying GeoDesign (Architecture and Planning) at the University of Southern California, he has led and worked on data science teams in the sustainable tech and energy spaces. Two significant achievements include leading data collection and distillation efforts for agriculture emissions tracking for Climate Trace and the UN Climate Conference as a part of Carbon Yield and developing the core operating logic of one of the largest residential virtual power plant systems in the world at Swell Energy.
Video Player is loading.
Current Time 0:00
Duration 54:07
Loaded: 0.31%
Stream Type LIVE
Remaining Time 54:07
 
1x
  • Chapters
  • descriptions off, selected
  • en (Main), selected
Transcript

LILLI SMITH: Hi, everyone. Welcome to the Dynamo and Generative Design Product Briefing. My name is Lilli Smith. I'm a senior product manager in the Computational Design & Automation Group here at Autodesk, and I am a registered architect who practiced architecture in a previous life. During my time at Autodesk, I have worked on many tools, including Revit, Formit, Dynamo, and Generative Design in Revit. I'm also joined today by Sol Amour.

SOL AMOUR: Hi, everyone. My name is Sol Amour, and I'm also a product manager in the Computational Design & Automation Group at Autodesk. I am from New Zealand, and have a background in architecture, construction, industrial design, and many other fields. And I'd like to describe myself as a curious human being. I've been here at Autodesk around 4 and 1/2 years, and have been deeply immersed inside of the Dynamo ecosystem since its early days.

LILLI SMITH: This talk is going to cover what new software we have in the works. Please remember not to make purchasing decisions based on statements we may make about future functionality. These are the learning objectives for today.

I'm going to start with a little bit about why we think computational and Generative Design workflows are so important. Then we'll talk about what's new in the products. And next, we'll feature four computational design practitioners who are using these products to improve their practices-- some really, really exciting workflows we have to share with you from them. And finally, we'll talk about our future roadmap-- what we have in the works near-term and farther out, and really the principles that are driving it.

So first, why should you care about computational design? So we are sitting right now in the fastest-warming city in the United States. July 2023 was the hottest month in Las Vegas ever.

The AEC industry owns much of the responsibility for building out the commercial and residential spaces for our rapidly expanding global population and changing climate. The future is a design challenge. Workflow, automation, and Generative Design can revolutionize the way we design by speeding up our work, making it more efficient, and using goals and measurable outcomes to help guide us and build sustainable, healthier environments.

Architectural and engineering services have evolved from drawing by hand on paper, delivering it to others to build buildings. We've evolved to building information modeling and more efficient ways to document and deliver building instructions to the field. But with the serious problems that we're facing, we're going to really have to figure out how computing power can help us more.

We want to invest in ways, not just to record design decisions, but also ways to automate them and keep track and measure success metrics. Now, we could throw more people on projects to do more work faster. But we could also use automated computing power to help us. What we really want to do next is to capture what's in these smart people's heads and pair human intelligence with machine intelligence. The key to all these processes is being able to combine and codify the kinds of knowledge needed to solve building problems, so that we don't have to spend as long on tedious tasks, and so that we can use data-backed design decisions to work together to create a better-built environment.

Sol and I work in the Computational Design & Automation group at Autodesk. Our mission is to provide simple and capable tools for encoding AEC goals and constraints to assist design and analysis with automation. We developed Dynamo, the Dynamo Players, and Generative Design in Revit.

This is the way that we see the world. The sky's the limit of what you can do by just writing some code. But that's like saying you could create a Mona Lisa by just doing a painting. Writing code is a discipline and an art. It takes time and effort to learn.

That doesn't mean that everyone here can't do it, but it does mean time spent away from designing, engineering, planning, and all the other things that architects, engineers, and contractors do as a part of their everyday work. So we have invested heavily in the open source tool Dynamo because it's a middle ground between direct modeling and a full coding environment. It allows architects and engineers to record their logic and speed up their workflows.

To work in Dynamo, you can either access it from a host application, such as Revit or Civil 3D, or you can use our standalone sandbox experience. The Dynamo UI consists of a node library full of functions, and then the nodes themselves that are like little machines that you wire together. There is geometry that you can see in the background. That's executed when you hit Run on these nodes, if your nodes make geometry.

To use Dynamo Player, you can access it via the Manage tab. The Player UI contains a library of already-created sample Dynamo graphs and documentation pulled together in a simple and inviting way for those who are maybe not so technically minded. You can also add libraries here of your own scripts for use by more people than people that might be willing to dive into the full Dynamo experience.

As most of you know, this is Dynamo. This is how almost all Dynamo scripts boil down to at their essence. There are nodes to read data in-- in this case data coming from sources such as Revit.

You could also have data coming from Civil 3D or Excel files. And this data connects to nodes that compute things. In this case, it's computing the text to be capitalized text. And the last section is nodes that write data back out also to these programs, like Revit or Civil 3D or Excel

Dynamo can also be used for Generative Design. In Revit 2021, we introduced Generative Design in Revit to make design automation workflows accessible to more people. You can see it running here.

The designer is performing a massing study to study the allocation of retail and office space distribution, while minimizing cost and maximizing rentable area. This is integrated right into Revit, and the designer performing this study does not necessarily have to be the same designer who has created the underlying Dynamo script, which makes the logic for this study. So integrating these tools into the large Revit ecosystem is a step towards making Generative Design processes more mainstream, so that more people can have this supercharged ability to explore the best possible solutions.

Dynamo can run in a standalone version that we call Sandbox. And we actually update it almost every day on our website. Or the more stable and tested versions that we have become integrated into all of these products that you see here on the screen. We are excited to soon be announcing a beta of Dynamo working in Autodesk Forma. So stay tuned for that.

There are active Dynamo user groups all over the world-- Atlanta, Boston, Catalunya, Shanghai, Ireland, Auckland, and many more. These are only the ones that we thought had the best logos. So we seeing people participate in these user groups, and also come to our forum. This is on dynamobim.org.

Our forum is a great place to come and get help. We see people asking questions here every day. And we love that the community helps people get started, helps people with a range of different problems. So now I'm going to hand it over to Sol to talk about all the great new tools that we have out.

SOL AMOUR: Thank you, Lilli. So now let's talk about some of the latest features that we've released in Dynamo and what you can use right now. To bound this section we have had a focus on making Dynamo easier to use and adopt, making it easier to collaborate with your peers, and share your content, and also making Dynamo faster and less error-prone, these features have been delivered in Dynamo versions 2.16, 2.17, and 2.18.

So in conjunction with the team that builds our Geometry kernel, the technology that powers Dynamo's geometry, we have implemented Native PolyCurve support. That means that polycurves now play nicely with the rest of our geometry library and have powerful new features, such as smartly understanding how to create regions and instead of self-intersecting curves that don't really help anyone.

We have also implemented a new way to create bounding boxes, which are an abstract piece of geometry that wraps the total extents of a geometrical element. In the past, we only had axis-aligned bounding boxes, which while useful also allowed for misrepresentation. As a containment check, we had to check to see if one element was inside of another one, or an intersection check could have had false positives. The new approach allows for us to find the minimum possible bounding box, irrespective of the axis, providing much more accuracy in the containment and intersection checks.

The Custom Selection Node allows you to create your own flavor of dropdown, complete with your choice of display option and value that it produces. If you have mixed object types here, it will default everything to a string. But any complete case of numbers or integers and so on will honor that value type. This is incredibly useful in creating Dynamo Player and Generative Design scripts for others to use. No more hacky workarounds.

And six new chat nodes-- which will all look familiar if you have ever used the node model Charts package in the past-- so shout out to Keith Alfaro there, now allow you to better interrogate data inside of Dynamo. They automatically update in automatic run mode, and they come with a rich and broad set of documentation around how they work and how to best leverage them-- a big win for exploring visual relationships with data.

The notification center is a way for us to send out important messages and information to you about Dynamo. We're right there at your fingertips inside Dynamo itself. Currently, this is largely blog posts and a handful of other salient posts, such as the Dynamo Future File. But we see this evolving into so much more. The future could provide real-time feedback in the event of service downtime and notify you when your favorite package has received an update.

Dynamo now ships with a splash screen, telling you what Dynamo is doing in its load sequence at every step of the way. Rather than clicking the Dynamo button and waiting 15-odd seconds for it to show up, it allows you to sign in to Dynamo as well, as we've had authentication added into the mix of the core Dynamo experience. And it gives you the ability to also import settings prior to initialization that will take effect inside of that Dynamo session. From inside Dynamo, you can also import and export settings. But this might require a restart.

Node Autocomplete got a massive power boost with the introduction of a recommendation mode based on machine learning. This means Dynamo will provide you with options for following or preceding nodes in a graph that other authors have actually used, rather than pairing library relationships like the old node type match. This unlocks the ability to build graphs at speed with much higher fidelity, and will only get better in time as we tune our machine learning model.

Here, you can see the machine learning Node Autocomplete mode in action in real time. The video shows a user starting with what they want to achieve, which is building a wall in Revit, and working backwards at speed to do so, having Machine Learning Autocomplete predict what comes next. Beyond selecting the nodes from the recommended list, the primary user action here is selecting from those dropdown menus the values that make most sense to the graph author, showcasing how easy it is to actually build a working useful graph.

Dynamo now ships with Extended Node Help, which will be familiar to those of you who ever used the Dynamo dictionary in the past. That provides in-depth documentation through a description, a sample image, and a sample file for a giant swathe of nodes that exist inside of the core Dynamo experience. We're actively working right now to achieve 100% coverage, including the T-Spline nodes and Mesh Toolkit, and are doing the same with Revit and Civil 3D. You can also insert that sample graph directly into your active Dynamo workspace directly from a button here, allowing you to either see what those nodes do or actually add them into your workflow.

How many times have you've forgotten what it is to do to hook up a Color Range node. You can now just press F1 and insert that cluster right into your graph through the Extended Node Help. That automatically places it inside a named group for your use.

The Python node has been modernized, matching the visual refresh with its UI, allowing for input and output port renaming with a user-defined description that is awesomely 100% backwards compatible with older versions of Dynamo, giving you the ability to also scale your font for those of us who like lots of text on screen or those of us who might need a little bigger, match the text coloring between DesignScript and Python so that there's better visual and logical interop between both worlds. And we've also introduced automatic text folding, allowing you to collapse portions of your screen to gain back some of that valuable screen real estate. All of these quality-of-life improvements will help you work easier with Python, but better yet, have it much easier to explain and share with your colleagues and peers.

As part of this, Dynamo now supports six new Python libraries out of the box that allow you to more richly interact with mathematics, data, and image manipulation, run scientific calculations, directly connect with Excel, or create your own custom scripts and custom plots. You simply need to import them as the Python node is already passed natively to their location. And we can't wait to see what cool things you come up with in your graphs, and maybe the cool packages that you build around these new libraries too.

Dynamo Player now exposes graph dependencies in your script, informing you of what packages are needed to run that graph, and whether or not you actually have them installed. You can also directly open Dynamo to resolve those dependency conflicts. We have also exposed the ability to view any warnings in the script with a New Issue manager, allowing you to read that expanded warning, click on any Learn More link and copy and paste them directly to get help from either the forums or your colleagues. And for the visually inclined, you can also now display images inside of Dynamo Player to the Watch Image node, as long as it's set to Outputs. Fantastic for visualizing results that require context.

Dynamo Player and Generative Design in Revit have new sample automation workflows for you to explore, allowing random family instance placement or the isolation of elements with warnings. We are extremely excited to announce the release of a dedicated Civil 3D Dynamo Primer chapter, out for you now to explore. A big shout out here to Zachri Jensen, all through the Cambridge package, for all his hard work on this wonderful resource.

Please do go check it out and explore the powerful new scripts that come with that Primer section. That can help fast track your understanding of Dynamo for Civil 3D. I'll now hand you back over to Lilli to explore some customer use cases.

LILLI SMITH: Thanks so much, Sol. So let's take a look at the incredible things that people are doing with Dynamo. I am thrilled to introduce this inspiring panel of computational design practitioners from around the world who are going to share their work with us.

Karam Baki is an architect from Jordan who will talk about a Foster and Partners project the Red Sea airport in Saudi Arabia that he helped model with Dynamo and Revit. Next, Steve DeWitt from Vallejo, California, will share how he is automated prefab housing construction projects using Dynamo and Revit. Chris Steer, coming from us all the way from the Gold Coast of Australia, will talk about wrangling a ton of data to improve road design workflows in Civil 3D. And then finally, Alexandra Nelson and Benjamin Friedman of the DLR Group out of Charlotte, North Carolina, will tell us about how they're using Dynamo as a prototyping tool for generative AI explorations.

So first up is Karam Baki, who is an architect and consultant for the AEC Group. They help solve extremely complex problems related to facade engineering and really high-profile projects. Karam is going to talk about this amazing Foster and Partners project in Saudi Arabia at the Red Sea airport on which he was a consultant. I'll let Karam tell you about it in his own words

KARAM BAKI: Hello, everyone. My name is Karam from AEC Group. It's a great honor to be here today. I'm here to share with you a challenge we encountered during the Red Sea International Airport project, specifically regarding the implementation of the roof cladding and ceiling paneling design.

The problem with the roofing arose from inconsistent relationships between panels in the IFC model, which prevented us from correctly implementing the roof elements. To address this, we designed a series of mathematical solutions that allowed us to automatically correct more than 22,000 panels in a single operation. We then simply replaced the panels with adaptive components.

The next challenge we faced was related to the ceiling elements. This was geometrically more complex than the roof, as each ceiling panel is a multidirectional curved panel. This meant that each panel was unique and had to be modeled separately.

To solve this challenge, we developed a cutting-edge solution that is now implemented across all of our projects. It is well known that Revit has some limitations when it comes to using multiple CPU cores for geometrical tasks. So our solution was designed to process a range of selected panels in each Revit instance.

That allowed us to launch multiple Revit instances and assign each one to a separate CPU core. With up to 20 Revit instances, each instance generated SAT files representing the eLOD geometrical data and CSV files representing the iLOD data. We then developed a final solution that combined all the panels from different Revit files into a single file in a single Revit instance.

By the end of this process, we had automatically generated a significant number of ceiling panels, complete with full iLOD details and data. We could even go a step further and generate all the fabrication orders for each unique panel. But that's a discussion for another time.

Now, to try this in your own PC, simply open any Revit version, starting from 2021. Then go to Manage Dynamo, Packages, Search for a Package. In the Search field, you can either search for Synthesize Toolkits, or you may simply search for Karam.

In all cases, you will find this toolkit. Once you have it, you may open New, and you will find Synthesize Toolkits on the sidebar. You will find inside of it Installer. Just activate the Installer. It will tell you to restore Trivet.

Once Revit is restarted, go back to Manage, Dynamo again. This time, you will find a section called Demo. Open that. You will find RedSeaAirport.

Inside of the RedSeaAirport, you will find two nodes, one of them called BuildCeilingFiles. Call that. Essentially, this node creates the SAT files that are required to generate the ceiling families. It requires you to insert an ExportDirectory.

Simply search for directory path. You will find the first node. Call it, browse, and just create a new folder anywhere-- let's call it EXPORTS in the desktop. And plug that in.

If we head to the EXPORTS folder, you can see that each panel is being exported into a separate subfolder. Each one contains SAT files that are essentially the panel parts. For the sake of simplicity, this demo creates only 13 panels.

Now, if you went to 3D View, you will notice that there are empty adaptive components. Those are essentially the placeholders that define the guidelines of each panel. Now, to learn the panel parts, you may simply go back to Dynamo and [INAUDIBLE] in LoadCeilingFiles from the provided list of SAT files. Simply plug in the SAT files.

And that's it. You are done. Although the panels are created accurately, and each of them has material parameters, detail level, and of course subcategories for further analysis of each panel.

Now, you may also click on any placeholder. Adjust its points as such. Go back to Dynamo. Just plug that out and back in. And your panel is updated accordingly.

I hope this presentation was insightful. Please feel free to contact AEC Group for any challenging project. Thank you for your time.

LILLI SMITH: That project really blows me away. If you want to learn more about it, make sure to download the newest version of the Synthesize Toolkit, available on the Dynamo Package Manager as Karam showed. And check out the demo files he has in there. And of course, as he said, he's also open to questions at his address.

So we've seen in that last example that Dynamo is really amazing at wrangling complex geometry. But it's also a fantastic tool for managing large amounts of data. In this next project, Chris Steer, who is an innovation engineer at WSP out of Australia, is going to tell us about how he generated over seven million attributes in a Civil 3D road project, and saved over 1,000 hours doing it.

CHRIS STEER: Hi there. It's Chris Steer from WSP, coming at you all the way from the sunny Gold Coast in Queensland, Australia. I'm going to be talking today about wrangling our road asset data in Civil 3D with Dynamo.

Our project data demands here have changed significantly over the last few years, with a change of deliverable processes from strings and surfaces to solids or pseudo solid mesh objects. The demands now are for all drawings to be cut directly from the 3D models and not really embellished too much. The asset data required against each object also must exist in the native model, and not just post-processed and applied to an exchange model. That asset information is also required at all project phases. And that's led to an exponential increase in the data demands on a weekly basis, with all of our models and data required when we need to share them, which is either weekly or fortnightly.

Recent projects-- one of our clients actually requires us to organize 65 different individual object attributes in three distinct property sets. Our project recently was over 110,000 objects modeled, resulting in more than seven million attributes needing to be generated and applied across these property sets in custom property tabs. That leads us to the solution and the questions asked of what if we already have most of the data available.

In the case here, we've got some standard data available in a Civil 3D corridor solid, already there-- HorizontalBaseline and CodeName. We'll use those two significantly later. That forms the basis. An extended use of already embedded design management process will supplement the rest, And also, intelligent systems are already at our disposal with Civil 3D and Dynamo.

But let's have a look at the solution quickly. What's needed for it? Standard design management documents-- so an Excel register for your alignments and some data against those. The master information delivery plan or a model register, whichever way you want to call it.

In Dynamo, what do we need? Civil 3D Toolkit, of course, some Spring Nodes, some Clockwork. And also, a special shout out to Paolo Serra, who provided us with a very special node which filled a gap that we needed in our script.

Here's a look at the overall graph. We don't generally have our users use this because it can be very, very daunting for them. We get them to concentrate on the little pink inputs on the left. And in that case, we give them Dynamo Player.

So here's a look at what the users will see. All they have to do is map their master data spreadsheet. Check that the predefined property set names are correct, and the two other tabs are actually loaded there or defined from the spreadsheet.

Let's have a look at how this breaks it down. So the upper left, we're looking at a standard Civil 3D drawing name. In this case, it's in distinct fields which actually define the data nature or the data structure of all model names on our project for this client. This becomes really valuable because fields 3 and 4 in this case-- and the last field, actually become very important.

So the first thing we do is break that document detail down into its individual fields, and then go and use those fields with the predefined property set names and other items during the graph to go and generate data for us. In this case, we're concatenating a property set name and a location together to actually tell us which tab of a spreadsheet we're going to be reading. And this changes from model to model, so that's actually really handy for us.

The other bits of information we pull from the model and align to our master data sheets. It's HorizontalBaseline. So you can see there, it's got some bespoke information about it, which is stuff that we don't actually generate within the graph. We actually have that registered outside.

The other item there is the codename. That becomes really important as well. So what we do with that is break it down into its individual fields as well, and then start to put that through some conditional statements with Python. This is all fairly simple coding. We don't need individual coders or specialist coders to do this. And that returns us a whole bunch more information that you can see there on the right.

Extending that further down the path, using the same codes and then aligning that with things like uniclass or other predefined things that we can put into conditional statements, and then ultimately organizing that into individual lists in individual orders that go back against the property set values that are applied automatically through the graph to the objects in the model, and resulting in a fully populated asset-rich model at the end of the process. It takes around five, 10 minutes per model for this whole process to run. And that's based on a model with around 1,000 objects in it.

But that's how we're achieving our client deliverables with an automated fashion, using Civil 3D and Dynamo to do some data science and apply our asset data for us. Thanks for listening. I hope you got something out of that.

LILLI SMITH: It's really great to see this workflow being able to save so much TDM and deal with so much data. And it's really great to see more Civil 3D workflows popping up. So we wanted to point out that there's a really great example on the new Civil 3D section of the Dynamo Primer that Sol had mentioned earlier, which will show you an example of working with Excel and Dynamo for Civil 3D.

Check it out. It's the lightpole example. And you can download files to get started there. Chris is also open to being contacted via LinkedIn at the QR code you see here or his email address. In the next project, Steve DeWitt, who is a design innovation engineer at Factory OS, will show us how he uses Dynamo to wrangle both geometry and data in this prefab modular housing project, where he generated over 55 million parts, and reduced the time needed to create a proposal from three weeks with a few specialists to one hour by anyone on his team.

STEVE DEWITT: Industrialized construction companies need to be able to rapidly configure and mass customize building products to conform to millions of building configurations. First, we're going to overlay masses. And we're going to model one mass for each unique dwelling segment. We're going to simply add in dimensions and configuration values for if there's a kitchen, where the kitchen is, and where the bathroom might be.

Next, we're going to look at real-time broken design constraints to get real-time feedback to make sure that what we produce inside of this model is going to be buildable based off of inputs by manufacturer or company constraints. From here, we're going to search our entire library to see if there is any other components or modules that we've created that are the same configurations as the two we've developed here. If not, Dynamo is going to create a new type for us. If so, the suggested outputs will tell us here in this Dynamo Player output.

Our next step is to utilize the components that Dynamo has suggested in Player. For each unique type, we have one new type or one catalog type that can be placed to configure the entire building, shown like so. The next few steps, we're going to select our unique configurations.

Dynamo is going to search our library to utilize components that have been pre-designed. You're going to see this pop in all in one shot. For the components that we do not have pre-designed, we're going to have to build each component, one element by one element by one element, to configure the entire component. And then lastly, make a Revit group so that we can then go to the next step, which will be placing these inside of a building configuration.

So our last step in the process is going to be to select all of the building masses. Dynamo will query Revit for all the groups. Then it's going to find a group with the same name as the mass, and it's going to place that group inside of that mass. Because we know what we're inserting here, we have several predefined schedules that are now populating. We can then extract this information and send it to Power BI to ultimately distribute to our entire team. So our entire team gets real-time information.

To date, we have produced 37 buildings, 73,600 assemblies, 55.2 million elements in parts, 1,338 cataloged dwellings, 1,795 non-cataloged dwellings. So it's been interesting to see what kind of information we can pull from the project. It's been also interesting to compare what kind of information we can pull as a company. Thank you.

LILLI SMITH: So Steve has a full class on this process at AU this year. So make sure you check it out if you want to learn more about doing this kind of workflow. I'm sure there's a lot of gems in there for using Dynamo with Revit.

Now for something completely different. So we've seen some great examples of Dynamo helping with huge amounts of geometry and data. But did you know that it is also a really great prototyping tool?

So next up, Alexandra Nelson and Benjamin Friedman from the research team inside of DLR Group out of Charlotte, North Carolina, are going to show us some exciting examples of how they're using Dynamo to prototype the use of generative AI tools. So they tell us that they can save money by writing stable diffusion locally, and also use it with their own IP inside their company's firewalls. They are saving time and money creating materials for Revit in this way, which all adds up. And they're also saving headaches by always having material images being the right size, and therefore not causing any slowdowns in Revit. So let's hear from them about their prototyping tools.

BENJAMIN FRIEDMAN: Hello, everyone. My name is Benjamin Friedman. I lead our data science work at DLR Group.

ALEXANDRIA NELSON SHQEVI: And I'm Alexandra Nelson Shqevi. I work in research and development.

BENJAMIN FRIEDMAN: And we're excited to share with you all some of the work our teams have been doing integrating generative AI in Dynamo. So we use Dynamo in a lot of ways across our firm. But in R&D and data science, Dynamo is really helpful for building small prototypes to get buy-in and build excitement from our users. And in data science in particular, Dynamo is powerful in its integration with Clarity as a data collection and automation tool. We're going to focus here on how we've integrated generative AI in Dynamo for one of our recent prototypes building a material generator.

So in this demonstration, we're leveraging a type of generative AI model called a Diffusion Model. And these are the models behind much of the Text to Image advancements over the last year or so. Specifically, we're going to leverage an open source Diffusion Model called Stable Diffusion. And Stable Diffusion enables us to run common image generation tasks locally, like Text to Image, Image to Image, In-painting, and Auto-Rendering.

To run this, there are a few requirements. Firstly, Hugging Face is an open source community built around delivering generative AI. And they provide a powerful Python library called Diffusers that lets us run and work with these models on our local machine

Additionally, it's helpful to have an NVIDIA GPU and CUDA installed, so you can run those models quickly. But you can still run it on a CPU. And finally you just need to make sure that you have Python in your Dynamo, rather than IronPython, because Diffusers won't work with IronPython. Now I'm going to hand it off to Alex to walk you through the recent prototype of our material generator.

ALEXANDRIA NELSON SHQEVI: As Benny mentioned, I'm going to go over our workflow of integrating Diffusion Models into Dynamo to generate new material images. We utilize the newly updated Dynamo Player UI in Revit 2024 to set up editable inputs for our text prompts, sampling steps, pixel sizes, and an option to generate a new material from the image that is generated and name it. A user can then run the task and get a quick view of their image that was generated and the file path where the image lives.

Here is a quick snapshot of our Dynamo script, which uses all of the out-of-the-box nodes and focuses primarily around two custom Python components. One is the image generator, which integrated Stable Diffusion via Hugging Face's Diffusers library and the other node utilizes the Revit API to generate a new material with the newly generated image. So what's next for us and others as we all explore generative AI in Revit and Dynamo?

For us, we are interested in the fine-tuning and improve control of diffusion models. We are also exploring the use of GPT models to develop patch patterns that we can integrate into our newly generated materials. And lastly, we are interested in pushing AI-rendered views back to BIM elements that they are overlaying. For this session, we will provide you with the Dynamo Player file that we are covering, as well as how to for setting up NVIDIA GPUs and CUDA to run your Diffusion Models significantly faster on your PCs. We will also give you a breakdown of the requirements needed to run our file, so be on the lookout for those materials.

All right, so now I'm going to jump into a quick demo. I've opened up Revit and Dynamo Player. We have the material generator here-- the script. If you click on it, it'll open up all of your inputs. And then we'll go ahead and hit Run.

Now, the Run was complete. So we can scroll down and check out the image that was generated. You can see the file path for the image is here. You can actually highlight it and copy it and paste it if you want to go to that location. The image generated here is a little preview of what that image looks like.

And then lastly, we have a Material Creation Status. Because we checked the Boolean for Yes, it says success, try applying this. We'll hit OK. All right. So you can see that image is set up and added to that facade.

So yeah, I think we're all just excited about where generative AI can go and how it applies to our day-to-day workflows in Revit. So we really appreciate you sitting into our presentation, and we hope we can do this again. Thanks so much.

LILLI SMITH: And thank you to all of our super-inspiring computational design leaders for their fantastic examples, including things that you can download and use yourself-- super-cool. So thank you. Now I'm going to turn it over to Sol for more about what we are working on next.

SOL AMOUR: Thanks Lilli. We'll now take a high-level look at some of the things we're actively working on right now. We have a Public Roadmap for Dynamo linked on the Dynamo website that showcases the bigger works that are in progress right now, as well as the things that we're considering doing next.

We would absolutely love each and every piece of feedback that you can give us-- the good, the bad, and the ugly. So please do come and have your two cents on each card. You can also submit your own ideas for Dynamo that are taken into consideration with our next Dynamo planning cycles.

We have a live beta for Dynamo connecting to Design Automation for Revit. This means that instead of having to learn C# and code yourself an add-in to run on Revit Design Automation-- which allows you to run things overnight on the cloud, for example, you can create a Dynamo graph and bundle that up instead, dramatically lowering the barrier to entry. This is a fantastic way to run QA QC scripts on your models overnight to ensure that problems are flagged to your team in near-real time, or little cleanup tasks like those thousands of pesky line styles that come in from DWG imports.

We're also working on connecting Dynamo to Forma, allowing you to run graphs to help shape and drive your conceptual design explorations. The work is constantly evolving, starting with Dynamo graphs authored on the desktop in places like Revit, Civil 3D, or Dynamo sandbox. And eventually, we'll shift to a full web authoring experience in the future. We're incredibly excited about connecting the computational power of Dynamo with the powerful analysis, modeling, and context data capabilities of Forma.

We are also actively working on simplifying the way you both create and find packages. This will centrally locate everything you do with packages, allowing you to search with added filters, see all packages that you have uploaded for reference, and publish your own package in a much clearer way. We'll also be adding in loading and default screens, a ton of messaging, and general quality-of-life improvements. We're excited to see what you think when you get your hands on it.

Beyond what's actively under development right now, we're thinking deeply about the future of Dynamo and its relationship to the ever-changing world. So let's take a journey onwards towards Dynamo's North Star. This is Dynamo's situation today. While automations in Dynamo are extremely well-loved and valued by many, these customized workflows take too long to create and too fragile to use, and are often difficult to share with success.

The value that Dynamo brings today is that it educates users on coding paradigms. It has a robust, rich, active, and helpful community-- so shout out to you all, that expands the possibility of what users can do, and is extensible for the community by the community. We also have a steadily growing user base.

But Dynamo also suffers from challenges in its current form with a 10-year-old code base that is siloed into host applications and extremely granular, requiring massive knowledge overhead to master. There are unique experiences between different Dynamo hosts, lowering overall consistency. And users experience a fragile experience when sharing the Dynamo graphs with others.

Today, Dynamo is monolithic and desktop-bound. And tomorrow, Dynamo is moving towards a nimble, highly composable ecosystem of SaaS applications that interacts richly with Forma and the AEC cloud. We can think of this in three distinct phases. The goal of phase 1 is hybrid, to position Dynamo as a bridge between traditional desktop workflows and the cloud. Here, people can begin to transition workflows from their desktop and use Dynamo with other Autodesk tools on the web, leveraging simple access to data and powerful new features that help them to connect this logic in their graphs.

The goal of phase 2 is to provide fully cloud-native workflows. Here, people can utilize rich access to cloud data and a growing ecosystem of more granular capabilities to orchestrate complex workflows, using rich tool-building UI and collaborative environments. And the goal of phase 3 is to really shift the paradigm, where users can find or use increasingly powerful capabilities that feel magically simple.

So we have an opportunity to transition Dynamo from the desktop to the cloud, focusing on access from anywhere, connection to anything, and a dramatic reduction in the time needed to find success. This means that we can not only migrate to the cloud, but actually evolve what Dynamo and visual programming are and can be through the breaking down of silos, enabling rich connection and collaboration, and a partnership between human and machine, where both get better in parallel. This means that the people, offices, and products we connect to are enriched through a more powerful, smart, and adaptive Dynamo.

In concrete terms, this means you can expect a single Dynamo-- a one-stop shop that sets a strong foundation for us to build upon. It will be richly connected to the cloud-- first from the desktop, and then native, and much, much more simple than it is today, while still retaining that amazing power of what you can do with it today, but also going further in augmenting it with smart AI tools that work with you to get you where you want to go faster. It will be highly connected to the entire Autodesk ecosystem, allowing you to orchestrate workflows between different design domains.

And it will be inherently consistent, allowing you to trust the outcome from a script is what you actually designed it to do. We're extremely passionate, excited, and driven to realize this Dynamo future, and hope you come along for the ride with us. Now I'll hand it back to Lilli for some closing thoughts.

LILLI SMITH: Thank you so much, Sol. That was a really beautiful picture of the future. And the future of Dynamo is really, really bright.

I want to leave you now with some closing thoughts about continuing your journey to automation right now. So think for a minute about how robotics and automation have changed automotive production and the resulting improvements in the cars that we drive today. Think about the automotive manufacturers that are embracing new technology and are really reaping success.

Now imagine how leveraging more automated and digitized ways of designing and constructing might impact your business, and help you address the challenges and opportunities that we are facing. Think about all the amazing ways our inspiring leaders that we saw here today are automating their workflows right now. How much more might you be able to do with the workforce that you already have?

It doesn't have to be super-complicated. This machine is sorting recyclables. Seems like it saves a lot of tedious, sticky, and perhaps stinky work. It might even take two nodes and a cup of coffee. Shout out to John Pierson and the Rhythm package for these nodes, which can help you update your Revit content library to Revit 2024. And there's a great community of people out there to help you smash out your work in minutes.

In Harvard Business Review whitepaper, Martin Fischer puts it a little bit more starkly. He notes that younger generations have no patience for work that could be automated. They don't tolerate it. They're just going to leave. What will you automate next?

Thank you again to our inspiring computational design leaders who have shared their talents, their stories, and best of all, their Dynamo files with us today. I find great hope in their stories of innovation and automation that they have shared with us. And thank you for listening.

We hope that you will check out all the other great classes on Dynamo and Generative Design here at AU 2023 this year. Keep innovating, sharing your knowledge, and keep in touch. We'd love to feature your project at AU 2024. Thank you.

______
icon-svg-close-thick

Préférences en matière de cookies

Votre confidentialité est primordiale pour Autodesk et nous mettons tout en oeuvre pour vous garantir la meilleure expérience possible. Pour nous aider à personnaliser les informations que vous recevrez et à créer des applications, nous collectons des données sur votre utilisation de ce site.

Nous autorisez-vous à collecter et à utiliser vos données ?

En savoir plus sur les services tiers que nous utilisons et sur notre Déclaration de confidentialité.

Cookies indispensables au fonctionnement de notre site et à la fourniture de nos services

Ces cookies nous permettent d'enregistrer vos préférences ou vos informations de connexion, de répondre à vos demandes ou de traiter les achats de votre panier.

Cookies visant à améliorer votre expérience grâce à l'affichage de contenu pertinent

Ces cookies nous permettent d'améliorer les fonctionnalités et la personnalisation. Ils sont configurés par Autodesk ou par des fournisseurs tiers auxquels nous faisons appel afin de vous proposer une expérience et des informations adaptées à vos besoins.Si vous n'autorisez pas l'utilisation de ces cookies, certains ou l'ensemble des services risquent d'être indisponibles.

Personnalisation des publicités à des fins de ciblage

Ces cookies collectent des données vous concernant, en fonction de vos activités et de vos centres d'intérêt, afin d'afficher des publicités pertinentes et d'en évaluer l'utilité. Grâce aux données collectées, ces publicités seront davantage ciblées. Si vous n'autorisez pas les cookies, elles seront moins pertinentes.

icon-svg-close-thick

SERVICES TIERS

Découvrez les services tiers que nous utilisons pour chaque catégorie et la façon dont nous exploitons les données que nous collectons sur vous en ligne.

icon-svg-hide-thick

icon-svg-show-thick

Cookies indispensables au fonctionnement de notre site et à la fourniture de nos services

Qualtrics
Nous faisons appel à Qualtrics pour que vous puissiez nous faire part de vos commentaires par le biais d'enquêtes et de formulaires en ligne. Vous êtes susceptible d'être sélectionné au hasard pour participer à une enquête. Vous pouvez aussi nous faire directement part de vos commentaires. Nous collectons des données afin de connaître les actions que vous avez effectuées avant de participer à une enquête. Cela nous aide à résoudre les éventuels problèmes. Politique de confidentialité de Qualtrics
Akamai mPulse
Nous faisons appel à Akamai mPulse pour collecter des données comportementales sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil et d'ID Autodesk. Ces données nous permettent de mesurer les performances de nos sites et d'évaluer la qualité de votre expérience en ligne afin d'améliorer les fonctionnalités que nous proposons. Grâce à des méthodes d'analytique avancées, nous optimisons également votre expérience dans les domaines suivants : communication par e-mail, assistance client et ventes. Politique de confidentialité de Akamai mPulse
Digital River
Nous faisons appel à Digital River pour collecter des données comportementales sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil et d'ID Autodesk. Ces données nous permettent de mesurer les performances de nos sites et d'évaluer la qualité de votre expérience en ligne afin d'améliorer les fonctionnalités que nous proposons. Grâce à des méthodes d'analytique avancées, nous optimisons également votre expérience dans les domaines suivants : communication par e-mail, assistance client et ventes. Politique de confidentialité de Digital River
Dynatrace
Nous faisons appel à Dynatrace pour collecter des données comportementales sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil et d'ID Autodesk. Ces données nous permettent de mesurer les performances de nos sites et d'évaluer la qualité de votre expérience en ligne afin d'améliorer les fonctionnalités que nous proposons. Grâce à des méthodes d'analytique avancées, nous optimisons également votre expérience dans les domaines suivants : communication par e-mail, assistance client et ventes. Politique de confidentialité de Dynatrace
Khoros
Nous faisons appel à Khoros pour collecter des données comportementales sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil et d'ID Autodesk. Ces données nous permettent de mesurer les performances de nos sites et d'évaluer la qualité de votre expérience en ligne afin d'améliorer les fonctionnalités que nous proposons. Grâce à des méthodes d'analytique avancées, nous optimisons également votre expérience dans les domaines suivants : communication par e-mail, assistance client et ventes. Politique de confidentialité de Khoros
Launch Darkly
Nous faisons appel à Launch Darkly pour collecter des données comportementales sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil et d'ID Autodesk. Ces données nous permettent de mesurer les performances de nos sites et d'évaluer la qualité de votre expérience en ligne afin d'améliorer les fonctionnalités que nous proposons. Grâce à des méthodes d'analytique avancées, nous optimisons également votre expérience dans les domaines suivants : communication par e-mail, assistance client et ventes. Politique de confidentialité de Launch Darkly
New Relic
Nous faisons appel à New Relic pour collecter des données comportementales sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil et d'ID Autodesk. Ces données nous permettent de mesurer les performances de nos sites et d'évaluer la qualité de votre expérience en ligne afin d'améliorer les fonctionnalités que nous proposons. Grâce à des méthodes d'analytique avancées, nous optimisons également votre expérience dans les domaines suivants : communication par e-mail, assistance client et ventes. Politique de confidentialité de New Relic
Salesforce Live Agent
Nous faisons appel à Salesforce Live Agent pour collecter des données comportementales sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil et d'ID Autodesk. Ces données nous permettent de mesurer les performances de nos sites et d'évaluer la qualité de votre expérience en ligne afin d'améliorer les fonctionnalités que nous proposons. Grâce à des méthodes d'analytique avancées, nous optimisons également votre expérience dans les domaines suivants : communication par e-mail, assistance client et ventes. Politique de confidentialité de Salesforce Live Agent
Wistia
Nous faisons appel à Wistia pour collecter des données comportementales sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil et d'ID Autodesk. Ces données nous permettent de mesurer les performances de nos sites et d'évaluer la qualité de votre expérience en ligne afin d'améliorer les fonctionnalités que nous proposons. Grâce à des méthodes d'analytique avancées, nous optimisons également votre expérience dans les domaines suivants : communication par e-mail, assistance client et ventes. Politique de confidentialité de Wistia
Tealium
Nous faisons appel à Tealium pour collecter des données comportementales sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces données nous permettent de mesurer les performances de nos sites et d'évaluer la qualité de votre expérience en ligne afin d'améliorer les fonctionnalités que nous proposons. Grâce à des méthodes d'analytique avancées, nous optimisons également votre expérience dans les domaines suivants : communication par e-mail, assistance client et ventes. Politique de confidentialité de Tealium
Upsellit
Nous faisons appel à Upsellit pour collecter des données comportementales sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces données nous permettent de mesurer les performances de nos sites et d'évaluer la qualité de votre expérience en ligne afin d'améliorer les fonctionnalités que nous proposons. Grâce à des méthodes d'analytique avancées, nous optimisons également votre expérience dans les domaines suivants : communication par e-mail, assistance client et ventes. Politique de confidentialité de Upsellit
CJ Affiliates
Nous faisons appel à CJ Affiliates pour collecter des données comportementales sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces données nous permettent de mesurer les performances de nos sites et d'évaluer la qualité de votre expérience en ligne afin d'améliorer les fonctionnalités que nous proposons. Grâce à des méthodes d'analytique avancées, nous optimisons également votre expérience dans les domaines suivants : communication par e-mail, assistance client et ventes. Politique de confidentialité de CJ Affiliates
Commission Factory
Nous faisons appel à Commission Factory pour collecter des données comportementales sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces données nous permettent de mesurer les performances de nos sites et d'évaluer la qualité de votre expérience en ligne afin d'améliorer les fonctionnalités que nous proposons. Grâce à des méthodes d'analytique avancées, nous optimisons également votre expérience dans les domaines suivants : communication par e-mail, assistance client et ventes. Politique de confidentialité de Commission Factory
Google Analytics (Strictly Necessary)
Nous faisons appel à Google Analytics (Strictly Necessary) pour collecter des données comportementales sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil et d'ID Autodesk. Ces données nous permettent de mesurer les performances de nos sites et d'évaluer la qualité de votre expérience en ligne afin d'améliorer les fonctionnalités que nous proposons. Grâce à des méthodes d'analytique avancées, nous optimisons également votre expérience dans les domaines suivants : communication par e-mail, assistance client et ventes. Politique de confidentialité de Google Analytics (Strictly Necessary)
Typepad Stats
Nous faisons appel à Typepad Stats pour collecter des données comportementales sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil et d'ID Autodesk. Ces données nous permettent de mesurer les performances de nos sites et d'évaluer la qualité de votre expérience en ligne afin d'améliorer les fonctionnalités que nous proposons. Grâce à des méthodes d'analytique avancées, nous optimisons également votre expérience dans les domaines suivants : communication par e-mail, assistance client et ventes. Politique de confidentialité de Typepad Stats
Geo Targetly
Geo Targetly nous permet de rediriger les visiteurs de notre site vers la page appropriée et/ou de leur proposer un contenu adapté à leur emplacement géographique. Geo Targetly se sert de l’adresse IP des visiteurs du site pour déterminer approximativement la localisation de leur appareil. Cela permet de s'assurer que les visiteurs ont accès à un contenu dans ce que nous évaluons être la bonne langue.Politique de confidentialité de Geo Targetly
SpeedCurve
Nous utilisons SpeedCurve pour contrôler et mesurer les performances de notre site Web à l’aide de mesures du temps de chargement de nos pages Web et de la réactivité des éléments successifs tels que les images, les scripts et le texte.Politique de confidentialité de SpeedCurve
Qualified
Qualified is the Autodesk Live Chat agent platform. This platform provides services to allow our customers to communicate in real-time with Autodesk support. We may collect unique ID for specific browser sessions during a chat. Qualified Privacy Policy

icon-svg-hide-thick

icon-svg-show-thick

Cookies visant à améliorer votre expérience grâce à l'affichage de contenu pertinent

Google Optimize
Nous faisons appel à Google Optimize afin de tester les nouvelles fonctionnalités de nos sites et de personnaliser votre expérience. Pour ce faire, nous collectons des données comportementales lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil, d'ID Autodesk, etc. La version de nos sites peut varier en fonction des tests de fonctionnalités. Le contenu, quant à lui, peut être personnalisé en fonction de vos attributs de visiteur. Politique de confidentialité de Google Optimize
ClickTale
Nous faisons appel à ClickTale pour mieux identifier les difficultés que vous pouvez rencontrer sur nos sites. L'enregistrement des sessions nous permet de savoir comment vous interagissez envers nos sites, notamment envers les éléments de nos pages. Vos informations personnellement identifiables sont masquées et ne sont pas collectées. Politique de confidentialité de ClickTale
OneSignal
Nous faisons appel à OneSignal pour afficher des publicités numériques sur les sites pris en charge par OneSignal. Les publicités sont basées à la fois sur les données de OneSignal et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que OneSignal a collectées sur vous. Les données que nous fournissons à OneSignal nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de OneSignal
Optimizely
Nous faisons appel à Optimizely afin de tester les nouvelles fonctionnalités de nos sites et de personnaliser votre expérience. Pour ce faire, nous collectons des données comportementales lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil, d'ID Autodesk, etc. La version de nos sites peut varier en fonction des tests de fonctionnalités. Le contenu, quant à lui, peut être personnalisé en fonction de vos attributs de visiteur. Politique de confidentialité de Optimizely
Amplitude
Nous faisons appel à Amplitude afin de tester les nouvelles fonctionnalités de nos sites et de personnaliser votre expérience. Pour ce faire, nous collectons des données comportementales lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil, d'ID Autodesk, etc. La version de nos sites peut varier en fonction des tests de fonctionnalités. Le contenu, quant à lui, peut être personnalisé en fonction de vos attributs de visiteur. Politique de confidentialité de Amplitude
Snowplow
Nous faisons appel à Snowplow pour collecter des données comportementales sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil et d'ID Autodesk. Ces données nous permettent de mesurer les performances de nos sites et d'évaluer la qualité de votre expérience en ligne afin d'améliorer les fonctionnalités que nous proposons. Grâce à des méthodes d'analytique avancées, nous optimisons également votre expérience dans les domaines suivants : communication par e-mail, assistance client et ventes. Politique de confidentialité de Snowplow
UserVoice
Nous faisons appel à UserVoice pour collecter des données comportementales sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil et d'ID Autodesk. Ces données nous permettent de mesurer les performances de nos sites et d'évaluer la qualité de votre expérience en ligne afin d'améliorer les fonctionnalités que nous proposons. Grâce à des méthodes d'analytique avancées, nous optimisons également votre expérience dans les domaines suivants : communication par e-mail, assistance client et ventes. Politique de confidentialité de UserVoice
Clearbit
Clearbit autorise les données d’enrichissement en temps réel afin de fournir une expérience personnalisée et pertinente à ses clients. Les données que nous collectons peuvent inclure les pages que vous avez consultées, les versions d’évaluation que vous avez lancées, les vidéos que vous avez visionnées, les achats que vous avez réalisés, ainsi que votre adresse IP ou l’ID de votre appareil.Politique de confidentialité de Clearbit
YouTube
YouTube est une plate-forme de partage de vidéos qui permet aux utilisateurs de visionner et de partager des vidéos qui sont intégrées à nos sites Web. YouTube fournit des indicateurs sur les performances des vidéos. Politique de confidentialité de YouTube

icon-svg-hide-thick

icon-svg-show-thick

Personnalisation des publicités à des fins de ciblage

Adobe Analytics
Nous faisons appel à Adobe Analytics pour collecter des données comportementales sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil et d'ID Autodesk. Ces données nous permettent de mesurer les performances de nos sites et d'évaluer la qualité de votre expérience en ligne afin d'améliorer les fonctionnalités que nous proposons. Grâce à des méthodes d'analytique avancées, nous optimisons également votre expérience dans les domaines suivants : communication par e-mail, assistance client et ventes. Politique de confidentialité de Adobe Analytics
Google Analytics (Web Analytics)
Nous faisons appel à Google Analytics (Web Analytics) pour collecter des données comportementales sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces données nous permettent de mesurer les performances de nos sites et d'évaluer la qualité de votre expérience en ligne afin d'améliorer les fonctionnalités que nous proposons. Grâce à des méthodes d'analytique avancées, nous optimisons également votre expérience dans les domaines suivants : communication par e-mail, assistance client et ventes. Politique de confidentialité de Google Analytics (Web Analytics)
AdWords
Nous faisons appel à AdWords pour afficher des publicités numériques sur les sites pris en charge par AdWords. Les publicités sont basées à la fois sur les données de AdWords et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que AdWords a collectées sur vous. Les données que nous fournissons à AdWords nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de AdWords
Marketo
Nous faisons appel à Marketo pour vous envoyer des e-mails dont le contenu est ciblé. Pour ce faire, nous collectons des données concernant votre comportement en ligne et votre interaction envers les e-mails que nous envoyons. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil, de taux d'ouverture des e-mails, de clics sur des liens, etc. Nous sommes susceptibles d'utiliser ces données en combinaison envers celles obtenues auprès d'autres sources pour vous offrir des expériences améliorées en matière de ventes ou de service clientèle, ainsi que du contenu pertinent basé sur un traitement analytique avancé. Politique de confidentialité de Marketo
Doubleclick
Nous faisons appel à Doubleclick pour afficher des publicités numériques sur les sites pris en charge par Doubleclick. Les publicités sont basées à la fois sur les données de Doubleclick et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que Doubleclick a collectées sur vous. Les données que nous fournissons à Doubleclick nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de Doubleclick
HubSpot
Nous faisons appel à HubSpot pour vous envoyer des e-mails dont le contenu est ciblé. Pour ce faire, nous collectons des données concernant votre comportement en ligne et votre interaction envers les e-mails que nous envoyons. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil, de taux d'ouverture des e-mails, de clics sur des liens, etc. Politique de confidentialité de HubSpot
Twitter
Nous faisons appel à Twitter pour afficher des publicités numériques sur les sites pris en charge par Twitter. Les publicités sont basées à la fois sur les données de Twitter et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que Twitter a collectées sur vous. Les données que nous fournissons à Twitter nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de Twitter
Facebook
Nous faisons appel à Facebook pour afficher des publicités numériques sur les sites pris en charge par Facebook. Les publicités sont basées à la fois sur les données de Facebook et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que Facebook a collectées sur vous. Les données que nous fournissons à Facebook nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de Facebook
LinkedIn
Nous faisons appel à LinkedIn pour afficher des publicités numériques sur les sites pris en charge par LinkedIn. Les publicités sont basées à la fois sur les données de LinkedIn et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que LinkedIn a collectées sur vous. Les données que nous fournissons à LinkedIn nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de LinkedIn
Yahoo! Japan
Nous faisons appel à Yahoo! Japan pour afficher des publicités numériques sur les sites pris en charge par Yahoo! Japan. Les publicités sont basées à la fois sur les données de Yahoo! Japan et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que Yahoo! Japan a collectées sur vous. Les données que nous fournissons à Yahoo! Japan nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de Yahoo! Japan
Naver
Nous faisons appel à Naver pour afficher des publicités numériques sur les sites pris en charge par Naver. Les publicités sont basées à la fois sur les données de Naver et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que Naver a collectées sur vous. Les données que nous fournissons à Naver nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de Naver
Quantcast
Nous faisons appel à Quantcast pour afficher des publicités numériques sur les sites pris en charge par Quantcast. Les publicités sont basées à la fois sur les données de Quantcast et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que Quantcast a collectées sur vous. Les données que nous fournissons à Quantcast nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de Quantcast
Call Tracking
Nous faisons appel à Call Tracking pour fournir des numéros de téléphone personnalisés dans le cadre de nos campagnes. Vous pouvez ainsi contacter nos agents plus rapidement et nous pouvons évaluer nos performances plus précisément. Nous sommes susceptibles de collecter des données sur votre utilisation de nos sites en fonction du numéro de téléphone fourni. Politique de confidentialité de Call Tracking
Wunderkind
Nous faisons appel à Wunderkind pour afficher des publicités numériques sur les sites pris en charge par Wunderkind. Les publicités sont basées à la fois sur les données de Wunderkind et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que Wunderkind a collectées sur vous. Les données que nous fournissons à Wunderkind nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de Wunderkind
ADC Media
Nous faisons appel à ADC Media pour afficher des publicités numériques sur les sites pris en charge par ADC Media. Les publicités sont basées à la fois sur les données de ADC Media et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que ADC Media a collectées sur vous. Les données que nous fournissons à ADC Media nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de ADC Media
AgrantSEM
Nous faisons appel à AgrantSEM pour afficher des publicités numériques sur les sites pris en charge par AgrantSEM. Les publicités sont basées à la fois sur les données de AgrantSEM et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que AgrantSEM a collectées sur vous. Les données que nous fournissons à AgrantSEM nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de AgrantSEM
Bidtellect
Nous faisons appel à Bidtellect pour afficher des publicités numériques sur les sites pris en charge par Bidtellect. Les publicités sont basées à la fois sur les données de Bidtellect et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que Bidtellect a collectées sur vous. Les données que nous fournissons à Bidtellect nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de Bidtellect
Bing
Nous faisons appel à Bing pour afficher des publicités numériques sur les sites pris en charge par Bing. Les publicités sont basées à la fois sur les données de Bing et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que Bing a collectées sur vous. Les données que nous fournissons à Bing nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de Bing
G2Crowd
Nous faisons appel à G2Crowd pour afficher des publicités numériques sur les sites pris en charge par G2Crowd. Les publicités sont basées à la fois sur les données de G2Crowd et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que G2Crowd a collectées sur vous. Les données que nous fournissons à G2Crowd nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de G2Crowd
NMPI Display
Nous faisons appel à NMPI Display pour afficher des publicités numériques sur les sites pris en charge par NMPI Display. Les publicités sont basées à la fois sur les données de NMPI Display et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que NMPI Display a collectées sur vous. Les données que nous fournissons à NMPI Display nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de NMPI Display
VK
Nous faisons appel à VK pour afficher des publicités numériques sur les sites pris en charge par VK. Les publicités sont basées à la fois sur les données de VK et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que VK a collectées sur vous. Les données que nous fournissons à VK nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de VK
Adobe Target
Nous faisons appel à Adobe Target afin de tester les nouvelles fonctionnalités de nos sites et de personnaliser votre expérience. Pour ce faire, nous collectons des données comportementales lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil, d'ID Autodesk, etc. La version de nos sites peut varier en fonction des tests de fonctionnalités. Le contenu, quant à lui, peut être personnalisé en fonction de vos attributs de visiteur. Politique de confidentialité de Adobe Target
Google Analytics (Advertising)
Nous faisons appel à Google Analytics (Advertising) pour afficher des publicités numériques sur les sites pris en charge par Google Analytics (Advertising). Les publicités sont basées à la fois sur les données de Google Analytics (Advertising) et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que Google Analytics (Advertising) a collectées sur vous. Les données que nous fournissons à Google Analytics (Advertising) nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de Google Analytics (Advertising)
Trendkite
Nous faisons appel à Trendkite pour afficher des publicités numériques sur les sites pris en charge par Trendkite. Les publicités sont basées à la fois sur les données de Trendkite et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que Trendkite a collectées sur vous. Les données que nous fournissons à Trendkite nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de Trendkite
Hotjar
Nous faisons appel à Hotjar pour afficher des publicités numériques sur les sites pris en charge par Hotjar. Les publicités sont basées à la fois sur les données de Hotjar et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que Hotjar a collectées sur vous. Les données que nous fournissons à Hotjar nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de Hotjar
6 Sense
Nous faisons appel à 6 Sense pour afficher des publicités numériques sur les sites pris en charge par 6 Sense. Les publicités sont basées à la fois sur les données de 6 Sense et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que 6 Sense a collectées sur vous. Les données que nous fournissons à 6 Sense nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de 6 Sense
Terminus
Nous faisons appel à Terminus pour afficher des publicités numériques sur les sites pris en charge par Terminus. Les publicités sont basées à la fois sur les données de Terminus et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que Terminus a collectées sur vous. Les données que nous fournissons à Terminus nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de Terminus
StackAdapt
Nous faisons appel à StackAdapt pour afficher des publicités numériques sur les sites pris en charge par StackAdapt. Les publicités sont basées à la fois sur les données de StackAdapt et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que StackAdapt a collectées sur vous. Les données que nous fournissons à StackAdapt nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de StackAdapt
The Trade Desk
Nous faisons appel à The Trade Desk pour afficher des publicités numériques sur les sites pris en charge par The Trade Desk. Les publicités sont basées à la fois sur les données de The Trade Desk et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que The Trade Desk a collectées sur vous. Les données que nous fournissons à The Trade Desk nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de The Trade Desk
RollWorks
We use RollWorks to deploy digital advertising on sites supported by RollWorks. Ads are based on both RollWorks data and behavioral data that we collect while you’re on our sites. The data we collect may include pages you’ve visited, trials you’ve initiated, videos you’ve played, purchases you’ve made, and your IP address or device ID. This information may be combined with data that RollWorks has collected from you. We use the data that we provide to RollWorks to better customize your digital advertising experience and present you with more relevant ads. RollWorks Privacy Policy

Voulez-vous améliorer votre expérience en ligne?

Nous souhaitons vous offrir une expérience optimale. Si vous choisissez Oui pour les catégories présentées dans l'écran précédent, nous collecterons vos données et les utiliserons afin de personnaliser votre expérience et d'améliorer nos applications. Vous pouvez modifier vos paramètres à tout moment en accédant à notre Déclaration de confidentialité.

Votre expérience. Votre choix.

Nous respectons votre confidentialité. Les données que nous collectons nous aident à comprendre votre utilisation de nos produits, à identifier les informations susceptibles de vous intéresser, mais aussi à améliorer et à valoriser votre engagement envers Autodesk.

Nous autorisez-vous à collecter et à utiliser vos données afin de personnaliser votre expérience ?

Découvrez tous les avantages d'une expérience personnalisée. Vous pouvez gérer vos paramètres confidentialité pour ce site. Pour en savoir plus sur les options disponibles, consultez notre Déclaration de confidentialité.