AU Class
AU Class
class - AU

Speedup Railway Site Management: The Power of Automation and the Architecture, Engineering & Construction Collection

Partager ce cours
Rechercher des mots-clés dans les vidéos, les diapositives des présentations et les supports de cours :

Description

In this class, FSTechnology will showcase how to achieve up to 40% in overall time reduction for some site supervision activities by automating the estimation of the site’s physical progress and of cut-and-fill volumes. This class will illustrate two workflows that you can apply to both building information modeling (BIM) projects and traditional project drawings. The first fully automated workflow calculates the progress of the construction works, starting from the exchange on Autodesk Construction Cloud of all point cloud data coming from drone surveys. The main steps are the production of simplified railways track path models in Revit software, the performance of a bespoke clash detection in Navisworks software to assess the works’ progress, and the interpretation of the XML output with .NET scripts to feed a Microsoft Power BI dashboard. The second workflow generates DEM (digital elevation model) surfaces from point clouds via a Python script to then calculate cut-and-fill volumes with Dynamo in Civil 3D. The results are also exported as a structured data source for a Microsoft Power BI dashboard.

Principaux enseignements

  • Learn how to implement automated workflows to extract and elaborate data from site surveys.
  • Learn how to implement parametric planes in Revit from railway tracks as a path.
  • Learn about how to use clash detection in Navisworks to estimate work in progress.
  • Learn how to automatically manage and compare surfaces in Civil 3D to calculate cut-and-fill volumes.

Intervenants

  • LUCA CAPUANI
    I'm a GIS analyst and technical specialist. From two years in FSTechnology, I started as a consultant on Autodesk Geospatial and Collaboration products. Graduated in Geography and specialized with a Master Degree in GIS, so I'm interested in everything that is "GEO".
Video Player is loading.
Current Time 0:00
Duration 46:39
Loaded: 0.35%
Stream Type LIVE
Remaining Time 46:39
 
1x
  • Chapters
  • descriptions off, selected
  • en (Main), selected
Transcript

ALESSANDRO DELLE MONACHE: Good morning, everyone. It's a pleasure to be here in Autodesk University 2022, with my colleague Luca Capuani. I am Alessandro Delle Monache, BIM GIS technology specialist. And in this class, we are going to explain how our workflow flow can increase the time saving or railway site management.

Here is the agenda for the presentation. And now, a brief introduction of our company and our team.

FSTechnology is the high-tech company of Ferrovie dello Stato Italiane Group. It was created at the beginning of 2019, and its goal is to strengthen and support digital innovation among the company, within the group.

The BIM and GIS Competence Center is a team within FSTechnology. The main objective of our team is to research and implement new technologies to improve the processes and the workflows for the management of the entire lifecycle of infrastructure projects.

Considering the processes of the group, we mainly support linear infrastructure project, and therefore, we support Italferr, which is the engineering company of the Ferrovie dello Stato Italiane group during the design and the construction stages. We also support Rete Ferroviaria Italiana, the company of the Ferrovie dello Stato Italiane owner of entire railway network. And here, in this slide, we can see our team.

Our first Autodesk University class was presented by our head, Marcelo Faraone and Stefano Libianchi in 2019. In 2019, [INAUDIBLE] awarded us with the special achievement in GIS. In 2020, our group started to investigate how to improve the integration of BIM NGS with other platform and implement solution for remote site monitoring.

We focused our energy to the possibility to reduce time on construction site management activities. We will explain where we start and what we achieved so far.

In July 1996, the European Commission adopted a resolution to implement the Trans-European Transport Network, named TEN-T. The intent of this multi-phase project is to provide coordinated improvements to primary roads, railways, inland waterways, airports, and traffic management system throughout Europe. When complete, the Scandinavian-Mediterranean corridor will stretch from [? NCT ?] to Valletta. The Napoli-Bari High Speed Railway Project is part of this corridor and started in 2015.

The activity of the project-- we will present our main focus in this section. The project-- virtual construction site management-- started in 2019 as a proof of concept. The main goal was to monitor, remotely, some phases of the construction, with the help of advanced technologies, and provide support to construction site manager in some of the most expensive and critical activities, such as construction, health, and safety checks, work in progress and quality checks of the works being undertaken, environmental inspection during construction.

The technology we use in this project can be divided into three major groups. The drone surveys activities where drones have scheduled the recording inspection of the construction site to monitor the phases and the status of the works. After the processing, [INAUDIBLE] data collected by the drones. The outputs are or Ortophoto and Ortomosaic, Point Clouds Models, BubbleViews.

The major goal was reached with a workflow that includes the post-processing of the images and the models acquired during the survey, the analysis in [? BIM ?] environmental, and then the publication-- [? ArcGIS ?] portal enterprise. In addition, to make the data available to the world project team and potentially to the world company, we also managed to estimate construction site processes and calculate custom field volumes, which we will explain in detail later. The site of data analytics, after integrating via BIM and GIS information, although [? acquired, ?] can be used for different purposes, such as AI for automated image detection, augmented reality, and for the environmental control.

And now, two more aspects for managing the data acquired. The AI algorithm was used to automate the analysis and reduce the times for identification of image. Also, we are training the machine with the Ortophotos taken during the surveys for environmental inspection on construction site to identify illegal landfill, dangerous leakage of chemicals, environmental contamination.

Augmented reality and virtual reality side-- with the help of Unity-- a cross-platform BIM engine-- in ArcGIS SDK for Unity, we managed to integrate GIS data and B models to obtain an impressive solution, which is very simple to navigate, engineered by all known BIM experts.

Our massive goal was the possibility to share this game-like application as a simple installer and allow two users to simply launch it and navigate in virtual environment with a keyboard or gamepad. In the environmental side, we are studying the possibility to analyze the [INAUDIBLE] and post-operam environmental system to verify whether they were preserved and ensure the protection of our landscape heritage. Moreover, we can detect contamination of illegal landfills throughout the use the AI algorithm, image post-processing, or with multispectral analysis with sensors carried by the drones.

The focus of this class explain in detail two of the workflow we created, especially to calculate cut&fill Earthwork volumes and to estimate the physical progress of the works on site. Before doing so, it's important to understand the reason that led us to implement them, the requirements for the data, and the information exchange and the necessary level of detail in order to get satisfactory results.

For the semi-automated calculation, they needed to isolate the volume of the soil involved in Earthworks on the construction site. This volume shall be generated with little processing for the end user, and the processing time should be short to ensure the results are timely and useful. The results shown should also be within a certain accuracy and can be used as data sources and database for further analysis.

Let's now have a look at how the workflow is structured. Before demonstrating the workflow, we released all the file types we requested at each subway. Ortophoto then processes in Ortomosaics with a minimum resolution of 2 centimeters per pixel in Tif and tfw format. These are intended to have a detailed overview of the world construction site area, and they feed the AI algorithm for automated image detection.

Point Cloud in Las Rcp format-- classified by both WBS and material-- for example, vegetation, ground, and concrete-- with a very high accuracy, with a precision of lower than 10 millimeters. And BubbleView-- made with a 3D laser scanner that allow us to usually inspect and navigate the site, as well as taking measurements.

As mentioned earlier, one of the requirements in the validity of Point Cloud classified by WBS, which means having a single file for each element. All piers, piers [? cap, ?] beams and, therefore, save it in separate files.

For the same [INAUDIBLE], we also need an additional file classifying by the different materials so that we can distinguish concrete, steel, timber, as well as the ground and the vegetation. For this PRC, we choose the construction site [INAUDIBLE] as construction was kicking off, and the construction works include different types of structure, such as viaduct, railway embankments, tunnels, and more.

On this file, I shared the storage on ACC, with folder-- we'd organize in a folder structure and read with the client, which makes it easy to identify the main WBS elements of [INAUDIBLE] and so on. At the lower hierarchy, the name of the survey has organized the data by date. And at an even lower level, we have all the outputs listed by format and type.

As we carried out periodic surveys on three major pieces of infrastructure, two viaducts, and a portion of railway embankments, [? and ?] well organizing for the structure allows us to easily organize and find the data relating to specific survey and area, and carry out comparative analysis of the same area to different surveys. Coming down to the stakeholders involved in this project, we have been collaborating with Autodesk Engineering, Microsoft, Seikey, and Esri.

And now in this short video show the main construction site area of the walls on the Cancello Frasso Telesino Railway. We regularly survey the site, roughly every two months, to monitor the construction works, including two viaducts, a new viability system, and a tunnel.

And now I defer to my colleague, Luca, for the technical construction of the workflow we develop and then use.

LUCA CAPUANI: Thank you, Alessandro. Hi, everyone. I am Luca Capuani, and my role in FSTechnology is GIS expert. Now I will illustrate, in more detail, the first workflow we created to calculate cut&fill for volumes.

The first step of this workflow is about the necessary data preprocessing that we will then use in Civil3D for an automated calculation of cut&fill volumes. Using one or more Point Clouds in the class format, classified by material, we manipulate the ground level. And if needed, we merge it to make it a single file.

We then prepare a single file shape showing the different construction site areas, with the data attribute adequately populated. Both input data must reference to the correct geographic coordinate system. Then we use a Python script built in an [INAUDIBLE] environment, which executes the following commands-- cropping out the Point Clouds around the boundaries of the site areas, extraction of the name attribute of the areas, setting of the output resolution, export a general reference term for each item, and renaming of the duties with the attribute value of the relevant area and the suffix indicated the survey it refers to.

We started from a Civil3D template where we preset the graphic preferences for the imported [INAUDIBLE] surfaces to be made low quality-- that is, with no triangulation-- in order to ensure a better performance that-- the one achievable with level curves. The template also presents one of the most widely used GIS Italian reference system as the default projection system of the project drawings.

In easy words, we open a new Civil3D starting from the template, and we only change the reference system if required. Therefore, we proceed importing the DEM generated from the Python script previously described. Then we use the tool Create Surface from DEM, and we load our reference surfaces.

Next, we load the surfaces of the same site-- the area that survived the different time. [INAUDIBLE] or the relevant surfaces are releases during the tool spaces, and are renamed the coding as required by our standard procedure to create them. Specifically, our standard requires the surfaces to compare-- to be named the same, but the suffix indicating the survey that is T6 or T7.

In the same way, we can now run the Dynamo script. Let's see its structure and the way it works. Exploring the section of the script, in the first one, split the text to DEM. The second sector lists all surfaces, splitting by name, and extracts the data from the surveys. Then the Data Extraction process begins, and produces a structured Excel file as the output.

This is the custom Python script creating the volumetric surfaces. This box generates the Excel report that is automatically saved in the same folder as the reference [? DWG. ?] Also, we are prompted with the dialog box informing us on the number of surfaces created and on potential warnings. The process is ending confirming OK on the watch dial. The only parameter to set in the Dynamo script is whether to open up the accelerator to visualize the results at the end of the process.

OK, while the volumetric surfaces are generated, the process is shown in the progress bar. Once generated, the volumetric surfaces are listed in the two spaces within the surface category. The volumetric surface just created keep the same name as the control ones and get both the names of the surface converted as a suffix. This way, it's possible to keep track of the evolution of the construction site.

The report extracted are a data structure that can be loaded into business intelligence tool and visually represented on a dashboard. We are currently working to incorporate this data with the main mission project dashboard so that the user can easily interrogate, on a map, the variation of the airport volumes over time.

Once the workflow was defined, as mentioned earlier, we have usable results and limited processing times. We had to decimate the input data by using the tools that reduce the density of the Point Cloud, preserving the geometry as well as possible. To determine the optimal resolution of the Point Cloud, we test the different options and settings.

The results showed that the most straightforward solution for our purpose was a 10-centimeter resolution, which, while ensuring sufficient accuracy, kept the processing time limited, the size of the resulting Point Cloud much more manageable, and the volume calculation more efficient.

Here is the evidence supporting our choice. As we can see from the chart, for example, the time saving in generating the GeoTIFF between the original and the decimated surface account to 85%. Also, for generating the surface in Civil3D, we move from 27 minutes for generating surface with a decimation factor equal to 5 centimeters-- to three minutes for a decimation equal to 10 centimeters, while keeping a very limited discrepancy in terms of the overall volume, which means no significant drops in the accuracy of the custom field volumes calculation. The benchmark used was the volume of a surface with the estimation equal to 2 centimeters, and that's a very high definition for the purpose of our calculation.

Now I present the second workflow we created in order to estimate the physical progress of the works on site. We have implemented this solution by means of Revit, Dynamo, and Navisworks. The workflow requires a 3D model, which, in reality, is not always made available by the designers.

Therefore, when a project follows a traditional approach, starting from a simple Civil3D path, and when a 3D Revit model is not available, we can face two different scenarios. In the first case, having the required time, and now it is possible to create the necessary families which, even if time consuming, is still regarded as possible. In the second case, it is required one basic family to build a simplified model upon.

In the fifth scenario, it is the automatic production of a true BIM model. The Dynamo script generates the true part of the viaduct, in an empty private project, sizing based on, consistently, with the plan and duration that extracted from the Civil3D project, which must stay open in the background while the script is run. It is necessary to have the required families-- [INAUDIBLE], built [INAUDIBLE], beams ready and loaded the Revit.

Let's take the family of the typical pier of the viaduct-- for the viaduct as an example. We modeled the piers as a family having as many types as the design indicates. We then create instance parameters to be able to control features for each instance-- for example, the plan rotation of a pier in Dynamo. In simple words, the script writes the direction of the path at specific point and assign that direction as an angle parameter to the elements located there. [INAUDIBLE] to manually rotate the element to write it to align it to the track.

We also integrated by parameters that we can control while in the family editor. These determine the nested families to be shown or written within each type, and therefore, the characteristics of each family type. Let's open up the nest-- the nested standard family and see that it has a more feminine nest within.

Or with many parameters depending one on each other-- and when editing the one parameter, the formulas determine variation, such as depth of the foundation piles, the bottom levels of the piers, date of the piers itself as imported from Civil3D. And the top [INAUDIBLE] is determined by stating of a project-specific value from the [INAUDIBLE] parts.

OK, let's start from the Civil3D project. With all the necessary data, to make the process work with Dynamo, we need the [? bid-- ?] the different reference or phrases, and it provides with the innovation [? level. ?]

So let's take one of the different bets. Moving on to Revit, it is important that the project share the same coordinates as Civil3D. In this case, the coordinates had already been acquired from the CAD file. The summary point is perfectly coordinated, too.

Let's open the Dynamo and analyze the script, taking the global model as an example. In general, we see the section of the script. The first part is about the input data, the second about the parameters. The user needs to set the graphical user interface, then another section for modeling the necessary elements already-- and lastly, to fill in the parameter.

Precisely, in the input section-- the input section executes the following commands-- extracts the image and the code from the element to place, applies the rotation value, as calculated from the information extracted from Civil3D, extracts other information, such as the dates necessary for the 4D programming and the WBS codes. Lastly, for coordination purposes and a correct spatial placement, it shares with the same coordinates as in Civil3D.

The section ending the graphical user interface commands is made up by a series of Python scripts prompting the user with windows and menus to select the relevant families to the element model. And the last one is the interface to the path.

In this section, the geometrical characteristics of the Revit element are defined. There are three different groups of nodes-- each one related to the type of functional inner element of the viaduct, entering the data to, please rotate inside the family and its nested families.

The last part relates to the data manipulation extracted from Excel-- therefore, the input of parameters such as WBS, activity ID, date, et cetera.

Let's [? find ?] the Dynamo script, as mentioned already. The user is prompt with a series of graphic interfaces. Here, we can see the user selecting a viaduct family and pairing the codes with the respective families loaded the Revit. Then we had to do the same for the families of each type-- the second viaduct and its beams, piers, et cetera. Lastly, we can see that-- that selected relevant part from Civil3D is required.

Here, we can see the results of the Dynamo script. A true BIM model is, therefore, created. Every family got placed at the right location, with the correct rotation, dimensions, elevation, and with the WBS parameter already populated, with the relevant codes, such as the WBS identifying, unambiguously, the elements of the infrastructure. Each element is an ID for both activity and date, which can be retrieved in the text box by selecting Different Features. And then the file is exported to be, then, downloaded-- loaded in [? a resource ?] and clash detected against the Point Clouds.

This video opens up on our Revit view, showing the families created by the screen, and the progress of the construction-- a different surface between time two and time seven in this example. What is yet to be built is shown with a transparent green color, while, in the dark red, the older elements, and, in lighter red, the elements built more recently.

The other option is building a simplified model. In this case, there are no complex families in Revit, only boxes with a limited date, which we'll call planes-- or horizontal planes, for simplicity. There is only one family with as many instances as necessary. It has parameters that allow any family instance to adapt to different project needs-- for example, different dimensions of the [? piers. ?]

This family has only one family within. A smaller box that's repeated many times determine a volume made up by progressive slices. By opening up the family, we can indeed see that it is made up by nested family boxes. It [INAUDIBLE] as a parameters controlled at the family level so that every parameter variation within the family is reflected in each instance.

A Dynamo script allows us to apply, to the slides, a name which combines the [? WBS ?] code and the progressive elevation of the element. Therefore, the process is compatible, but the WBS values, with their special and dimensional information, are different, as well as the use of boxes acting as progressive lines across derivation.

These are useful to estimate the percentage of completion of the vertical elements once related to their overall project date. The zero datum is the top of the head of the rails, and the datum grows downward, giving an unambiguous name to each element. Lastly, the Dynamo script generate the planes and rename them according to Excel file after selecting the relevant path. The user only needs to interact manually when some unforeseeable events happen-- for example, multiple tracks or interchanges.

Before exploring in the process of Navisworks, let's have a look at the logic behind. In this example, during the first star, the drone scans the elements under construction, and we get an idea of the physical progress made. Being infrastructure projects are mainly linear, but [? punctual ?] piers spanning vertically, and beams spanning horizontally, we thought we could use control plans, boxes, slices along the length of each element to estimate the relative progress of each WBS element. In this example, after post-processing, the results of the first survey show that two foundation, two condition planes have been built 100% and 50% of the rate.

During the second survey, we can see that some progress has been made on all planes and on three piers. The results of the post-processing show the quantification of the physical properties on each of the WBS elements surveyed.

Finally, during the third survey, the drone scans the same elements again. And the results show that two vertical elements previously surveyed have now reached completion.

This is the script for the simplified model. The result is a series of block made up by the planes necessary to the clash detection in Navisworks, in place of having the tailored project being modeled. Therefore, the areas representing the elements are identified-- slice at top level, with the unique code combining WBS in relation. Lastly, the model is exported in this form for this direction.

This is the workflow about the railway embankment, starting from a Civil3D project. We need the bid and the revision, plus a series of [? contrasections. ?]

Moving on to [INAUDIBLE], we need to make sure the project share the same coordinates as Civil3D. In this scenario, the Dynamo script is quite different and more complex because the plans for each block are not sufficient and some sort of control over the sites is required, too.

It's necessary to have blocks along the elevation as well as on the sides to check the extent of the work executed. Therefore, it's needed to model objects according to the embankment typical cross-section. These objects are currently modeled in Dynamo memory through the input of some parameters. However, we are aiming to model a series of typical sections to standardize the process and allow the user to simply select the relevant typical cross-section from the base.

Here, with no further graphic interfaces, we run the Dynamo script. The result is similar to the viaduct. The difference stands in the fact that there is not one single slide for each level, but it is split in more slides. It's useful to check whether the sides of the embankment are consistent with the project section.

Here, each element is identified unambiguously. Similarly to other cases, the model is then exported to NWC to run a clash detection.

Once built one of the models and performs the export in NWC, we can open up Navisworks. Here, we will demonstrate the process on the simplified model of the viaduct as an example. Let's add, to the selection tree, the Point Clouds with all the RCS-files classified both by both WBS and material.

And then we add to the simplified Revit model with either its horizontal progressive boxes or slices, and the vertical ones, too, if necessary. Once imported, we verify, with a visual check, that all the Point Clouds fall within the volumes of the planes. With an XML import, we load the preset and automated clash matrix, with tests organized by WBS and material.

The clash matrix is built from a series of preset clash tests, saved in an example and loaded in Navisworks to run the clash detection. The tests were said to validate that the geometry is classified by type and level. Basically, a clash test validates the list of the selection sets of all the levels of a model against the selection set of a WBS type.

In this video, we are looking at-- at the pier caps, for example. We keep creating a clash test between the levels and the selection set of every WBS type and material. We then export all the tests, so defined, as a standardized clash metrics to be able to use it in the future.

The selection sets that are creating as the results of a search set filtering on a specific WBS site-- for example, the bids which are coded Wi-Fi and across all Point Clouds. The same process is followed for every WBS site-- with caps, slabs, beams, foundations, for every innovation plan of the model, and for every material-- timber concrete steel.

Since the naming convention and the five formats are standardized, the setup just illustrated this to be manually performed only once. When all the sets are defined, we can indeed export them as a standardized XML that can be reimported in Navisworks to easily perform the same exercise with the new service, or even a new project.

Once the clash detection is run, if the points of a Point Cloud intersect the block or the slice, we have the clash. Most tests will result in a series of clashes-- not really easily readable, as the point-- the points clashing against the planes are not very meaningful when reviewed in isolation, as these only means an element intersects one or more slices.

Therefore, it is necessary to export an XML file to feed a bespoke algorithm able to organize and interpret the results to extract useful information. The script combines the clash with the information of the Revit planes involved within the clash to determine the maximum progress of each WBS element on material.

One goal of this workflow is-- automatically, the feeling in the project is [? scales. ?] I use it to formally record the progress of the work on site and consequently pay the due invoices to the main contractor or in the trades. It's easy to understand that the added value of the workflow is that it simply automates existing procedures and blends in with the existing documents with no disruption or changes for the users.

So to fill in the schedule, we need to elaborate the example generated in Navisworks to simplify it by grouping the clashes, removing any duplicate or redundant clashes, and create a second procedure to-- to fill-- a second visit-- to fill the schedule in adding the values of the top of every WBS element-- paste or partial build and survey, and the percentage calculated against the project highest [? elevation ?] of each element.

Recently, we also added warnings for any unexpected results to make sure the user double checks the specific element and analyzes the reasons for such results-- as an example, anomalies such as progress values inconsistent with the results of the previous survey, or material survey with an unexpected sequence [INAUDIBLE] project.

OK, that's over. Thank you. And I'll give the floor back to my colleague, Alessandro, for the conclusions.

ALESSANDRO DELLE MONACHE: Thank you, Luca. And now to summarize all the progress we made with this workflow.

We estimated that, in this case study, an overall time saving of 40% in site supervision activities for the processing times. In particular, we increased the cut&fill accuracy with the use of scripts that helped us to automate the entire process so to obtain faster and more reliable results and planning, less prone to human error. Another important goal is the possibility to save time in the physical progress, monitoring with remote inspections, reducing site visit, and therefore, costs and potentially accident.

As a further benefit, we increased the data digitization efficiency, thanks to the possibility to store in the same place all the files of the survey, and thanks to the use of AI algorithms to automatically analyze and classify the content of thousands of site pictures, as well as we are studying new steps to integrate in this workflow in the next future.

In the AI side, we are introducing the possibility to resume or to publish data throughout the dashboard or throughout the Power BI. The augmented reality, virtual reality side is very interesting-- the possibility to use new technology for immersive experience. In environmental contexts, we have the possibility to verify, with multispectral analysis, the presence of underground waste, health state of vegetation.

Thank you, and I hope you enjoyed the presentation and our work. Thank you for watching.

______
icon-svg-close-thick

Préférences en matière de cookies

Votre confidentialité est primordiale pour Autodesk et nous mettons tout en oeuvre pour vous garantir la meilleure expérience possible. Pour nous aider à personnaliser les informations que vous recevrez et à créer des applications, nous collectons des données sur votre utilisation de ce site.

Nous autorisez-vous à collecter et à utiliser vos données ?

En savoir plus sur les services tiers que nous utilisons et sur notre Déclaration de confidentialité.

Cookies indispensables au fonctionnement de notre site et à la fourniture de nos services

Ces cookies nous permettent d'enregistrer vos préférences ou vos informations de connexion, de répondre à vos demandes ou de traiter les achats de votre panier.

Cookies visant à améliorer votre expérience grâce à l'affichage de contenu pertinent

Ces cookies nous permettent d'améliorer les fonctionnalités et la personnalisation. Ils sont configurés par Autodesk ou par des fournisseurs tiers auxquels nous faisons appel afin de vous proposer une expérience et des informations adaptées à vos besoins.Si vous n'autorisez pas l'utilisation de ces cookies, certains ou l'ensemble des services risquent d'être indisponibles.

Personnalisation des publicités à des fins de ciblage

Ces cookies collectent des données vous concernant, en fonction de vos activités et de vos centres d'intérêt, afin d'afficher des publicités pertinentes et d'en évaluer l'utilité. Grâce aux données collectées, ces publicités seront davantage ciblées. Si vous n'autorisez pas les cookies, elles seront moins pertinentes.

icon-svg-close-thick

SERVICES TIERS

Découvrez les services tiers que nous utilisons pour chaque catégorie et la façon dont nous exploitons les données que nous collectons sur vous en ligne.

icon-svg-hide-thick

icon-svg-show-thick

Cookies indispensables au fonctionnement de notre site et à la fourniture de nos services

Qualtrics
Nous faisons appel à Qualtrics pour que vous puissiez nous faire part de vos commentaires par le biais d'enquêtes et de formulaires en ligne. Vous êtes susceptible d'être sélectionné au hasard pour participer à une enquête. Vous pouvez aussi nous faire directement part de vos commentaires. Nous collectons des données afin de connaître les actions que vous avez effectuées avant de participer à une enquête. Cela nous aide à résoudre les éventuels problèmes. Politique de confidentialité de Qualtrics
Akamai mPulse
Nous faisons appel à Akamai mPulse pour collecter des données comportementales sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil et d'ID Autodesk. Ces données nous permettent de mesurer les performances de nos sites et d'évaluer la qualité de votre expérience en ligne afin d'améliorer les fonctionnalités que nous proposons. Grâce à des méthodes d'analytique avancées, nous optimisons également votre expérience dans les domaines suivants : communication par e-mail, assistance client et ventes. Politique de confidentialité de Akamai mPulse
Digital River
Nous faisons appel à Digital River pour collecter des données comportementales sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil et d'ID Autodesk. Ces données nous permettent de mesurer les performances de nos sites et d'évaluer la qualité de votre expérience en ligne afin d'améliorer les fonctionnalités que nous proposons. Grâce à des méthodes d'analytique avancées, nous optimisons également votre expérience dans les domaines suivants : communication par e-mail, assistance client et ventes. Politique de confidentialité de Digital River
Dynatrace
Nous faisons appel à Dynatrace pour collecter des données comportementales sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil et d'ID Autodesk. Ces données nous permettent de mesurer les performances de nos sites et d'évaluer la qualité de votre expérience en ligne afin d'améliorer les fonctionnalités que nous proposons. Grâce à des méthodes d'analytique avancées, nous optimisons également votre expérience dans les domaines suivants : communication par e-mail, assistance client et ventes. Politique de confidentialité de Dynatrace
Khoros
Nous faisons appel à Khoros pour collecter des données comportementales sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil et d'ID Autodesk. Ces données nous permettent de mesurer les performances de nos sites et d'évaluer la qualité de votre expérience en ligne afin d'améliorer les fonctionnalités que nous proposons. Grâce à des méthodes d'analytique avancées, nous optimisons également votre expérience dans les domaines suivants : communication par e-mail, assistance client et ventes. Politique de confidentialité de Khoros
Launch Darkly
Nous faisons appel à Launch Darkly pour collecter des données comportementales sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil et d'ID Autodesk. Ces données nous permettent de mesurer les performances de nos sites et d'évaluer la qualité de votre expérience en ligne afin d'améliorer les fonctionnalités que nous proposons. Grâce à des méthodes d'analytique avancées, nous optimisons également votre expérience dans les domaines suivants : communication par e-mail, assistance client et ventes. Politique de confidentialité de Launch Darkly
New Relic
Nous faisons appel à New Relic pour collecter des données comportementales sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil et d'ID Autodesk. Ces données nous permettent de mesurer les performances de nos sites et d'évaluer la qualité de votre expérience en ligne afin d'améliorer les fonctionnalités que nous proposons. Grâce à des méthodes d'analytique avancées, nous optimisons également votre expérience dans les domaines suivants : communication par e-mail, assistance client et ventes. Politique de confidentialité de New Relic
Salesforce Live Agent
Nous faisons appel à Salesforce Live Agent pour collecter des données comportementales sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil et d'ID Autodesk. Ces données nous permettent de mesurer les performances de nos sites et d'évaluer la qualité de votre expérience en ligne afin d'améliorer les fonctionnalités que nous proposons. Grâce à des méthodes d'analytique avancées, nous optimisons également votre expérience dans les domaines suivants : communication par e-mail, assistance client et ventes. Politique de confidentialité de Salesforce Live Agent
Wistia
Nous faisons appel à Wistia pour collecter des données comportementales sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil et d'ID Autodesk. Ces données nous permettent de mesurer les performances de nos sites et d'évaluer la qualité de votre expérience en ligne afin d'améliorer les fonctionnalités que nous proposons. Grâce à des méthodes d'analytique avancées, nous optimisons également votre expérience dans les domaines suivants : communication par e-mail, assistance client et ventes. Politique de confidentialité de Wistia
Tealium
Nous faisons appel à Tealium pour collecter des données comportementales sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces données nous permettent de mesurer les performances de nos sites et d'évaluer la qualité de votre expérience en ligne afin d'améliorer les fonctionnalités que nous proposons. Grâce à des méthodes d'analytique avancées, nous optimisons également votre expérience dans les domaines suivants : communication par e-mail, assistance client et ventes. Politique de confidentialité de Tealium
Upsellit
Nous faisons appel à Upsellit pour collecter des données comportementales sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces données nous permettent de mesurer les performances de nos sites et d'évaluer la qualité de votre expérience en ligne afin d'améliorer les fonctionnalités que nous proposons. Grâce à des méthodes d'analytique avancées, nous optimisons également votre expérience dans les domaines suivants : communication par e-mail, assistance client et ventes. Politique de confidentialité de Upsellit
CJ Affiliates
Nous faisons appel à CJ Affiliates pour collecter des données comportementales sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces données nous permettent de mesurer les performances de nos sites et d'évaluer la qualité de votre expérience en ligne afin d'améliorer les fonctionnalités que nous proposons. Grâce à des méthodes d'analytique avancées, nous optimisons également votre expérience dans les domaines suivants : communication par e-mail, assistance client et ventes. Politique de confidentialité de CJ Affiliates
Commission Factory
Nous faisons appel à Commission Factory pour collecter des données comportementales sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces données nous permettent de mesurer les performances de nos sites et d'évaluer la qualité de votre expérience en ligne afin d'améliorer les fonctionnalités que nous proposons. Grâce à des méthodes d'analytique avancées, nous optimisons également votre expérience dans les domaines suivants : communication par e-mail, assistance client et ventes. Politique de confidentialité de Commission Factory
Google Analytics (Strictly Necessary)
Nous faisons appel à Google Analytics (Strictly Necessary) pour collecter des données comportementales sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil et d'ID Autodesk. Ces données nous permettent de mesurer les performances de nos sites et d'évaluer la qualité de votre expérience en ligne afin d'améliorer les fonctionnalités que nous proposons. Grâce à des méthodes d'analytique avancées, nous optimisons également votre expérience dans les domaines suivants : communication par e-mail, assistance client et ventes. Politique de confidentialité de Google Analytics (Strictly Necessary)
Typepad Stats
Nous faisons appel à Typepad Stats pour collecter des données comportementales sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil et d'ID Autodesk. Ces données nous permettent de mesurer les performances de nos sites et d'évaluer la qualité de votre expérience en ligne afin d'améliorer les fonctionnalités que nous proposons. Grâce à des méthodes d'analytique avancées, nous optimisons également votre expérience dans les domaines suivants : communication par e-mail, assistance client et ventes. Politique de confidentialité de Typepad Stats
Geo Targetly
Geo Targetly nous permet de rediriger les visiteurs de notre site vers la page appropriée et/ou de leur proposer un contenu adapté à leur emplacement géographique. Geo Targetly se sert de l’adresse IP des visiteurs du site pour déterminer approximativement la localisation de leur appareil. Cela permet de s'assurer que les visiteurs ont accès à un contenu dans ce que nous évaluons être la bonne langue.Politique de confidentialité de Geo Targetly
SpeedCurve
Nous utilisons SpeedCurve pour contrôler et mesurer les performances de notre site Web à l’aide de mesures du temps de chargement de nos pages Web et de la réactivité des éléments successifs tels que les images, les scripts et le texte.Politique de confidentialité de SpeedCurve
Qualified
Qualified is the Autodesk Live Chat agent platform. This platform provides services to allow our customers to communicate in real-time with Autodesk support. We may collect unique ID for specific browser sessions during a chat. Qualified Privacy Policy

icon-svg-hide-thick

icon-svg-show-thick

Cookies visant à améliorer votre expérience grâce à l'affichage de contenu pertinent

Google Optimize
Nous faisons appel à Google Optimize afin de tester les nouvelles fonctionnalités de nos sites et de personnaliser votre expérience. Pour ce faire, nous collectons des données comportementales lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil, d'ID Autodesk, etc. La version de nos sites peut varier en fonction des tests de fonctionnalités. Le contenu, quant à lui, peut être personnalisé en fonction de vos attributs de visiteur. Politique de confidentialité de Google Optimize
ClickTale
Nous faisons appel à ClickTale pour mieux identifier les difficultés que vous pouvez rencontrer sur nos sites. L'enregistrement des sessions nous permet de savoir comment vous interagissez envers nos sites, notamment envers les éléments de nos pages. Vos informations personnellement identifiables sont masquées et ne sont pas collectées. Politique de confidentialité de ClickTale
OneSignal
Nous faisons appel à OneSignal pour afficher des publicités numériques sur les sites pris en charge par OneSignal. Les publicités sont basées à la fois sur les données de OneSignal et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que OneSignal a collectées sur vous. Les données que nous fournissons à OneSignal nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de OneSignal
Optimizely
Nous faisons appel à Optimizely afin de tester les nouvelles fonctionnalités de nos sites et de personnaliser votre expérience. Pour ce faire, nous collectons des données comportementales lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil, d'ID Autodesk, etc. La version de nos sites peut varier en fonction des tests de fonctionnalités. Le contenu, quant à lui, peut être personnalisé en fonction de vos attributs de visiteur. Politique de confidentialité de Optimizely
Amplitude
Nous faisons appel à Amplitude afin de tester les nouvelles fonctionnalités de nos sites et de personnaliser votre expérience. Pour ce faire, nous collectons des données comportementales lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil, d'ID Autodesk, etc. La version de nos sites peut varier en fonction des tests de fonctionnalités. Le contenu, quant à lui, peut être personnalisé en fonction de vos attributs de visiteur. Politique de confidentialité de Amplitude
Snowplow
Nous faisons appel à Snowplow pour collecter des données comportementales sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil et d'ID Autodesk. Ces données nous permettent de mesurer les performances de nos sites et d'évaluer la qualité de votre expérience en ligne afin d'améliorer les fonctionnalités que nous proposons. Grâce à des méthodes d'analytique avancées, nous optimisons également votre expérience dans les domaines suivants : communication par e-mail, assistance client et ventes. Politique de confidentialité de Snowplow
UserVoice
Nous faisons appel à UserVoice pour collecter des données comportementales sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil et d'ID Autodesk. Ces données nous permettent de mesurer les performances de nos sites et d'évaluer la qualité de votre expérience en ligne afin d'améliorer les fonctionnalités que nous proposons. Grâce à des méthodes d'analytique avancées, nous optimisons également votre expérience dans les domaines suivants : communication par e-mail, assistance client et ventes. Politique de confidentialité de UserVoice
Clearbit
Clearbit autorise les données d’enrichissement en temps réel afin de fournir une expérience personnalisée et pertinente à ses clients. Les données que nous collectons peuvent inclure les pages que vous avez consultées, les versions d’évaluation que vous avez lancées, les vidéos que vous avez visionnées, les achats que vous avez réalisés, ainsi que votre adresse IP ou l’ID de votre appareil.Politique de confidentialité de Clearbit
YouTube
YouTube est une plate-forme de partage de vidéos qui permet aux utilisateurs de visionner et de partager des vidéos qui sont intégrées à nos sites Web. YouTube fournit des indicateurs sur les performances des vidéos. Politique de confidentialité de YouTube

icon-svg-hide-thick

icon-svg-show-thick

Personnalisation des publicités à des fins de ciblage

Adobe Analytics
Nous faisons appel à Adobe Analytics pour collecter des données comportementales sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil et d'ID Autodesk. Ces données nous permettent de mesurer les performances de nos sites et d'évaluer la qualité de votre expérience en ligne afin d'améliorer les fonctionnalités que nous proposons. Grâce à des méthodes d'analytique avancées, nous optimisons également votre expérience dans les domaines suivants : communication par e-mail, assistance client et ventes. Politique de confidentialité de Adobe Analytics
Google Analytics (Web Analytics)
Nous faisons appel à Google Analytics (Web Analytics) pour collecter des données comportementales sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces données nous permettent de mesurer les performances de nos sites et d'évaluer la qualité de votre expérience en ligne afin d'améliorer les fonctionnalités que nous proposons. Grâce à des méthodes d'analytique avancées, nous optimisons également votre expérience dans les domaines suivants : communication par e-mail, assistance client et ventes. Politique de confidentialité de Google Analytics (Web Analytics)
AdWords
Nous faisons appel à AdWords pour afficher des publicités numériques sur les sites pris en charge par AdWords. Les publicités sont basées à la fois sur les données de AdWords et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que AdWords a collectées sur vous. Les données que nous fournissons à AdWords nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de AdWords
Marketo
Nous faisons appel à Marketo pour vous envoyer des e-mails dont le contenu est ciblé. Pour ce faire, nous collectons des données concernant votre comportement en ligne et votre interaction envers les e-mails que nous envoyons. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil, de taux d'ouverture des e-mails, de clics sur des liens, etc. Nous sommes susceptibles d'utiliser ces données en combinaison envers celles obtenues auprès d'autres sources pour vous offrir des expériences améliorées en matière de ventes ou de service clientèle, ainsi que du contenu pertinent basé sur un traitement analytique avancé. Politique de confidentialité de Marketo
Doubleclick
Nous faisons appel à Doubleclick pour afficher des publicités numériques sur les sites pris en charge par Doubleclick. Les publicités sont basées à la fois sur les données de Doubleclick et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que Doubleclick a collectées sur vous. Les données que nous fournissons à Doubleclick nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de Doubleclick
HubSpot
Nous faisons appel à HubSpot pour vous envoyer des e-mails dont le contenu est ciblé. Pour ce faire, nous collectons des données concernant votre comportement en ligne et votre interaction envers les e-mails que nous envoyons. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil, de taux d'ouverture des e-mails, de clics sur des liens, etc. Politique de confidentialité de HubSpot
Twitter
Nous faisons appel à Twitter pour afficher des publicités numériques sur les sites pris en charge par Twitter. Les publicités sont basées à la fois sur les données de Twitter et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que Twitter a collectées sur vous. Les données que nous fournissons à Twitter nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de Twitter
Facebook
Nous faisons appel à Facebook pour afficher des publicités numériques sur les sites pris en charge par Facebook. Les publicités sont basées à la fois sur les données de Facebook et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que Facebook a collectées sur vous. Les données que nous fournissons à Facebook nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de Facebook
LinkedIn
Nous faisons appel à LinkedIn pour afficher des publicités numériques sur les sites pris en charge par LinkedIn. Les publicités sont basées à la fois sur les données de LinkedIn et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que LinkedIn a collectées sur vous. Les données que nous fournissons à LinkedIn nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de LinkedIn
Yahoo! Japan
Nous faisons appel à Yahoo! Japan pour afficher des publicités numériques sur les sites pris en charge par Yahoo! Japan. Les publicités sont basées à la fois sur les données de Yahoo! Japan et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que Yahoo! Japan a collectées sur vous. Les données que nous fournissons à Yahoo! Japan nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de Yahoo! Japan
Naver
Nous faisons appel à Naver pour afficher des publicités numériques sur les sites pris en charge par Naver. Les publicités sont basées à la fois sur les données de Naver et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que Naver a collectées sur vous. Les données que nous fournissons à Naver nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de Naver
Quantcast
Nous faisons appel à Quantcast pour afficher des publicités numériques sur les sites pris en charge par Quantcast. Les publicités sont basées à la fois sur les données de Quantcast et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que Quantcast a collectées sur vous. Les données que nous fournissons à Quantcast nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de Quantcast
Call Tracking
Nous faisons appel à Call Tracking pour fournir des numéros de téléphone personnalisés dans le cadre de nos campagnes. Vous pouvez ainsi contacter nos agents plus rapidement et nous pouvons évaluer nos performances plus précisément. Nous sommes susceptibles de collecter des données sur votre utilisation de nos sites en fonction du numéro de téléphone fourni. Politique de confidentialité de Call Tracking
Wunderkind
Nous faisons appel à Wunderkind pour afficher des publicités numériques sur les sites pris en charge par Wunderkind. Les publicités sont basées à la fois sur les données de Wunderkind et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que Wunderkind a collectées sur vous. Les données que nous fournissons à Wunderkind nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de Wunderkind
ADC Media
Nous faisons appel à ADC Media pour afficher des publicités numériques sur les sites pris en charge par ADC Media. Les publicités sont basées à la fois sur les données de ADC Media et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que ADC Media a collectées sur vous. Les données que nous fournissons à ADC Media nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de ADC Media
AgrantSEM
Nous faisons appel à AgrantSEM pour afficher des publicités numériques sur les sites pris en charge par AgrantSEM. Les publicités sont basées à la fois sur les données de AgrantSEM et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que AgrantSEM a collectées sur vous. Les données que nous fournissons à AgrantSEM nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de AgrantSEM
Bidtellect
Nous faisons appel à Bidtellect pour afficher des publicités numériques sur les sites pris en charge par Bidtellect. Les publicités sont basées à la fois sur les données de Bidtellect et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que Bidtellect a collectées sur vous. Les données que nous fournissons à Bidtellect nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de Bidtellect
Bing
Nous faisons appel à Bing pour afficher des publicités numériques sur les sites pris en charge par Bing. Les publicités sont basées à la fois sur les données de Bing et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que Bing a collectées sur vous. Les données que nous fournissons à Bing nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de Bing
G2Crowd
Nous faisons appel à G2Crowd pour afficher des publicités numériques sur les sites pris en charge par G2Crowd. Les publicités sont basées à la fois sur les données de G2Crowd et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que G2Crowd a collectées sur vous. Les données que nous fournissons à G2Crowd nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de G2Crowd
NMPI Display
Nous faisons appel à NMPI Display pour afficher des publicités numériques sur les sites pris en charge par NMPI Display. Les publicités sont basées à la fois sur les données de NMPI Display et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que NMPI Display a collectées sur vous. Les données que nous fournissons à NMPI Display nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de NMPI Display
VK
Nous faisons appel à VK pour afficher des publicités numériques sur les sites pris en charge par VK. Les publicités sont basées à la fois sur les données de VK et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que VK a collectées sur vous. Les données que nous fournissons à VK nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de VK
Adobe Target
Nous faisons appel à Adobe Target afin de tester les nouvelles fonctionnalités de nos sites et de personnaliser votre expérience. Pour ce faire, nous collectons des données comportementales lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP, d'ID d'appareil, d'ID Autodesk, etc. La version de nos sites peut varier en fonction des tests de fonctionnalités. Le contenu, quant à lui, peut être personnalisé en fonction de vos attributs de visiteur. Politique de confidentialité de Adobe Target
Google Analytics (Advertising)
Nous faisons appel à Google Analytics (Advertising) pour afficher des publicités numériques sur les sites pris en charge par Google Analytics (Advertising). Les publicités sont basées à la fois sur les données de Google Analytics (Advertising) et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que Google Analytics (Advertising) a collectées sur vous. Les données que nous fournissons à Google Analytics (Advertising) nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de Google Analytics (Advertising)
Trendkite
Nous faisons appel à Trendkite pour afficher des publicités numériques sur les sites pris en charge par Trendkite. Les publicités sont basées à la fois sur les données de Trendkite et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que Trendkite a collectées sur vous. Les données que nous fournissons à Trendkite nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de Trendkite
Hotjar
Nous faisons appel à Hotjar pour afficher des publicités numériques sur les sites pris en charge par Hotjar. Les publicités sont basées à la fois sur les données de Hotjar et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que Hotjar a collectées sur vous. Les données que nous fournissons à Hotjar nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de Hotjar
6 Sense
Nous faisons appel à 6 Sense pour afficher des publicités numériques sur les sites pris en charge par 6 Sense. Les publicités sont basées à la fois sur les données de 6 Sense et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que 6 Sense a collectées sur vous. Les données que nous fournissons à 6 Sense nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de 6 Sense
Terminus
Nous faisons appel à Terminus pour afficher des publicités numériques sur les sites pris en charge par Terminus. Les publicités sont basées à la fois sur les données de Terminus et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que Terminus a collectées sur vous. Les données que nous fournissons à Terminus nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de Terminus
StackAdapt
Nous faisons appel à StackAdapt pour afficher des publicités numériques sur les sites pris en charge par StackAdapt. Les publicités sont basées à la fois sur les données de StackAdapt et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que StackAdapt a collectées sur vous. Les données que nous fournissons à StackAdapt nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de StackAdapt
The Trade Desk
Nous faisons appel à The Trade Desk pour afficher des publicités numériques sur les sites pris en charge par The Trade Desk. Les publicités sont basées à la fois sur les données de The Trade Desk et sur les données comportementales que nous collectons lorsque vous naviguez sur nos sites. Il peut s'agir de pages visitées, de versions d'évaluation activées, de vidéos lues, d'achats, d'adresses IP ou d'ID d'appareil. Ces informations sont susceptibles d'être fusionnées envers des données que The Trade Desk a collectées sur vous. Les données que nous fournissons à The Trade Desk nous servent à personnaliser les publicités numériques afin de les rendre plus pertinentes. Politique de confidentialité de The Trade Desk
RollWorks
We use RollWorks to deploy digital advertising on sites supported by RollWorks. Ads are based on both RollWorks data and behavioral data that we collect while you’re on our sites. The data we collect may include pages you’ve visited, trials you’ve initiated, videos you’ve played, purchases you’ve made, and your IP address or device ID. This information may be combined with data that RollWorks has collected from you. We use the data that we provide to RollWorks to better customize your digital advertising experience and present you with more relevant ads. RollWorks Privacy Policy

Voulez-vous améliorer votre expérience en ligne?

Nous souhaitons vous offrir une expérience optimale. Si vous choisissez Oui pour les catégories présentées dans l'écran précédent, nous collecterons vos données et les utiliserons afin de personnaliser votre expérience et d'améliorer nos applications. Vous pouvez modifier vos paramètres à tout moment en accédant à notre Déclaration de confidentialité.

Votre expérience. Votre choix.

Nous respectons votre confidentialité. Les données que nous collectons nous aident à comprendre votre utilisation de nos produits, à identifier les informations susceptibles de vous intéresser, mais aussi à améliorer et à valoriser votre engagement envers Autodesk.

Nous autorisez-vous à collecter et à utiliser vos données afin de personnaliser votre expérience ?

Découvrez tous les avantages d'une expérience personnalisée. Vous pouvez gérer vos paramètres confidentialité pour ce site. Pour en savoir plus sur les options disponibles, consultez notre Déclaration de confidentialité.