AU Class
AU Class
class - AU

Single Source of Truth and Data Consistency Using Autodesk Construction Cloud, Revit, and API

このクラスを共有
ビデオ、プレゼンテーション スライド、配布資料のキーワードを検索する:

説明

What is a single source of truth and why it is important in the architecture, engineering, and construction (AEC) industry? In this class, we’ll learn the best practices of maximizing Autodesk Construction Cloud, Autodesk BIM Collaborate Pro, Revit software, and other various tools to create and maintain a single source. We’ll also go beyond the usual single source of truth implementation by exploring the innovative data-focused approach to ensure data consistency and compliance achieved by combining the cloud, central project requirements repository, model authoring tools, and API automation capabilities. Regardless of whether you’re involved in project planning, execution, monitoring, or closing, you’ll find multiple interesting ideas, workflows, and implementation examples of using the latest technology to enhance your capabilities and achieve success.

主な学習内容

  • Learn about single source of truth, its associated challenges, and the benefits of successful implementation.
  • Learn how to implement best practices to create and maintain single source of truth using Autodesk Docs, Autodesk BIM Collaborate Pro, and Revit.
  • Go beyond the usual single source of truth implementation by exploring the innovative data-compliance-focused approach.
  • Learn about harnessing Autodesk Construction Cloud, Revit, APIs, and other tools to ensure data consistency and prevent BIM execution plan incompliances.

スピーカー

  • Mateusz Lukasiewicz さんのアバター
    Mateusz Lukasiewicz
    Mateusz Lukasiewicz has over 12 years of experience in the AEC industry, and throughout his career, he successfully led digital delivery of large-scale projects and developed a number of modern digital engineering solutions by combining BIM expertise, computer programming skills and project management principles. Mateusz undertakes a vital role in driving company's clear vision towards achieving the leading digital innovator position in the market and its long-term digital capability goals.
Video Player is loading.
Current Time 0:00
Duration 39:00
Loaded: 0%
Stream Type LIVE
Remaining Time 39:00
 
1x
  • Chapters
  • descriptions off, selected
  • en (Main), selected
    Transcript

    MATEUSZ LUKASIEWICZ: Hi, everyone. Thank you for attending Autodesk University 2022, and welcome to my class about Single Source of Truth and Data Consistency using Autodesk Construction Cloud, Revit, and API.

    I will start with introducing myself. My name is Mateusz Lukasiewicz. I'm Digital Projects Analyst at KEO International Consultants based in Dubai, United Arab Emirates. I have over 12 years of experience delivering large scale projects using BIM, computer programming, and project management principles.

    Session introduction. This is the official description and learning objectives which also formulate the agenda for today's session.

    We start with understanding definition, importance, challenges, and benefits of a single source of truth. Let's start with asking question, why do we talk about seeing a source of truth and data consistency? Based on Data Advantage in Construction Report released by Autodesk in 2021, it is estimated over $1.84 trillion bad data cost in construction in 2020. The number is estimate only. However, it shows that the construction industry is facing a significant problem with data quality.

    Now as we understand the problem and the reason why data quality and single source of truth are important, let's talk about definitions. I have identified two main descriptions that can help us in understanding the concept. First one, in plain language, it means same approved data used by all stakeholders to make informed decisions. And this is why we implement ISO-19650 standards working practice shared and published areas in common data environment to control data exchange.

    Second technical definition can be summarized by ability to update by reference, and this is where a single update affects all references to the object. For example, change applied in Revit model element, let's say world thickness, affects associated views, schedules, volumetric data, and tags.

    Knowing definition, let's move to benefits, qualities, and challenges. Following benefits can be observed while using single source of truth-- reduce mistakes, errors, and rework; meet schedules and budgets; improve communication and quality; achieve better decision making; improve trust and transparency; and reduce the risk of actions using wrong data. In terms of qualities which also poses challenges, single source of truth should be accessible, up to date, standardized, and integrated with other systems. Also, the most important, it should be trusted by the project team.

    We discussed the basic theory behind single source of truth. Now let's move to practical implementation. In next few slides, I will talk about out of the box Autodesk Construction Cloud and Revit functionality to create and maintain a single source of truth. This section contains rather entry level information. However, these foundations will be essential for custom solutions using Revit and Forge APIs that will be shown later on.

    Use Autodesk Construction Cloud as common data environment and apply ISO-19650 folder structure. Cloud based common data environment correctly created for the structure and applied access permissions are the key components of collaboration platform.

    Worksharing central and local models. Worksharing functionality allows teams to work on the same model at the same time from any location. On the image on the right, we can see the relation between central and local files. Upper left image shows published central model in Autodesk Construction Cloud, and below image shows the local model cache and how models UID can be obtained via Forge API, which will be used later on in one of the examples.

    Using BIM Collaborate Pro and Design Collaboration module is a great way to share, consume, and track data exchanges between design teams. It ensures transparency and streamlines work in progress to shared area data transfer within the common data environment.

    On this slide, I would like to highlight two points. First one is project requirements that should be stored in the common location accessible by the project team in Autodesk Docs. And by project requirements, I mean BIM execution plan, shared parameter files, and project BIM configuration structure data. This is the concept that will be explored later on.

    The second thing is Parameter Service. This is the brand new tool available as tech preview in Revit 2023, and this is used to store shared parameters in cloud, rather than in text shared parameter file.

    Autodesk Construction Cloud offers multiple tools that can be used to support common project activities. Implementing available tools enable teams to streamline processes, improve the quality and transparency, and also to minimize work outside common data environment. You can see on the slide, there are a number of tools that can be used by the project team, and each of this tool can be a topic for the separate session. If you are interested in getting more information, please refer to the session handout for learning resources references.

    Previously, we learned the foundations of using Autodesk Construction Cloud for creating and maintaining a single source of truth. Now we are ready to explore more advanced methods.

    First, let's have a quick look on the most common tools interacting in Autodesk Construction Cloud and Revit. The most common are Revit, Dynamo, Autodesk Forge, and Power Automate. All of these tools can be used to automate processes and manipulate the data in Revit and in Autodesk Construction Cloud.

    Typically, while speaking about automation tools for Revit, we imagine scripts running inside authoring software after hitting the button. I would like to highlight alternate ways of executing scripts and the way it interacts with users.

    In terms of environment, those can be done outside model altering software, execution may be scheduled or happen on triggered event, and from a user perspective, user can be alerted on noncompliance or be unaware of process running in the background.

    Before we move to showcase, I'm going to introduce a few techniques, methodologies, and concepts that will be used in practical examples. First, event driven programming, which allows interaction with data in response to user activity. We have 70 plus available events in Revit API. The second is the structured data project requirements.

    We are using organized structured data to set as an input to automation and validation tools. It will be also shown later on how to create the structure of project requirements. And the third one is functionality blocking. In certain cases, the quality can be achieved by blocking unwanted functionality in the project.

    Finally, we are moving to the most interesting part of presentation, to see the power of how Autodesk Construction Cloud, Revit, and APIs in action, and how the platform and concepts introduced earlier can be used to ensure that the consistency and prevent BIM execution plan incompliances.

    The first short video will go through setup required to run all the tools. You can see Autodesk Construction Cloud project with project requirements stored in the common location. ISO-196050 compliant folder structure, we can observe work in progress certain published areas within the CD.

    Additional services activated for project members, such as design collaboration and model coordination. Design collaboration teams created for data exchange. Created Forge application and registered in account admin. You can also see some custom Revit plugins installed, and also Autodesk Desktop Connector.

    I'm showing now BIM execution plan. This is the standard document that is the key for each project delivery. And the takeaway of this part of the video is that we would like to replace unstructured data in BIM execution plan with reference to structure project requirements database. And in simplest form, this database can be a spreadsheet stored in Autodesk Construction Cloud. However, it may be other solution of your choice.

    So in this particular example, we are trying to replace this image of project location base point and SharePoint-- SharePoint, with references to a spreadsheet that contains data in more structured format as this data will serve as the input for various tools.

    So this is the example of structured data requirements that were captured in project configuration file. It may contain any data that was agreed with the client and that needs to be validated throughout the project delivery. Can now see project location-- project information requirements data, list of models, sheets, project location, naming system requirements, required parameters.

    And again, this is just an example for the sake of the demonstration. Obviously on the large projects, this table would be way, way longer.

    One thing that I would like to highlight on this slide is the data restriction column, which basically specifies what are the expected and allowed values for certain data. So we can see range values for sound transmission class, and also specific values for fire rating.

    In a similar manner, we can capture any other data. And in addition, we can capture not only the project requirements, but also this file can serve as optimization tools configuration files, so we want to control the behavior of the tools based on the settings specified in this file.

    We can see project requirements structured data stored in the common location. This is the backbone of our project delivery, this is the data that is accessible to the entire project team, and this is the single source of truth of project requirements that has to be fulfilled by the team.

    The last part shows shared parameters loaded in the project. We can use either the Revit parameter service, Revit 2023, or shared parameters text file.

    Once the setup is completed, we can now move to examples of using Revit API.

    We start with functionality blocking. During this demonstration, we would like to override a CAD import command to prevent bad modeling practices, and also validate the Revit family data source to block any non-compliant content.

    In the first part of the video, I'm demonstrating that the behavior of scripts can be controlled from project configuration file. Basically what's happening now, I'm specifying that the family content can be loaded only from approved KEO content library, and also that CAD import command should be blocked.

    I'm saving this file. You can see that everything is happening directly in Autodesk Construction Cloud. We saw an updated version of document overwritten in the platform, and now we are attempting to import CAD.

    We can now observe that once user prompt to import CAD, there is a notification that prevents user from using this command, which is the expected behavior as we want to block this functionality as it might be not allowed by the client.

    In the second example, we are navigating to a folder that contains non-compliant families-- so basically, we are trying to load Revit family from outside KEO approved library. And again, in this case, we received a notification that the family loading is cancelled, and the reason for that is incorrect source location. So by using these tools, we can easily control the content in the model and also prevent any bad modeling practices, such as using import CAD command.

    In the second example, we'll talk about metrics export on model closing event, how to store data, and how to visualize the data.

    On the screen, I'm showing metrics dashboard that is embedded directly in Autodesk Construction Cloud Insight module. In this case, this is the model of model health dashboard, and this is based on the data extracted from cloud models based on the benchmarks and factors specified in the project configuration file.

    On the right part of the screen, I'm showing metrics that are stored in Autodesk Construction Cloud, and this is important because the data that is displayed in Power BI dashboard comes from ACC. This is not offline data from someone's local machine.

    Now I'm going to attempt to close the model, and we received the notification that model health metrics have been exported successfully. Basically, the way how it works, there is an event that triggers to export the data from Revit. Can now observe the data override in Autodesk Construction Cloud. Based on approved data, we are able to refresh data source, publish Power BI dashboard, and send directly in the ACC.

    We can now see the updated dashboard.

    Another note on model health metrics, we may not want to wait until models are closed or someone refresh the data source in Power BI and publish the report. In some cases, we would like to see the live feedback. So there is actually functionality to display data live directly in Revit, not only for currently open document, but also for all documents, including linked files.

    The next example will be about parameters and naming compliance on sync event.

    I'm navigating to configuration file to show expected naming convention and parameters requirements. We can now observe that the family dynamic system is well defined, and also it's currently-- it's filed in the currently open model, and the same for the project requirements. In this and few other examples, we'll focus on sound transmission class and fire rating, so we can stop for a second look on the expected values for fire rating and sound transmission class. We can see that the requirements have followed the model. Now we are attempting to synchronize the model, which is happening without errors, and this is sort of expected behavior, to be able to synchronize the correct model.

    Now I'm going to simulate applying some incorrect changes in the model, so I'm changing the values outside the given ranges or acceptable values as I'm changing one of the approved families to one of the non-compliant families.

    Now we're trying to synchronize the model. We'll actually receive the notification that there is noncompliance. It provides detailed information about the non-compliant element, including element ID and non-compliant parameter values. So this is the first example for the family that is not compliant in terms of parameters data. And the second example of family naming in compliance for the family that was loaded outside KEO family library.

    The interesting part about this example is not only the notification shown to the user about the incompliance, but also automatically we are cancelling the sync operation. So basically, we are preventing users to synchronize non-compliant information to the central model. And this model will not be able to be synchronized with central file unless we fixed these two errors. And again, just side note that this is only a small demonstration about these two parameters plus naming system compliance, but obviously we can validate any other data that is defined in project configuration file.

    I'm now applying corrective actions in order to synchronize the model.

    So this was the example of model validation at the sync event, and we can now extract data through this event. So if we go back to the previous example, when data metrics were extracted at model close, we can also do it at model sync. So we will have more updated data exported daily.

    The next example is about model updates. We'll explore three ways of updating the models and ensuring the compliance.

    We start with the manual one, after a user is alerted. This is very similar example to the previous one. In this case, we will focus on project information details. Again, we can see the notification that there are certain compliances in the model. We can see the requirements on the left side and the actual data in the model, which we are now correcting. So you can see that although it's very helpful to receive this notification, still it's a manual work to update the model.

    So is there a better way to update the models? The answer is yes. We can automatically update models at sync event. And this is the silent update. It may occur without user knowledge about the wrong data in the model and the update that was done in the background.

    We saw incorrect data in the model, we are now synchronizing the model. So the difference between this case and the previous one, we are not receiving any notification about incompliance. Rather, there is a transaction that is triggered during the sync event to update the data if it's incorrect. We can now see that data was automatically updated and the model is compliant with requirements.

    So this is a very powerful mechanism because if we imagine that, for example, there is some last minute change in maybe title block details, maybe revisions or any other data, we are able to automatically update this data without someone manually checking each model separately.

    However, there is one downside of the previous example, and the downside is the need of opening and synchronizing each model individually. And we know that in the large projects, there might be hundreds, sometimes thousands of models, and this is why we would like to batch update multiple models. So this is basically the third way of updating models.

    Again, we are simulating some changes in product information requirements. Now we have a lot of things going on the screen. On the top part, we can see three models-- so this is architectural, structural, and mechanical models that will be updated automatically. And in the Revit window, we can see one of the models, and we can see that it contains incorrect data. These three models will be updated.

    I'm closing the model only for the sake of demonstrating that this tool can be run from a model that is-- from the model that is open, not from the project that we are trying to update the files. So I just opened some sample test model, and you can see that in the application dialogue we are able to select Project and one or more models that you would like to update. In this case, I selected all models, which are the three files.

    Now we can see that each model is opened, it's updated-- it's not really shown on the screen, but it's updated, saved, and most importantly, it's synchronized with central. In addition, we see that there was some extra data exported for each model.

    So if you think again about the model health metrics, we don't have to close the models to export the data, we don't have to synchronize the models to get the data, we can use this tool to not only apply the update in the model, but also to extract latest metrics, or, for example, to export Navisworks model, which is a quite common task.

    We'll now receive notification that three models have been updated and synchronized with central. I'm going to refresh ACC to show that there was some additional text file containing data extracted.

    Now we are opening one of the models to demonstrate that there was change applied automatically. And again, this concept can be used for way more than project information. We can create sheets, we can place the views on sheets, we can have a title block, place families, do some validation, export metrics or models in different format. So this was the third and the last way of updating the models using Revit API.

    The last video will demonstrate potential of Forge API.

    In first example, we'll talk about Autodesk Construction Cloud and SharePoint project consistency.

    Now it's time for some background. It's quite common for organizations to use Autodesk Construction Cloud along other collaboration platforms, such as SharePoint, which normally is used to facilitate various internal processes within the companies, and one of the challenges that companies are facing is to ensure data consistency between two or more platforms. So in this case, we'll look on project data in SharePoint and Autodesk Construction Cloud, and the table shown on the screen shows possible compliant and non-compliant scenarios of entities in Autodesk Construction Cloud and SharePoint.

    This is the example of SharePoint projects list. Power Automate cloud flow to extract data from SharePoint. List of ACC projects. We can see that certain products are excluded using built-in parameter, and this is the example of some testing projects or template projects. We don't want this project to appear in any official project list in internal reports within the organization. Custom force integration.

    And now I'm seeing very minimalistic Forge application. All the tools presented today will be executed from terminal, but obviously we can build some web application and really work on the user interface to make it more user friendly.

    You can see that in a matter of few seconds, we obtain the full results about the non-compliant and compliant projects. We can improve credibility and show it in Power BI dashboard. And based on the results, we are able to identify non-compliant projects and apply corrective actions-- so this might be adding projects to SharePoint or BIM 360, removing archiving, and so on.

    So one of the examples, how it was very useful is if the company is controlling project access by forms which are based on some data in SharePoint, the companies can identify if there are any projects in BIM 360 or Autodesk Construction Cloud that cannot be accessed because this project doesn't appear on SharePoint list, or vise versa, they appear in a SharePoint list, but they are not created in BIM 360.

    In the second example, we talk about the users management, and we would like to add multiple users to ACC project based on project configuration file.

    On the left, you can see product users with specified company and role. On the right side, the actual members of ACC project. So the list on the left, it very often is provided by, for example, by project manager. The manager is receiving long list of users, he's trying to add them manually, so this process can be automated via Forge.

    Again, we are opening our Forge application, and in a matter of a few seconds we are able to match up users to BIM 360 and Autodesk Construction Cloud project.

    We can now see full compliance between platform and the project users list.

    In the next example, we'll talk about task information delivery plan validation, and in simple words, we'll be tracking models and submission progress.

    We are now looking at the models and sheets requirements. Very often, there is a separate document on the projects called task information delivery plan, which specifies responsibilities and the contractual deliverables. We are showing this two tables and we'll simulate a sample milestone submission on the project. So all these files are expected to be submitted by the project delivery team.

    We can now see created folder in published area in common data environment, we can see multiple files uploaded by the team, and we would like to identify what is the submission status as of this moment.

    We are now looking on the Submission Progress Dashboard. That is based on the data extracted directly in Autodesk Construction Cloud. And this dashboard allows us to identify actionable items for the file that has to be either added or deleted in ACC or TIPP.

    We are going back to our Forge application. But before that, we are simulating corrective actions. So basically, we are uploading missing documents reviewing TIPP based on the dashboard results. And now we would like to rerun the application to obtain latest data.

    We can now see updated data uploaded in BIM 360.

    And now we can refresh our BI dashboard.

    Now based on the updated dashboard, we are 100% confident of fulfilling milestone deliverables. There is obviously alternate way of achieving similar results. We can extract a file log from ACC, we can copy it to Excel or ransom formulas and obtain similar result. However, this is, I believe, a smarter way and more automated.

    The very last example in this presentation is the naming and parameters validation. So we would like to validate parameters and naming compliance for multiple models without opening Revit.

    First, I'm going to demonstrate Forge API functionality and obtaining model content properties without opening Revit. We see now on the screen we are browsing to the project content, and you can see a lot of data related to Revit elements inside the model. You can see all the identity data, also our custom parameters that would be verified later on. The sound transmission class and fire rating.

    Knowing that we can obtain data outside the Revit environment, we'll now validate two additional models that are uploaded in ACC by SC1 organization. So this might be one of our consultants that is not using this fancy tool that we demonstrated earlier on, but we still want to validate the data compliance for these two models by not necessarily opening these models and running any of our desktop based tools.

    I'm just opening these two models just to show that there is indeed non-compliant data, but I'm going to close this file as it's not required to have Revit open. We don't even have to have a Revit license or Revit installed on your PC to run this tool.

    We can now see that there are two models being validated. And in a matter of a few seconds, without opening Revit, we are able to validate naming system and parameters compliance.

    So this is already good data. We can share this feedback with our sub consultant to inform them about the high level results of compliance status. But in addition, we can also expand the results further to show more details about non-compliant and compliant content, and this data will include elements, IDs, and the results for each parameter or metric that was checked.

    And again, this is just the data displayed in visual coterminal window, but this data can be exported to any other text file format, and using dashboards or reports we can easily inform the project team about any compliance issues in the file.

    So this concludes my presentation about single source of truth and data consistency using Autodesk Construction Cloud, Revit, and API. I hope you found the content insightful and inspiring. I also encourage you to have a look on the session handout for more information. Thank you for attending this class, and feel free to contact me if you have any questions.

    ______
    icon-svg-close-thick

    Cookieの設定

    弊社にとって、お客様のプライバシーを守ることと最適な体験を提供することは、どちらも大変重要です。弊社では、お客様に合わせてカスタマイズした情報を提供し、並びにアプリケーションの開発に役立てることを目的に、本サイトのご利用方法についてのデータを収集しております。

    そこで、お客様のデータの収集と使用を許可いただけるかどうかをお答えください。

    弊社が利用しているサードパーティのサービスについての説明とプライバシー ステートメントも、併せてご確認ください。

    サイト動作に必須:オートデスクのサイトが正常に動作し、お客様へサービスを提供するために必要な機能です

    Cookie を有効にすることで、お客様の好みやログイン情報が記録され、このデータに基づき操作に対する応答や、ショッピング カートへの商品追加が最適化されます。

    使用感が向上:お客様に最適な情報が表示されます

    Cookie を有効にすることで、拡張機能が正常に動作し、サイト表示が個々に合わせてカスタマイズされます。お客様に最適な情報をお届けし、使用感を向上させるためのこうした設定は、オードデスクまたはサードパーティのサービス プロバイダーが行います。 Cookie が無効に設定されている場合、一部またはすべてのサービスをご利用いただけない場合があります。

    広告表示をカスタマイズ:お客様に関連する広告が表示されます

    Cookie を有効にすることで、サイトのご利用内容やご興味に関するデータが収集され、これに基づきお客様に関連する広告が表示されるなど、効率的な動作が可能になります。また、継続的にデータを収集することで、お客様のご興味にさらに関連する広告を配信することが可能になります。Cookie が無効に設定されている場合、お客様に関連しない広告が表示される可能性があります。

    icon-svg-close-thick

    サードパーティのサービス

    それぞれの情報で弊社が利用しているサードパーティのサービスと、オンラインで収集するお客様のデータの使用方法を詳しく説明いたします。

    icon-svg-hide-thick

    icon-svg-show-thick

    サイト動作に必須:オートデスクのサイトが正常に動作し、お客様へサービスを提供するために必要な機能です

    Qualtrics
    弊社はQualtricsを利用し、アンケート調査やオンライン フォームを通じてお客様が弊社にフィードバックを提供できるようにしています。アンケートの回答は無作為に選んだお客様にお願いしておりますが、お客様から自発的に弊社にフィードバックを提供することも可能です。データを収集する目的は、アンケートの回答前にお客様がとられた行動を、より正しく理解するためです。収集したデータは、発生していた可能性がある問題のトラブルシューティングに役立てさせていただきます。. Qualtrics プライバシー ポリシー
    Akamai mPulse
    弊社は、弊社サイトでのお客様の行動に関するデータを収集するために、Akamai mPulseを利用しています。収集する情報には、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID、お客様の Autodesk ID が含まれます。このデータを基にサイトのパフォーマンスを測定したり、オンラインでの操作のしやすさを検証して機能強化に役立てています。併せて高度な解析手法を使用し、メールでのお問い合わせやカスタマー サポート、営業へのお問い合わせで、お客様に最適な体験が提供されるようにしています。. Akamai mPulse プライバシー ポリシー
    Digital River
    弊社は、弊社サイトでのお客様の行動に関するデータを収集するために、Digital Riverを利用しています。収集する情報には、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID、お客様の Autodesk ID が含まれます。このデータを基にサイトのパフォーマンスを測定したり、オンラインでの操作のしやすさを検証して機能強化に役立てています。併せて高度な解析手法を使用し、メールでのお問い合わせやカスタマー サポート、営業へのお問い合わせで、お客様に最適な体験が提供されるようにしています。. Digital River プライバシー ポリシー
    Dynatrace
    弊社は、弊社サイトでのお客様の行動に関するデータを収集するために、Dynatraceを利用しています。収集する情報には、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID、お客様の Autodesk ID が含まれます。このデータを基にサイトのパフォーマンスを測定したり、オンラインでの操作のしやすさを検証して機能強化に役立てています。併せて高度な解析手法を使用し、メールでのお問い合わせやカスタマー サポート、営業へのお問い合わせで、お客様に最適な体験が提供されるようにしています。. Dynatrace プライバシー ポリシー
    Khoros
    弊社は、弊社サイトでのお客様の行動に関するデータを収集するために、Khorosを利用しています。収集する情報には、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID、お客様の Autodesk ID が含まれます。このデータを基にサイトのパフォーマンスを測定したり、オンラインでの操作のしやすさを検証して機能強化に役立てています。併せて高度な解析手法を使用し、メールでのお問い合わせやカスタマー サポート、営業へのお問い合わせで、お客様に最適な体験が提供されるようにしています。. Khoros プライバシー ポリシー
    Launch Darkly
    弊社は、弊社サイトでのお客様の行動に関するデータを収集するために、Launch Darklyを利用しています。収集する情報には、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID、お客様の Autodesk ID が含まれます。このデータを基にサイトのパフォーマンスを測定したり、オンラインでの操作のしやすさを検証して機能強化に役立てています。併せて高度な解析手法を使用し、メールでのお問い合わせやカスタマー サポート、営業へのお問い合わせで、お客様に最適な体験が提供されるようにしています。. Launch Darkly プライバシー ポリシー
    New Relic
    弊社は、弊社サイトでのお客様の行動に関するデータを収集するために、New Relicを利用しています。収集する情報には、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID、お客様の Autodesk ID が含まれます。このデータを基にサイトのパフォーマンスを測定したり、オンラインでの操作のしやすさを検証して機能強化に役立てています。併せて高度な解析手法を使用し、メールでのお問い合わせやカスタマー サポート、営業へのお問い合わせで、お客様に最適な体験が提供されるようにしています。. New Relic プライバシー ポリシー
    Salesforce Live Agent
    弊社は、弊社サイトでのお客様の行動に関するデータを収集するために、Salesforce Live Agentを利用しています。収集する情報には、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID、お客様の Autodesk ID が含まれます。このデータを基にサイトのパフォーマンスを測定したり、オンラインでの操作のしやすさを検証して機能強化に役立てています。併せて高度な解析手法を使用し、メールでのお問い合わせやカスタマー サポート、営業へのお問い合わせで、お客様に最適な体験が提供されるようにしています。. Salesforce Live Agent プライバシー ポリシー
    Wistia
    弊社は、弊社サイトでのお客様の行動に関するデータを収集するために、Wistiaを利用しています。収集する情報には、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID、お客様の Autodesk ID が含まれます。このデータを基にサイトのパフォーマンスを測定したり、オンラインでの操作のしやすさを検証して機能強化に役立てています。併せて高度な解析手法を使用し、メールでのお問い合わせやカスタマー サポート、営業へのお問い合わせで、お客様に最適な体験が提供されるようにしています。. Wistia プライバシー ポリシー
    Tealium
    弊社は、弊社サイトでのお客様の行動に関するデータを収集するために、Tealiumを利用しています。データには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。このデータを基にサイトのパフォーマンスを測定したり、オンラインでの操作のしやすさを検証して機能強化に役立てています。併せて高度な解析手法を使用し、メールでのお問い合わせやカスタマー サポート、営業へのお問い合わせで、お客様に最適な体験が提供されるようにしています。. Tealium プライバシー ポリシー<>
    Typepad Stats
    弊社は、弊社サイトでのお客様の行動に関するデータを収集するために、Typepad Statsを利用しています。収集する情報には、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID、お客様の Autodesk ID が含まれます。このデータを基にサイトのパフォーマンスを測定したり、オンラインでの操作のしやすさを検証して機能強化に役立てています。併せて高度な解析手法を使用し、メールでのお問い合わせやカスタマー サポート、営業へのお問い合わせで、お客様に最適な体験が提供されるようにしています。. Typepad Stats プライバシー ポリシー
    Geo Targetly
    当社では、Geo Targetly を使用して Web サイトの訪問者を最適な Web ページに誘導し、訪問者のいる場所に応じて調整したコンテンツを提供します。Geo Targetly は、Web サイト訪問者の IP アドレスを使用して、訪問者のデバイスのおおよその位置を特定します。このため、訪問者は (ほとんどの場合) 自分のローカル言語でコンテンツを閲覧できます。Geo Targetly プライバシー ポリシー
    SpeedCurve
    弊社は、SpeedCurve を使用して、Web ページの読み込み時間と画像、スクリプト、テキストなど後続の要素の応答性を計測することにより、お客様の Web サイト エクスペリエンスのパフォーマンスをモニタリングおよび計測します。SpeedCurve プライバシー ポリシー
    Qualified
    Qualified is the Autodesk Live Chat agent platform. This platform provides services to allow our customers to communicate in real-time with Autodesk support. We may collect unique ID for specific browser sessions during a chat. Qualified Privacy Policy

    icon-svg-hide-thick

    icon-svg-show-thick

    使用感が向上:お客様に最適な情報が表示されます

    Google Optimize
    弊社はGoogle Optimizeを利用して、弊社サイトの新機能をテストし、お客様に合わせた方法で機能を使えるようにしています。そのため弊社では、弊社サイトにアクセスしているお客様から、行動に関するデータを収集しています。収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID、お客様の Autodesk ID などが含まれます。機能のテストの結果によっては、お客様がご利用のサイトのバージョンが変わったり、サイトにアクセスするユーザの属性に応じて、パーソナライズされたコンテンツが表示されるようになる場合があります。. Google Optimize プライバシー ポリシー
    ClickTale
    弊社は、弊社サイトをご利用になるお客様が、どこで操作につまづいたかを正しく理解できるよう、ClickTaleを利用しています。弊社ではセッションの記録を基に、ページの要素を含めて、お客様がサイトでどのような操作を行っているかを確認しています。お客様の特定につながる個人情報は非表示にし、収集も行いません。. ClickTale プライバシー ポリシー
    OneSignal
    弊社は、OneSignalがサポートするサイトに広告を配置するために、OneSignalを利用しています。広告には、OneSignalのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、OneSignalがお客様から収集したデータを使用する場合があります。OneSignalに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. OneSignal プライバシー ポリシー
    Optimizely
    弊社はOptimizelyを利用して、弊社サイトの新機能をテストし、お客様に合わせた方法で機能を使えるようにしています。そのため弊社では、弊社サイトにアクセスしているお客様から、行動に関するデータを収集しています。収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID、お客様の Autodesk ID などが含まれます。機能のテストの結果によっては、お客様がご利用のサイトのバージョンが変わったり、サイトにアクセスするユーザの属性に応じて、パーソナライズされたコンテンツが表示されるようになる場合があります。. Optimizely プライバシー ポリシー
    Amplitude
    弊社はAmplitudeを利用して、弊社サイトの新機能をテストし、お客様に合わせた方法で機能を使えるようにしています。そのため弊社では、弊社サイトにアクセスしているお客様から、行動に関するデータを収集しています。収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID、お客様の Autodesk ID などが含まれます。機能のテストの結果によっては、お客様がご利用のサイトのバージョンが変わったり、サイトにアクセスするユーザの属性に応じて、パーソナライズされたコンテンツが表示されるようになる場合があります。. Amplitude プライバシー ポリシー
    Snowplow
    弊社は、弊社サイトでのお客様の行動に関するデータを収集するために、Snowplowを利用しています。収集する情報には、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID、お客様の Autodesk ID が含まれます。このデータを基にサイトのパフォーマンスを測定したり、オンラインでの操作のしやすさを検証して機能強化に役立てています。併せて高度な解析手法を使用し、メールでのお問い合わせやカスタマー サポート、営業へのお問い合わせで、お客様に最適な体験が提供されるようにしています。. Snowplow プライバシー ポリシー
    UserVoice
    弊社は、弊社サイトでのお客様の行動に関するデータを収集するために、UserVoiceを利用しています。収集する情報には、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID、お客様の Autodesk ID が含まれます。このデータを基にサイトのパフォーマンスを測定したり、オンラインでの操作のしやすさを検証して機能強化に役立てています。併せて高度な解析手法を使用し、メールでのお問い合わせやカスタマー サポート、営業へのお問い合わせで、お客様に最適な体験が提供されるようにしています。. UserVoice プライバシー ポリシー
    Clearbit
    Clearbit を使用すると、リアルタイムのデータ強化により、お客様に合わせてパーソナライズされた適切なエクスペリエンスを提供できます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。Clearbit プライバシー ポリシー
    YouTube
    YouTube はビデオ共有プラットフォームで、埋め込まれたビデオを当社のウェブ サイトで表示および共有することができます。YouTube は、視聴者のビデオのパフォーマンスの測定値を提供しています。 YouTube 社のプライバシー ポリシー

    icon-svg-hide-thick

    icon-svg-show-thick

    広告表示をカスタマイズ:お客様に関連する広告が表示されます

    Adobe Analytics
    弊社は、弊社サイトでのお客様の行動に関するデータを収集するために、Adobe Analyticsを利用しています。収集する情報には、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID、お客様の Autodesk ID が含まれます。このデータを基にサイトのパフォーマンスを測定したり、オンラインでの操作のしやすさを検証して機能強化に役立てています。併せて高度な解析手法を使用し、メールでのお問い合わせやカスタマー サポート、営業へのお問い合わせで、お客様に最適な体験が提供されるようにしています。. Adobe Analytics プライバシー ポリシー
    Google Analytics (Web Analytics)
    弊社は、弊社サイトでのお客様の行動に関するデータを収集するために、Google Analytics (Web Analytics)を利用しています。データには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。このデータを基にサイトのパフォーマンスを測定したり、オンラインでの操作のしやすさを検証して機能強化に役立てています。併せて高度な解析手法を使用し、メールでのお問い合わせやカスタマー サポート、営業へのお問い合わせで、お客様に最適な体験が提供されるようにしています。. Google Analytics (Web Analytics) プライバシー ポリシー<>
    Marketo
    弊社は、お客様に関連性のあるコンテンツを、適切なタイミングにメールで配信できるよう、Marketoを利用しています。そのため、お客様のオンラインでの行動や、弊社からお送りするメールへの反応について、データを収集しています。収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID、メールの開封率、クリックしたリンクなどが含まれます。このデータに、他の収集先から集めたデータを組み合わせ、営業やカスタマー サービスへの満足度を向上させるとともに、高度な解析処理によって、より関連性の高いコンテンツを提供するようにしています。. Marketo プライバシー ポリシー
    Doubleclick
    弊社は、Doubleclickがサポートするサイトに広告を配置するために、Doubleclickを利用しています。広告には、Doubleclickのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、Doubleclickがお客様から収集したデータを使用する場合があります。Doubleclickに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. Doubleclick プライバシー ポリシー
    HubSpot
    弊社は、お客様に関連性のあるコンテンツを、適切なタイミングにメールで配信できるよう、HubSpotを利用しています。そのため、お客様のオンラインでの行動や、弊社からお送りするメールへの反応について、データを収集しています。収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID、メールの開封率、クリックしたリンクなどが含まれます。. HubSpot プライバシー ポリシー
    Twitter
    弊社は、Twitterがサポートするサイトに広告を配置するために、Twitterを利用しています。広告には、Twitterのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、Twitterがお客様から収集したデータを使用する場合があります。Twitterに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. Twitter プライバシー ポリシー
    Facebook
    弊社は、Facebookがサポートするサイトに広告を配置するために、Facebookを利用しています。広告には、Facebookのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、Facebookがお客様から収集したデータを使用する場合があります。Facebookに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. Facebook プライバシー ポリシー
    LinkedIn
    弊社は、LinkedInがサポートするサイトに広告を配置するために、LinkedInを利用しています。広告には、LinkedInのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、LinkedInがお客様から収集したデータを使用する場合があります。LinkedInに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. LinkedIn プライバシー ポリシー
    Yahoo! Japan
    弊社は、Yahoo! Japanがサポートするサイトに広告を配置するために、Yahoo! Japanを利用しています。広告には、Yahoo! Japanのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、Yahoo! Japanがお客様から収集したデータを使用する場合があります。Yahoo! Japanに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. Yahoo! Japan プライバシー ポリシー
    Naver
    弊社は、Naverがサポートするサイトに広告を配置するために、Naverを利用しています。広告には、Naverのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、Naverがお客様から収集したデータを使用する場合があります。Naverに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. Naver プライバシー ポリシー
    Quantcast
    弊社は、Quantcastがサポートするサイトに広告を配置するために、Quantcastを利用しています。広告には、Quantcastのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、Quantcastがお客様から収集したデータを使用する場合があります。Quantcastに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. Quantcast プライバシー ポリシー
    Call Tracking
    弊社は、キャンペーン用にカスタマイズした電話番号を提供するために、Call Trackingを利用しています。カスタマイズした電話番号を使用することで、お客様は弊社の担当者にすぐ連絡できるようになり、弊社はサービスのパフォーマンスをより正確に評価できるようになります。弊社では、提供した電話番号を基に、サイトでのお客様の行動に関するデータを収集する場合があります。. Call Tracking プライバシー ポリシー
    Wunderkind
    弊社は、Wunderkindがサポートするサイトに広告を配置するために、Wunderkindを利用しています。広告には、Wunderkindのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、Wunderkindがお客様から収集したデータを使用する場合があります。Wunderkindに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. Wunderkind プライバシー ポリシー
    ADC Media
    弊社は、ADC Mediaがサポートするサイトに広告を配置するために、ADC Mediaを利用しています。広告には、ADC Mediaのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、ADC Mediaがお客様から収集したデータを使用する場合があります。ADC Mediaに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. ADC Media プライバシー ポリシー
    AgrantSEM
    弊社は、AgrantSEMがサポートするサイトに広告を配置するために、AgrantSEMを利用しています。広告には、AgrantSEMのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、AgrantSEMがお客様から収集したデータを使用する場合があります。AgrantSEMに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. AgrantSEM プライバシー ポリシー
    Bidtellect
    弊社は、Bidtellectがサポートするサイトに広告を配置するために、Bidtellectを利用しています。広告には、Bidtellectのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、Bidtellectがお客様から収集したデータを使用する場合があります。Bidtellectに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. Bidtellect プライバシー ポリシー
    Bing
    弊社は、Bingがサポートするサイトに広告を配置するために、Bingを利用しています。広告には、Bingのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、Bingがお客様から収集したデータを使用する場合があります。Bingに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. Bing プライバシー ポリシー
    G2Crowd
    弊社は、G2Crowdがサポートするサイトに広告を配置するために、G2Crowdを利用しています。広告には、G2Crowdのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、G2Crowdがお客様から収集したデータを使用する場合があります。G2Crowdに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. G2Crowd プライバシー ポリシー
    NMPI Display
    弊社は、NMPI Displayがサポートするサイトに広告を配置するために、NMPI Displayを利用しています。広告には、NMPI Displayのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、NMPI Displayがお客様から収集したデータを使用する場合があります。NMPI Displayに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. NMPI Display プライバシー ポリシー
    VK
    弊社は、VKがサポートするサイトに広告を配置するために、VKを利用しています。広告には、VKのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、VKがお客様から収集したデータを使用する場合があります。VKに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. VK プライバシー ポリシー
    Adobe Target
    弊社はAdobe Targetを利用して、弊社サイトの新機能をテストし、お客様に合わせた方法で機能を使えるようにしています。そのため弊社では、弊社サイトにアクセスしているお客様から、行動に関するデータを収集しています。収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID、お客様の Autodesk ID などが含まれます。機能のテストの結果によっては、お客様がご利用のサイトのバージョンが変わったり、サイトにアクセスするユーザの属性に応じて、パーソナライズされたコンテンツが表示されるようになる場合があります。. Adobe Target プライバシー ポリシー
    Google Analytics (Advertising)
    弊社は、Google Analytics (Advertising)がサポートするサイトに広告を配置するために、Google Analytics (Advertising)を利用しています。広告には、Google Analytics (Advertising)のデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、Google Analytics (Advertising)がお客様から収集したデータを使用する場合があります。Google Analytics (Advertising)に提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. Google Analytics (Advertising) プライバシー ポリシー
    Trendkite
    弊社は、Trendkiteがサポートするサイトに広告を配置するために、Trendkiteを利用しています。広告には、Trendkiteのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、Trendkiteがお客様から収集したデータを使用する場合があります。Trendkiteに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. Trendkite プライバシー ポリシー
    Hotjar
    弊社は、Hotjarがサポートするサイトに広告を配置するために、Hotjarを利用しています。広告には、Hotjarのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、Hotjarがお客様から収集したデータを使用する場合があります。Hotjarに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. Hotjar プライバシー ポリシー
    6 Sense
    弊社は、6 Senseがサポートするサイトに広告を配置するために、6 Senseを利用しています。広告には、6 Senseのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、6 Senseがお客様から収集したデータを使用する場合があります。6 Senseに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. 6 Sense プライバシー ポリシー
    Terminus
    弊社は、Terminusがサポートするサイトに広告を配置するために、Terminusを利用しています。広告には、Terminusのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、Terminusがお客様から収集したデータを使用する場合があります。Terminusに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. Terminus プライバシー ポリシー
    StackAdapt
    弊社は、StackAdaptがサポートするサイトに広告を配置するために、StackAdaptを利用しています。広告には、StackAdaptのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、StackAdaptがお客様から収集したデータを使用する場合があります。StackAdaptに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. StackAdapt プライバシー ポリシー
    The Trade Desk
    弊社は、The Trade Deskがサポートするサイトに広告を配置するために、The Trade Deskを利用しています。広告には、The Trade Deskのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、The Trade Deskがお客様から収集したデータを使用する場合があります。The Trade Deskに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. The Trade Desk プライバシー ポリシー
    RollWorks
    We use RollWorks to deploy digital advertising on sites supported by RollWorks. Ads are based on both RollWorks data and behavioral data that we collect while you’re on our sites. The data we collect may include pages you’ve visited, trials you’ve initiated, videos you’ve played, purchases you’ve made, and your IP address or device ID. This information may be combined with data that RollWorks has collected from you. We use the data that we provide to RollWorks to better customize your digital advertising experience and present you with more relevant ads. RollWorks Privacy Policy

    オンライン体験の品質向上にぜひご協力ください

    オートデスクは、弊社の製品やサービスをご利用いただくお客様に、優れた体験を提供することを目指しています。これまでの画面の各項目で[はい]を選択したお客様については、弊社でデータを収集し、カスタマイズされた体験の提供とアプリケーションの品質向上に役立てさせていただきます。この設定は、プライバシー ステートメントにアクセスすると、いつでも変更できます。

    お客様の顧客体験は、お客様が自由に決められます。

    オートデスクはお客様のプライバシーを尊重します。オートデスクでは収集したデータを基に、お客様が弊社製品をどのように利用されているのか、お客様が関心を示しそうな情報は何か、オートデスクとの関係をより価値あるものにするには、どのような改善が可能かを理解するよう務めています。

    そこで、お客様一人ひとりに合わせた体験を提供するために、お客様のデータを収集し、使用することを許可いただけるかどうかお答えください。

    体験をカスタマイズすることのメリットにつきましては、本サイトのプライバシー設定の管理でご確認いただけます。弊社のプライバシー ステートメントでも、選択肢について詳しく説明しております。