AU Class
AU Class
class - AU

Getting Started with Deep Learning Using Bifrost for Maya

このクラスを共有
ビデオ、プレゼンテーション スライド、配布資料のキーワードを検索する:

説明

Bifrost is a powerful graphical programming environment for creating procedural visual effects simulations, geometry, rigging, and animation. In this session, we'll showcase new, modular, deep-learning workflows in Maya software using Bifrost. We will demonstrate how to use Bifrost for procedurally generating training data for AI systems, as well as how to deploy trained AI models in Bifrost using new Bifrost nodes designed for deep learning. The session will include practical examples of industry problems that are suited to a media and entertainment audience, such as using AI for complex rigging kinematic solvers.

主な学習内容

  • Learn about fundamental concepts of machine learning and how they apply to challenges in media and entertainment workflows.
  • Learn how to use Bifrost for Maya to procedurally generate training data to train a deep neural network to solve a concrete task.
  • Learn about deploying a trained neural network in Maya using Bifrost.

スピーカー

Video Player is loading.
Current Time 0:00
Duration 0:00
Loaded: 0%
Stream Type LIVE
Remaining Time 0:00
 
1x
  • Chapters
  • descriptions off, selected
  • subtitles off, selected
      Transcript

      EVAN ATHERTON: Hi, everyone. My name is Evan Atherton. I'm a senior principal research scientist with Autodesk Research. And this presentation is going to be an introduction to deep learning using Bifrost and Autodesk Maya. If you're new to deep learning or to Bifrost, or both, that's totally OK.

      My main goal here is to demystify deep learning a bit and to give you a sense of the types of problems and content creation workflows that are well suited for it, and to give you an idea of how to approach building an end-to-end pipeline in Maya using a tangible hands-on example. Before I start, as I'm an Autodesk employee, here's our obligatory safe harbor statement, which basically says I might make some forward-looking statements during my talk. But those statements aren't intended as promises of a future product, service, or feature.

      All right, so a quick overview of what I'm going to cover today. I'll start with some motivation for why we even want or need deep learning in content creation workflows. I'll introduce just a few deep learning concepts that are going to be relevant for the rest of the talk. Then I'll do a deep dive to show a really practical example of an end-to-end deep learning pipeline using Maya and Bifrost. Then I'll finish with some closing thoughts.

      So to begin, I want to talk briefly about why deep learning is useful in media and entertainment workflows. You might have heard someone refer to neural networks as universal function approximators. Functions generally take some input or group of inputs, x. And then they map that input to an output or a group of outputs, y. And they do that with some equation that someone's figured out represented by this arrow here.

      Well, neural networks do the exact same thing, except instead of a bunch of math or rules that someone had to figure out, they're able to take a bunch of examples of inputs and outputs and learn the mapping between them. So that if you give a trained neural network a new input, it's able to approximate an output based on the patterns it's learned from the data. It turns out that a lot of things in content creation workflows are functions.

      So even if you as a user only have to hit a button in Maya, at the end of the day, there's some math or algorithm in the background taking its input from the scene and returning its output back to the scene. So this list is obviously not exhaustive, but just to give you an idea of some of the functions you might be using in your workflows and what parts of the workflows they might pop up in.

      But if we already have a bunch of functions that do the stuff we need, then why do we need deep learning? In my opinion, deep learning really excels in two places in content creation workflows. One is if you do, in fact, have a function that does something you want, but maybe it's really computationally expensive. So in content creation workflows, it's really important for the artist to be able to see the results of their work at interactive or near interactive rates when possible.

      So if you have a process that's computationally expensive and slows down their playback frame rate, it introduces a lot of friction into their workflow. But in some of those cases, you can actually learn an approximation of that function with a neural network that gets you pretty close to the real function, but can be orders of magnitude quicker to compute. A really good example of this is the ML deformer that was just released in Maya 2025, which takes an entire stack of deformers on a character mesh, which can be really slow to compute, can really bog down the scene.

      And it replaces that computationally expensive deformation calculation with a neural network that's able to approximate those solvers. But the neural network is able to compute in a fraction of the time. So instead of the deformation solvers causing the scene to run at 17 frames per second, in this example, the ML deformer computes fast enough for the scene to run closer to 60 frames per second.

      And the second place I think deep learning excels in content creation workflows is when we don't actually have the function. So maybe it's time consuming to derive or maybe it takes special domain knowledge you might not have. But if we have a way to generate paired data of inputs and outputs that doesn't actually rely on knowing the real function, we can use deep learning to learn an entirely new function.

      So I won't elaborate too much further on this one just yet, since the hands-on example I'll be using for the rest of the presentation falls pretty squarely into that category. But before I jump into that example, I want to give just a brief intro to deep learning. Now, there's a lot of nomenclature in deep learning. A lot of it's used interchangeably, sometimes correctly, sometimes incorrectly. There's AI, machine learning, deep learning, neural networks, deep neural networks, transformers, et cetera.

      For the rest of this presentation, we're going to be talking about one single type of network. And that's this. You've probably seen a diagram very similar to this at some point. This is a multi-layer perceptron. It's a fully connected feed-forward network with an input layer, some hidden layers, and an output layer. These are really the bedrock of modern machine learning. And they're super capable of all sorts of tasks.

      When I was putting this presentation together, I debated how much of the math I should show to explain what this type of neural network does. And completely separately, I saw this quote from the creator of Keras, which is one of the most popular Python libraries for machine learning, so definitely knows what he's talking about. "Math in Deep Learning papers is usually worthless and was placed there purely as a sign of seriousness."

      I tend to agree with this. So this inspired me to try and do this intro with as few equations as possible. So I'm going to try to do this with a single equation, which might look intimidating. But I'll break it down. So this is an equation that represents the math that's happening in each layer of a neural network. The goal is to compute this equation at each layer until we reach the final layer.

      Then this equation represents the actual output of the neural network, which is what we're really after. So to find the output of any given layer, we first do a weighted sum of the previous layer's output. We add what's called a bias term. And then we apply an activation function to all that.

      There are a lot of different activation functions. But they're all pretty simple math. And their purpose is just to add non-linearity into the network so they can learn more complex patterns. So at the end of the day, for each layer, we have one matrix multiplication, one element-wise addition, and one element-wise transformation. Perhaps the most important part here is that what the network actually learns during this process are the weight matrices and bias vectors for each layer.

      And then once we have those, we can pass in some new input, use those learned values to compute the output of each layer using that same equation we just walked through until we get the final output we're looking for. That's all I'm going to cover today on the theory. So next, I want to do a bit of a deep dive with a practical example to make this more tangible.

      And the example we're going to look at is creating a neural inverse kinematic solver in Maya using Bifrost for a mechanical rig like this one here. Even though this example is specific to rigging, my main goal is to build an intuition for identifying problems suitable for deep learning, then walk through how to actually build a deep learning pipeline to solve that problem. Our pipeline is going to consist of three parts, procedural data generation in Maya using Bifrost, model training in PyTorch, and then model deployment and iteration back in Maya with Bifrost.

      And again, I don't want to be too focused on rigging in particular. But I chose to use inverse kinematics as our example because it's actually a relevant problem for artists and technical directors. And it happens to be relatively straightforward from a deep learning perspective. So it had this nice balance of being approachable while still being useful.

      If you're not super familiar with rigging, in a nutshell, it's the process of taking a character's mesh or group of meshes, adding an internal skeleton, which as you'd imagine, is a series of virtual joints and bones, and then adding constraints to that skeleton that describe the behavior of the rig given certain artist input. So these constraints can be things like kinematic solvers that define how the skeleton moves or things like deformation solvers, which define how mesh deforms given the movement of the skeleton.

      So when we talk about kinematics, we're referring to either forward or inverse kinematics. Forward kinematics is when the artist sets the rotation of a joint explicitly. And all joints in the skeletal hierarchy below that are similarly transformed. And inverse kinematics is when you have a target you want the end of your kinematic chain to reach. And you mathematically compute all the necessary joint rotations you need to reach that target.

      Forward kinematics is super easy to set up. But it's the inverse kinematics that gives the artist the type of control they need to naturally pose and animate their characters. But while animation packages like Maya have out-of-the-box IK solvers that you can apply to skeletons, it usually takes a skilled artist to string the right set of solvers together in the right way to get the rig to behave properly.

      And depending on the type of rig, that can take sometimes days to do. For the rest of this example, we're going to be looking at this three-axis mechanical rig here. Our goal is to have an IK solver that will take a target position in 3D space and give us the three joint angles we need for the end of the rig to reach that target. And if you recall, the two categories of problems that I mentioned I think deep learning really excels at, this is going to fall into that second category.

      We don't actually have the function that will do this for us. We could, again, string together some solvers we do have or write a new solver analytically specifically for this rig. But that can be time consuming and could require a lot of specialized domain knowledge maybe we don't have. So what we're going to do instead is exploit the fact that it's orders of magnitude easier to set this up as a forward kinematic system. Then we can use the forward kinematic system to generate as many paired training samples as we want by setting each joint angle to a random value, and then measuring where the end of the rig ends up.

      This then becomes our paired sample we can use for training our network. And because forward kinematics is computationally trivial to compute, we can generate thousands or even millions of training samples procedurally, effectively, instantly. And then once our model is trained, we can take a new target position from the scene set by an artist, run that through our network, and then set the predicted joint values back on our rig.

      Now, we're going to get started by setting up our FK data generator in Maya with Bifrost. I plan on releasing a full step-by-step tutorial on this whole thing along with the final scene files. So I'm not going to cover every little detail. But I hope this will at least give you a good sense of the workflow. And then you can visit the tutorial if you'd like when it's out.

      We finally make our way over to Maya. What I have set up is the geometry of our rig. This is just one mesh per joint. And we also have five locators that we're going to use to specify the pivot point of each joint. I mentioned this was a three-axis rig earlier. But the reason we have five pivots is we're going to use an additional locator for the base of the rig and then one for the end of the last joint. And that's what we'll use to measure our target XYZ location for each sample.

      So I have three joints that are going to rotate. And they're each going to rotate around a single axis. The first joint is going to rotate around the x-axis. The second joint is going to rotate around the z-axis. And then the third joint is also going to rotate around the z-axis.

      So the first thing we need to do is build our data generator. Or the first thing we're going to do to build our data generator is to set up our FK solver in Bifrost using these joint pivot locators. Real quick, if you're not familiar with Bifrost, it's a graphical programming environment that's accessible from Maya. And it was designed for creating procedural effects for film, animation, and games, things like smoke, fire, water simulations, destruction. And more recently, it's also being used for things like procedural geometry and rigging.

      I'm not going to cover the basics of Bifrost. But as it uses a visual programming paradigm, I think even if you haven't used it before, you'll be able to follow along quite well. One of my main conceits here is that setting up an FK solver is orders of magnitude easier than building an IK solver the old fashioned way. So I wanted to walk through the Bifrost compound that does the FK solve. And this is going to be our main tool for both the data generation and the model deployment after training.

      What I have here is a compound I created that takes in our joint meshes from Maya, as well as each joint's pivot matrix, which were represented by the locators I just showed in the Maya scene. And then we have our three user inputs, theta_1, theta_2, theta_3, which are going to be the rotation values we want to set on each joint. And what's at the heart of the FK solve is just a single node that runs down the joint chain and applies the rotation we input for each joint to the rest of the chain.

      So if we hook up our geometry and pivots, our rig is now 100% in Bifrost. And we can manipulate it with the controls in our FK solver compound. This is more or less identical to if we grouped each joint under its parent in the Maya outliner, then use the Maya rotate tool to rotate each joint. But now that our rig is entirely in Bifrost, we can do all sorts of procedural stuff on it, including data generation.

      Our data generator is also quite simple. It takes the same pivot matrices as our FK solver. It doesn't use the meshes because those are purely for visualizing the rig in Maya. It has an input where we can set the number of samples we want. And it has a seed for randomization on our input angles. And if we take a look inside, we have one compound that generates three arrays of random angles between a min and max rotation value that we can set.

      And then another node takes the randomly generated angles for each sample, runs it through the same FK solver we just walked through, and then just measures that XYZ location on the last joint. The other thing this compound does is actually format the training samples as arrays of paired data that we're going to export from Bifrost and load into PyTorch during training.

      The machine learning terms, those inputs and outputs arrays, are called feature vectors. If we take a look at those, the column on the left are our input features. And the column on the right are our matching output features. So for any given row, we can see three joint angles and then the resulting XYZ location of the end of our rig.

      And this is where Bifrost really starts to shine here. So I built a scope that lets us visualize each sample with a dot. That dot represents the end of our rig at that sample. But what's most important here is we're actually generating these samples effectively in real time. So if we change the number of samples we want, our features update. We can even change information about the rig, like the rotation limits for each joint. And our features update.

      And we can take this even further. If the underlying geometry of our rig changes, we can just move our joint pivots to match. And our features update. Hopefully, you can start to see how all this work we're doing isn't going to be just for this specific rig. We can throw a brand new rig with completely different topology in here. And everything we've done so far would be identical because it's all procedural.

      So now that we have some samples, the next thing we need to do is to get them out of Maya to train our neural network in PyTorch. I'm not going to spend too much time on how to get the data out of Maya because I had to use a workaround. But the Bifrost team has been working on a way to do this directly from the graph. So hopefully we'll have some good news to share there.

      In any case, what I ended up doing in the meantime was write a Python script to query the input and output data from the graph. Then I converted that to NumPy arrays then saved them out as .npy files that can be loaded during training. If you're not familiar with NumPy, it's a super popular Python library for working with arrays. It's used really heavily in machine learning.

      In any case, now that we have our data saved out into NumPy files, one for input, one for output, now it's time to train. There's no shortage of PyTorch tutorials online, many of which would do a much better job than me if you're just starting from scratch. So I'm just going to quickly walk through some of the blocks in the training code to highlight a few things. But I won't spend too much time here on the training.

      And again, I'm going to release the code as well at some point. So you don't have to worry about catching it all. In any case, this is the main block here of the training code. And it's mostly boilerplate PyTorch stuff. The first part I'll call out is this block. These are our hyperparameters of the training process, which are the main levers we have to increase performance during training. There are entire libraries and schools of thought dedicated to optimizing these hyperparameters.

      But in general, you pick some default ones and not end up changing them too much. The second block I'll highlight here is this one. This loads our data set from our saved NumPy files, instantiates our model, the loss function, and the optimization technique. The loss function is essentially just an equation we're going to use during training for the network to know how well it's doing.

      Generally, most people start with MSE loss, which stands for Mean Squared Error. All it does is take the difference of the predicted output from the network and the expected output from the network, subtracts those, squares them, and then adds them across the samples or averages them across the samples rather. And then the optimizer uses that information to adjust the network weights to minimize that loss.

      The last thing I want to point out here is the neural network definition itself. This is a four-layer neural network that uses what's called ReLU activation functions. That stands for Rectified Linear Unit. Again, pretty boilerplate PyTorch stuff. The amount of layers here is also something you can kind of just pick a place to start, see how it does, and try different variations, and see if you get the model to perform better. A lot of this stuff is just trial and iteration.

      But in any case, the top block here is more or less defining the structure of the network. And then the bottom block is basically the equation we walked through at the beginning. When we run the training script, the network learns the weights and biases for each layer. And then we store those arrays as NumPy files again that we can import back into Bifrost to run our model.

      This is workaround number two, where I had to use another Python script to read the NumPy files and drop the data into the Bifrost graph. Like with the data export, the Bifrost team was working hard on getting us a way to read NumPy files directly into the graph. So that will really smooth out this part of the workflow.

      With the weights and biases in the graph, the last thing we have to do is reconstruct our network. And we can actually do this by recreating the neural network layer map out of native Bifrost nodes. One of the biggest benefits of doing it this way is that it doesn't rely on any third party library, like PyTorch, to actually run the model in Maya. So if you want to send this rig out to a bunch of artists, they can just open it like any other Maya scene without having to install a bunch of extra dependencies, which is super nice.

      So here we have our four layers with our activation functions. And if we go into that linear layer compound, you'll hopefully recognize this as part of our equation from the beginning that just does the weighted sum. Then we add the bias vector, and then run it through the activation function. Then we wrap that whole network in a compound, take the IK target position from the scene, run it through our neural IK solver, which predicts the joint angles, then pass the joint angles through the same FK solver compound we made for the data generation to get the rig geometry visualized in Maya.

      To wrap up here, I want to highlight that even though that might have seemed like a lot of work to do for a single rig, like I mentioned before, now that we have this procedural pipeline set up, all we have to do is feed it a new rig. And we can run it through this whole pipeline in minutes, even if we have a rig that has a prismatic joint, which translates instead of rotating or a rig that has more than three joints that maybe has redundant solutions.

      And lastly, this whole thing was done with a set of general deep learning compounds that you can use for all sorts of deep learning projects, not just the IK solver I showed here. So in addition to getting a full tutorial out for this example, we're working on releasing these compounds so you can use them in your own pipelines. So keep an eye out for that. And that's it. Thanks for listening.

      ______
      icon-svg-close-thick

      Cookieの設定

      弊社にとって、お客様のプライバシーを守ることと最適な体験を提供することは、どちらも大変重要です。弊社では、お客様に合わせてカスタマイズした情報を提供し、並びにアプリケーションの開発に役立てることを目的に、本サイトのご利用方法についてのデータを収集しております。

      そこで、お客様のデータの収集と使用を許可いただけるかどうかをお答えください。

      弊社が利用しているサードパーティのサービスについての説明とプライバシー ステートメントも、併せてご確認ください。

      サイト動作に必須:オートデスクのサイトが正常に動作し、お客様へサービスを提供するために必要な機能です

      Cookie を有効にすることで、お客様の好みやログイン情報が記録され、このデータに基づき操作に対する応答や、ショッピング カートへの商品追加が最適化されます。

      使用感が向上:お客様に最適な情報が表示されます

      Cookie を有効にすることで、拡張機能が正常に動作し、サイト表示が個々に合わせてカスタマイズされます。お客様に最適な情報をお届けし、使用感を向上させるためのこうした設定は、オードデスクまたはサードパーティのサービス プロバイダーが行います。 Cookie が無効に設定されている場合、一部またはすべてのサービスをご利用いただけない場合があります。

      広告表示をカスタマイズ:お客様に関連する広告が表示されます

      Cookie を有効にすることで、サイトのご利用内容やご興味に関するデータが収集され、これに基づきお客様に関連する広告が表示されるなど、効率的な動作が可能になります。また、継続的にデータを収集することで、お客様のご興味にさらに関連する広告を配信することが可能になります。Cookie が無効に設定されている場合、お客様に関連しない広告が表示される可能性があります。

      icon-svg-close-thick

      サードパーティのサービス

      それぞれの情報で弊社が利用しているサードパーティのサービスと、オンラインで収集するお客様のデータの使用方法を詳しく説明いたします。

      icon-svg-hide-thick

      icon-svg-show-thick

      サイト動作に必須:オートデスクのサイトが正常に動作し、お客様へサービスを提供するために必要な機能です

      Qualtrics
      弊社はQualtricsを利用し、アンケート調査やオンライン フォームを通じてお客様が弊社にフィードバックを提供できるようにしています。アンケートの回答は無作為に選んだお客様にお願いしておりますが、お客様から自発的に弊社にフィードバックを提供することも可能です。データを収集する目的は、アンケートの回答前にお客様がとられた行動を、より正しく理解するためです。収集したデータは、発生していた可能性がある問題のトラブルシューティングに役立てさせていただきます。. Qualtrics プライバシー ポリシー
      Akamai mPulse
      弊社は、弊社サイトでのお客様の行動に関するデータを収集するために、Akamai mPulseを利用しています。収集する情報には、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID、お客様の Autodesk ID が含まれます。このデータを基にサイトのパフォーマンスを測定したり、オンラインでの操作のしやすさを検証して機能強化に役立てています。併せて高度な解析手法を使用し、メールでのお問い合わせやカスタマー サポート、営業へのお問い合わせで、お客様に最適な体験が提供されるようにしています。. Akamai mPulse プライバシー ポリシー
      Digital River
      弊社は、弊社サイトでのお客様の行動に関するデータを収集するために、Digital Riverを利用しています。収集する情報には、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID、お客様の Autodesk ID が含まれます。このデータを基にサイトのパフォーマンスを測定したり、オンラインでの操作のしやすさを検証して機能強化に役立てています。併せて高度な解析手法を使用し、メールでのお問い合わせやカスタマー サポート、営業へのお問い合わせで、お客様に最適な体験が提供されるようにしています。. Digital River プライバシー ポリシー
      Dynatrace
      弊社は、弊社サイトでのお客様の行動に関するデータを収集するために、Dynatraceを利用しています。収集する情報には、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID、お客様の Autodesk ID が含まれます。このデータを基にサイトのパフォーマンスを測定したり、オンラインでの操作のしやすさを検証して機能強化に役立てています。併せて高度な解析手法を使用し、メールでのお問い合わせやカスタマー サポート、営業へのお問い合わせで、お客様に最適な体験が提供されるようにしています。. Dynatrace プライバシー ポリシー
      Khoros
      弊社は、弊社サイトでのお客様の行動に関するデータを収集するために、Khorosを利用しています。収集する情報には、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID、お客様の Autodesk ID が含まれます。このデータを基にサイトのパフォーマンスを測定したり、オンラインでの操作のしやすさを検証して機能強化に役立てています。併せて高度な解析手法を使用し、メールでのお問い合わせやカスタマー サポート、営業へのお問い合わせで、お客様に最適な体験が提供されるようにしています。. Khoros プライバシー ポリシー
      Launch Darkly
      弊社は、弊社サイトでのお客様の行動に関するデータを収集するために、Launch Darklyを利用しています。収集する情報には、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID、お客様の Autodesk ID が含まれます。このデータを基にサイトのパフォーマンスを測定したり、オンラインでの操作のしやすさを検証して機能強化に役立てています。併せて高度な解析手法を使用し、メールでのお問い合わせやカスタマー サポート、営業へのお問い合わせで、お客様に最適な体験が提供されるようにしています。. Launch Darkly プライバシー ポリシー
      New Relic
      弊社は、弊社サイトでのお客様の行動に関するデータを収集するために、New Relicを利用しています。収集する情報には、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID、お客様の Autodesk ID が含まれます。このデータを基にサイトのパフォーマンスを測定したり、オンラインでの操作のしやすさを検証して機能強化に役立てています。併せて高度な解析手法を使用し、メールでのお問い合わせやカスタマー サポート、営業へのお問い合わせで、お客様に最適な体験が提供されるようにしています。. New Relic プライバシー ポリシー
      Salesforce Live Agent
      弊社は、弊社サイトでのお客様の行動に関するデータを収集するために、Salesforce Live Agentを利用しています。収集する情報には、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID、お客様の Autodesk ID が含まれます。このデータを基にサイトのパフォーマンスを測定したり、オンラインでの操作のしやすさを検証して機能強化に役立てています。併せて高度な解析手法を使用し、メールでのお問い合わせやカスタマー サポート、営業へのお問い合わせで、お客様に最適な体験が提供されるようにしています。. Salesforce Live Agent プライバシー ポリシー
      Wistia
      弊社は、弊社サイトでのお客様の行動に関するデータを収集するために、Wistiaを利用しています。収集する情報には、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID、お客様の Autodesk ID が含まれます。このデータを基にサイトのパフォーマンスを測定したり、オンラインでの操作のしやすさを検証して機能強化に役立てています。併せて高度な解析手法を使用し、メールでのお問い合わせやカスタマー サポート、営業へのお問い合わせで、お客様に最適な体験が提供されるようにしています。. Wistia プライバシー ポリシー
      Tealium
      弊社は、弊社サイトでのお客様の行動に関するデータを収集するために、Tealiumを利用しています。データには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。このデータを基にサイトのパフォーマンスを測定したり、オンラインでの操作のしやすさを検証して機能強化に役立てています。併せて高度な解析手法を使用し、メールでのお問い合わせやカスタマー サポート、営業へのお問い合わせで、お客様に最適な体験が提供されるようにしています。. Tealium プライバシー ポリシー<>
      Typepad Stats
      弊社は、弊社サイトでのお客様の行動に関するデータを収集するために、Typepad Statsを利用しています。収集する情報には、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID、お客様の Autodesk ID が含まれます。このデータを基にサイトのパフォーマンスを測定したり、オンラインでの操作のしやすさを検証して機能強化に役立てています。併せて高度な解析手法を使用し、メールでのお問い合わせやカスタマー サポート、営業へのお問い合わせで、お客様に最適な体験が提供されるようにしています。. Typepad Stats プライバシー ポリシー
      Geo Targetly
      当社では、Geo Targetly を使用して Web サイトの訪問者を最適な Web ページに誘導し、訪問者のいる場所に応じて調整したコンテンツを提供します。Geo Targetly は、Web サイト訪問者の IP アドレスを使用して、訪問者のデバイスのおおよその位置を特定します。このため、訪問者は (ほとんどの場合) 自分のローカル言語でコンテンツを閲覧できます。Geo Targetly プライバシー ポリシー
      SpeedCurve
      弊社は、SpeedCurve を使用して、Web ページの読み込み時間と画像、スクリプト、テキストなど後続の要素の応答性を計測することにより、お客様の Web サイト エクスペリエンスのパフォーマンスをモニタリングおよび計測します。SpeedCurve プライバシー ポリシー
      Qualified
      Qualified is the Autodesk Live Chat agent platform. This platform provides services to allow our customers to communicate in real-time with Autodesk support. We may collect unique ID for specific browser sessions during a chat. Qualified Privacy Policy

      icon-svg-hide-thick

      icon-svg-show-thick

      使用感が向上:お客様に最適な情報が表示されます

      Google Optimize
      弊社はGoogle Optimizeを利用して、弊社サイトの新機能をテストし、お客様に合わせた方法で機能を使えるようにしています。そのため弊社では、弊社サイトにアクセスしているお客様から、行動に関するデータを収集しています。収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID、お客様の Autodesk ID などが含まれます。機能のテストの結果によっては、お客様がご利用のサイトのバージョンが変わったり、サイトにアクセスするユーザの属性に応じて、パーソナライズされたコンテンツが表示されるようになる場合があります。. Google Optimize プライバシー ポリシー
      ClickTale
      弊社は、弊社サイトをご利用になるお客様が、どこで操作につまづいたかを正しく理解できるよう、ClickTaleを利用しています。弊社ではセッションの記録を基に、ページの要素を含めて、お客様がサイトでどのような操作を行っているかを確認しています。お客様の特定につながる個人情報は非表示にし、収集も行いません。. ClickTale プライバシー ポリシー
      OneSignal
      弊社は、OneSignalがサポートするサイトに広告を配置するために、OneSignalを利用しています。広告には、OneSignalのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、OneSignalがお客様から収集したデータを使用する場合があります。OneSignalに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. OneSignal プライバシー ポリシー
      Optimizely
      弊社はOptimizelyを利用して、弊社サイトの新機能をテストし、お客様に合わせた方法で機能を使えるようにしています。そのため弊社では、弊社サイトにアクセスしているお客様から、行動に関するデータを収集しています。収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID、お客様の Autodesk ID などが含まれます。機能のテストの結果によっては、お客様がご利用のサイトのバージョンが変わったり、サイトにアクセスするユーザの属性に応じて、パーソナライズされたコンテンツが表示されるようになる場合があります。. Optimizely プライバシー ポリシー
      Amplitude
      弊社はAmplitudeを利用して、弊社サイトの新機能をテストし、お客様に合わせた方法で機能を使えるようにしています。そのため弊社では、弊社サイトにアクセスしているお客様から、行動に関するデータを収集しています。収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID、お客様の Autodesk ID などが含まれます。機能のテストの結果によっては、お客様がご利用のサイトのバージョンが変わったり、サイトにアクセスするユーザの属性に応じて、パーソナライズされたコンテンツが表示されるようになる場合があります。. Amplitude プライバシー ポリシー
      Snowplow
      弊社は、弊社サイトでのお客様の行動に関するデータを収集するために、Snowplowを利用しています。収集する情報には、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID、お客様の Autodesk ID が含まれます。このデータを基にサイトのパフォーマンスを測定したり、オンラインでの操作のしやすさを検証して機能強化に役立てています。併せて高度な解析手法を使用し、メールでのお問い合わせやカスタマー サポート、営業へのお問い合わせで、お客様に最適な体験が提供されるようにしています。. Snowplow プライバシー ポリシー
      UserVoice
      弊社は、弊社サイトでのお客様の行動に関するデータを収集するために、UserVoiceを利用しています。収集する情報には、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID、お客様の Autodesk ID が含まれます。このデータを基にサイトのパフォーマンスを測定したり、オンラインでの操作のしやすさを検証して機能強化に役立てています。併せて高度な解析手法を使用し、メールでのお問い合わせやカスタマー サポート、営業へのお問い合わせで、お客様に最適な体験が提供されるようにしています。. UserVoice プライバシー ポリシー
      Clearbit
      Clearbit を使用すると、リアルタイムのデータ強化により、お客様に合わせてパーソナライズされた適切なエクスペリエンスを提供できます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。Clearbit プライバシー ポリシー
      YouTube
      YouTube はビデオ共有プラットフォームで、埋め込まれたビデオを当社のウェブ サイトで表示および共有することができます。YouTube は、視聴者のビデオのパフォーマンスの測定値を提供しています。 YouTube 社のプライバシー ポリシー

      icon-svg-hide-thick

      icon-svg-show-thick

      広告表示をカスタマイズ:お客様に関連する広告が表示されます

      Adobe Analytics
      弊社は、弊社サイトでのお客様の行動に関するデータを収集するために、Adobe Analyticsを利用しています。収集する情報には、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID、お客様の Autodesk ID が含まれます。このデータを基にサイトのパフォーマンスを測定したり、オンラインでの操作のしやすさを検証して機能強化に役立てています。併せて高度な解析手法を使用し、メールでのお問い合わせやカスタマー サポート、営業へのお問い合わせで、お客様に最適な体験が提供されるようにしています。. Adobe Analytics プライバシー ポリシー
      Google Analytics (Web Analytics)
      弊社は、弊社サイトでのお客様の行動に関するデータを収集するために、Google Analytics (Web Analytics)を利用しています。データには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。このデータを基にサイトのパフォーマンスを測定したり、オンラインでの操作のしやすさを検証して機能強化に役立てています。併せて高度な解析手法を使用し、メールでのお問い合わせやカスタマー サポート、営業へのお問い合わせで、お客様に最適な体験が提供されるようにしています。. Google Analytics (Web Analytics) プライバシー ポリシー<>
      Marketo
      弊社は、お客様に関連性のあるコンテンツを、適切なタイミングにメールで配信できるよう、Marketoを利用しています。そのため、お客様のオンラインでの行動や、弊社からお送りするメールへの反応について、データを収集しています。収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID、メールの開封率、クリックしたリンクなどが含まれます。このデータに、他の収集先から集めたデータを組み合わせ、営業やカスタマー サービスへの満足度を向上させるとともに、高度な解析処理によって、より関連性の高いコンテンツを提供するようにしています。. Marketo プライバシー ポリシー
      Doubleclick
      弊社は、Doubleclickがサポートするサイトに広告を配置するために、Doubleclickを利用しています。広告には、Doubleclickのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、Doubleclickがお客様から収集したデータを使用する場合があります。Doubleclickに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. Doubleclick プライバシー ポリシー
      HubSpot
      弊社は、お客様に関連性のあるコンテンツを、適切なタイミングにメールで配信できるよう、HubSpotを利用しています。そのため、お客様のオンラインでの行動や、弊社からお送りするメールへの反応について、データを収集しています。収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID、メールの開封率、クリックしたリンクなどが含まれます。. HubSpot プライバシー ポリシー
      Twitter
      弊社は、Twitterがサポートするサイトに広告を配置するために、Twitterを利用しています。広告には、Twitterのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、Twitterがお客様から収集したデータを使用する場合があります。Twitterに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. Twitter プライバシー ポリシー
      Facebook
      弊社は、Facebookがサポートするサイトに広告を配置するために、Facebookを利用しています。広告には、Facebookのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、Facebookがお客様から収集したデータを使用する場合があります。Facebookに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. Facebook プライバシー ポリシー
      LinkedIn
      弊社は、LinkedInがサポートするサイトに広告を配置するために、LinkedInを利用しています。広告には、LinkedInのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、LinkedInがお客様から収集したデータを使用する場合があります。LinkedInに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. LinkedIn プライバシー ポリシー
      Yahoo! Japan
      弊社は、Yahoo! Japanがサポートするサイトに広告を配置するために、Yahoo! Japanを利用しています。広告には、Yahoo! Japanのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、Yahoo! Japanがお客様から収集したデータを使用する場合があります。Yahoo! Japanに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. Yahoo! Japan プライバシー ポリシー
      Naver
      弊社は、Naverがサポートするサイトに広告を配置するために、Naverを利用しています。広告には、Naverのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、Naverがお客様から収集したデータを使用する場合があります。Naverに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. Naver プライバシー ポリシー
      Quantcast
      弊社は、Quantcastがサポートするサイトに広告を配置するために、Quantcastを利用しています。広告には、Quantcastのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、Quantcastがお客様から収集したデータを使用する場合があります。Quantcastに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. Quantcast プライバシー ポリシー
      Call Tracking
      弊社は、キャンペーン用にカスタマイズした電話番号を提供するために、Call Trackingを利用しています。カスタマイズした電話番号を使用することで、お客様は弊社の担当者にすぐ連絡できるようになり、弊社はサービスのパフォーマンスをより正確に評価できるようになります。弊社では、提供した電話番号を基に、サイトでのお客様の行動に関するデータを収集する場合があります。. Call Tracking プライバシー ポリシー
      Wunderkind
      弊社は、Wunderkindがサポートするサイトに広告を配置するために、Wunderkindを利用しています。広告には、Wunderkindのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、Wunderkindがお客様から収集したデータを使用する場合があります。Wunderkindに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. Wunderkind プライバシー ポリシー
      ADC Media
      弊社は、ADC Mediaがサポートするサイトに広告を配置するために、ADC Mediaを利用しています。広告には、ADC Mediaのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、ADC Mediaがお客様から収集したデータを使用する場合があります。ADC Mediaに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. ADC Media プライバシー ポリシー
      AgrantSEM
      弊社は、AgrantSEMがサポートするサイトに広告を配置するために、AgrantSEMを利用しています。広告には、AgrantSEMのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、AgrantSEMがお客様から収集したデータを使用する場合があります。AgrantSEMに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. AgrantSEM プライバシー ポリシー
      Bidtellect
      弊社は、Bidtellectがサポートするサイトに広告を配置するために、Bidtellectを利用しています。広告には、Bidtellectのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、Bidtellectがお客様から収集したデータを使用する場合があります。Bidtellectに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. Bidtellect プライバシー ポリシー
      Bing
      弊社は、Bingがサポートするサイトに広告を配置するために、Bingを利用しています。広告には、Bingのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、Bingがお客様から収集したデータを使用する場合があります。Bingに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. Bing プライバシー ポリシー
      G2Crowd
      弊社は、G2Crowdがサポートするサイトに広告を配置するために、G2Crowdを利用しています。広告には、G2Crowdのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、G2Crowdがお客様から収集したデータを使用する場合があります。G2Crowdに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. G2Crowd プライバシー ポリシー
      NMPI Display
      弊社は、NMPI Displayがサポートするサイトに広告を配置するために、NMPI Displayを利用しています。広告には、NMPI Displayのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、NMPI Displayがお客様から収集したデータを使用する場合があります。NMPI Displayに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. NMPI Display プライバシー ポリシー
      VK
      弊社は、VKがサポートするサイトに広告を配置するために、VKを利用しています。広告には、VKのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、VKがお客様から収集したデータを使用する場合があります。VKに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. VK プライバシー ポリシー
      Adobe Target
      弊社はAdobe Targetを利用して、弊社サイトの新機能をテストし、お客様に合わせた方法で機能を使えるようにしています。そのため弊社では、弊社サイトにアクセスしているお客様から、行動に関するデータを収集しています。収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID、お客様の Autodesk ID などが含まれます。機能のテストの結果によっては、お客様がご利用のサイトのバージョンが変わったり、サイトにアクセスするユーザの属性に応じて、パーソナライズされたコンテンツが表示されるようになる場合があります。. Adobe Target プライバシー ポリシー
      Google Analytics (Advertising)
      弊社は、Google Analytics (Advertising)がサポートするサイトに広告を配置するために、Google Analytics (Advertising)を利用しています。広告には、Google Analytics (Advertising)のデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、Google Analytics (Advertising)がお客様から収集したデータを使用する場合があります。Google Analytics (Advertising)に提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. Google Analytics (Advertising) プライバシー ポリシー
      Trendkite
      弊社は、Trendkiteがサポートするサイトに広告を配置するために、Trendkiteを利用しています。広告には、Trendkiteのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、Trendkiteがお客様から収集したデータを使用する場合があります。Trendkiteに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. Trendkite プライバシー ポリシー
      Hotjar
      弊社は、Hotjarがサポートするサイトに広告を配置するために、Hotjarを利用しています。広告には、Hotjarのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、Hotjarがお客様から収集したデータを使用する場合があります。Hotjarに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. Hotjar プライバシー ポリシー
      6 Sense
      弊社は、6 Senseがサポートするサイトに広告を配置するために、6 Senseを利用しています。広告には、6 Senseのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、6 Senseがお客様から収集したデータを使用する場合があります。6 Senseに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. 6 Sense プライバシー ポリシー
      Terminus
      弊社は、Terminusがサポートするサイトに広告を配置するために、Terminusを利用しています。広告には、Terminusのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、Terminusがお客様から収集したデータを使用する場合があります。Terminusに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. Terminus プライバシー ポリシー
      StackAdapt
      弊社は、StackAdaptがサポートするサイトに広告を配置するために、StackAdaptを利用しています。広告には、StackAdaptのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、StackAdaptがお客様から収集したデータを使用する場合があります。StackAdaptに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. StackAdapt プライバシー ポリシー
      The Trade Desk
      弊社は、The Trade Deskがサポートするサイトに広告を配置するために、The Trade Deskを利用しています。広告には、The Trade Deskのデータと、弊社サイトにアクセスしているお客様から弊社が収集する行動に関するデータの両方が使われます。弊社が収集するデータには、お客様がアクセスしたページ、ご利用中の体験版、再生したビデオ、購入した製品やサービス、お客様の IP アドレスまたはデバイスの ID が含まれます。この情報に併せて、The Trade Deskがお客様から収集したデータを使用する場合があります。The Trade Deskに提供しているデータを弊社が使用するのは、お客様のデジタル広告体験をより適切にカスタマイズし、関連性の高い広告をお客様に配信するためです。. The Trade Desk プライバシー ポリシー
      RollWorks
      We use RollWorks to deploy digital advertising on sites supported by RollWorks. Ads are based on both RollWorks data and behavioral data that we collect while you’re on our sites. The data we collect may include pages you’ve visited, trials you’ve initiated, videos you’ve played, purchases you’ve made, and your IP address or device ID. This information may be combined with data that RollWorks has collected from you. We use the data that we provide to RollWorks to better customize your digital advertising experience and present you with more relevant ads. RollWorks Privacy Policy

      オンライン体験の品質向上にぜひご協力ください

      オートデスクは、弊社の製品やサービスをご利用いただくお客様に、優れた体験を提供することを目指しています。これまでの画面の各項目で[はい]を選択したお客様については、弊社でデータを収集し、カスタマイズされた体験の提供とアプリケーションの品質向上に役立てさせていただきます。この設定は、プライバシー ステートメントにアクセスすると、いつでも変更できます。

      お客様の顧客体験は、お客様が自由に決められます。

      オートデスクはお客様のプライバシーを尊重します。オートデスクでは収集したデータを基に、お客様が弊社製品をどのように利用されているのか、お客様が関心を示しそうな情報は何か、オートデスクとの関係をより価値あるものにするには、どのような改善が可能かを理解するよう務めています。

      そこで、お客様一人ひとりに合わせた体験を提供するために、お客様のデータを収集し、使用することを許可いただけるかどうかお答えください。

      体験をカスタマイズすることのメリットにつきましては、本サイトのプライバシー設定の管理でご確認いただけます。弊社のプライバシー ステートメントでも、選択肢について詳しく説明しております。