透明性を重視して設計された Atlassian Intelligence および Rovo
オープンなコミュニケーション、説明責任、そして責任ある AI 利用を促進するためのアトラシアンの取り組み。
Rovo エージェントは、OpenAI と Google によって開発された大規模言語モデル、およびオープン ソースの大規模言語モデル (Llama シリーズや Phi シリーズなど) と他の機械学習モデルの組み合わせを利用しています。これらのモデルには、OpenAI の GPT シリーズのモデル、Google の Gemini シリーズのモデルなどがあります。 Rovo エージェントにはこれらのモデルを使用して分析を行い、自然言語で回答を生成し、アトラシアン製品および接続済みのサードパーティ製品から関連性のある回答を提供する機能があります。 これらのモデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習させたデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデルと、Google のモデルの機能に関する詳細をご確認ください。オープン ソースの言語モデルの詳細については、Llama シリーズや Phi シリーズでご確認ください。 Rovo エージェントについて Rovo では、意思決定の支援、ナレッジ ドキュメントの公開、Jira での作業項目の整理など、さまざまなタスクにすぐに使えるエージェントを多数提供しています。エージェントは、人間のチームが迅速かつ効果的に作業を進めるのを支援できる、専門の人工知能のチームメイトです。 このためには、次のことが可能です。
アトラシアンでは、Rovo エージェントは次のようなシナリオで最適に機能すると考えています。
Rovo エージェントを使用する際の制限と考慮事項 Rovo エージェントを機能させるために使用されているモデルは、その構造上、不正確だったり、不完全だったり、信頼できない動作をしたりする場合があることを念頭に置くことが重要です。 たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、合理的なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 Rovo エージェントは、次のようなシナリオではあまり効果的でないことが判明しています。
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 こちらもぜひご検討ください。
お客様のデータと Rovo エージェント お客様のデータが Rovo エージェントでどのように使用されるかについて疑問をお持ちのことでしょう。このセクションは、当社の Trust Center で入手できる情報を補足するものです。 処理されるデータの種類は以下のとおりです。
データについては、Rovo エージェントでは次の指標が適用されます。
上記の詳細はアトラシアンが提供するエージェントに当てはまります。アトラシアンが提供するエージェントの詳細については、「Rovo のデータ、プライバシー、使用に関するガイドライン | Rovo | アトラシアン サポート」をご覧ください。サードパーティが提供するエージェントに関する情報については、該当するサードパーティがアプリ用に提供しているベンダー規約をご参照ください。 Atlassian Intelligence の詳細 |
With Rovo, we provide a number of out-of-the-box Agents, ready to use for a variety of tasks like, helping with decisionmaking, publishing knowledge documentation, and tidying up or organizing work items in Jira. Agents are specialized AI teammates that can assist human teams with moving work forward quickly and effectively. You can:
We believe that Rovo Agents work best in scenarios where:
|
It’s important to remember that because of the way that the models used to power Rovo Agents work, these models can sometimes behave in ways that are inaccurate, incomplete or unreliable. For example, the responses that you receive might not accurately reflect the content that they are based on, or include content that sounds reasonable but is false or incomplete. We’ve found that Rovo Agents are less useful in scenarios where:
For this reason, we encourage you to think about the situations when you use Atlassian Intelligence and review the quality of the responses you receive before sharing them with others. You might also want to think about:
|
We understand you may have questions about how Rovo Agents use your data. This section supplements the information available on our Trust Center. We process:
When it comes to your data, Rovo Agents apply the following measures.
The details above apply to Agents that are provided by Atlassian. For more information about Agents provided by Atlassian, please see Rovo data, privacy and usage guidelines | Rovo | Atlassian Support. For information about Agents provided by third parties, please reference the Vendor Terms provided by those third parties for their apps. Read more about Atlassian Intelligence |
Rovo チャットは、OpenAI と Google によって開発された大規模言語モデル、およびオープン ソースの大規模言語モデル (Llama シリーズや Phi シリーズなど) と他の機械学習モデルの組み合わせを利用しています。これらのモデルには、OpenAI の GPT シリーズのモデル、Google の Gemini シリーズのモデルなどがあります。 Rovo チャットはこれらのモデルを使用して分析を行い、自然言語で回答を生成し、アトラシアン製品および接続済みのサードパーティ製品から関連性のある回答を提供します。 回答は、これらの大規模言語モデルによって、ユーザーの入力に基づいて生成され、本質的に確率に基づいています。つまり、大規模言語モデルからの回答は、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して生成されます。 OpenAI のモデルと、Google のモデルの機能に関する詳細をご確認ください。オープン ソースの言語モデルの詳細については、Llama シリーズや Phi シリーズでご確認ください。 Rovo チャットのユース ケース Rovo チャットでは、会話型インターフェイスを通じて組織の知識にアクセスできます。つまり、人に頼むのと同じ方法で文章の作成、読み上げ、レビュー、創作を Rovo に頼むことができ、ワークフローの中断がありません。チャットは、(アトラシアン製品と接続されたサードパーティ製品の両方で) 作業のコンテキストを理解して、質問に回答したり、アイデアやインサイトを提供したりします。 アトラシアンでは、Rovo チャットは次のようなシナリオで最適に機能すると考えています。
Rovo チャットには、Chrome のブラウザー拡張機能を介してユーザーがアクセスすることもできます。Rovo チャットへのアクセスについて詳しくは、こちらとこちらをご覧ください。 Rovo チャットを使用する際の考慮事項 Rovo チャットを機能させるために使用されているモデルは、その構造上、不正確だったり、不完全だったり、信頼できない動作をしたりする場合があることを念頭に置くことが重要です。 たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、合理的なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 Rovo チャットは、次のようなシナリオではあまり効果的でないことが判明しています。
このことから、Rovo チャットを使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 こちらもぜひご検討ください。
お客様のデータと Rovo チャット お客様のデータが Rovo チャットでどのように使用されるかについて疑問をお持ちのことでしょう。このセクションは、当社の Trust Center で入手できる情報を補足するものです。 処理されるデータの種類は以下のとおりです。 お客様のプロンプト (入力) と回答 (出力)。
データについては、Rovo チャットでは次の指標が適用されます。
OpenAI は、アトラシアンの副処理者のリストに含まれる副処理者です。リクエストに対する処理または対応以外の目的でお客様の入力と出力を使用することはありません。 この機能は、ご利用のインスタンスの権限に従います。たとえば、特定の Confluence ページにアクセスできない場合、受信した回答でそのページのコンテンツが提案されることはありません。インスタンス内の他のユーザーへの回答に自分のコンテンツが利用されないようにするには、組織管理者に連絡して、ご自身の権限が適切に設定されていることをご確認ください。 Chrome のブラウザー拡張機能を介して Rovo チャットにアクセスすると、アトラシアン製品内に既に存在するコンテンツを補完するために、チャットでは表示している Web ページのコンテンツのみを読み取ります。Web ページの追加データは保存されません。 Atlassian Intelligence の詳細 |
Rovo Chat allows allows you to access the knowledge of your organization through a conversational interface. This means you can ask Rovo to write, read, review, or create things the same way you might ask a person, without disrupting your workflow. Chat understands the context of your work (both within Atlassian and your connected third-party products) to answer questions, or help provide ideas or insights. We believe that Rovo Chat works best in scenarios where:
Rovo Chat can also be accessed by users via a Chrome browser extension. Learn more about accessing Rovo Chat here and here. |
It’s important to remember that because of the way that the models used to power Rovo Chat work, these models can sometimes behave in ways that are inaccurate, incomplete or unreliable. For example, the responses that you receive might not accurately reflect the content that they are based on, or include content that sounds reasonable but is false or incomplete. We’ve found that Rovo Chat is less useful in scenarios where:
For this reason, we encourage you to think about the situations when you use Rovo Chat and review the quality of the responses you receive before sharing them with others. You might also want to think about:
|
We understand you may have questions about how Rovo Chat uses your data. This section supplements the information available on our Trust Center. We process: Your prompts (inputs) and responses (outputs).
When it comes to your data, Rovo Chat applies the following measures.
OpenAI is a subprocessor on our List of Subprocessors. They do not use your inputs and outputs for any purpose besides processing or acting on your request. This feature follows the permissions in your instance. For example, if you do not have access to a certain Confluence page, you will not be suggested content from that page in the response you receive. If you do not want your content to be available in responses to other users in your instance, please work with your org admin to ensure your permissions are set appropriately. When you access Rovo Chat from the Chrome browser extension, Chat will only read the content on the web page you are viewing to complement the content already within your Atlassian products. No additional data from the web page will be stored. Read more about Atlassian Intelligence Discover more about using Atlassian Intelligence |
Rovo 検索では、Atlassian Intelligence を使用して、アトラシアンとサードパーティのツール全体の検索機能を強化しています。 Rovo 検索は、OpenAI と Google によって開発された大規模言語モデル、およびオープン ソースの大規模言語モデル (Llama シリーズや Phi シリーズなど) と他の機械学習モデルの組み合わせを利用しています。これらのモデルには、OpenAI の GPT シリーズのモデル、Google の Gemini シリーズのモデルなどがあります。 Rovo 検索ではこれらのモデルを使用して、セマンティック検索、関連度ランキング、自然言語処理などの機能を提供します。これには、検索クエリに対する自然言語での回答の分析と生成、アトラシアン製品および連携しているサードパーティ製品から得られた関連性の高い回答の提供が含まれます。 回答は、これらの大規模言語モデルによって、ユーザーの入力に基づいて生成され、本質的に確率に基づいています。つまり、大規模言語モデルからの回答は、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して生成されます。 OpenAI のモデルと、Google のモデルの機能に関する詳細をご確認ください。オープン ソースの言語モデルの詳細については、Llama シリーズや Phi シリーズでご確認ください。 Rovo 検索のユース ケース Rovo 検索を使用すると、アトラシアンの製品や連携しているサードパーティ製品など、複数のツールやプラットフォームを検索することができ、コンテキストに応じた関連性の高い結果が得られるので、チームのコラボレーションと生産性が向上します。 アトラシアンでは、Rovo 検索は次のようなシナリオで最適に機能すると考えています。
Rovo 検索を使用する際の考慮事項 Rovo 検索を機能させるために使用されているモデルは、その構造上、不正確だったり、不完全だったり、信頼できない動作をしたりする場合があることを念頭に置くことが重要です。 たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、合理的なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 Rovo 検索は、次のようなシナリオではあまり効果的でないことが判明しています。
このことから、Rovo を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 こちらもぜひご検討ください。
お客様のデータと Rovo 検索 お客様のデータが Rovo 検索でどのように使用されるかについて疑問をお持ちのことでしょう。このセクションは、当社の Trust Center で入手できる情報を補足します。 処理されるデータの種類は以下のとおりです。
データについては、Rovo 検索では次の指標が適用されます。
Atlassian Intelligence の詳細 |
Rovo Search enables users to search across multiple tools and platforms, including Atlassian products and connected third-party products, providing contextual and relevant results to enhance team collaboration and productivity. We believe that Rovo Search works best in scenarios where:
|
It’s important to remember that because of the way that the models used to power Rovo Search work, these models can sometimes behave in ways that are inaccurate, incomplete or unreliable. For example, the responses that you receive might not accurately reflect the content that they are based on, or include content that sounds reasonable but is false or incomplete. We’ve found that Rovo Search is less useful in scenarios where:
For this reason, we encourage you to think about the situations when you use Rovo and review the quality of the responses you receive before sharing them with others. You might also want to think about:
|
We understand you may have questions about how Rovo Search uses your data. This section supplements the information available on our Trust Center. We process:
When it comes to your data, Rovo Search applies the following measures.
Read more about Atlassian Intelligence What is Atlassian Intelligence? | Atlassian Support Rovo: Unlock organizational knowledge with GenAI | Atlassian |
AI を活用して作業をスピードアップ
以下の Atlassian Intelligence の機能を選択すると、ユース ケースとデータの使用について把握することができます。
Atlassian Intelligence を使用した自動化
インシデント管理のための AI ChatOps は、OpenAI によって開発された大規模言語モデル、およびオープン ソースの大規模言語モデル (Llama シリーズや Phi シリーズなど) と他の機械学習モデルの組み合わせを利用しています。これらの大規模な言語モデルには、OpenAI の GPT シリーズのモデルが含まれます。 Atlassian Intelligence はこれらのモデルを使用して、製品内の自然言語を分析/生成します。 これらの大規模言語モデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデルの能力、またはこのアプローチについて詳しくは、OpenAI の研究論文をお読みください。オープン ソースの言語モデルの詳細については、Llama シリーズや Phi シリーズでご確認ください。 |
インシデント管理のための AI ChatOps では、Jira Service Management のインシデント課題にリンクされている Slack チャンネルに新規ユーザーが追加されると、関連するインシデントの要約とそれに関する会話すべてが提供されるため、ユーザーはインシデント解決プロセスを迅速に進められます。さらに、インシデント管理のための AI ChatOps では、Slack で生じる会話をタイムラインとして Jira Service Management に記録し、将来参照できるようにします。 アトラシアンでは、インシデント管理のための AI ChatOps は、次のようなシナリオで最も効果的だと考えています。
|
インシデント管理のための AI ChatOps の作業に使用されるモデルは、その性質上、不正確、不完全、または信頼できない動作を示す場合があることを念頭に置きます。たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、合理的なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 インシデント管理のための AI ChatOps は、次のようなシナリオではあまり効果的でないことが判明しています。
こうした理由から、インシデント管理のための AI ChatOps を利用する状況をご検討いただき、受け取った回答の質を確認した上で、他のユーザーと共有することをお勧めします。 また、関連するインシデント課題や Slack チャンネルにユーザーが適切なレベルでアクセスできるよう、権限を見直すこともご検討ください。 |
インシデント管理のための AI ChatOps がお客様のデータをどのように使用するかについて、疑問をお持ちのことでしょう。このセクションでは、FAQ ページで提供されている情報を補足します。 私たちは以下を処理します。
お客様のデータ保護のため、インシデント管理のための AI ChatOps では次の対策を適用しています。
|
AI 関連リソースは、OpenAI によって開発された大規模言語モデル、およびオープン ソースの大規模言語モデル (Llama シリーズや Phi シリーズなど) と他の機械学習モデルの組み合わせを利用しています。これらの大規模な言語モデルには、OpenAI の GPT シリーズのモデルが含まれます。 Atlassian Intelligence はこれらのモデルを利用して、製品内の自然言語を分析・生成し、アトラシアン製品および接続済みのサードパーティ製品から関連性のある回答を提供します。 これらの大規模言語モデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデルの能力、またはこのアプローチについて詳しくは、OpenAI の研究論文をお読みください。オープン ソースの言語モデルの詳細については、Llama シリーズや Phi シリーズでご確認ください。 |
Atlassian Intelligence では、リンクされたナレッジ ベースのスペースや記事、Jira 課題、および (Rovo のお客様であれば) Rovo を介して統合したサードパーティ製品などにわたって、参照できるリソースのリストを提案するため、ユーザーはインシデント解決のプロセスをスピードアップできるようになります。Rovo とサードパーティ ツールの詳細をご確認ください。 アトラシアンでは、AI 関連リソースは次のようなシナリオで最も効果的だと考えています。
|
AI 関連リソースの作業に使用されるモデルは、その性質上、不正確、不完全、または信頼できない動作を示す場合があることを念頭に置きます。たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、妥当なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 AI 関連リソースは、次のようなシナリオではあまり効果的でないことが判明しています。
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 次の内容もご検討ください。
|
AI 関連リソースがお客様のデータをどのように使用するかについて、疑問をお持ちのことでしょう。このセクションでは、FAQ ページで提供されている情報を補足します。 処理されるデータの種類は以下のとおりです。
お客様のデータ保護のため、AI 関連リソースでは次の対策を適用しています。
|
Jira Service Management の AI による提案は、OpenAI によって開発された大規模言語モデルやその他の機械学習モデルを利用しています。これらの大規模言語モデルには、OpenAI の GPT シリーズのモデルが含まれます。 Atlassian Intelligence はこれらのモデルを使用して、製品内の自然言語を分析/生成します。 これらの大規模言語モデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデルの機能について詳細をご確認ください。 |
Jira Service Management の AI による提案を使用すると、サービス リクエストやインシデントに関する重要なコンテキストを一目で把握して、状況をすばやく理解できます。Atlassian Intelligence は、チームによる次の作業を支援します。
Jira Service Management の AI による提案では、該当する SLA に違反しそうなときにリクエストやインシデントをエスカレーションするようエージェントに勧めることもできます。サービス リクエストの場合、提案に使用されているモデルが、報告者のコメントのテキストから、そのリクエストに緊急性や怒りのニュアンスを感じ取った場合に、リクエストをエスカレーションするようエージェントに促すこともあります。 Jira Service Management の AI による提案は、次のようなシナリオで最も効果的に機能すると考えられます。
|
Jira Service Management の AI による提案を機能させるために使用されているモデルは、その構造上、不正確だったり、不完全だったり、信頼できない動作をしたりする場合があることを念頭に置くことが重要です。 たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、妥当なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 Jira Service Management の AI による提案は、次のようなシナリオではあまり効果的でないことが判明しています。
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 こちらもぜひご検討ください。
|
Jira Service Management の AI による提案でお客様のデータがどのように使用されるかについて、ご不明な点があると思います。このセクションは、当社の Trust Center で入手できる情報を補足するものです。 処理されるデータの種類は以下のとおりです。
AI による提案では、お客様のデータに対して次の指標が適用されます。
|
Atlassian Intelligence を使用した自動化は、OpenAI、Google、Anthropic によって開発された大規模言語モデル、およびオープン ソースの大規模言語モデル (Llama シリーズ、Phi シリーズ、Mixtral シリーズなど) と他の機械学習モデルの組み合わせによって支えられています。これらの大規模言語モデルには、OpenAI の GPT シリーズのモデル、Google の Gemini シリーズのモデル、Anthropic の Claude シリーズのモデルなどがあります。 Atlassian Intelligence では、これらのモデルを利用して自然言語の入力を分析し、Jira と Confluence 内で自動化ルールを生成します。 これらのモデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、トレーニングを受けたデータに基づいて、最も可能性の高い次の単語やテキストを予測して回答が生成されます。 OpenAI のモデル、Google のモデル、Anthropic のモデルの機能に関する詳細をご確認ください。オープン ソースの言語モデルの詳細については、Llama シリーズや Phi シリーズでご確認ください。 |
自動化ルールの作成は、日常の自動化エクスペリエンスの主要部分です。そのためアトラシアンでは、Jira と Confluence の自動化ルール ビルダーに Atlassian Intelligence を追加することで、ルールの作成をさらに簡単にしたいと考えました。その結果、自動化する内容を入力して説明するだけで、簡単に自動化ルールを作成できるようになりました。Atlassian Intelligence がルールを作成の煩雑な作業をすべて引き受けますJira と Confluence 向けの Atlassian Intelligence を使用した自動化の詳細をご覧ください。 Jira と Confluence 向けの Atlassian Intelligence を使用した自動化が最も効果を発揮するのは、開始方法がわからない場合や、ルール作成プロセスを加速したい場合です。 自動化ルールの最適な作成方法がわからない場合自動化ルールは、トリガー、アクション、条件、ブランチなど、さまざまなタイプのコンポーネントを組み合わせて作成します。コンポーネントはルールの構成要素と考えてください。Atlassian Intelligence でルールを正常に作成するには、ルールに少なくともトリガーとアクションの両方が 1 つずつ含まれている必要があります。次に例を示します。 Jira の場合 毎週月曜日、期限が 7 日以内のタスクをすべて検索し、担当者にリマインダー メールを送信する。 チケットがテストに移動したら、そのチケットを John Smith に割り当てます。 Confluence の場合
さらに、ルールを正常に作成するには、そのルールを構成するすべての要素が Atlassian Intelligence を使用した自動化でサポートされている必要があります。つまり、ルール内のトリガー、アクション、条件、ブランチはすべて Jira と Confluence の自動化と互換性がなければなりません。 |
Atlassian Intelligence を使用した自動化を機能させるためのモデルの仕組みにより、これらのモデルが不正確または不完全であったり、信頼性に欠ける動作をする場合がありますので、その点をご留意ください。 たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、合理的なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 Atlassian Intelligence を使用した自動化は、次のようなシナリオではあまり効果的でないことが判明しています。
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 Atlassian Intelligence を使用した自動化は、Jira と Confluence で利用可能な既存の自動化コンポーネントでのみ機能します。 また、前述のように、Atlassian Intelligence にはできるだけ具体的な内容の質問をすることが推奨されます。 |
Atlassian Intelligence を使用した自動化において、お客様のデータがどのように取り扱われるのか疑問をお持ちのことでしょう。このセクションでは、FAQ ページで提供されている情報を補足します。 処理されるデータの種類は以下のとおりです。
お客様のデータ保護のため、Atlassian Intelligence を使用した Confluence 自動化では次の対策を適用しています。
サードパーティの LLM プロバイダーはすべて副処理者であり、「副処理者」ページに記載されています。これらのプロバイダーがリクエストの処理以外の目的でお客様の入力と出力を使用することはありません。 この機能は、ご利用のインスタンスの権限に従います。たとえば、お客様が特定のプロジェクトまたはページにアクセスできない場合、それらのコンテンツを使用した提案が受信した回答に含まれることはありません。ご自身のコンテンツをインスタンスの他のユーザーへの回答として利用されないようにするには、組織の管理者に連絡して、権限が適切に設定されていることをご確認ください。 |
アラートのグループ化
Atlassian Intelligence によるアラートのグループ化は、OpenAI、Google、Anthropic によって開発された大規模言語モデル、およびオープンソースの大規模言語モデル (Llama シリーズ、Phi シリーズ、Mixtral シリーズなど) と他の機械学習モデルの組み合わせによって支えられています。これらのモデルには、アラート データのパターンを識別するために設計されたアルゴリズム、OpenAI の GPT シリーズのモデル、Google の Gemini シリーズのモデル、Anthropic の Claude シリーズのモデルなどがあります。 Atlassian Intelligence は、これらの機械学習モデルを利用して、アラート グループを分析および生成し、アラートの内容や使用されているタグの類似性に基づいて、製品内で関連性のある提案 (過去のアラート グループや過去のアラート対応者) を行います。次に、Atlassian Intelligence は大規模な言語モデルを利用して、製品内のこれらのグループの自然言語による説明や内容を分析および生成します。 これらの大規模な言語モデルは、入力された内容に基づいて回答を生成し、確率的です。つまり、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデル、Google のモデル、Anthropic のモデルの機能に関する詳細をご確認ください。オープンソースの言語モデルの詳細については、Llama シリーズや Phi シリーズでご確認ください。 |
アラートのグループ化では、Atlassian Intelligence を利用して識別し、同様のアラートを一緒にグループ化します。また、アラートの内容や使用されているタグとの意味的な類似性に基づいて、過去の類似アラート グループや過去のアラート対応者 (または対応者のチーム) を特定して推奨することにも役立ちます。 アラート グループをインシデントにエスカレートする場合、状況に応じた情報すべてがアラートのグループ化により事前に入力され、インシデント作成プロセスの一環として確認できます。 アトラシアンでは、アラートのグループ化は次のようなシナリオで最も効果的だと考えています。
|
アラートのグループ化の強化のために使用されているモデルは、その構造上、不正確だったり、不完全だったり、信頼できない動作をしたりする場合があることを念頭に置くことが重要です。 たとえば、受け取った回答に質問の内容が正確に反映されていなかったり、妥当なようでも虚偽または不完全な内容が含まれていたりする可能性があります。表示されるアラート グループには、タグの意味的な類似性が正確に反映されない可能性があります。 アラートのグループ化は、次のようなシナリオではあまり効果的でないことが判明しています。
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 また、アラート タグを使用する際に、あなたとチームが一貫したプラクティスに従うようにすることもご検討ください。 |
アラートのグループ化でのデータの扱いについて、さまざまな疑問が生じることでしょう。このセクションでは、FAQ ページで提供されている情報を補足します。 私たちは以下を処理します。
アトラシアンでは、お客様のアラート データを処理して、機械学習モデルのバージョンをトレーニングし、お客様のアラート特有のパターンを認識します。このバージョンは、ご自身のエクスペリエンスのためにのみ利用されます。
データについては、アラートのグループ化では次の指標が適用されます。
|
Atlassian Intelligence を使用したページやブログの要約は、OpenAI、Google、Anthropic によって開発された大規模言語モデル、およびオープンソースの大規模言語モデル (Llama シリーズ、Phi シリーズ、Mixtral シリーズなど) と他の機械学習モデルの組み合わせによって支えられています。これらの大規模言語モデルには、OpenAI の GPT シリーズのモデル、Google の Gemini シリーズのモデル、Anthropic の Claude シリーズのモデルなどがあります。 Atlassian Intelligence はこれらのモデルを使用して、製品内の自然言語を分析および生成します。 これらのモデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデル、Google のモデル、Anthropic のモデルの機能に関する詳細をご確認ください。オープンソースの言語モデルの詳細については、Llama シリーズや Phi シリーズでご確認ください。 |
Atlassian Intelligence で Confluence ページやブログの簡単な要約を生成することで、時間を節約して、作業時間を短縮するために必要な詳細を入手できます。Confluence での Atlassian Intelligence の使用に関する詳細をご覧ください。 Atlassian Intelligence を利用したページやブログの要約は、次のようなシナリオで最も効果的です。
|
Atlassian Intelligence の機能を利用してページやブログの要約を強化するというモデルの利用方法により、これらのモデルが不正確、不完全、または信頼性の低い動作をする場合があることにご注意ください。 たとえば、受け取った回答に質問の内容が正確に反映されていなかったり、妥当なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 当社は、マクロ、表、要約の展開のサポートを改善し続けていますが、Atlassian Intelligence を利用したページやブログの要約が、次のようなシナリオではあまり効果的でないことが判明しました。
Atlassian Intelligence を利用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 こちらもぜひご検討ください。
|
Confluence 自動化に Atlassian Intelligence を利用する際に、お客様のデータがどのように使用されるかについて疑問をお持ちのことでしょう。このセクションでは、FAQ ページで提供されている情報を補足します。 私たちは以下を処理します。
データに関しては、Atlassian Intelligence を利用したページやブログの要約には、次のような対策を適用しています。
|
Atlassian Intelligence で用語を定義する
Confluence と Jira における Atlassian Intelligence を使用した用語の定義は、OpenAI、Google、Anthropic によって開発された大規模言語モデル、およびオープンソースの大規模言語モデル (Llama シリーズ、Phi シリーズ、Mixtral シリーズなど) と他の機械学習モデルの組み合わせによって支えられています。これらの大規模言語モデルには、OpenAI の GPT シリーズのモデル、Google の Gemini シリーズのモデル、Anthropic の Claude シリーズのモデルなどがあります。 Atlassian Intelligence はこれらのモデルを利用して、Confluence と Jira 内の自然言語による回答を分析および生成します。 これらのモデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習させたデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデル、Google のモデル、Anthropic のモデルの機能に関する詳細をご確認ください。オープンソースの言語モデルの詳細については、Llama シリーズや Phi シリーズでご確認ください。 |
Confluence や Jira でコンテンツを利用する際に最も難しいことの 1 つは、読んでいる内容を理解するために必要となるコンテキストの把握です。略語、頭字語、なじみのない用語、チームやプロジェクト固有の名前は、必要な情報を得るために長時間検索することにつながります。 Atlassian Intelligence を利用して用語を定義すると、Confluence のページや Jira の課題説明のページに、会社固有の用語 (頭字語、プロジェクト名、システム名、チーム名など) の定義が表示されます。これにより、ユーザーは必要な情報を随時取得でき、それと同時にチームの連携を強化できます。 Atlassian Intelligence を使用すれば、読んでいるコンテンツから離れることなくこれらを自動的に定義できるため、時間を節約できます。 正しくないと思われる定義が見つかった場合は、既存の定義を編集するか新しい定義を追加してから、当該のページや課題説明にその定義が表示されるように設定するか、スペース全体、プロジェクト全体、組織全体にその定義が表示されるように設定することができます。 Confluence と Jira での Atlassian Intelligence を利用した用語の定義は、次のようなシナリオで最も効果的です。
|
Confluence で Atlassian Intelligence の機能を利用して用語を定義するというモデルの利用方法により、これらのモデルが不正確、不完全、または信頼性の低い動作をする場合があることにご注意ください。 たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、合理的なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 Confluence で Atlassian Intelligence を利用して用語の定義をすることは、次のようなシナリオではあまり効果的でないことが判明しました。
さらに、Atlassian Intelligence を使用して用語を定義するには Confluence での検索が必要であるため、この機能は、Jira インスタンスと同じサイトにある Confluence インスタンスを閲覧する権限がある場合にのみ Jira で使用できます。 また、Confluence スペースや Jira インスタンスに複数の言語で書かれたコンテンツがある場合は、Atlassian Intelligence を使用した用語の定義が期待どおりに機能しないことがあります。 |
Atlassian Intelligence を使用して用語を定義する際にお客様のデータがどのように使用されるかについて疑問をお持ちのことでしょう。このセクションでは、FAQ ページで提供されている情報を補足します。 私たちは以下を処理します。
Atlassian Intelligence を使用して用語を定義する際には、お客様のデータについて次のような対策が適用されます。
|
エディターのジェネレーティブ AI
編集エクスペリエンスにおける Atlassian Intelligence は、OpenAI、Google、Anthropic によって開発された大規模言語モデル、およびオープンソースの大規模言語モデル (Llama シリーズ、Phi シリーズ、Mixtral シリーズなど) と他の機械学習モデルの組み合わせによって支えられています。これらの大規模言語モデルには、OpenAI の GPT シリーズのモデル、Google の Gemini シリーズのモデル、Anthropic の Claude シリーズのモデルなどがあります。 Atlassian Intelligence はこれらのモデルを使用して、製品内の自然言語を分析および生成します。 これらのモデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習させたデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデル、Google のモデル、Anthropic のモデルの機能に関する詳細をご確認ください。オープンソースの言語モデルの詳細については、Llama シリーズや Phi シリーズでご確認ください。 |
Atlassian Intelligence は、組織内のすべてのチームで効果的なコミュニケーションを促進し、効率、意思決定、プロセスを向上させるのに役立ちます。 アトラシアンでは、編集エクスペリエンスに Atlassian Intelligence を使用すると、次のようなシナリオで最も効果的だと考えています。
|
Atlassian Intelligence を使用した編集エクスペリエンスにモデルがどのように使われているかを理解し、これらが不正確だったり、不完全だったり、信頼できない動作をしたりする場合があることを念頭に置くことが重要です。 たとえば、受け取った応答には基になっている内容が正確に反映されていなかったり、合理的なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 編集エクスペリエンスにおける Atlassian Intelligence は、次のようなシナリオでは、あまり効果的でないことが判明しました。
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 こちらもぜひご検討ください。
|
編集エクスペリエンスにおいて Atlassian Intelligence でお客様のデータがどのように使用されるかについて疑問をお持ちのことでしょう。このセクションでは、FAQ ページで提供されている情報を補足します。 私たちは以下を処理します。
データに関しては、編集エクスペリエンスにおける Atlassian Intelligence には、次の対策を適用しています。
|
課題再整形機能は、OpenAI の GPT シリーズのモデルを含む、OpenAI によって開発された大規模言語モデルを利用しています。 Atlassian Intelligence はこのモデルを使用して、Jira 内で自然言語を分析/生成します。 これらのモデルは、入力に基づいて回答を生成しますが、実際には確率論を使用しています。つまり、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデルの機能について詳細をご確認ください。 |
課題再整形機能を使用すると、アトラシアンが開発したテンプレートに基づいて再整形を行い、Jira 課題の説明をわかりやすくできます。このテンプレートは、ユーザー ストーリー、作業のコンテキスト、承認基準など、Jira 課題の説明で通常見られる種類の情報を網羅しています。 課題再整形機能は、課題の説明にすでに有用な情報 (承認基準や情報源へのリンクなど) が含まれているが、その情報が明確または一貫した構造で整形されていない場合に最も大きな効果を発揮します。 |
課題再整形機能に使用されているモデルは、その構造上、不正確だったり、不完全だったり、信頼できない動作をしたりする場合があることを念頭に置くことが重要です。 たとえば、再整形された説明に元の内容が正確に反映されていなかったり、一見筋が通っているようでも虚偽または不完全な細部が含まれていたりする可能性があります。 課題再整形機能は、次のようなシナリオではあまり効果的でないことが判明しています。
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を必ず確認した上で、他の人と共有することをお勧めします。あわせて、課題再整形機能を使用して課題を再整形する前に、課題の説明に関連情報がすべて含まれているかどうか確認することを検討してください。 |
課題再整形機能でお客様のデータがどのように使用されるかについて、ご不明な点があると思います。このセクションは、当社の Trust Center で入手できる情報を補足するものです。 処理されるデータの種類は以下のとおりです。
課題再整形機能では、お客様のデータに対して次の指標が適用されます。
|
Jira Service Management で課題の詳細を要約する。
Atlassian Intelligence を使用した課題の詳細の要約は、OpenAI、Google、Anthropic によって開発された大規模言語モデル、およびオープンソースの大規模言語モデル (Llama シリーズ、Phi シリーズ、Mixtral シリーズなど) と他の機械学習モデルの組み合わせによって支えられています。これらの大規模言語モデルには、OpenAI の GPT シリーズのモデル、Google の Gemini シリーズのモデル、Anthropic の Claude シリーズのモデルなどがあります。 Atlassian Intelligence はこれらのモデルを使用して、製品内の自然言語を分析および生成します。 これらのモデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習させたデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデル、Google のモデル、Anthropic のモデルの機能に関する詳細をご確認ください。オープンソースの言語モデルの詳細については、Llama シリーズや Phi シリーズでご確認ください。 |
Jira Service Management で課題に関する長文の説明や多数のコメントをすべて読む代わりに、Atlassian Intelligence でこれらの情報をすばやく要約できます。簡単に新しい関係者と情報を共有したり、新しいエージェントにチケットを移動したり、課題に関する詳細情報を入手したりできます。これにより、エージェントは課題のコンテキストと進捗状況をすばやく理解でき、迅速に行動し、タイムリーな支援を提供できます。 Atlassian Intelligence を使用した課題の詳細の要約は、次の場合に最適だと私たちは考えています。
|
Atlassian Intelligence の機能を使用して課題の詳細の要約を強化するというモデルの仕組み上、これらのモデルが不正確、不完全、または信頼性の低い動作をする場合があることにご注意ください。 たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、合理的なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 Atlassian Intelligence を使用した課題の詳細の要約は、次のようなシナリオではあまり効果的でないことが判明しています。
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 |
Atlassian Intelligence を使用して課題の詳細を要約する際にお客様のデータがどのように使用されるかについて疑問をお持ちのことでしょう。このセクションでは、FAQ ページで提供されている情報を補足します。 私たちは以下を処理します。
Atlassian Intelligence を使用して課題の詳細を要約する際には、お客様のデータについて次のような対策が適用されます。
|
エディターのジェネレーティブ AI
Atlassian Intelligence (AI) によるスマート リンクの要約は、OpenAI、Google、Anthropic によって開発された大規模言語モデル、およびオープンソースの大規模言語モデル (Llama シリーズ、Phi シリーズ、Mixtral シリーズなど) と他の機械学習モデルの組み合わせによって支えられています。これらの大規模言語モデルには、OpenAI の GPT シリーズのモデル、Google の Gemini シリーズのモデル、Anthropic の Claude シリーズのモデルなどがあります。 Atlassian Intelligence はこれらのモデルを使用して、製品内の自然言語を分析および生成します。 これらのモデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習させたデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデル、Google のモデル、Anthropic のモデルの機能に関する詳細をご確認ください。オープンソースの言語モデルの詳細については、Llama シリーズや Phi シリーズでご確認ください。 |
Jira、Confluence、Google Docs のスマート リンクにカーソルを合わせると、Atlassian Intelligence がコンテンツを要約して、ユーザーがリンクの重要性と価値を判断し、次のアクションを決定できるようにします。これにより、現在のページを離れてコンテキストを切り替える必要が減ります。 アトラシアンでは、AI でスマート リンクを要約することは、次のようなシナリオで最も効果的に機能すると考えています。
|
AI によるスマート リンク要約のために使用されるモデルの仕組み上、不正確だったり、不完全だったり、信頼できない動作をしたりする場合があることを念頭に置くことが重要です。 たとえば、受け取った要約には基になっている内容が正確に反映されていなかったり、一見筋が通っているようでも虚偽または不完全な内容が含まれていたりする可能性があります。 AI でスマート リンクを要約することは、次のようなシナリオではあまり効果的でないことが判明しています。
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 |
Atlassian Intelligence を使用して課題の詳細を要約する際にお客様のデータがどのように使用されるかについて疑問をお持ちのことでしょう。このセクションでは、FAQ ページで提供されている情報を補足します。 私たちは以下を処理します。
お客様のデータについては、AI を使用したスマート リンクの要約では次の指標が適用されます。
|
Jira Service Management での Atlassian Intelligence の回答
Jira Service Management の仮想サービス エージェントは、OpenAI、Google、Anthropic によって開発された大規模言語モデル、およびオープン ソースの大規模言語モデル (Llama シリーズ、Phi シリーズ、Mixtral シリーズなど) や他の機械学習モデルを利用しています。 仮想サービス エージェントはこれらのモデルを次のように使用します。
大規模言語モデルの仕組み: 大規模言語モデルは、入力に基づいて応答を生成しますが、実際には確率論を使用しています。つまり、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 仮想サービス エージェントを強化するために使用される大規模言語モデルには、OpenAI の GPT シリーズのモデル、Google の Gemini シリーズのモデル、Anthropic の Claude シリーズのモデルなどがあります。 OpenAI のモデル、Google のモデル、Anthropic のモデルの機能に関する詳細をご確認ください。オープンソースの言語モデルの詳細については、Llama シリーズや Phi シリーズでご確認ください。 |
仮想サービス エージェントは、対話のインテント、コンテキスト、権限を分析および理解して対話をパーソナライズする会話型 Atlassian Intelligence エンジンを利用して、チームが第 1 階層のサポートの対話を自動化するのに役立ちます。 Atlassian Intelligence を使用する仮想サービス エージェントは、チームがサービス デスクを拡張し、次の 3 つの主要な機能で顧客を満足させるのに役立ちます。
仮想サービス エージェントは、Slack、Microsoft Teams、Jira Service Management ポータルなどの複数のチャンネルで利用できます。仮想サービス エージェントを利用できるチャンネルの詳細をご確認ください。 仮想サービス エージェントは、次のようなシナリオで最も効果的に機能すると考えられます。
|
仮想サービス エージェントを機能させるために使用した方法が原因で、これらのモデルが不正確、不完全、または低い信頼性で動作する場合があることを覚えておくことが重要です。 たとえば、質問の内容が回答に正確に反映されていなかったり、一見筋が通っているようでも虚偽または不完全な内容が含まれていたりする可能性があります。 仮想サービス エージェントは、次のようなシナリオではあまり役に立たないことがわかっています。
Atlassian Intelligence を使用する状況を考え、顧客に対して仮想サービス エージェントを有効にする前に、そのパフォーマンスを確認することをお勧めします。仮想サービス エージェントのパフォーマンスを向上させる方法の詳細をご確認ください。 こちらもぜひご検討ください。
|
Jira Service Management の仮想サービス エージェントでお客様のデータがどのように使用されるかについて、ご不明な点があるかもしれません。このセクションでは、FAQ ページで提供されている情報を補足します。 私たちは以下を処理します。
お客様のデータに関して、仮想サービス エージェントでは次の基準が適用されます。
|
Atlassian Intelligence で課題の詳細を要約する
Jira の AI 要約は、OpenAI によって開発された大規模な言語モデルを利用しています。こうしたモデルには、こちらで説明されている OpenAI モデルが含まれます。 Atlassian Intelligence はこれらのモデルを使用して、製品内の自然言語を分析/生成します。 これらのモデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデルの能力、またはこのアプローチについて詳しくは、OpenAI の研究論文をお読みください。 |
Jira 課題上にある長文の説明や多数のコメントをすべて読む代わりに、Atlassian Intelligence を活用することで、こうした情報をすばやく要約できます。これにより、エージェントが課題のコンテキストとこれまでの進捗をすばやく理解し、迅速にアクションを実行して、タイムリーな支援を提供できます。 Atlassian Intelligence による課題の詳細の要約は、コメントの数が多い課題や、長いコメントや説明がある課題に取り組む際に最も役立つでしょう。 |
Jira の AI 要約に使用されているモデルは、その構造上、不正確、不完全、または信頼できない動作をする可能性があることを念頭に置くことが重要です。 たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、妥当なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 Atlassian Intelligence を使用した課題の詳細の要約は、次のようなシナリオではあまり効果的でないことが判明しています。
このような理由から、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認したうえで、他のユーザーと共有することをお勧めします。 |
Atlassian Intelligence を使用して課題の詳細を要約する際にお客様のデータがどのように使用されるかについて疑問をお持ちのことでしょう。このセクションは、当社の Trust Center で入手できる情報を補足するものです。 処理されるデータの種類は以下のとおりです。
Atlassian Intelligence を使用して課題の詳細を要約する際には、お客様のデータについて次のような対策が適用されます。
|
AI による作業分解
AI Work Breakdown は、OpenAI によって開発された大規模な言語モデルを利用しています。 Atlassian Intelligence はこれらのモデルを使用して、製品内の自然言語を分析/生成します。 これらのモデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデルの能力、またはこのアプローチに関する詳細は、OpenAI の研究論文をご参照ください。 |
AI Work Breakdown は、お客様が作成した Jira 課題に基づいて子課題を提案するため、大規模な作業をより小さなタスクに分割するのに便利です。課題をコンテキストとして使用し、子課題の要約と説明の提案を生成します。 AI Work Breakdown は、次のようなシナリオで最適に機能します。
|
AI Work Breakdown を機能させるために使用されているモデルは、その構造上、不正確、不完全、または信頼できない動作をする可能性があることを念頭に置くことが重要です。 たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、合理的なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 AI Work Breakdown は、次のようなシナリオではあまり効果的でないことが判明しています。
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 こちらもぜひご検討ください。
|
お客様のデータが AI Work Breakdown でどのように使用されるか、疑問をお持ちのことでしょう。このセクションでは、アトラシアンの Trust Center で入手できる情報を補足します。 処理されるデータの種類は以下のとおりです。
AI Work Breakdown は、お客様のデータに対して次の指標を適用します。
|
AI を使ってアクションを促す
以下の Atlassian Intelligence の機能を選択すると、ユース ケースとデータの使用について把握することができます。
Atlassian Intelligence を使用した AI によるインシデントの作成は、OpenAI、Google、Anthropic によって開発された大規模言語モデル、およびオープンソースの大規模言語モデル (Llama シリーズ、Phi シリーズ、Mixtral シリーズなど) と他の機械学習モデルの組み合わせによって支えられています。これらの大規模言語モデルには、OpenAI の GPT シリーズのモデル、Google の Gemini シリーズのモデル、Anthropic の Claude シリーズのモデルなどがあります。 Atlassian Intelligence はこれらのモデルを使用して、製品内の自然言語を分析および生成します。 これらのモデルは入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデル、Google のモデル、Anthropic のモデルの機能に関する詳細をご確認ください。オープンソースの言語モデルの詳細については、Llama シリーズや Phi シリーズでご確認ください。 |
Jira Service Management で 1 つ以上のアラートまたはアラート グループをインシデントにエスカレーションする場合、AI による create incident (インシデントの作成) は Atlassian Intelligence を使って、インシデント作成プロセスの一環として確認できるように、すべてのコンテキスト情報をすばやく事前入力します。これにより、ユーザーはこれらのアラートやアラート グループから作成されたインシデントのコンテキストをすばやく理解し、インシデントにエスカレーションする際にアラートのタイトル、説明、優先度など、事前に入力された情報を確認、レビューすることができます。 AI による create incident (インシデントの作成) が最も効果的に機能するのは、次のようなシナリオだと考えています。
|
AI による create incident (インシデントの作成) を強化するために使用されているモデルは、その構造上、不正確だったり、不完全だったり、信頼できない動作をしたりする場合があることを念頭に置くことが重要です。 たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、合理的なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 AI による create incident (インシデントの作成) は、次のようなシナリオではあまり効果的でないことが判明しています。
これらのことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 最も有用な結果を得るには、Atlassian Intelligence に依頼する内容をできるだけ具体的にすることをお勧めします。 また、Atlassian Intelligence に質問する内容はできる限り具体的にしてください。 |
AI による create incident (インシデントの作成) がお客様のデータをどのように使用するかについて、疑問をお持ちのことでしょう。このセクションでは、FAQ ページで提供されている情報を補足します。 私たちは以下を処理します。
お客様のデータに関して、AI による create incident (インシデントの作成) では次の指標が適用されます。
|
インシデント事後レビューを作成する
Atlassian Intelligence による PIR (インシデント事後レビュー) の作成には、OpenAI が開発した大規模な言語モデルが使用されています。これらの大規模な言語モデルには、OpenAI の GPT シリーズのモデルが含まれます。Atlassian Intelligence はこれらのモデルを使用して、製品内の自然言語を分析/生成します。 これらのモデルは、ユーザーの入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、トレーニングを受けたデータに基づいて、最も可能性の高い次の単語やテキストを予測して回答が生成されます。 OpenAI のモデルの能力、またはこのアプローチについて詳しくは、OpenAI の研究論文をお読みください。 |
PIR はインシデント管理プロセスの中核であり、インシデント担当者とマネージャーが現在のインシデントから学びを得て、同様のインシデントの発生を防ぐためのインサイトを共有するのに役立ちます。Atlassian Intelligence は、Jira Service Management インスタンスや Slack などのチャット ツールでの関連するコンテキスト情報に基づき、PIR の説明を提案します。これによって、PIR のコンパイルという時間のかかりやすいタスクのスピードアップをサポートします。 AI による PIR の作成が最も効果的に機能するのは、次のようなシナリオでしょう。
|
PIR の作成に使用されるモデルは、その構造上、不正確、不完全、または信頼できない動作を示す場合があることを念頭に置くことが重要です。たとえば、受け取った回答において、基となっているコンテンツが正確に反映されていない場合や、合理的なようでも虚偽または不完全なコンテンツが含まれている場合もあります。 AI による PIR の作成は、次のようなシナリオにおいてあまり効果的ではないことが判明しています。
こうした理由から、Atlassian Intelligence を使用できる状況をご検討いただき、受け取った回答の質を確認した上で、他のユーザーと共有することをお勧めします。 こちらもぜひご検討ください。
|
AI によるインシデント事後レビューの作成において、お客様のデータがどのように使用されるか、疑問をお持ちのことでしょう。このセクションでは、FAQ ページで提供されている情報を補足します。 処理されるデータの種類は以下のとおりです。
AI による PIR の作成では、お客様のデータに対して次の指標が適用されます。
|
Atlassian Intelligence でプル リクエストの説明を生成する
Atlassian Intelligence によるプル リクエストの説明の生成は、OpenAI、Google、Anthropic によって開発された大規模言語モデル、およびオープンソースの大規模言語モデル (Llama シリーズ、Phi シリーズ、Mixtral シリーズなど) と他の機械学習モデルの組み合わせによって支えられています。これらの大規模言語モデルには、OpenAI の GPT シリーズのモデル、Google の Gemini シリーズのモデル、Anthropic の Claude シリーズのモデルなどがあります。 Atlassian Intelligence はこれらのモデルを使用して、製品内の自然言語およびコードを分析し、説明を生成します。 これらのモデルは、入力された内容に基づいて回答を生成し、本質的に確率的です。つまり、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデル、Google のモデル、Anthropic のモデルの機能に関する詳細をご確認ください。オープンソースの言語モデルの詳細については、Llama シリーズや Phi シリーズでご確認ください。 |
Atlassian Intelligence は、Bitbucket Cloud のコード レビュー エクスペリエンスでプル リクエストの説明やコメントを書いているときに、コンテンツの生成、変換、要約をサポートします。これには、次が含まれます。
アトラシアンでは、Atlassian Intelligence を使用した Bitbucket Cloud のプル リクエストの説明の生成は、次のようなシナリオで最も効果的だと考えています。
|
この機能に使用されているモデルは、その構造上、不正確だったり、不完全だったり、信頼できない動作をしたりする場合があることを念頭に置くことが重要です。 たとえば、受け取った回答に質問の内容が正確に反映されていなかったり、妥当なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 Atlassian Intelligence を使用した Bitbucket Cloud のプル リクエストの説明の生成は、次のようなシナリオではあまり効果的ではないことが判明しています。
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 こちらもぜひご検討ください。
|
Confluence で Atlassian Intelligence を利用して用語を定義する際に、お客様のデータがどのように使用されるかについて疑問をお持ちのことでしょう。このセクションでは、FAQ ページで提供されている情報を補足します。 私たちは以下を処理します。
Atlassian Intelligence を使用したプル リクエストの説明の生成では、データについて次のような対策を適用しています。
|
Atlassian Analytics で SQL クエリを生成する
Atlassian Analytics における Atlassian Intelligence を使用した SQL クエリの生成は、OpenAI、Google、Anthropic によって開発された大規模言語モデル、およびオープンソースの大規模言語モデル (Llama シリーズ、Phi シリーズ、Mixtral シリーズなど) と他の機械学習モデルの組み合わせによって支えられています。これらの大規模言語モデルには、OpenAI の GPT シリーズのモデル、Google の Gemini シリーズのモデル、Anthropic の Claude シリーズのモデルなどがあります。 Atlassian Intelligence はこれらのモデルを使用して自然言語を分析および理解し、それを Atlassian Analytics 内でSQL(構造化クエリ言語)に変換します。 これらのモデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習させたデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデル、Google のモデル、Anthropic のモデルの機能に関する詳細をご確認ください。オープンソースの言語モデルの詳細については、Llama シリーズや Phi シリーズでご確認ください。 |
独自の SQL クエリをゼロから作成するのではなく、Atlassian Intelligence に自然言語で質問して、SQL に変換させます。質問すると、Atlassian Intelligence は、選択したデータ・ソースの Atlassian Data Lake のスキーマを使用して、Atlassian Analytics ダッシュボードにグラフを作成するための SQL クエリを生成します。Data Lake のスキーマについて学ぶのにも役立ちます。 アトラシアンでは、Atlassian Intelligence を使用した SQL クエリの生成は、次のようなシナリオで最も効果的だと考えています。
|
Atlassian Intelligence を使用して SQL クエリを生成するために使用されるモデルの動作方法により、これらのモデルは不正確、不完全、または信頼性の低い方法で動作する場合があることに留意することが重要です。 たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、合理的なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 Atlassian Intelligence を使用した SQL クエリの生成は、次のようなシナリオではあまり役に立たないことが判明しました。
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 こちらもぜひご検討ください。
|
Atlassian Intelligence を利用して SQL クエリを生成する際に、お客様のデータがどのように使用されるかについて疑問をお持ちのことでしょう。このセクションでは、FAQ ページで提供されている情報を補足します。 私たちは以下を処理します。
データに関しては、Atlassian Intelligence を使用した SQL クエリの生成には、次のような対策を適用しています。
|
Confluence で回答を検索する
Atlassian Intelligence を使用した Confluence における回答の検索は、OpenAI、Google、Anthropic によって開発された大規模言語モデル、およびオープンソースの大規模言語モデル (Llama シリーズ、Phi シリーズ、Mixtral シリーズなど) と他の機械学習モデルの組み合わせによって支えられています。これらの大規模言語モデルには、OpenAI の GPT シリーズのモデル、Google の Gemini シリーズのモデル、Anthropic の Claude シリーズのモデルなどがあります。 Atlassian Intelligence はこれらのモデルを使用して、製品内の自然言語を分析および生成します。 これらのモデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習させたデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデル、Google のモデル、Anthropic のモデルの機能に関する詳細をご確認ください。オープンソースの言語モデルの詳細については、Llama シリーズや Phi シリーズでご確認ください。 |
ナレッジ・ベースが急速に拡大しすぎて、ユーザーが追いつけません。Atlassian Intelligence を使用して Confluence で回答を検索すると、作業を進めるために必要な重要な情報にすばやくアクセスできます。この機能は、必要な情報を簡単に見つけるのに役立ちます。ユーザーがチームメイトに尋ねるような質問を理解し、即座に回答します。Atlassian Intelligence を使用して Confluence で回答を検索する方法の詳細を見る Atlassian Intelligence を使用して Confluence で回答を検索するのは、詳細で完全かつ最新のコンテンツが Confluence サイトに大量に記載されている場合に最適だと私たちは考えています。 この機能は新しいコンテンツを生成するのではなく、(制限を守りながら) Confluence のページやブログを検索し、質問への回答を見つけます。Atlassian Intelligence は、Confluence の内容(具体的にはユーザーがアクセス権を持っている情報)のみに基づいて回答を生成します。 どのような質問をすればいいのかわからない場合下記はその例です。
|
Atlassian Intelligence を使用して Confluence で回答を検索する際にお客様のデータがどのように使用されるかについて疑問をお持ちのことでしょう。このセクションでは、FAQ ページで提供されている情報を補足します。 私たちは以下を処理します。
Atlassian Intelligence を使用して Confluence で回答を検索する際には、お客様のデータについて次のような対策が適用されます。
|
Jira で課題を検索する
Jira における Atlassian Intelligence を使用した課題の検索は、OpenAI、Google、Anthropic によって開発された大規模言語モデル、およびオープンソースの大規模言語モデル (Llama シリーズ、Phi シリーズ、Mixtral シリーズなど) と他の機械学習モデルの組み合わせによって支えられています。これらの大規模言語モデルには、OpenAI の GPT シリーズのモデル、Google の Gemini シリーズのモデル、Anthropic の Claude シリーズのモデルなどがあります。 Atlassian Intelligence はこれらのモデルを使用して自然言語を分析および理解し、それを Atlassian Analytics 内で JQL(Jira クエリ言語)に変換します。 これらのモデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習させたデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデル、Google のモデル、Anthropic のモデルの機能に関する詳細をご確認ください。オープンソースの言語モデルの詳細については、Llama シリーズや Phi シリーズでご確認ください。 |
複雑なクエリを作成するのではなく、日常の言葉で何をしたいかを Atlassian Intelligence に質問できるようになりました。Atlassian Intelligence を使用して課題を検索すると、プロンプトが JQL クエリに変換され、特定の課題をすばやく検索できます。 アトラシアンでは、Atlassian Intelligence を使用した課題の検索は、次のような場合に最も効果的だと考えています。
|
Atlassian Intelligence を使用して課題を検索するために使用されるモデルの仕組み上、これらのモデルは不正確、不完全、または信頼性の低い方法で動作する場合があることにご注意ください。 たとえば、質問の内容が受け取った回答に正確に反映されていなかったり、一見筋が通っているようでも虚偽または不完全な内容が含まれていたりする可能性があります。 Atlassian Intelligence を使用した課題の検索は、次のようなシナリオではあまり効果的でないことが判明しています。
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 また、Atlassian Intelligence に質問する内容はできる限り具体的にしてください。検索するフィールドや値を正確に含めます。 |
Atlassian Intelligence を使用して課題を検索する際にお客様のデータがどのように使用されるかについて疑問をお持ちのことでしょう。このセクションでは、FAQ ページで提供されている情報を補足します。 私たちは以下を処理します。
Atlassian Intelligence を使用して課題を検索する際には、お客様のデータについて次のような対策が適用されます。
|
AI による作業分解
AI Work Breakdown は、OpenAI によって開発された大規模な言語モデルを利用しています。 Atlassian Intelligence はこれらのモデルを使用して、製品内の自然言語を分析/生成します。 これらのモデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデルの能力、またはこのアプローチに関する詳細は、OpenAI の研究論文をご参照ください。 |
AI Work Breakdown は、お客様が作成した Jira 課題に基づいて子課題を提案するため、大規模な作業をより小さなタスクに分割するのに便利です。課題をコンテキストとして使用し、子課題の要約と説明の提案を生成します。 AI Work Breakdown は、次のようなシナリオで最適に機能します。
|
AI Work Breakdown を機能させるために使用されているモデルは、その構造上、不正確、不完全、または信頼できない動作をする可能性があることを念頭に置くことが重要です。 たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、合理的なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 AI Work Breakdown は、次のようなシナリオではあまり効果的でないことが判明しています。
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 こちらもぜひご検討ください。
|
お客様のデータが AI Work Breakdown でどのように使用されるか、疑問をお持ちのことでしょう。このセクションでは、アトラシアンの Trust Center で入手できる情報を補足します。 処理されるデータの種類は以下のとおりです。
AI Work Breakdown は、お客様のデータに対して次の指標を適用します。
|
ナレッジ ベースの「提案されたトピック」は、OpenAI と Anthropic によって開発された大規模言語モデル、および Transformer をベースにしたオープン ソースの言語モデルとその他の機械学習モデルの組み合わせによって支えられています。これらの大規模言語モデルには、OpenAI の GPT シリーズのモデルと Anthropic の Claude シリーズのモデルが含まれます。 Atlassian Intelligence はこれらのモデルを使用して、製品内で自然言語を分析/生成します。オープン ソースのエンコーダー モデルは、テキスト形式の入力を数値形式 (埋め込み) に変換し、その結果が、入力に含まれるトピックの識別と形成に利用されます。 これらの大規模言語モデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデルと、Anthropic のモデルの機能に関する詳細をご確認ください。オープン ソースの言語モデルの詳細については、Multi-QA-miniLM や E5-Multilingual の情報をご覧ください。 |
この機能は、管理者とエージェントが、プロジェクトで受け取ったサービス リクエストを分析し、ナレッジ ベースのギャップを理解するのに役立ちます。この機能を使用すると、ヘルプ依頼者がリクエストを登録しているが既存のナレッジが存在しないトピックを、過去 30 日間のデータに基づいて明確に把握できます。トピックの提案により、プロジェクト管理者とエージェントは、ナレッジによってどれだけのリクエストを回避できるか、少なくとも解決できるかを可視化できます。 ナレッジ記事の数を増やすことは、仮想サービス エージェントの AI による回答など、Jira Service Management の他の機能のパフォーマンスに影響するとアトラシアンは考えています。管理者またはエージェントが、提案されたトピックに関する記事を作成することは、AI による回答を使用した場合のリクエスト解決率を向上させるのにも役立ちます。 アトラシアンでは、提案されたトピックは次のようなシナリオで最も効果的だと考えています。
|
ナレッジ ベースの「提案されたトピック」のために使用されているモデルは、その構造上、不正確だったり、不完全だったり、信頼できない動作をしたりする場合があることを念頭に置くことが重要です。 たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、合理的なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 ナレッジ ベースの「提案されたトピック」は、次のようなシナリオではあまり効果的でないことが判明しています。
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 こちらもぜひご検討ください。
|
提案されたトピックでお客様のデータがどのように使用されるかについて、ご不明な点があると思います。このセクションは、当社の Trust Center で入手できる情報を補足するものです。 処理されるデータの種類は以下のとおりです。
データについては、ナレッジ ベースの「提案されたトピック」では次の指標が適用されます。 ナレッジ ベースの「提案されたトピック」:
|
データから即座にインサイトを収集
以下の Atlassian Intelligence の機能を選択すると、ユース ケースとデータの使用について把握することができます。
チャート インサイト
chart insights は、OpenAI、Google、Anthropic によって開発された大規模言語モデル、およびオープンソースの大規模言語モデル (Llama シリーズ、Phi シリーズ、Mixtral シリーズなど) と他の機械学習モデルの組み合わせによって支えられています。これらの大規模言語モデルには、OpenAI の GPT シリーズのモデル、Google の Gemini シリーズのモデル、Anthropic の Claude シリーズのモデルなどがあります。 Atlassian Intelligence はこれらのモデルを使用して、製品内の自然言語を分析および生成します。 これらのモデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデル、Google のモデル、Anthropic のモデルの機能に関する詳細をご確認ください。オープンソースの言語モデルの詳細については、Llama シリーズや Phi シリーズでご確認ください。 |
チャート インサイトでは、Atlassian Intelligence を使用して、Atlassian Analytics のあらゆるグラフのデータを簡単に理解できるようにします。そのために、ダッシュボードのタイトル、グラフのタイトル、グラフのデータ (列ヘッダーと行の値を含む) を使用して、グラフとそのデータの自然言語による要約を生成します。また、傾向や異常を特定して、そのグラフに特定のインサイトを提供することも目的としています。 アトラシアンでは、チャート インサイトは次のようなシナリオで最も効果的だと考えています。
棒グラフ、折れ線グラフ、および棒線グラフは通常、傾向、日付、その他多数のデータ行が含まれているため、この機能が最も適しています。 |
チャート インサイト強化のために使用されているモデルは、その構造上、不正確だったり、不完全だったり、信頼できない動作をしたりする場合があることを念頭に置くことが重要です。 たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、合理的なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 チャート インサイトは、次のようなシナリオではあまり効果的でないことが判明しています。
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 こちらもぜひご検討ください。
|
チャート インサイトのデータの扱いについて、さまざまな疑問が生じることでしょう。このセクションでは、FAQ ページで提供されている情報を補足します。 私たちは以下を処理します。
データについては、チャート インサイトでは次の指標が適用されます。
|
Jira Service Management でリクエスト・タイプを提案する
Atlassian Intelligence を使用したリクエスト タイプの提案は、OpenAI、Google、Anthropic によって開発された大規模言語モデル、およびオープンソースの大規模言語モデル (Llama シリーズ、Phi シリーズ、Mixtral シリーズなど) と他の機械学習モデルの組み合わせによって支えられています。これらの大規模言語モデルには、OpenAI の GPT シリーズのモデル、Google の Gemini シリーズのモデル、Anthropic の Claude シリーズのモデルなどがあります。 Atlassian Intelligence はこれらのモデルを使用して自然言語入力を分析し、Jira Service Management 内でリクエスト・タイプの名前と説明に関する推奨事項を生成します。 これらのモデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習させたデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデル、Google のモデル、Anthropic のモデルの機能に関する詳細をご確認ください。オープンソースの言語モデルの詳細については、Llama シリーズや Phi シリーズでご確認ください。 |
Atlassian Intelligence からの候補を表示することで、プロジェクト用にどのようなリクエスト・タイプを作成する必要があるかを考える時間を削減できます。自分の作業とチームが通常管理しているものを簡単に説明するだけで、どのようなタイプのリクエストを作成できるかがわかります。Atlassian Intelligence によって生成された提案の 1 つを選択して、リクエスト・タイプを作成します。Atlassian Intelligence を使用してリクエスト・タイプを提案する方法の詳細をご覧ください。 アトラシアンでは、Atlassian Intelligence を使用したリクエスト・タイプの提案は、次のようなシナリオで最も効果的だと考えています。
|
Atlassian Intelligence を使用してリクエスト・タイプを提案するために使用されるモデルの動作方法により、これらのモデルは不正確、不完全、または信頼性の低い方法で動作する場合があることに留意することが重要です。 たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、合理的なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 Atlassian Intelligence を使用したリクエスト・タイプの提案は、次のようなシナリオではあまり効果的でないことが判明しました。
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 こちらもぜひご検討ください。
|
リクエストタイプの提案に Atlassian Intelligence を使用する際にお客様のデータがどのように使用されるかについて疑問をお持ちのことでしょう。このセクションでは、FAQ ページで提供されている情報を補足します。 私たちは以下を処理します。
Atlassian Intelligence を使用してリクエスト・タイプを提案する際には、お客様のデータについて次のような対策が適用されます。
|
Jira Service Management でリクエスト・タイプを提案する
重点分野エグゼクティブ サマリーは、OpenAI によって開発された大規模な言語モデルを利用しています。たとえば、こちらで説明されている OpenAI モデルが含まれています。 Atlassian Intelligence はこれらのモデルを使用して、製品内の自然言語を分析/生成します。 これらのモデルは、入力に基づいて回答を生成しますが、その本質は確率論に基づいています。つまり、学習したデータに基づいて、次にくる可能性が最も高い単語やテキストを予測して回答が生成されます。 OpenAI のモデルの能力、またはこのアプローチについて詳しくは、OpenAI の研究論文をお読みください。 |
Atlassian Intelligence を活用した重点分野エグゼクティブ サマリーは、戦略的な優先度に関する迅速かつ実用的な洞察をユーザーに提供するように設計されています。この機能は、戦略や優先度に関する進捗を明確に把握して、注意を払う必要がある分野を特定し、目標、作業、チームに影響を与える可能性のあるリスクを浮き彫りにします。 エグゼクティブ リーダーやビジネス リーダーにとっての主なメリット:
|
重点分野エグゼクティブ サマリーに使用されているモデルは、その構造上、不正確だったり、不完全だったり、信頼できない動作をしたりする場合があることを念頭に置くことが重要です。 たとえば、受け取った回答には基になっている内容が正確に反映されていなかったり、合理的なようでも虚偽または不完全な内容が含まれていたりする可能性があります。 重点分野の要約は、次のようなシナリオではあまり効果的でないことが判明しています。
このことから、Atlassian Intelligence を使用する状況をご検討いただき、受け取った回答の質を確認した上で、他の人と共有することをお勧めします。 |
重点分野エグゼクティブ サマリーでお客様のデータがどのように使用されるのか、疑問をお持ちのことでしょう。このセクションでは、Atlassian Trust Center で入手できる情報を補足します。 処理されるデータの種類は以下のとおりです。
重点分野エグゼクティブ サマリーは、お客様のデータに関して次の基準を適用します。
|