優れたデータ分析プログラムは優れたDataOpsに依存しています
DataOpsプロセスが十分に理解されていない場合、データと分析結果に不整合が生じる可能性があります。
強力なDataOpsプロセスの必要性は、しばしば過小評価されており、データ分析プロジェクトに適用すると誤解されます。簡単に言えば、DataOpsはデータのDevOps(ツールとIT運用を組み合わせた一連のプラクティス)であり、データを運用し、展開や変更を行うたびに注意する必要があるというコアアイデアに対処するプロセスです。すでに配置されているデータと、推進されている変更の潜在的な影響について説明します。
基盤となるDataOpsプロセスに適切な注意が払われていない状況での課題は、多くの問題が発生する可能性があり、最終的には深刻な影響をもたらす可能性があることです。
関連項目: DataOps:データを実用的な洞察に変える方法
本番環境で何かを壊すような変更をプッシュします
これは、すべてのデータチームにとって最悪の悪夢です。ただし、さらに悪いことに、1)どのような変更が導入されたか、2)問題をどのように削除するかを知るプロセスがありません。展開されている変更についての見通しがない場合は、新しく導入された問題に迅速に対処する手段がありません。これは開発上の問題ですが、ビジネスオーディエンスを失い始める可能性があるという点で、すぐにビジネス上の問題になります。顧客ベースがシステムと基盤となるプロセスを信頼していない場合(そして、データプログラム全体の信頼性が疑問視され始めている場合)、データプログラム全体の信頼性が疑問視されています。明確で、テストされ、文書化されたプロセスによって解決できる可能性があります。
機能強化のための配信までのスピード
しっかりとしたプロセスが整っておらず、正確でないデータが表示されている場合、問題を修正して拡張機能を提供するための時間は非常に長くなります。結果?悪い(または不完全な)データをより長く見ることになります。展開プロセス自体は、データプログラム全体の一部と見なす必要があります。ゼロコード変更を実装して、展開プロセスをテストするだけです。プロセス自体は正常に機能していますか?それとも、そのプロセスは実際に本番環境に間違ったものを導入しているのでしょうか?
修正プログラムを実行する機能を削除しました
問題が発生し、それは避けられません。開発チームは、すぐに参加してホットフィックスを実行し、当面の問題に対処できる必要があります。ただし、問題は、DataOpsプロセスを導入していない場合、次の展開で同じバグを再導入するリスクがあることです。
関連項目: 市場投入までの時間はすべてです–DataOpsで実現する
ヒューマンエラーとコスト
どんなに用心深い人でも、間違いを犯します。 DevOpsプロセスは、データ分析プログラムから可能な限り多くの人的エラーを取り除くように構築されています。人為的エラーが少なければ少ないほど、データとプログラムはより正確になります。人は高価であり、プロセスはそのコストを削減するのに役立ちます。展開に関与する人が多ければ多いほど、そのプロセスはより高価になります。データ分析プログラムの手動の側面を削除すると、より優れた、より安価な、より高速なプログラムが得られます。
DataOpsプロセスの現在の状態がわからない場合は、チームにこれらの質問をしてください。答えはあなたが知る必要があるすべてをあなたに教えてくれます。
- データの変更を本番環境に移行するための現在のプロセスは何ですか?一貫性があり、十分に文書化されていますか?
- 作業が行われている孤立した開発環境とテスト環境はありますか?
- 変更を加えるための本番環境への管理者アクセス権はありますか?人々が自分の変更を本番環境にプッシュするのを防ぐためのプロセスはありますか(つまり、開発と展開の間のガバナンスは何ですか)?
DataOpsプロセスが十分に理解されていない場合、データの不整合につながる可能性があります。データに矛盾があると、顧客の心に情報の品質について疑問が生じ、信頼できる情報源として顧客が見ているものを本当に信頼できないことになります。より良いプロセスを構築すれば、より速く進み、顧客の目から見て信頼できる状態を維持でき、重要なビジネス上の意思決定を行うために信頼できる唯一の真実を構築したことがわかります。
>モノのインターネットテクノロジー