TCO/ROIというモデルが叫ばれるようになってから、すでにかなりの年月が経つ。だがその考え方は、日本の経営者にきちんと理解されているのだろうか。TCOやROIの考え方はいまどのように構成され、顧客にどのようなサービスとして提供されているのか。そうした考え方は、日本企業の間で根付いているのか。そしてもし何らかの問題があるとすれば、それは今後どのように解消されていくのか。そうした点を検証していきたい。
■ROI/TCOとは何か
企業全体のROIは、分子の利益は「経常利益+支払利息」、分母にあたる投資は「借入金+社債発行額+株主資本」で算出する。計算すると、通常の企業であれば10~20%程度になることが多い。そしてこの逆数をとれば、投下した資金をどの程度の期間で回収できるかがわかる。たとえばROIが20%だったら、逆数は5――つまり、5年で投資を回収できるという計算になるわけだ。だが情報システムだけに限ってROIを算出しようとすると、実は非常に難しい。情報システムそのものは利益を生み出さないからだ。
一方、TCOの構成要素は4つある。
①資産コスト(ハードウエアとソフトウエアの購入費など)
②技術サポートコスト(利用者の教育や質問に答えるヘルプデスクなどの費用)
③管理コスト(資産管理やセキュリティ管理などの費用)
④エンドユーザーコスト(利用者が同僚に操作を教えたり、業務に関係ない作業をするための費用)
TCOは実際にはどのように測定され、どのようにして最適化が行われるのだろうか。TCOの診断ツールとしては、国内ではガートナージャパンが提供している「ITコスト効率診断サービス」がよく知られている。仕組みはこうだ。
顧客が用意するデータは、システムのコストそのものだけではなく、コストに影響を与える可能性のあるものすべてを用意する。たとえばデータセンターであれば、データセンターの維持管理に必要なコストだけでなく、ユーザーがデータセンターに求めている要件やそれに対するサービスレベルの実績もコストに影響を与える要因として定量化する。ガートナー側の作業は、まずこれらのデータがきちんとそろっているかどうかを確認するところから始まるのである。たとえばサーバが100台も設置してあるのに、スタッフが1人しか配置されていなかったとすれば、どこかでコスト要因が抜け落ちていると考えられる。よほどサービスレベルが低いか、あるいはアウトソースしているのかもしれない。その場合、どの程度の可用性が保たれているのか。あるいはアウトソースにどれだけのコストをかけているのかといった部分が、データとして加えられるのである。こうしてデータをすべて集めて確定し、ベンチマーキングを開始する。
ベンチマークは同社に蓄積された事例データベースをもとに行われる。たとえばA社とB社という同じ業種の2企業があったとしても、システム構成が異なっていれば、比較しても意味はない。このため、同じような業種でシステムの規模や複雑性、またミッションクリティカルな運用をしているかどうかといったさまざまな面を比べ、同じような運用形態を取っているところ(これを事例平均と呼ぶ)を事例データベースから検索するのだという。データベースには、ガートナーグループが過去18カ月の間に、世界1700社以上から集めた1万件以上のデータが蓄積されている。
ベンチマークの結果、さまざまなグラフが出力される。たとえばスタッフひとりあたりのコストはどれだけか。サーバ1台あたりのコストはどうか。データセンターに入っているサーバのディスクポリシーはどうなっていて、どれだけの要員が張り付いているのか。システムをさまざまな側面から診断し、コストの効率性を浮き彫りにしていくのである。
ガートナージャパンのメジャメントマネージャー、倉田幸信氏が説明する。「この診断は、ことの善し悪しを判断しようというものではありません。たとえば『コストが低い』という診断が出たとしても、それはサービスレベルが低いからコストが低くすんでいるだけかもしれない。最初に顧客からサービスレベルのデータもいただいているので、サービスレベルとコストのかねあいも考えながら、改善ポイントを測っていくのです」
サービスレベルというのはたとえば、24時間365日運用をしなければならないという要件がシステムにあったとして、それに対してどの程度の可用性を確保できたのかということを数値化したものだ。ガートナーではサービスレベルを「ディスク要素」「サービスサポート」「複雑性」という3つにカテゴライズし、さらにそれぞれの下に細かく項目を設けて質問票を作っており、顧客の側がそれらの質問に回答することで数値化を行える仕組みをとっている。
最終的な改善ポイントについては、ガートナーのアナリストがこれらの要素を踏まえて提案していくことになる。たとえばこんな風だ。「ディスク容量の大きさに対してあまり要員が配置されていないのは、サービスレベルが落ちている原因になっている可能性があります」「アプリケーション開発でスタッフの生産性が落ちているのは、要件定義でユーザーがうまく参画できていないからでは」
前出の倉田氏は、「コスト最適化の際には、コストは上がる場合も下がる場合もある。決して削減するだけではなく、コストにメリハリをつけることが重要なのです。どこにより大きなコストをかけ、どこを削減していくべきなのかをきちんと定量化して考えようというのがこのサービスの意味です」と話す。ITコスト診断サービスによってコストの全体像がくっきりと浮かび上がれば、どこをどう削減し、どこを増やしてコストをうまく振り分ければいいのかがおのずとわかってくるということなのだろう。
倉田氏の説明でもわかる通り、TCOは決してコスト削減のための概念ではない。あくまでも「最適化」なのである。
こうした「ROI/TCO診断」は、どのベンダーも多かれ少なかれ導入しつつある。新サービスをソリューションプロバイダやベンダーなどが提供する際、TCOを前面に打ち出すケースも多い。
■TCO/ROIに対する誤解
冒頭で、「情報システムそのものは利益を生み出さない」と書いた。この「利益を直接的に生み出さない」というITの難点が、現在に至るまでにさまざまな誤解を生む要因となっている。たとえば1990年代、新手の企業向けIT関連サービスが次々に登場したころ、ROIは一顧だにされずに「導入するのが目的」といった非生産的な考え方が当たり前のようにはびこってしまったのも、遠因はそのあたりにあるのだろう。新しい製品が次々と登場して「これを導入しなければインターネット時代は勝ち残れない」などと煽られ、企業は先を争って導入した。しかし多くは巨額の導入費ほどの成果は現れなかった。さらに長引く大不況が、IT投資に冷や水を浴びせた。特に2000年問題が完了し、ネットバブルが崩壊した2000年春以降、投資は相当に圧縮されている。90年代に導入されたITの償却費が、企業の重い負担になりつつあるという背景も忘れてはならない。償却費は年々大きくなっている。
先に挙げたガートナージャパンのような診断サービス登場してきた背景には、90年代のIT導入に対する企業側の苦い教訓があるのだろう。
だが相変わらず、企業経営者の誤解は解けていないようにも見える。
今度は、投資を減らせばTCOが削減されるという誤解が蔓延してしまっているのだ。戦略的投資とROIが切り分けられておらず、TCO/ROIモデルが単なるコストカットの手段となってしまっているのである。
情報システム導入の目的はここ数年変化しつつある。システム投資の目的は業務効率の向上による「省力化」から,CRMやSFA(営業支援)を使って社員一人ひとりの生産性を高める方向へとシフトしつつある。だがこの転換は意外とうまくいっていないようにも見える。TCO/ROIの考え方が普及しつつあるのにもかかわらず、成果が上がっていない企業が多いのだ。なんだかよくわからないまま、ずるずるとTCO=リストラみたいな感じになってしまっているからだろうか。
こうした土壌を生み出した背景には、ITゼネコンの問題もある。90年代には発注側にITの知識が乏しく、ベンダーの言われるがままに高価なシステムを構築する企業が少なくなかったからだ。そこで情報システムを経営基盤に位置づけ直す作業が2000年以降進んでいる。経営者に対し、高いITリテラシーが求められるようになってきているのである。
もっとも、このあたりの情けない実態は、実はアメリカでもあまり変わらないようだ。米CSC(Computer Sciences)と上級財務役員のための団体FEI(Financial Executives International)がITプロジェクトのROI(投資回収率)について調査した結果によると、IT戦略とビジネス戦略の連携によってROIを向上できるにも関わらず、戦略的なITプランを持たない企業が60%に達したという。
いずれにせよ、「何でもいいから情報システムの導入を」という90年代末の幻想から、「とにかくコストを削減すればいい」という2000年代への逆幻想へと突っ走っているようにも見える。実際、2000年以降、XMLやアプリケーションサーバ、Webサービスなど新テクノロジを使った製品が次々と投入されているのにもかかわらず、企業への導入はなかなか進んでいないのが現状だ。
■TCO/ROIブームの影響
TCO/ROIのモデルが出現したことで、日本の産業界にさまざまな影響を引き起こした。
①過剰な“リナックス信仰”の出現
21世紀に入って高まった「TCO信仰」は、日本の産業界にかなりいびつな影響を与えている。その最も端的な例は、オープンソースソフトウエア(OSS)に対する誤解だろう。
たとえば朝日新聞は2002年11月、「電子政府、脱ウインドウズへ 基本ソフトを公開型で導入の動き」という記事を大々的に報じた。記事本文には、こうある。
「オープンソースOSでは、設計図にあたるソースコードが無料で公開されている。リナックスが代表例。利用者はライセンス料を支払う必要がない。プログラムの変更も可能で、トラブルに対応するためのシステム管理がしやすいとされ、世界的に導入の動きが出ている」
また翌2003年2月の読売新聞社説には、「プログラムの原文(ソースコード)を公開し、改変も自由な無償のパソコン基本ソフト『リナックス』が、日本でも広がり始めている」と書かれている。
総務省が電子政府計画で導入を検討しているという“お墨付き”に加え、全国紙が「無償」を強調したことから、突如としてLinuxブームが広がった。「無料のOSであれば、コスト削減になる」「Linuxにスイッチすれば、TCOが劇的に削減できる」という風潮が一気に高まってしまったのである。LinuxとWindowsのどちらが優れているのかという議論はさておき、「Linuxが無償である」というのはあまりにひどい誤解だったと言えるだろう。
マイクロソフトがこの誤解の蔓延に反発したのは当然だった。マイクロソフトビジネスマーケティング戦略本部市場戦略グループシニアマネージャの北川裕康氏は、「全体の中のOSのライセンスコストは、20%程度にすぎない。それ以外の80%をどう下げるかの方が、実は重要だ。実際の業務システムはカーネルだけで動くわけではなく、OSの他の機能やアプリケーション、ツールなどが組み合わされて初めてひとつのまとまたビジネスソリューションとして機能するようになる。こうした製品群はLinuxであっても当然有料になる」と話す。マイクロソフトによれば、WindowsとLinuxのTCOをワークロード分野ごとに分けて比較したところ、全体的なコストについてWindowsの方が11~22%低コストであるというIDCの調査結果もあるという。
北川氏は、「業務システムの重要性は、可用性の要求や情報保護の重要性の増大などによって、ますます大きくなっている。そんな中でコスト低減を求めるあまり、逆にトラブルを引き起こしてしまう結果になれば、それはTCO最適化の観点からは間違っている。システムの選択には、これまでの実績や信頼性をきちんと評価すべきだ」と話すのである。
①PC買い換えサイクルの崩壊
これも真っ当なTCOの考え方というよりは、極限まで進んだコストカットのもたらした影響といえるかもしれない。90年代まで、PCは3年ごとにリプレースするのがもっとも効果的であると考えられていた。だが世紀の変わり目とともに企業のコスト意識が過剰に進んだ結果、PCのリプレースサイクルが急速に鈍化した。
直接的な引き金となったのは、2000年問題だろう。1999年に各社ともY2K対策の一環として一斉に社内のPCをリプレースし、OSの主流もWindows95からWindows98、NT4.0へとバージョンアップした。この「2000年バブル」によって買い換え需要が一巡してしまい、その後ネットバブルの崩壊などでIT業界の景気が冷え込んだこともあり、PCを買い控える風潮が広まったのである。
さらに最近のPCの高性能化にソフトウエアの進化が追いついていない現状もある。たとえば99年ごろに主流だったPentium III 500MHzのマシンは、Webとメール、オフィススィートを使う程度であれば今でも十分現役として使える。最新のマシンを必要とするキラーアプリが登場していないこともあるだろう。
そんな中で、インテルやマイクロソフトは「PCの買い控えは結果的にはコストを増大してしまう」というキャンペーンを転回している。
インテルの指摘する問題は、次のようなものだ。
(A)PC管理のコスト
古いPCの管理には、余分なコストが必要になる。実際、米調査会社のMeta Groupの統計数字によれば、PCの買い換え時期を3年から4年に延長すると、メンテナンスやサポートのコストが増大し、従業員1人あたりのコスト増は年間350ドルにも上るという。
計算は簡単だ。3年置きにPCを買い換えている場合、社内には4年前のタイプのPCは存在しない。だが少し買い控えて3年経過したPCの半数のみをリプレースし、残りの半数は4年間使うというサイクルに変更すると、翌年には全体の3割のPCが“4年落ちマシン”になり、そして2年後には全体の半分が4年落ちマシンになってしまう。
古いPCを使い続けると、さまざまな問題も生じてくるとインテルは指摘する。たとえば戦略的な最新のアプリケーションの導入ができなかったり、システムの故障度合いも高くなる。使い勝手の悪さが従業員の生産性を低下させるという面もあるだろう。
さらに重要なのは、OSのサポートが終了してしまう可能性があることだ。たとえばWindows 95とWindows NT 3.5のサポートは2002年から2003年にかけて相次いで終了してしまった。今後、Windows NT 4.0やWindows 98、Windows Meもサポート終了がタイムテーブルに乗っている。サポートの終了した古いOSにはセキュリティパッチは配布されず、不正アクセスやウイルス対策の面からも不安は大きい。
しかしこの時期になって急に古いPCを一挙に入れ替えようとすると、初期導入費用やIT担当者のコスト、ヘルプデスクの利用の爆発的増加など、莫大なコストが発生してしまう。
(B)複数のプラットフォームを管理する煩雑さ
PCのリプレースサイクルを延長すると、同時期に存在するプラットフォームが増える結果になる。たとえば今まで3年おきに買い換え、同時に4種類のOSが社内に存在していたとする。だが買い換えのサイクルを4年ごとに変更すると、同時期に社内に5種類のプラットフォームが存在することになってしまう。管理の手間は増え、当然コストも増大する。
(C)バックグラウンドで動くタスクの増大
1990年代末はオフィスのPCで使われているソフトはWebブラウザとオフィススィート程度だった。バックグラウンドで走らせているプログラムもでアンチウイルスや圧縮、システム管理、バックアップ、Javaアプレット程度だった。だがさまざまなサービスやアプリケーションが利用される頻度が高まるようになり、オフィスのPCでバックグラウンドで動かされるタスクはどんどん増えている。たとえば認証や暗号化、同期、コンテンツ購読サービス、エージェント、ビジネス自動化サービスなどがそうだ。フォアグラウンドでもグループウェアやCRM、SCM、ERPなどの重いアプリケーションが同時に実行されるケースが増えてきている。ワークロードの増大に対処するには、古いマシンでは荷が重い。
以上がインテルの説明である。同社は実際に自社内でもこの分析に基づいたTCO最適化実施。OSを2世代に集約するなどして管理コストを減らし、またPCベンダーを1社に減らすことによるサポートコストの削減も実現してこの5年間でTCOを半分にまで減らすことができたという。
同じようなキャンペーンは、マイクロソフトも行っている。同社は2002年秋、企業がOSをWindows XPにリプレースすれば、米国全体で数十億ドルものコスト削減効果があるとする調査結果をまとめている。調査結果のもとになるデータは企業マーケットでWindows XPとWindows 95、98を比較したベアリングポイントの統計数値で、Windows XP Professionaの導入によって200%ものROI(投資対効果)が期待できるという数字が掲げられた。3年間で累算すると、デスクトップでは1年間に187ドル、ノートPCでは387ドルものコスト削減になるという。
とはいえ、本当にパソコンのリプレースはTCO削減になるのか?という声は相変わらず業界内にくすぶっている。たとえば一例を挙げてみれば、米Googleのエリック・シュミットCEOは昨年、Red Herringのインタビューで次のように語っている。「64bitプロセッサのItaniumのような高性能なCPUをGoogleは購入するつもりはない。より安価で小さなプロセッサを大量に購入して構築する方が、より現実的な方法だ」
これは安価な低スペックPCを分散処理した方が、最新のマシンを導入するよりも効率がいいことを述べたものだが、ニュースサイトAlwaysOnのインタビューでも、こんなふうに答えている。「IT産業が30年以上もムーアの法則に基づいた上昇カーブを維持し続けるのは、きわめて困難だ。そしていまこの時点で、次世代のキラーアプリは存在していない。みんな2000年問題の直前にマシンを買い換えて、必要なものは全部買い換えを終えてしまっているからね」。
またインテルやマイクロソフトの考え方は、OSがきちんと定期的にアップグレードしていくことによって初めて成り立つのではないかという指摘もある。実際、Windows XPは2001年11月に発売されてからすでに2年半が経過し、次期バージョン(コード名Longhorn)の発売予定時期は2006年前半にまでずれ込んでいる。XPの寿命はこれまでのどのWindowsよりも長く、4年以上になる見通しだ。そうであれば4年間リプレースしなくとも、少なくとも複数OSが併存することにはならないという計算もできてしまう。
③古いIT製品の再構築
古いサービスのほこりを払い、ROIモデルを導入して“新装開店”する動きも現れてきている。
たとえばナレッジマネジメント(KM)を例に見てみよう。「IT革命」という言葉が大ブームとなった1990年代末、「これからはKMだ」という言葉が声高に叫ばれ、多くの企業で導入が進んだ。ベンダーからは「社員の間で効果的な情報共有を行う」「これまで水面下に隠れていた暗黙知を引き出す」などと説明されたが、あきらかな効果をあげた企業は多くなく、徐々に廃れていった。
KMのソリューションである「REALCOM KnowledgeMarket」を提供しているリアルコム取締役の吉田健一氏は、「昔はKMというのはあくまで暗黙知を表出化させるツールであり、ROIやTCOとは別物だと考えられていた。しかし2~3年前からそうした認識は徐々に変わり、KMの分野でもきちんとROIを取り入れるべきだと考えられるようになってきている」と話す。実際にそうした企業がROIの視点を持ってKMを導入してみると、「やってみたら、KMが目的ではなく実は営業改革が必要だったんだ、生産性向上の目的のためだったんだということが再認識されるケースが多い」(吉田氏)という。言い方を変えれば、ROIがきちんと計れなければITのツールも導入されない時代になったということなのだろう。「企業情報ポータルを導入したいが、ROIが測定できない」「KMを推進したいが、目的が定まらない」「KMを通じてオフィスワーカーの生産性向上を図りたいが、やり方がわからない」――そんな意見が多いというのである。90年代末のネットバブルの狂騒を経て、2001年からのIT不況でコストカットの荒波をくぐり抜けた結果、ようやく企業ITがたどりついた真っ当な結論というところだろうか。
そんな中でリアルコムは2003年9月から、「情報共有ROIコンサルティング」というサービスを提供開始している。同社のプレスリリースによれば、「30社以上の成功事例に基づき、『効果を生み出す』ためのナレッジマネジメント導入の方法論を体系化したコンサルティング・パッケージ」という。主な内容は、①対象組織の選定、②目的の明確化、③課題の洗い出し、④改善目標の設定、⑤ROIの計測で、プロジェクト期間は約2ヶ月、価格は300万円からとなっている。
具体的にはどのようにしてROI計測を行うのだろうか。リアルコムが手がけた、ある大手自動車メーカーの事例を見てみよう。
同社で行われたのは、間接部門の生産性向上プロジェクト。ことの発端は、ある時社内調査を実施してみた結果、間接スタッフの全労働時間の57%が資料作成や情報の検索に費やされていることが発覚したからだった。情報の管理や共有を整備すれば、この生産性が向上できるのではないかと考えられたのである。
リアルコムのROI測定は、DMAICというサイクルに従って行われる。業務改革手法のシックスシグマで使われている概念である。次のようなものだ。
ステップ1 Define(定義) 誰の何の課題に対して情報共有を行うかを定義する。
ステップ2 Measure(測定) その課題の現状値を測定する。
ステップ3 Analyze(分析) 現状値を改善するにはどのような情報共有を行えばいいか、改善後どのような効果が想定できるか分析する。
ステップ4 Improve(改善) 実際に情報共有における改善を行い、効果を実証する。
ステップ5 Control(拡大) 成果を拡大すべく、対象範囲やテーマを拡大する。
最初に掲げられた「間接スタッフの生産性向上を行う」というのは、DMAICサイクルの中にDefine(定義)にあたる。次いで行われるのは、Measure(測定)だ。プロジェクトは社内の全部署にアンケートを実施し、KMを導入することによる「改善機会の大きさ」と「実現の容易性」を調べた。前者はKMを導入することでどの程度生産性が向上するかという質問であり、後者はKMを導入するのが難しいかどうかという問いになる。たとえば工場などは改善機会も実現容易性も低い。開発部などは導入は簡単だが、パソコンに向かっている時間がもともと長く、改善機会はそれほど大きくはならない。また営業部などは、導入できれば効果が大きいかもしれないが、外部に出ている社員が多いため、間接部門と比べて導入は簡単ではない。そうして各部門ごとにばらつきを調べ、どの部署が改善機会、実現容易性ともに大きいのかを洗い出したのである。その結果、法務部や財務部、企画部、総務部などの部署が両方とも数値が大きく、KMの導入効果が見込まれることがわかった。そこでこれらの部門をパイロット候補として、KMを試験的に導入することになった。
次に、これらの部門のスタッフたちがどのようにして情報を使っているのかを調査した。まずワードやパワーポイントなど情報資産と呼べるファイルが社内にどの程度の数があるのを調べた。その数は何と2,336万にも上った。しかしこの中で全社で活用できるものがどれくらいあるかを調べてみたところ、わずか0.2%(45,466ファイル)という数字になったという。また部門内で活用できるファイル数は約430万、18.43%だった。そして残りの約1901万個、割合にして81.37%のファイルは、現時点で勝つよう不可能だと言うことがわかった。
1個のファイルを作るのに費やされる時間に時間あたり人件費を積算すると、ファイル作成のコストが計算できる。この数字を積み上げると、2,336万ファイルを作成するのに使われたコストは1,000億円にも達していた。だがこのうちに800億円以上は、再活用不可能なファイルを作成するために使われていたことになる。
一方で、間接スタッフの業務の面からも分析が行われた。1日の労働時間を見てみると、間接スタッフの労働時間は資料作成が36%、情報収集が18%、報告・連絡・相談が28%、その他18%という平均値となった。
この数値と、先に述べた情報資産の活用度合やスタッフからのアンケート結果などを総合すれば、どの程度の時間を短縮できるかがわかってくる。たとえば資料作成時間36%のうち、KMによって必要な情報を提供することで8.6%の時間を効率化でき、また無駄な資料作成業務を排除することで同じく13.6%効率化できることが計算上求められたという。この結果、資料作成時間は36%から28%へと減らすことができ、また同様の計算で情報収集時間も18%から12.5%を減らすことができるという計算になり、最終的に間接スタッフの労働時間全体の13.5%は削除・効率化できるという結論がもたらされた。
吉田氏は「効率化の数値の誤差を減らすには、数値を出せるまでに課題が細かく分解されていることが重要。分解するノウハウは、コンサルタントなどが行っている業務改革プロジェクトの手法が応用できる」と話す。
こうした分析結果を経て、プロジェクトは情報の駆け込み寺(情報コンシェルジュ)の設置や情報公開などを支援するツールの整備、BPRなどを中心とする施策を会社側に提案。これに基づき、たとえばこれまで各部門ごとにファイルサーバが設置され、情報資産が分断されていた状況を是正し、全社イントラサーバに情報資産を集積するなどの再構築が行われた。また膨大な数に上っていた情報資産についても、部門ごとにそれぞれの情報の棚卸しを行い、不必要なものを廃棄またはアーカイブ化。利用価値の高いものについては再整理してアクセスしやすい状況に移行させるなどの措置が執られた。また間接スタッフの情報作成業務についても、簡素化や標準化、作業支援などの見直しが行われた。
吉田氏は「新しいツールの導入は実態としてはほとんど行わず、われわれの行ったのは情報資産の整理整頓が中心だった」と話す。これまで、ベンダーが新しいソリューションやサービス、ソフトなどの導入を促す際、大規模なシステム更新や導入などを伴うケースが多かったのと比べると、旧来にないビジネス手法ではある。
この背景には、90年代以降、IT業界では企業の基幹系システムの更新がビジネスの中心となっており、財務会計やSCMなどにSAPやi2などの製品が導入された。だがこうした需要はすでに一巡化している。残る分野として、間接部門などの情報系システムに注目が移りつつあるという面もあるようだ。営業部門や間接部門、企画部門などでは依然としてIT化されていない部分が少なくない。
もっとも吉田氏は「情報系はそれほど巨大なシステム投資は必要なく、大手ベンダーにはあまり注目されていない。だからこそわれわれのようなベンチャー企業が参入するチャンスがある」とも話すのだが――。
吉田氏は話す。「かつては『とりあえず導入して効果を見よう』という判断もあったかもしれないが、そうした考え方はもう通用しない。顧客企業の社員の側には『また新しいサービスを入れるのか』といううんざり感さえある。そうした考え方ではなく、もっと地に足のついた発想が大事にされる時代になった」
たとえば「こういう資料を作るのたいへんでしょう?」という問いに、ユーザーが「そうなんですよ、たいへんなんですよね」と答える。それで「隣の部署が同じような資料を作っていたのを知ってました?」と問いかける、といったやり方だ。確かに、TCOモデルが本当に効果を出すためには、そうした実感は必要だろう。逆に言えば、そうした実感が不在のまま、労働時間や効率性などの数値だけを問題にしているようでは、本当の意味での「コスト最適化」は実現できない。
■TCO/ROIに対する批判
その一方で、本当に「TCO/ROIモデルは正当なのか」という批判も各所で起きつつある。
筆者が最近取材したある企業の幹部は、こう話した。
「完全な情報化は本当に必要か。営業なんか、PCの苦手なヤツのほうが取引先との関係作りが上手で、成績も良かったりする。そんな人間にPCですべてやれというのは本当に必要か。全社員にPC配布したからといって、ROIがきちんと計算できるとは思えない」
営業部門などROIの数値化が難しい現場で働いてきた人たちの中には、こうした率直な感想を持つ人も少なくないだろう。
また、あるベンダーの担当者は次のように話す。
「米国ではITマネージャーからプログラマへと至る仕事の階層構造がきちんと分かれており、ジョブの区切りも明確だ。だが日本ではすべての業務が渾然と混ざり合い、ボランティア的な仕事も多い。果たしてそうした階層構造の中でTCOが成立するのか」
情報システム部門の現場ではどう見られているのだろうか。企業ITを支えているスタッフたちの悲哀を描いて話題となった書籍「システム管理者の眠れない夜」(IDG刊)では、PCに詳しい社員が上司や同僚たちに質問攻めに遭い、結果として著しい時間の損失となってTCO削減を阻んでいるケースが面白く紹介されている。こうした損失に対しては、PCのアプリケーションや処理の利用制限を行うことで対処が可能だが、著者の柳原秀基氏は「日本ではそうはいかない」というのである。「確かに、日本の企業でも、入社時に就業規則は読まされるし、担当職種もある程度は決められるが、実際の業務に就けば、本人の能力とやる気次第で仕事の幅はどんどん広がっていくものだ。これは『同じ給料なのに、できる人間に仕事が集中する』という悪い側面を持つことは否めないが、より高度な仕事へと挑戦するチャンスは意外と平等に与えられていると言うこともできる。ところがTCO削減ということでユーザーのカテゴリー別にPC上で使用できる環境を設定すれば、チャンスは平等でなくなる」「TCOの削減によって、仕事に対する意欲まで削減してしまうことになってしまうのである」
そして柳原氏は、こう提案している。
「筆者は、日本の企業でTCO削減を進めるためには、日本や日本人に対する理解が必要不可欠だと思う」
■TCO/ROIの“和魂洋才”化は可能か
そんな中で、Q&Aをベースにしたナレジマネジメントを提供しているOKウエブは、ROI/TCOモデルを補完しうる「赤提灯モデル」とでも言えるような、日本的情報共有のかたちを提案している。
社長の兼元謙任氏は「日本企業はビジネスプロセスとは関係のない部分で『皆で頑張ろう』というモチベーションがあり、赤提灯の居酒屋といった場所でスタッフ同士のaccommodation(調和)がとられていた」と指摘する。
現在のTCOモデルはこれまでに述べてきたように、企業のビジネスプロセスを企画から製造、営業、マーケティング、サポートなどに分解。さらに細かく解析していき、それぞれのプロセスの中でのコスト最適化を図る手法が採られている。それぞれのプロセスをアウトソースしようというBPO(Business Process Outsourcing)が流行しているが、コスト削減を究極にまで追求すれば、すべてのプロセスを外に出してしまい、経営戦略部門だけを企業に残すというかたちになってしまうだろう。しかしこうした方式によって、時代を変えるような新たな商品を生み出すことができるのか。
兼元氏が続ける。「かつての良き時代の日本企業では、企画や営業、サポートなどの各スタッフがたとえば社外の赤提灯で飲み明かしたりすることで、プロセスごとの壁を飛び越えた話し合いをすることができた。そうした文化が、たとえばビデオ規格のVHSやウオークマンのような斬新な商品を生み出す原動力になったのだと思う。現在のように各プロセスごとに徹底的なTCO最適化を求められるスタイルからは、VHSのような製品は絶対に登場しない。VHSは社内の誰もが『絶対に失敗する』と危惧し、でも技術者たちの強いモチベーションがあったからこそ誕生した」
ROIでは計れない部分にこそ、次世代のビジネスの芽があるということなのだろう。とはいえ、兼元氏もROIモデル自体を否定しているわけではないという。たとえば「今年度中にこれだけの利益を上げ、そのためにはどの程度の資本を導入し、コストはこの程度に抑えなければならない」といった部分については、ROIは非常に有効だ。だが「何のためにこの製品を作るのか」「どうやって売り上げを達成するのか」「そのために、どんな仲間が必要なのか」といった部分については、ROIモデルは適用できない。
スタッフのマネジメントについて、日米の考え方の違いもある。米国では労働について、キャリアパスとしての意味とサラリーの多寡の2点でしか評価されない。数値化しやすい考え方とも言えるだろう。だが日本では、「皆が頑張っているから」「あの人の下で働いているから」「この製品を作っているのを名誉に思っているから」といったモチベーションが、より重視される世界である。こうしたモチベーションを数値化するのは困難だろう。
OKウエブが考えているのは、ビジネスプロセスで分断されたスタッフを、どのようにして再びまとめ直すのかということだ。そしてその手段として、匿名掲示板の一種を提案している。
KMの一環として、情報共有の手段として掲示板を利用している企業は少なくない。だがオフィシャルな実名掲示板では、意外と発言が少ないのが現状だ。「上司も読んでいる場所では思い切った発言はできない」「恥ずかしい」といった意見が少なくないのである。そこでOKウエブは掲示板をオフィシャル(公式)とアンオフィシャル(非公式)に分け、後者を匿名掲示板にした。もちろん、完全な匿名掲示板にしてしまうと、インターネットの「2ちゃんねる」の用に悪意のある発言や「荒らし」行為などが発生してしまう可能性を完全に払拭することができない。このため掲示板に管理者を置き、この管理者にだけは書き込みした者の実名がわかるような仕組みを採っている。またフィルタリングも行い、企業秘密などを含む不適切な発言が流出しない仕掛けも取り入れている。
「この際、管理者を社長にせず、公平な社内の第三者にすることが大事です。経営陣はアンオフィシャル掲示板を読むことはできるけれども、誰が書いているのかはわからない。また社員の側は、上司の目を気にせずに思い切った発言をすることができます」(兼元氏)
OKウエブでは社内のコミュニティにこのアンオフィシャル掲示板を設置し、コミュニケーションを活性化させる成果を上げているという。また同社が提供しているコミュニティ導入支援サービス「Community Management」にもこのモデルが取り入れられている。
90年代以降、日本は不況に沈む込んでいく中で、米国のビジネスモデルをどん欲に採用し、取り込んできた。だがシックスシグマやカンバン方式など、日本から輸出され、欧米の企業に取り入れられたモデルも決して少なくない。TCO/ROIモデルを鵜呑みにするのではなく、和魂洋才による日本的な消化吸収が必要な時期に来ているのかもしれない。
Recent Comments