AIに全社でBetするLayerXに見る、セキュリティリスクをあえて許容する覚悟
生成AIにオールインせよーー
ソフトバンク、DeNA、楽天、サイバーエージェントなど、生成AIの導入に会社を挙げて取り組む例が増えている。もはや「使う、使わない」の議論ではなく、「どう使うか」「いかにして全社に浸透させるか」が問われるフェーズに入った。
しかし、いざAI導入を進めようとすると、現場にはさまざまな壁が立ちはだかる。目まぐるしく変わるトレンド、シビアな予算、そして何よりもセキュリティリスクへの不安……。「どこから手をつければいいのか分からない」と、足踏みしてしまうこともあるだろう。
それは、AIエージェントをコアに据えたプロダクトを展開するLayerXでさえ、例外ではなかった。
2025年4月、行動指針の一つだった「Bet Technology」を「Bet AI」にアップデートし、確かな覚悟を示したLayerX。彼らは、どのようにして組織全体にAI活用を根づかせていったのか。
25年8月1日にLayerXが主催したイベント「Bet AI Day」にて行われた、同社CISO・星北斗さんの講演から、その軌跡をたどろう。
株式会社LayerX
執行役員 CISO
星 北斗(@kani_b)
2013年にクックパッド株式会社に新卒入社。セキュリティ、SRE、コーポレートエンジニアリングを主領域とし、技術本部長、海外本社出向などを経て23年にCTO兼CISOを務める。24年1月にLayerX入社。全社の情報セキュリティ、バクラク事業におけるDevOps領域、コーポレートエンジニアリング領域を管掌し、24年7月より現職。クラウドとセキュリティと料理が好き
目次
全てのセキュリティリスクを守ることは、諦めるすぐ使える環境を整え、スモールスタートから始める「今すぐ試したい」に応えるルールづくりで現場の意欲をバックアップ真のAI利活用には、気軽に話せる空気が欠かせない
全てのセキュリティリスクを守ることは、諦める
全社的なAI導入を進めるにあたって、LayerXが取ったアプローチは大きく三つに整理できる。
【1】AI活用において許容するセキュリティリスクの線引き
【2】AIを使用する上での心理的ハードルの排除
【3】現場主導で判断できる最低限のルール設計
中でもLayerXが全ての施策の土台としたのが、「セキュリティリスクの線引き」だ。
多くの企業にとって、生成AIの導入で最初に直面するのが「セキュリティは大丈夫か?」という懸念だろう。LayerXでも、CISOとしてセキュリティを司る星さんは頭を悩ませていたという。
「どんなに工夫しても、最終的にはモデルプロバイダーにコンテキストを開示する必要がある。AI活用の場合、クラウドの利用とは異なり、ユーザーサイドでの暗号化といった“自衛”の手段が今のところほぼありません。
それに、AIをとりまく変化のスピードは猛烈に速いので、せっかく考えた管理方法が早々に意味をなさなくなることもあります」
だがLayerXのようなスタートアップにとって、課題にばかりとらわれてトレンドに乗り遅れることこそ経営上のリスクになりかねない。
そこでLayerXが採ったのは、「全てを守る」のではなく、「絶対に守るべきものを選ぶ」という発想だった。
「例えば、お客さまのデータは絶対に守らないといけない領域なので、徹底的に制御された環境・規約・アカウントのもとでしか扱わないようにしています。
一方で、ソースコードなど、万が一外部に漏れてもわれわれが泣けば済む領域に関しては、一定のルールのもとでリスクを受容する判断をしました。譲れないリスクと、許容できるリスクの線引きを明確にしたことで、日々の運用判断が迷いなく下せるようになり、プロジェクト推進のスピードと安心感を両立できました」
すぐ使える環境を整え、スモールスタートから始める
生成AIを導入する準備が整っても、現場で活用するためには慣れ親しんだ業務フローを変えなければならない。ここで必要になるのが「心理的ハードルの排除」だ。
「既存のやり方を変えるにはエネルギーが要りますし、有償ツールなら予算配分も悩ましい。どんなに『使って大丈夫』と言われたところでセキュリティ周りの申請も不安……など、現場にとっては使い始めるまでの壁が高いんです。
そのため、とにかくすぐに使える環境を整えること、そして最初の一歩の導線をつくることから着手していきました」
当初、LayerXはChatGPTのTeamプランを全社的に導入していたが、使いこなしている社員とそうでない社員の差が顕著になり、コストの課題が浮上した。そうした中で注目されたのがGoogle Workspaceに標準搭載されている生成AI・Geminiだ。
「ちょうどGeminiの進化が加速していた時期だったので、これを全社標準としてすぐに使える選択肢にしたらよいのではと判断しました。 OSSクライアント+APIという案もありましたが、まずは使うハードルを下げることを優先したんです」
Gemini導入後は、「Geminiはじめの一歩」と題した社内向けコンテンツを整備。AIに触れたことがない人でも試せるよう、現場のリアルなユースケースをもとにノウハウを噛み砕いて発信した。
「自分の仕事に関係あると思えれば、AIを使ってみるきっかけになります。そこで、すでにGeminiを積極的に使っていたメンバーにヒアリングして、どんな場面で役立っているかを調査。各チームの業務に合わせて『この使い方なら自分にもできそう』と感じられるような具体例をまとめ、社内に展開していったんです」
加えて、n8nやDifyといったOSSプラットフォームを社内でセルフホストし、外部送信のリスクを抑えながら「自分たちの課題を自分たちで解決できる環境」を整えた。
「せっかく環境を用意したけど使ってくれないって、あるあるですよね。だからこそ、どうしたら現場社員が気軽にAIに触れるようになるかを設計しました。セキュリティを担保するためにSSO認証を通したプロキシ環境を整えたのもその一環です」
「今すぐ試したい」に応えるルールづくりで現場の意欲をバックアップ
セキュリティに関して、絶対に守るべきものとそうでないものを明確にした。社員が最初の一歩を踏み出す導線も整えた。
最後に行ったのは「現場主導で判断できる最低限のルール設計」だ。
「生成AIツールの進歩は目を見張るほどに速いので、気になったときに試せることが大事ですよね。なので、『使っていいのか分からない』とか『申請が面倒』という理由で止まる状態は避けたかったんです。
そのため、AIサービスの規約チェックポイントを作成し、利用ポリシー・所在地・学習有無・契約形態など、論点になりやすい項目を社内で標準化しました。『この外部サービスを新たに使いたい』となった時に、誰でも簡単にセルフチェックできるようにしたんです。
全部を確認してから動くのでは遅い。 だったら最初から、自分で判断していい範囲を明確にしておいて、グレーな部分だけをセキュリティチームが見る。この方が、ずっと早く回りますから」
さらに、費用面での申請ハードルも下げるべく、AIツールをトライアルするための予算を確保。申請ベースで個人が気軽に使えるような運用を行っている。
「利用条件は二つだけ。チームで合意していること、そして社内にフィードバックすることです。細かい承認プロセスを挟むと、現場は止まってしまいますから」
真のAI利活用には、気軽に話せる空気が欠かせない
AI活用を巡るLayerXの取り組みは、ツール・制度・環境と多岐にわたる。だがそれでも、「何より効いたのは文化の醸成だった」と星さんは振り返る。
LayerXには、セキュリティ委員会のSlackチャンネルや、AI活用に関する相談チャンネルが複数存在する。新しいツールを使いたいとき、情報の扱いに迷ったとき、「ちょっと聞いてみる」ことが日常的にできる空気があるという。
「『こんな使い方したいけど大丈夫かな?』って投げると、誰かがすぐ答えてくれるんです。 エンジニアがシステム設計を手伝ってくれたり、事例をシェアしてくれたり。しかもその事例が別の部署にも展開されて、連鎖していく。仕組み以上に、この循環がAI活用を前に進めていた気がします」
Slackでの相談に対する反応、ちょっとしたリアクション、月に一度の表彰制度ーー。話していい、やってみていいと感じられる空気感を、地道に育ててきた。
「誰もが『初心者だから聞きづらい』と感じないようにしたいんです。 気軽に、適切なおせっかいができる文化があれば、人は動ける。場を作るだけじゃなくて、場に反応が返ってくることが何より大事だと思ってます」
技術も仕組みも、整えるだけでは回らない。誰かが動いたとき、それに応える文化があること。LayerXの「Bet AI」は、そうした文化の積み重ねによって推進されている。
>>登壇資料はこちら
文/今中康達(編集部)