Skip to main content

  • 人とAIの関係性をイメージしたビジュアル
    SIPのリスクヘッジ方針(人間中心・安全性を最優先に)

    SIPでは、人間中心のアプローチをリスクヘッジの基本方針としています。
    とくに、児童養護施設で暮らす子どもたちや、さまざまな事情を抱えた若者の支援を想定する上で、次の点を大切にしています。

    1. AI単独で意思決定させない
      AIはあくまで「整理・見える化・問いかけ」を担うツールとし、支援方針や重要な判断は、必ず人(支援者・専門職)が最終的に行う前提とします。
    2. プライバシーとデータの取り扱いへの配慮
      ログや記録に含まれる情報は、目的を限定し、できるだけ匿名化された形で扱うことを基本とします。
      保存期間やアクセス権限を明確にし、子ども・保護者・関係機関に分かりやすく説明できる形に整えることを重視します。
    3. 危険サインをAI任せにしない
      自傷他害・虐待などのリスクに関わる兆候をAIに自動検出させることは想定せず、あくまで人が対話や日々の関わりの中でキャッチすることを前提とします。
      その上で、必要に応じて「相談記録を整理する」「専門機関に説明するための材料をまとめる」といった用途にAIを使うイメージです。
    4. 支援者・組織が主体性を持って使える設計にする
      ツールの仕様や限界、想定している使い方を、支援者・組織が理解できるように開示することを重視します。
      「AIに相談すれば何とかしてくれる」ではなく、「支援者と本人の対話を少し助ける道具」として、主体的に使い方を選べる状態を目指します。

    こうした方針を前提にしながら、実際の運用段階では、支援現場や専門家の方々と一緒にルールや仕組みを整えていく必要があると考えています。

  • SIPロードマップ(概要)

    現在は、子ども・若者支援の現場に近い立場からのヒアリングと、小さなプロトタイプづくりを組み合わせる「構想・試作フェーズ」にあります。

    その先のイメージとしては、

    1)現場の声を踏まえた機能の絞り込み・ブラッシュアップ

    2)自治体・施設・企業との小規模な実証実験(PoC)

    3)サービス化・運用設計と、段階的にスケールの可能性を探っていくロードマップを描いています。

    現在は、このうち「1)現場の声を踏まえた機能の絞り込み・ブラッシュアップ」に入るための、さらに手前の試作・ヒアリング段階にあります。
    どの領域・どの現場であれば、本当に役に立つのかを見極めることを重視しており、ロードマップもあくまで現時点の仮置きとして更新していく想定です。

    ※SIPの背景やモジュール構成、3年程度のロードマップなどは、もう少し詳しく構想メモ(PDF)としてまとめてあります。

    あくまで参考資料ですので、必要に応じてご覧ください。

    経営戦略や事業計画を検討される中で、何かのヒントとしてお役に立てる機会があれば嬉しく思います