サブロー通信

サブロー通信は、アースアイズ代表 山内三郎が配信するメルマガです。
本ページでは、2019年4月〜現在までのサブロー通信をご覧いただけます。

2023.06.27

「東京国際消防防災展」を終えて

(今回は、ブログ風に書いてみました!)

皆さん、こんにちは!今回は当社の最新の防災技術についてご紹介します。
最近開催された東京国際消防防災展では、初田製作所さんのブースをお借りして
カメラをAI化し、火災を発見する革新的な技術を展示しました。
その名を『ファイヤープリベンションAIシステム』(以下、F.P.A)としました。

他社のブースでは、消防車や消火器、消火機器、センサーなど、さまざまな防災機器が
展示されていました。しかし、初田製作所さんのブースでは、カメラをAI化し火災を発見する
という新しいアプローチの商材の展示をさせていただき、多くの来場者の方にご興味・ご関心
を賜りました。

このF.P.Aは、ほぼリアルタイムで火災を検知できます。通常のセンサーと同等に反応し、
即座に火災の存在を知らせることができます。さらに、F.P.Aの撮像範囲は非常に広く、
全体の火災状況を一望できるのも大きな特長です。
センサーなどは、室内につけなければなりませんが、F.P.Aは屋外に設置したカメラをAI化
することで、放火や不審火をいち早く発見することができます。
また、天井の高い工場や物流倉庫などでも効果的です。

F.P.Aの性能はハードウェア(カメラ)の画素などに依存しますが、驚くべきことに、ズーム
機能があれば最大で500メートル先の20cm程度の範囲で起きている火災でも検知できるの
です。これにより、遠くの場所でも微細な火災を見逃すことがありません。

さらに、F.P.Aは、煙の学習も可能です。つまり、煙の特徴を理解し、煙の発生を検知する
ことができるのです。煙は火災の初期段階で発生することが多く、早期に検知することで迅速
な対応が可能となります。

東京国際消防防災展では、初田製作所さんのブースは活況を呈していました。
来場者はAIカメラのパフォーマンスに驚き、その優れた機能に関心を寄せていました。
火災を早期に発見することは、重要な生命と財産の保護できます。F.P.Aがその一翼を担う
ことで、より安全な社会の実現に貢献しています。

今後は、AIカメラの技術がさらに進化し、より高度な火災検知システムが開発されることが
期待されます。当社がそのパイオニア企業として、私たちの安全な未来を支える重要な社会
に貢献したいと考えております。

2023.06.06

AIの正答率とAIによるBias(先入観)

ネットフリックスの番組で、AIによるBias(先入観、偏見)について取り上げていて、
AIのBiasとは何かと思い、見入ってしまいました。番組は、基本的に顔認証について取り上げ
ていました。

AIの顔認証技術において、正確性の問題やバイアスの存在が報告されていることは事実のよう
です。AIの顔認識システムは、ディープラーニングや機械学習のアルゴリズムを使用して、顔
画像を解析し、特定の人物を識別することを試みます。

しかし、AIの顔認識技術は、訓練データセットの選択やそのデータのバイアス、アルゴリズム
の設計など、さまざまな要素によって影響を受けます。これにより、一部のグループや属性に
対して誤った判断を下す可能性があります。たとえば、肌の色、性別、年齢など、識別の正確
性に影響を与えることがあるのです。顔認識システムが訓練されたデータセットが、主に特定
の人種や性別の人々に偏っている場合、正確性が低下する可能性があります。

番組で取り上げていた事例では、犯罪者のデータを集めると残念ながら、黒人のデータが多く
なる傾向があります。そのために、一般の黒人男性を顔認証システムが捉えると白人よりも犯
罪発生率の高い人として、区別してしまう傾向があるということも伝えていました。
まさにBiasですね。

このようなバイアスは、訓練データにおける偏りや、適切でないデータセットの使用、アルゴ
リズムの設計上の欠陥などから生じることがあります。また、特定の人種や民族、性別などに
対して特に問題がある場合、差別や不公平な扱いのリスクが生じる可能性もあります。

ただ、人間が、AIが完璧なものであるという「偶像」を作り上げてしまうことが一番の問題で、
失敗を失敗として受け入れて次により良い活用していくことも大事であると思います。

当社のAIガードマンでは、万引き行為をする人を発見するときに、どうしても従業員を誤検知
してしまうということから、AIの画像認識を活用して、従業員を省くように学習させています。
小売業の現場では、従業員は商品の品出しやお客様に商品などを案内するにあたり、うろうろ、
キョロキョロして、商品を選ぶ一般のお客様とは違う動きをしています。そのため、AIガード
マンは、従業員を「普通の買い物客とは違う」と判断して、万引き犯として、誤検知してしま
う場合があります。お客様ではない動きを発見するのは技術的には合っているのだと思うので
すが、運用的には活用できません。

この誤検知の改善方法として、当社は、従業員の制服をAIガードマンに数千枚学習させること
で、従業員の誤検知を最小限に抑えることに成功しています。

下記は、従業員の制服を3ヵ月間、トータル4000枚の学習をさせた結果です。学習が足りてい
ない最初の導入時の環境では、従業員をお客様(万引き犯と思われる行動)として月に38件も
間違えていたのが、学習後は2件だけです。お客様(万引き犯とも思われる行動をした人)を
逆に従業員と間違えるのは、1/126件 全体の正答率98%となりました。

ビックデータと言われますが、確かにビックデータがあればあるほど、AIの学習には役立て
られます。しかしながら、運用者は、絞り込んだ環境でAIを活用する場合もあります。
AIのはじき出すデータをどのように考えるかは、人間の知識も必要なのです。

2023年6月
« 5月   7月 »
 1234
567891011
12131415161718
19202122232425
2627282930  

月別アーカイブ

HOME
Service+
Lab+
Archive+
Company+
Contact