JP7244011B2 - 注意状態監視システム、注意状態監視装置、注意状態監視方法、およびコンピュータプログラム - Google Patents

注意状態監視システム、注意状態監視装置、注意状態監視方法、およびコンピュータプログラム Download PDF

Info

Publication number
JP7244011B2
JP7244011B2 JP2019120184A JP2019120184A JP7244011B2 JP 7244011 B2 JP7244011 B2 JP 7244011B2 JP 2019120184 A JP2019120184 A JP 2019120184A JP 2019120184 A JP2019120184 A JP 2019120184A JP 7244011 B2 JP7244011 B2 JP 7244011B2
Authority
JP
Japan
Prior art keywords
salience
time
attention
line
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019120184A
Other languages
English (en)
Other versions
JP2021005325A (ja
Inventor
正 伊佐
ヴィール リチャード
正俊 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyoto University
Inter University Research Institute Corp National Institute of Natural Sciences
Original Assignee
Kyoto University
Inter University Research Institute Corp National Institute of Natural Sciences
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyoto University, Inter University Research Institute Corp National Institute of Natural Sciences filed Critical Kyoto University
Priority to JP2019120184A priority Critical patent/JP7244011B2/ja
Publication of JP2021005325A publication Critical patent/JP2021005325A/ja
Application granted granted Critical
Publication of JP7244011B2 publication Critical patent/JP7244011B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

特許法第30条第2項適用 研究集会名 :平成30年度精神的価値が成長する感性イノベーション拠点公開シンポジウム 主催者 :広島大学 感性イノベーション研究推進機構 開催日 :2018年6月29日 〔刊行物等〕 資料タイトル:注意の可視化 公開日 :2018年6月29日
本発明は、人間の注意の状態を監視する技術に関する。
近年、人間の注意の状態を検出する技術が様々な分野において要求されている。要求に応えるために、例えば保安の分野においては、特許文献1に記載されるようなシステムが提案されている。
このシステムは、保安監視制御設備に装着でき、モニタ監視人員の目のイメージを取得することに用いる撮像装置と、該撮像装置に接続し、目の運動状況を検出することに用い、目が注視するスクリーンの位置を算出する検出ユニットと、該検出ユニットに接続し、算出された注視位置データに基づき、該モニタ監視人員が監視制御スクリーンを監視する注意力の集中程度及び適合程度を分析して得る分析ユニットと、を含む。
特開2011-40032号公報
人間の注意力の状態を検出する方法は様々であるが、人間が活動している最中にリアルタイムに検出しなければならない場合は特に、できるだけ正確に検出することが要求される。
しかし、人間の注意力の状態を100%正確に検出することは困難である。そこで、幾つかの検出の技術を組み合わせたり使い分けたりすることによって正確性を100%に近づけることが必要である。そのためには、検出の技術が多いほうが好ましい。
本発明は、このような課題に鑑み、人間の注意力の状態をリアルタイムに検出する新たな技術を提案する。
本発明の一形態に係る注意状態監視システムは、被験者の視覚的な注意の状態をリアルタイムに監視する注意状態監視システムであって、前記被験者の視界の画像を取得する画像取得手段と、定期的に前記被験者の視線を検知する視線検知手段と、前記視線が検知されるごとに、前記画像の中の前記被験者が注目する注目部分のサリエンス値を第一のサリエンス値として当該検知された視線に基づいて選出する第一の選出手段と、前記視線が検知されるごとに、前記画像の中のランダムに決めたランダム部分のサリエンス値を第二のサリエンス値として選出する第二の選出手段と、所定のタイミングが訪れるごとに、直近の所定の時間内に選出された前記第一のサリエンス値および前記第二のサリエンス値に基づいて前記注意の程度を算出する算出手段と、前記程度を出力する出力手段と、を有する。
好ましくは、前記画像取得手段は、定期的に前記被験者の視界を撮影することによって前記画像を取得し、前記第一の選出手段は、前記視線が検知された時点、当該時点の直前、または当該時点の直後に前記画像取得手段によって取得された前記画像である直近画像の中の前記注目部分のサリエンス値を前記第一のサリエンス値として選出し、前記第二の選出手段は、前記直近画像の中の前記ランダム部分のサリエンス値を前記第二のサリエンス値として選出する。
前記程度は、例えば、前記所定の時間内に選出された前記第一のサリエンス値の全体的な傾向と前記所定の時間内に選出された前記第二のサリエンス値の全体的な傾向との乖離の度合である。前記度合は、例えば、前記所定の時間内に選出された前記第一のサリエンス値および前記所定の時間内に選出された前記第二のサリエンス値のROC(Receiver Operatorating Characteristic)曲線のAUC(Area Under Curve)スコアである。
本発明によると、人間の注意力の状態をリアルタイムに検出する新たな技術を得ることができる。
注意可視化システムの全体的な構成の例を示す図である。 スマートグラスのハードウェア構成の例を示す図である。 視界、撮影範囲、および視点の位置関係の例を示す図である。 解析装置のハードウェア構成の例を示す図である。 解析装置の機能的構成の例を示す図である。 フレームおよびサリエンシーマップの例を示す図である。 視点サリエンス値およびランダムサリエンス値を選出する方法の例を説明するための図である。 視点サリエンス値およびランダムサリエンス値それぞれの保存の例を示す図である。 視点サリエンス値およびランダムサリエンス値それぞれのヒストグラムの例を示す図である。 真出現総数および偽出現総数それぞれの例を示す図である。 真陽性率および偽陽性率それぞれの例を示す図である。 ROC曲線の例を示す図である。 折れ線グラフの表示の態様の例を示す図である。 メッセージの表示の態様の例を示す図である。 解析装置における全体的な処理の流れの例を説明するためのフローチャートである。 折れ線グラフの提示の仕方の変形例を示す図である。
図1は、注意可視化システム1の全体的な構成の例を示す図である。図2は、スマートグラス2のハードウェア構成の例を示す図である。図3は、視界2A、撮影範囲2B、および視点2Cの位置関係の例を示す図である。図4は、解析装置3のハードウェア構成の例を示す図である。図5は、解析装置3の機能的構成の例を示す図である。
図1に示すように、注意可視化システム1は、スマートグラス2、解析装置3、および中継装置4などによって構成される。
注意可視化システム1は、被験者の注意を可視化して提示する。以下、歩行者11が被験者である場合を例に、説明する。
中継装置4は、スマートグラス2と解析装置3との間でやり取りされるデータを、携帯電話回線、無線LAN(Local Area Network)、またはインターネットなどの通信回線を介して中継する。中継装置4として、Wi-Fi用ルータ、スマートフォン、またはタブレットコンピュータなどが用いられる。
スマートグラス2は、歩行者11の視線および視界を観察するための装置である。スマートグラス2は、図2に示すようにコントロールユニット21、視線センサ22、ビデオカメラ23、ディスプレイ24、および通信装置25など装置を備える。歩行者11は、スマートグラス2を装着して使用する。歩行者11は、スマートグラス2を装着したまま屋外または屋内を歩いたり走ったり立ち止まったりする。
コントロールユニット21は、プロセッサおよびメモリなどによって構成され、スマートグラス2の全体的な制御を行う。
視線センサ22は、「アイトラッカー」または「視線追跡装置」などと呼ばれる装置であって、歩行者11の視線の動きをリアルタイムに検知する。
ビデオカメラ23は、図3に示すように、歩行者11がスマートグラス2を装着した状態でスマートグラス2のレンズ26越しに見ることのできる範囲(以下、「視界2A」と記載する。)をビデオカメラ23の撮影の範囲(以下、「撮影範囲2B」と記載する。)が含むように設定されている。したがって、ビデオカメラ23によると、歩行者11が見ている風景の動画像を撮影することができる。
視線センサ22とビデオカメラ23との位置関係は、固定的である。よって、視線センサ22によって検知される視線と撮影範囲2Bとの位置関係は、視線センサ22とビデオカメラ23との位置関係などに基づいて算出することができる。
なお、視界2Aと撮影範囲2Bとは、できるだけ一致していることが望ましい。または、撮影範囲2Bのうちの視界2Aと重複しない部分をカットし、重複する部分が後述の処理において使用されるようにしてもよい。また、図3の例では、ビデオカメラ23がスマートグラス2の端に設けられているが、中央に設けられていてもよい。
ディスプレイ24は、歩行者11に見せるための画像を表示する。ディスプレイ24は、網膜投射型のディスプレイであってもよいし、光学透過型のディスプレイであってもよい。
通信装置25は、中継装置4にケーブルまたは無線を介して接続し、中継装置4および通信回線を介して解析装置3と通信する。特に、視線センサ22およびビデオカメラ23のそれぞれによって得られたデータを解析装置3へ送信したり、解析装置3から処理の結果を受信したりする。
スマートグラス2として、例えばトビー・テクノロジー社、SMI(Senso Motoric Instruments)社、またはグーグル社などの企業が市販するスマートグラスを用いることができる。このようなスマートグラスの例として、TobiiProグラス2およびグーグルグラスなどが挙げられる。
解析装置3は、歩行者11の視界および視線を解析することによって歩行者11の注意を判別するための装置である。解析装置3は、図4に示すように、プロセッサ31、RAM(Random Access Memory)32、ROM(Read Only Memory)33、補助記憶装置34、ネットワークアダプタ35、キーボード36、ポインティングデバイス37、およびタッチパネルディスプレイ38などによって構成される。
プロセッサ31は、RAM32にロードされたプログラムを実行する。プロセッサ31として、GPU(Graphics Processing Unit)またはCPU(Central Processing Unit)などが用いられる。
ネットワークアダプタ35は、TCP/IP(Transmission Control Protocol/Internet Protocol)などのプロトコルで他の装置と通信する。ネットワークアダプタ35として、NIC(Network Interface Card)または無線LAN装置などが用いられる。
キーボード36およびポインティングデバイス37は、コマンドまたはデータなどをオペレータが入力するための入力装置である。
タッチパネルディスプレイ38は、コマンドもしくはデータを入力するための画面またはプロセッサ31による処理の結果などを表示する。
ROM33または補助記憶装置34には、注意可視化プログラム30がインストールされている。注意可視化プログラム30は、歩行者11の現在の注意の状態を検出して可視化するプログラムであって、図5に示す視線データ記憶部301、サリエンシーマップ生成部302、マップデータ記憶部303、視点サリエンス値選出部304、ランダムサリエンス値選出部305、サリエンス値記憶部306、ROC曲線算出部307、AUCスコア算出部308、およびAUCスコア出力部309などのモジュールによって構成される。
ところで、月が夜空に光っているときに、人間の注意は、月に向きやすい。これは、月が周囲よりも目立つからである。このように視覚的な刺激が人間の注意を誘引する性質は、「サリエンシー」と呼ばれる。
サリエンシーマップは、画像の各部分のサリエンシーの高さを輝度または濃度の階調で表わしたものである(非特許文献1)。また、コンピュータによってサリエンシーを検出する場合であっても、サリエンシーの高い部分ほど人間の注意が向きやすいことが知られている。非特許文献1:「サリエンシー・マップの視覚探索解析への応用」,吉田正俊,日本神経回路学会誌 Vol. 21, No. 1 (2014), 3-12,https://www.jstage.jst.go.jp/article/jnns/21/1/21_3/_pdf/-char/ja
したがって、サリエンシーマップは人間の視覚的な注意の向きやすさを表わす分布図であると、言える。
注意可視化プログラム30は、非特許文献1に記載される技術を応用することによって歩行者11の現在の注意の状態を検出して可視化する。
以下、歩行者11がスマートグラス2を装着して屋内または屋外にいるときの、スマートグラス2および解析装置3それぞれの処理について、説明する。
図6は、フレーム6Aおよびサリエンシーマップ6Bの例を示す図である。図7は、視点サリエンス値Vtおよびランダムサリエンス値Vfを選出する方法の例を説明するための図である。図8は、視点サリエンス値Vtおよびランダムサリエンス値Vfそれぞれの保存の例を示す図である。図9は、視点サリエンス値Vtおよびランダムサリエンス値Vfそれぞれのヒストグラムの例を示す図である。図10は、真出現総数St0~St10および偽出現総数Sf0~Sf10それぞれの例を示す図である。図11は、真陽性率Rt0~Rt10および偽陽性率Rf0~Rf10それぞれの例を示す図である。図12は、ROC曲線の例を示す図である。図13は、折れ線グラフ70の表示の態様の例を示す図である。図14は、メッセージ71の表示の態様の例を示す図である。
スマートグラス2において、視線センサ22は、時間Laごとに歩行者11の視線を検知する。より具体的には、図3に示すような、撮影範囲2Bにおける、歩行者11の視点2Cの位置を検知する。そして、視点2Cの位置および検知した際の時刻を示す視線データ5Aを、通信装置25を介してリアルタイムで解析装置3へ送信する。
ビデオカメラ23は、歩行者11がスマートグラス2を身に付けている間、動画像を撮影する。これにより、歩行者11が見ている風景の動画像の動画像データ5Bが得られる。ビデオカメラ23のフレームレートは時間Laである。したがって、時間Laごとの、撮影範囲2Bの画像(静止画像)としてフレーム6Aが得られる。そして、ビデオカメラ23は、動画像データ5Bを、ストリーミングによって通信装置25を介してリアルタイムで解析装置3へ送信する。
なお、時間Laは、オペレータが任意に設定することができ、例えば20ミリ秒である。視線センサ22が検知を開始する時刻およびビデオカメラ23が撮影を開始する時刻は同一であり、ともに時刻T0である。以下、時刻T0から時間Laが経過するごとの時刻を順に「時刻T1」、「時刻T2」、「時刻T3」、…と記載する。
解析装置3において、視線データ記憶部301には、視線センサ22から送信されてきた視線データ5Aが記憶される。
サリエンシーマップ生成部302は、ビデオカメラ23から送信されてきた動画像データ5Bをデコードすることによって時刻T0、T1、T2、…ごとのフレーム6Aの画像データを生成し、各フレーム6Aのサリエンシーマップ6Bを生成する。
サリエンシーマップ6Bは、フレーム6Aの中の各部分の視覚的なサリエンス(顕著性)の高低を表わすグレースケール画像である。以下、視覚的なサリエンスを単に「サリエンス」と記載する。
例えば、フレーム6Aが100×70個の部分に分けられる場合は、サリエンシーマップ生成部302は、100×70個の部分それぞれのサリエンス値を算出することによってサリエンシーマップ6Bを生成する。
一般的なサリエンシーマップは、サリエンス値が高いほど輝度または明度の階調が高くなるように表示されまたは印刷される。しかし、本実施形態では、図面を見やすくするために、サリエンスが高いほど黒の濃度の階調が高くなるようにサリエンシーマップ6Bを表わしている。例えば、図6(A)に示すフレーム6Aから、図6(B)に示すサリエンシーマップ6Bが生成されるが、このサリエンシーマップ6Bの中の真っ白の部分はサリエンス値がゼロであり、真っ黒の部分はサリエンス値がマックス値(本実施形態では、「1」)である。
サリエンシーマップ6Bは、非特許文献1に記載されるような公知の方法によって生成される。非特許文献1に記載される方法によると、フレーム6Aの部分ごとに種々の特徴量(輝度、色、傾き、動き)を算出し、それらを足し合わせることによって部分ごとのサリエンス値が算出される。
サリエンシーマップ生成部302によって生成されたサリエンシーマップ6Bは、基のフレーム6Aが撮影された時刻と対応付けられてマップデータとしてマップデータ記憶部303に記憶される。
以下、時刻T0、T1、T2、…それぞれのフレーム6Aを「フレーム6A0」、「フレーム6A1」、「フレーム6A2」、…と記載する。時刻T0、T1、T2、…それぞれの視線データ5Aを「視線データ5A0」、「視線データ5A1」、「視線データ5A2」、…と記載する。また、「フレーム6A0」、「フレーム6A1」、「フレーム6A2」、…それぞれのサリエンシーマップ6Bを「サリエンシーマップ6B0」、「サリエンシーマップ6B1」、「サリエンシーマップ6B2」、…と記載する。
視点サリエンス値選出部304は、時刻T0、T1、T2、…それぞれにおける視点サリエンス値Vtを選出する。「視点サリエンス値Vt」は、歩行者11の視点のサリエンスの高さを表わす値であって、視線データ5Aおよびサリエンシーマップ6Bに基づいて特定することができる。
例えば、時刻Tkにおける視点サリエンス値Vtkは、視線データ5Akおよびサリエンシーマップ6Bkに基づいて、図7のように特定される。
視点サリエンス値選出部304は、サリエンシーマップ6Bkの中の、視線データ5Akに示される視点2Cの座標(Xc,Yc)の位置の属する部分を特定する。特定した部分のサリエンス値を時刻Tkにおける視点サリエンス値Vtとして選出する。
ランダムサリエンス値選出部305は、図7のようにサリエンシーマップ6Bkの中からランダムに部分を1つ選出し、その部分のサリエンス値を時刻Tkのランダムサリエンス値Vfとして選出する。なお、サリエンシーマップ6Bkの中から部分を複数してもよいが、これについては変形例として後に説明する。
各時刻T0、T1、T2、…、の視点サリエンス値Vtおよびランダムサリエンス値Vfは、図8のようにサリエンス値記憶部306に記憶される。
ROC曲線算出部307は、各時刻のROC(Receiver Operatorating Characteristic)曲線を算出する。以下、時刻TkのROC曲線を算出する場合を例に、ROC曲線の算出の方法を説明する。
ROC曲線算出部307は、時刻Tkから時間Lb前までの間の各時刻の視点サリエンス値Vtおよびランダムサリエンス値Vfをサリエンス値記憶部306から読み出し、視点サリエンス値Vtおよびランダムサリエンス値Vfそれぞれのヒストグラムを算出する。
時間Lbは、オペレータが任意に設定することができるが、20秒程度であるのが望ましい。時間Lbが20秒であり時間Laが20ミリ秒である場合は、ROC曲線算出部307は、時刻T(k-1000)から時刻Tkまでの視点サリエンス値Vtおよびランダムサリエンス値Vfを読み出し、ヒストグラムを算出する。
視点サリエンス値Vtおよびランダムサリエンス値Vfの取り得る値がともに「0」~「1」間の0.1刻みの値である場合つまり「0.0」、「0.1」、「0.2」、…、「0.9」、「1.0」である場合は、図9に示すようなヒストグラムが算出される。以下、図9のようなヒストグラムが算出された場合を例に説明する。
真出現回数Nt0、Nt1、Nt2、…、Nt9、Nt10は、それぞれ、時刻Tkから時間Lb前までの間に視点サリエンス値Vtとして「0.0」、「0.1」、「0.2」、…、「0.9」、「1.0」が出現した(視点サリエンス値選出部304によって選出された)回数である。図9において、例えば真出現回数Nt3は「100」である。これは、時刻Tkから時間Lb前までの間に視点サリエンス値Vtとして「0.3」が90回出現したことを意味する。
一方、偽出現回数Nf0、Nf1、Nf2、…、Nf9、Nf10は、それぞれ、時刻Tkから時間Lb前までの間にランダムサリエンス値Vfとして「0.0」、「0.1」、「0.2」、…、「0.9」、「1.0」が出現した(ランダムサリエンス値選出部305によって選出された)回数である。図9において、例えば偽出現回数Nf5は「70」である。これは、時刻Tkから時間Lb前までの間にランダムサリエンス値Vfとして「0.5」が70回出現したことを意味する。
ROC曲線算出部307は、「0.0」、「0.1」、「0.2」、…、「0.9」、「1.0」、「1.1」それぞれの真出現総数St0、St1、St2、…、St9、St10、St11を算出する。
真出現総数St0、St1、St2、…、St9、St10、St11は、それぞれ、視点サリエンス値Vtとして0.0以上、0.1以上、0.2以上、…、0.9以上、1.0以上、1.1以上のサリエンス値が出現した回数である。すなわち、例えば、真出現総数St0は、0.0以上のサリエンス値が視点サリエンス値Vtとして出現した回数であって、真出現回数Nt0~Nt10の合計値である。または、真出現総数St3は、0.3以上のサリエンス値が視点サリエンス値Vtとして出現した回数であって、真出現回数Nt3~Nt10の合計値である。
さらに、ROC曲線算出部307は、「0.0」、「0.1」、「0.2」、…、「0.9」、「1.0」、「1.1」それぞれの偽出現総数Sf0、Sf1、Sf2、…、Sf9、Sf10、Sf11を算出する。
偽出現総数Sf0、Sf1、Sf2、…、Sf9、Sf10、Sf11は、それぞれ、ランダムサリエンス値Vfとして0.0以上、0.1以上、0.2以上、…、0.9以上、1.0以上、1.1以上のサリエンス値が出現した回数である。すなわち、例えば、偽出現総数Sf0は、0.0以上のサリエンス値がランダムサリエンス値Vfとして出現した回数であって、偽出現回数Nf0~Nf10の合計値である。または、偽出現総数Sf6は、0.6以上のサリエンス値がランダムサリエンス値Vfとして出現した回数であって、偽出現回数Nf6~Nf10の合計値である。
本例では、真出現総数St0~St11および偽出現総数Sf0~Sf11として、図10に示す値が得られる。
ROC曲線算出部307は、「0.0」、「0.1」、「0.2」、…、「0.9」、「1.0」、「1.1」それぞれの真陽性率Rt0、Rt1、Rt2、…、Rt9、Rt10、Rt11を算出する。
真陽性率Rt0、Rt1、Rt2、…、Rt9、Rt10、Rt11は、それぞれ、真出現総数St0、St1、St2、…、St9、St10、St11を総和Wtで割った値である。総和Wtは、真出現回数Nt0~Nt10の合計値であって、本例では「960」である。
さらに、ROC曲線算出部307は、「0.0」、「0.1」、「0.2」、…、「0.9」、「1.0」、「1.1」それぞれの偽陽性率Rf0、Rf1、Rf2、…、Rf9、Rf10、Rf11を算出する。
偽陽性率Rf0、Rf1、Rf2、…、Rf9、Rf10、Rf11は、それぞれ、偽出現総数Sf0、Sf1、Sf2、…、Sf9、Sf10、Sf11を総和Wfで割った値である。総和Wfは、偽出現回数Nf0~Nf10の合計値であって、本例では「960」である。
本例では、真陽性率Rt0~Rt10および偽陽性率Rf0~Rf10として、図11に示す値が得られる。
そして、ROC曲線算出部307は、サリエンス値が共通する真陽性率Rtと偽陽性率Rfとを組み合わせ、真陽性率RtがX座標の値であり偽陽性率RfがY座標の値である点をXY平面に配置する。つまり、(Rt0,Rf0)、(Rt1,Rf1)、(Rt2,Rf2)、…、(Rt9,Rf9)、(Rt10,Rf10)、(Rt11,Rf11)の各座標の点を配置する。そして、隣り合う点同士を線で結ぶ。
これにより、図12(A)に示すように11本の線が連続的にXY平面上に引かれる。これらの11本の線を繋いだものがROC曲線である。
AUCスコア算出部308は、ROC曲線が算出されるごとに、算出されたROC曲線、X=1である直線、およびY=0である直線(X軸)の3本の線によって囲まれる領域つまり図12(B)にグレー色で示す領域の面積をAUC(Area Under Curve)スコアPとして算出する。
AUCスコアPは、直近の所定の時間における視点サリエンス値Vtが全体的にランダムサリエンス値Vfと比べてどの程度離れているかを表わしていると、言える。つまり、直近の所定の時間における視点サリエンス値Vtの全体的な傾向とランダムサリエンス値Vfの全体的な傾向との乖離の具合を表わしていると、言える。AUCスコアPが0.5に近いほど、歩行者11の視覚的な注意力が欠けていると考えられる。
AUCスコア出力部309は、AUCスコア算出部308によって算出されたAUCスコアPを例えば次のように出力する。
AUCスコア出力部309は、AUCスコアPが算出されるごとに、図13のように、最新のAUCスコアPであるAUCスコアPおよび直近の所定の期間(例えば、20秒間)のAUCスコアPを時刻の早い順にプロットした折れ線グラフ70をタッチパネルディスプレイ38に表示させる。または、折れ線グラフ70の画像データをスマートグラス2へ送信することによってディスプレイ24に表示させてもよい。AUCスコアPを示すデータをスマートグラス2へ送信し、コントロールユニット21が折れ線グラフ70を生成してもディスプレイ24に表示させてよい。
または、AUCスコア出力部309は、折れ線グラフ70だけでなく、AUCスコアPを表わす数字もタッチパネルディスプレイ38またはディスプレイ24に表示させてもよい。この場合は、すべてのAUCスコアPを表示させると見にくいので、間引きして表示するのが好ましい。例えば、1秒ごとに最新のAUCスコアPを表示させればよい。
さらに、AUCスコア出力部309は、AUCスコアPから歩行者11の注意の状態を推定し、折れ線グラフ70またはAUCスコアPを表わす数字とともにディスプレイ24またはタッチパネルディスプレイ38に表示させてもよい。
例えば、歩行者11が明るいところに居る場合において、AUCスコアPが0.5に近ければ、AUCスコア出力部309は、歩行者11の意識が散漫である、つまり、注意の程度が低いと、推定する。具体的には、|P-0.5|≦U、であれば、そのように推定する。「U」は所定の値であって、例えば、「0.05」である。「U」は、オペレータが任意に調整することができる。または、環境に応じて変更できるようにしてもよい。
そして、|P-0.5|≦U、である状態が一定の時間(例えば、3秒)続いた場合は、AUCスコア出力部309は、図14のように、「ぼーっとしているようです。注意して下さい。」または「疲れているようです。休憩して下さい。」のような警告のメッセージ71をタッチパネルディスプレイ38に表示させる。メッセージ71をディスプレイ24へ送信し、図14のように表示させてもよい。スマートグラス2または解析装置3にスピーカが備わりまたは接続されている場合は、メッセージ71をこのスピーカから音声によって出力してもよい。
AUCスコア出力部309は、さらに視線の動きにも基づいて、歩行者11の注意の程度を推定してもよい。具体的には、|P-0.5|≦U、であり、かつ、直近の所定の時間における視線の動きが所定の距離未満である場合に、歩行者11の注意の程度が低いと推定し、メッセージ71を出力してもよい。
この方法によると、歩行者11が明るいところに居るか暗いところに居るかに関わらず、歩行者11がスマートフォンを操作しながら歩いている場合に警告を与えることができる。人間はスマートフォンを操作している際にサリエンス値の高いところを凝視し続けるからである。
そこで、AUCスコア出力部309は、|P-0.5|≦U、であり、かつ、直近の所定の時間における視線の動きが所定の距離未満である場合に、メッセージ71として「歩きながらスマートフォンを操作していませんか?」というメッセージを出力させてもよい。
または、スマートグラス2にジャイロセンサが設けられているならば、AUCスコア出力部309は、|P-0.5|≦U、であり、かつ、直近の所定の時間における視線の動きが所定の距離未満である場合に、ジャイロセンサによる測定値に基づいて歩行者11の鉛直方向に対する首の傾きを算出する。そして、首の傾きが所定の角度(例えば、30度)以上であれば、スマートフォンを操作していると判別し、メッセージ71として「歩きながらスマートフォンを操作していませんか?」というメッセージを出力させる。所定の角度未満であれば、「ぼーっとしているようです。注意して下さい。」というメッセージを出力させる。
歩行者11が暗いところに居る場合において、AUCスコアPが、0.5よりも大きい所定の値(例えば、0.7)以上である状態が一定の時間(例えば、5秒)続いたら、「暗いところにも注意しながら歩いて下さい。」のようなメッセージ72をタッチパネルディスプレイ38またはディスプレイ24に表示させ、またはスピーカから音声によって出力させてもよい。メッセージ72は、歩いている場合にのみ出力させ、止まっているときは出力させないようにしてもよい。
なお、AUCスコア出力部309は、歩行者11が明るいところに居るか暗いところに居るかを、スマートグラス2または解析装置3のクロックが指す時刻によって判別すればよい。具体的には、時刻が日中の時間帯に属する場合は歩行者11が明るいところに居ると判別し、夜の時間帯に属する場合は暗いところに居ると判別すればよい。または、動画像データ5Bの各フレーム4Aの全体の輝度に基づいて判別してもよい。具体的には、全体の輝度が所定の値以上であれば明るいところに居ると判別し、所定の値未満である場合は暗いところに居ると判別すればよい。
歩いているか立ち止まっているかは、スマートグラス2の加速度センサまたは歩行者11のスマートフォンもしくはタブレットコンピュータによって判別させ、解析装置3へ通知させればよい。または、動画像データ5Bに基づいてAUCスコア出力部309が判別してもよい。
図15は、解析装置3における全体的な処理の流れの例を説明するためのフローチャートである。
次に、歩行者11の注意の状態を可視化する全体的な処理の流れを、フローチャートを参照しながら説明する。
歩行者11がスマートグラス2を身に付けている間、視線センサ22は、歩行者11の視線の動きを検出しその結果を視線データ5Aとしてリアルタイムに解析装置3へ送信する。また、ビデオカメラ23は、歩行者11がスマートグラス2を身に付けている間、動画像を撮影しストリーミングによってリアルタイムに動画像データ5Bを解析装置3へ送信する。
解析装置3は、歩行者11がスマートグラス2を身に付けている間、注意可視化プログラム30に基づいて、図15に示す手順で処理をリアルタイムに実行する。
解析装置3は、視線データ5Aを視線センサ22から受信するごとに(図15の#701でYes)、視線データ5Aを記憶する(#702)。
または、ビデオカメラ23からストリーミングで送信されてくる動画像データ5Bをデコードすることによってフレーム6Aのデータが得られるごとに(#703でYes)、解析装置3は、サリエンシーマップ6Bを生成し記憶する(#704)。
解析装置3は、同じ時刻の視線データ5Aおよびサリエンシーマップ6Bが揃ったら(#705でYes)、その時刻の視点サリエンス値Vtおよびランダムサリエンス値Vfをその視線データ5Aおよびサリエンシーマップ6Bに基づいて選出し記憶する(#706、#707)。
解析装置3は、時間Taごとに(#708でYes)、直近の所定の個数の視点サリエンス値Vtおよびランダムサリエンス値Vfに基づいてROC曲線を算出し(#709)、AUCスコアPを算出する(#710)。
そして、解析装置3は、直近の所定の個数のAUCスコアPを折れ線グラフ70として出力する(#711)。なお、前述の通り、歩行者11の注意の状態をAUCスコアPに基づいて推定し、推定した状態に応じたメッセージを折れ線グラフ70とともに出力してもよい。
解析装置3は、歩行者11がスマートグラス2を身に付けている間(#712でYes)、ステップ#702の処理、ステップ#704の処理、ステップ#706~#707の処理、およびステップ#709~#711の処理を適宜、リアルタイムに実行する。
本実施形態によると、歩行者11の注意の状態をリアルタイムに監視するための新たな技術を得ることができる。
〔変形例〕
図16は、折れ線グラフ70の提示の仕方の変形例を示す図である。
本実施形態では、サリエンス値は0.1刻みであったが、もっと細かくてもよい。例えば、0.01刻みであってもよいし、0.05刻みであってもよい。または、もっと疎らであってもよい。例えば、0.2刻みであってもよい。
本実施形態では、視線データ5Aおよび動画像データ5Bが同時に視線センサ22またはビデオカメラ23によって取得されたが、どちらかが若干遅れて取得される場合がある。このような場合は、解析装置3の各部は、取得された時刻が最も近いもの同士が同時に取得されたものとみなして、上述の各処理を実行すればよい。
本実施形態では、視線データ5Aおよびフレーム6Aを取得するインターバルと、ROC曲線およびAUCスコアPを算出するインターバルとが同じであった。つまり、ともに時間Taであった。しかし、ROC曲線およびAUCスコアPを算出するインターバルをもう少し長くしてもよい。例えば、時間Taの5~100倍くらいにしてもよい。
本実施形態では、解析装置3は、折れ線グラフ70、メッセージ71~73をディスプレイ24に表示させたが、歩行者11のスマートフォンまたはタブレットコンピュータのディスプレイに表示させてもよい。または、歩行者11が子どもでありまたは介護を必要とする者である場合は、歩行者11の保護者または介護者のスマートフォンまたはタブレットコンピュータに表示させてもよい。
本実施形態では、解析装置3は、約1000個の視点サリエンス値Vtおよびランダムサリエンス値Vfを用いてそれぞれのヒストグラムを算出したが、もっと多くの視点サリエンス値Vtおよびランダムサリエンス値Vfを用いてそれぞれのヒストグラムを算出してもよいし、もっと少ない視点サリエンス値Vtおよびランダムサリエンス値Vfを用いてそれぞれのヒストグラムを算出してもよい。
本実施形態では、ランダムサリエンス値選出部305は、図7に示したように1つのサリエンシーマップ6Bからランダムサリエンス値Vfを1つだけ選出したが、ランダムに決めた複数の部分それぞれのサリエンス値をランダムサリエンス値Vfとして選出してもよい。例えば、1つのサリエンシーマップ6Bの中のランダムに決めた500個所の部分から、合計500個のサリエンス値をランダムサリエンス値Vfとして選出してもよい。
ランダムサリエンス値Vfの個数が増えるほどプロセッサ31への負荷が大きくなるが、個数が少ない場合よりもサリエンシーマップ6Bにおけるサリエンス値の分布がROC曲線に明確に表われ、ノイズを軽減することができる。
AUCスコア出力部309は、折れ線グラフ70またはAUCスコアPとともに、最新のフレーム6Aおよびサリエンシーマップ6Bをディスプレイ24またはタッチパネルディスプレイ38に表示させてもよい。この際に、フレーム6Aおよびサリエンシーマップ6Bを並べてもよい。または、サリエンシーマップ6Bを透過GIF(Graphics Interchange Format)のような透過フォーマットに変換し、フレーム6Aの上に重ねてもよい。さらに、フレーム6Aまたはサリエンシーマップ6Bの上に、歩行者11の視線の軌跡を表示させてもよい。
本実施形態では、歩行者11の注意の状態を監視するためにサリエンシーマップ6Bおよび視線データ5Aが用いられたが、他の目的のために用いてもよい。例えば、屋外の看板またはデジタルサイネージなどのアイテムが歩行者11にどれくらい注目されたのかを定量化するために用いてもよい。
解析装置3は、AUCスコアだけでなく他の要素を組み合わせて歩行者11の注意の状態を検出してもよい。例えば、瞬きの頻度を視線とともに視線センサ22によって測定し、これらの情報を組み合わせて歩行者11の注意の状態を検出してもよい。さらに、局所での輝度のエントロピー、局所での輝度の分散、または空間周波数などを組み合わせて歩行者11の注意の状態を検出してもよい。
具体的には、AUCスコア、瞬きの頻度、局所での輝度のエントロピー、局所での輝度の分散、および空間周波数のうちの2~6つをパラメータとする関数を予め用意しておき、解析装置3は、この関数に基づいて注意の度合または集中度を算出してもよい。この場合も、集中度の変化を折れ線グラフとして表示させればよい。
図5に示した、解析装置3の機能の全部または一部を他の装置に設けてもよい。例えば、視線データ記憶部301ないしAUCスコア出力部309のすべてを歩行者11のスマートフォンまたはタブレットコンピュータに設けてもよい。
本実施形態では、注意可視化システム1は、歩行の際の注意の状態を監視するために用いられたが、他の活動の際の注意の状態を監視するために用いてもよい。
例えば、買物客が店舗内で買物する際の注意の状態を監視するために解析装置3を用いてもよい。この場合は、店舗の経営者が注目してもらいたいアイテム(例えば、ポスターまたはデジタルサイネージ)を買物客がどれくらい注目しているのかを定量化したり、買物客が注目する想定外のアイテムを検出したりするためにも、注意可視化システム1を用いることができる。
または、読者がウェブページまたは雑誌などのドキュメントを読む際の状態を監視するために解析装置3を用いてもよい。この場合は、ドキュメントに掲載される広告を読者がどれくらい注目しているのかを定量化したり、読者が注目する想定外の部分を検出したりするためにも、注意可視化システム1を用いることができる。ドキュメントまたは広告を読んでいる際の目の動きを測定してもよい。
本実施形態では、サリエンシーマップ生成部302は、非特許文献1に記載される方法によってサリエンシーマップ6Bを生成した。サリエンシーマップ6Bは、ボトムアップ注意(bottom up attention)のデータである。サリエンシーマップ6Bの代わりに他の方法によってボトムアップ注意のデータを生成し、マップデータ記憶部303以降の処理に使用してもよい。例えば、歩行者11の脳を観察することによって生成してもよい(A saliency based search mechanism for overt and covert shifts of visual attention. Itti L, Koch C. Vision Res. 2000;40(1012):1489 506. 参照)。または、Brain Simulation Saliency(Veale Richard, Hafed Ziad M. and Yoshida Masatoshi, How is visual salience computed in the brain? Insights from behaviour, neurobiology and modelling372Phil. Trans. R. Soc. B)によって生成してもよい。または、Bayesian Surprise Saliency(Laurent Itti, Pierre Baldi, Bayesian surprise attracts human attention, Vision Research, Volume 49, Issue 10, 2009, Pages 1295-1306, ISSN 0042-6989, https://doi.org/10.1016/j.visres.2008.09.007.)によって生成してもよい。または、Boolean Maps Saliency(Zhang, Jianming and Stan Sclaroff. "Saliency Detection: A Boolean Map Approach." 2013 IEEE International Conference on Computer Vision (2013): 153-160.)によって生成してもよい。
本実施形態では、歩行者11の注意の状態を表わす値としてAUCスコアを算出したが、AUCスコアの代わりに他の計算方法によって他の値を算出してもよい。例えば、NSS(normalized sum of square)またはT値(T-value)を算出してもよい。または、歩行者11の注意の状態を表わす値を、AUCスコア、NSS、およびT値を組み合わせて算出してもよい。
本実施形態では、AUCスコア出力部309は、AUCスコアPの折れ線グラフ70を1つだけ表示させた。しかし、AUCスコア算出部308が異なる条件でそれぞれAUCスコアPを算出し、AUCスコア出力部309がそれぞれのAUCスコアPの折れ線グラフ70を表示させてもよい。例えば、短期的な注意の状態、中期的な注意の状態、および長期的な注意の状態を監視するために、時間Lbがそれぞれ5秒、20秒、60秒に設定された場合のAUCスコアPを算出し、図16のように、それぞれの折れ線グラフ70A、70B、および70Cを表示させてもよい。
その他、注意可視化システム1、スマートグラス2、解析装置3の全体または各部の構成、処理の内容、処理の順序、データの構成などは、本発明の趣旨に沿って適宜変更することができる。
1 注意可視化システム(注意状態監視システム)
11 歩行者(被験者)
22 視線センサ(視線検知手段)
23 ビデオカメラ(画像取得手段)
304 視点サリエンス値選出部(第一の選出手段)
305 ランダムサリエンス値選出部(第二の選出手段)
308 AUCスコア算出部(算出手段)
309 AUCスコア出力部(出力手段)
5A 視線データ
6A フレーム(画像)
Vf ランダムサリエンス値(第二のサリエンス値)
Vt 視点サリエンス値(第一のサリエンス値)
P AUCスコア

Claims (12)

  1. 被験者の視覚的な注意の状態をリアルタイムに監視する注意状態監視システムであって、
    前記被験者の視界の画像を取得する画像取得手段と、
    定期的に前記被験者の視線を検知する視線検知手段と、
    前記視線が検知されるごとに、前記画像の中の前記被験者が注目する注目部分の顕著性の高さを第一のサリエンス値として当該検知された視線に基づいて選出する第一の選出手段と、
    前記視線が検知されるごとに、前記画像の中のランダムに決めたランダム部分の顕著性の高さを第二のサリエンス値として選出する第二の選出手段と、
    所定のタイミングが訪れるごとに、直近の所定の時間内に選出された前記第一のサリエンス値および前記第二のサリエンス値に基づいて前記注意の程度を算出する算出手段と、
    前記程度を出力する出力手段と、
    を有することを特徴とする注意状態監視システム。
  2. 前記画像取得手段は、定期的に前記被験者の視界を撮影することによって前記画像を取得し、
    前記第一の選出手段は、前記視線が検知された時点、当該時点の直前、または当該時点の直後に前記画像取得手段によって取得された前記画像である直近画像の中の前記注目部分の顕著性の高さを前記第一のサリエンス値として選出し、
    前記第二の選出手段は、前記直近画像の中の前記ランダム部分の顕著性の高さを前記第二のサリエンス値として選出する、
    請求項1に記載の注意状態監視システム。
  3. 前記算出手段は、前記程度として、前記所定の時間内に選出された前記第一のサリエンス値の全体的な傾向と前記所定の時間内に選出された前記第二のサリエンス値の全体的な傾向との乖離の度合を算出する、
    請求項1または請求項2に記載の注意状態監視システム。
  4. 前記算出手段は、前記度合として、前記所定の時間内に選出された前記第一のサリエンス値および前記所定の時間内に選出された前記第二のサリエンス値のROC(Receiver Operatorating Characteristic)曲線のAUC(Area Under Curve)スコアを算出する、
    請求項3に記載の注意状態監視システム。
  5. 前記出力手段は、前記度合に応じて警告を出力する、
    請求項3または請求項4に記載の注意状態監視システム。
  6. 前記出力手段は、前記度合および前記被験者の周囲の状況に応じた警告を出力する、
    請求項3または請求項4に記載の注意状態監視システム。
  7. 前記出力手段は、前記被験者が明るいところに居りかつ前記AUCスコアと0.5との差の絶対値が所定の値以下である場合に警告を出力する、
    請求項4に記載の注意状態監視システム。
  8. 前記出力手段は、前記被験者が暗いところに居りかつ前記AUCスコアが0.5よりも大きい所定の値以上である状態が所定の時間以上続いた場合に警告を出力する、
    請求項4に記載の注意状態監視システム。
  9. 前記出力手段は、前記程度をグラフとして出力する、
    請求項1ないし請求項8のいずれかに記載の注意状態監視システム。
  10. 被験者の視覚的な注意の状態をリアルタイムに監視する注意状態監視装置であって、
    視線検知手段によって前記被験者の視線が検知されるごとに、前記被験者の視界の画像の中の前記被験者が注目する注目部分の顕著性の高さを第一のサリエンス値として当該検知された視線に基づいて選出する第一の選出手段と、
    前記視線検知手段によって前記視線が検知されるごとに、前記画像の中のランダムに決めたランダム部分の顕著性の高さを第二のサリエンス値として選出する第二の選出手段と、
    所定のタイミングが訪れるごとに、直近の所定の時間内に選出された前記第一のサリエンス値および前記第二のサリエンス値に基づいて前記注意の程度を算出する算出手段と、
    前記程度を出力する出力手段と、
    を有することを特徴とする注意状態監視装置。
  11. 被験者の視覚的な注意の状態をリアルタイムに監視する注意状態監視方法であって、
    前記被験者の視界の画像を取得し、
    定期的に前記被験者の視線を検知し、
    前記視線が検知されるごとに、前記画像の中の前記被験者が注目する注目部分の顕著性の高さを第一のサリエンス値として当該検知された視線に基づいて選出し、
    前記視線が検知されるごとに、前記画像の中のランダムに決めたランダム部分の顕著性の高さを第二のサリエンス値として選出し、
    所定のタイミングが訪れるごとに、直近の所定の時間内に選出された前記第一のサリエンス値および前記第二のサリエンス値に基づいて前記注意の程度を算出し、
    前記程度を出力する、
    ことを特徴とする注意状態監視方法。
  12. 被験者の視覚的な注意の状態をリアルタイムに監視するコンピュータに用いられるコンピュータプログラムであって、
    前記コンピュータに、
    前記被験者の視線が検知されるごとに、前記被験者の視界の画像の中の前記被験者が注目する注目部分の顕著性の高さを第一のサリエンス値として当該検知された視線に基づいて選出する処理を実行させ、
    前記視線が検知されるごとに、前記画像の中のランダムに決めたランダム部分の顕著性の高さを第二のサリエンス値として選出する処理を実行させ、
    所定のタイミングが訪れるごとに、直近の所定の時間内に選出された前記第一のサリエンス値および前記第二のサリエンス値に基づいて前記注意の程度を算出する処理を実行させ、
    前記程度を出力する処理を実行させる、
    ことを特徴とするコンピュータプログラム。
JP2019120184A 2019-06-27 2019-06-27 注意状態監視システム、注意状態監視装置、注意状態監視方法、およびコンピュータプログラム Active JP7244011B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019120184A JP7244011B2 (ja) 2019-06-27 2019-06-27 注意状態監視システム、注意状態監視装置、注意状態監視方法、およびコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019120184A JP7244011B2 (ja) 2019-06-27 2019-06-27 注意状態監視システム、注意状態監視装置、注意状態監視方法、およびコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2021005325A JP2021005325A (ja) 2021-01-14
JP7244011B2 true JP7244011B2 (ja) 2023-03-22

Family

ID=74098250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019120184A Active JP7244011B2 (ja) 2019-06-27 2019-06-27 注意状態監視システム、注意状態監視装置、注意状態監視方法、およびコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP7244011B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110229025A1 (en) 2010-02-10 2011-09-22 Qi Zhao Methods and systems for generating saliency models through linear and/or nonlinear integration
JP2015011526A (ja) 2013-06-28 2015-01-19 Kddi株式会社 行動認識装置、方法及びプログラム並びに認識器構築装置
JP2017505733A (ja) 2014-01-15 2017-02-23 国防科学技術大学 運転者の安全運転状態を検知する方法及び装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110229025A1 (en) 2010-02-10 2011-09-22 Qi Zhao Methods and systems for generating saliency models through linear and/or nonlinear integration
JP2015011526A (ja) 2013-06-28 2015-01-19 Kddi株式会社 行動認識装置、方法及びプログラム並びに認識器構築装置
JP2017505733A (ja) 2014-01-15 2017-02-23 国防科学技術大学 運転者の安全運転状態を検知する方法及び装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
山田 健太郎 他,顕著性と自己運動に基づく一人称視点における視覚的注意推定,情報処理学会 シンポジウム 画像の認識・理解シンポジウム(MIRU) 2011 [online] ,日本,情報処理学会,2011年07月20日
橋本 真一 他,顕著性マップによる主観的画質評価における注視領域の推定,電子情報通信学会技術研究報告 ,日本,一般社団法人電子情報通信学会,2015年07月03日,Vol.115 No.133,第21-24頁

Also Published As

Publication number Publication date
JP2021005325A (ja) 2021-01-14

Similar Documents

Publication Publication Date Title
US11403771B2 (en) Image processing apparatus, monitoring system, image processing method, and program
US10867195B2 (en) Systems and methods for monitoring driver state
US10209516B2 (en) Display control method for prioritizing information
JP4876687B2 (ja) 注目度計測装置及び注目度計測システム
US11373408B2 (en) Image processing apparatus, monitoring system, image processing method, and program
US11282248B2 (en) Information display by overlay on an object
EP2697792A1 (en) Apparatus, systems and methods for providing motion tracking using a personal viewing device
JP2020057111A (ja) 表情判定システム、プログラム及び表情判定方法
US20190064528A1 (en) Information processing device, information processing method, and program
US11004273B2 (en) Information processing device and information processing method
JP6221292B2 (ja) 集中度判定プログラム、集中度判定装置、および集中度判定方法
JP2008237625A (ja) 見え方度判定装置
JP2019029747A (ja) 画像監視システム
JP7244011B2 (ja) 注意状態監視システム、注意状態監視装置、注意状態監視方法、およびコンピュータプログラム
JP7523512B2 (ja) 情報処理装置、情報提示システム、情報処理方法、及び情報処理プログラム
US12093445B2 (en) State estimation device, method and computer program therefor
JP2022082283A (ja) 情報処理装置及びプログラム
JP2011209622A (ja) 情報提供装置、情報提供方法、及びプログラム
CN112114659A (zh) 用于确定用户的精细的注视点的方法和系统
WO2024047990A1 (ja) 情報処理装置
EP4400947A1 (en) High-attention feature detection
JP7380365B2 (ja) 状態推定装置

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20190716

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230301

R150 Certificate of patent or registration of utility model

Ref document number: 7244011

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150