JP2020182093A - 監視表示装置 - Google Patents
監視表示装置 Download PDFInfo
- Publication number
- JP2020182093A JP2020182093A JP2019083414A JP2019083414A JP2020182093A JP 2020182093 A JP2020182093 A JP 2020182093A JP 2019083414 A JP2019083414 A JP 2019083414A JP 2019083414 A JP2019083414 A JP 2019083414A JP 2020182093 A JP2020182093 A JP 2020182093A
- Authority
- JP
- Japan
- Prior art keywords
- monitoring
- person
- character
- control unit
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 209
- 238000001514 detection method Methods 0.000 claims abstract description 72
- 238000000034 method Methods 0.000 claims description 37
- 230000004044 response Effects 0.000 claims description 25
- 230000036544 posture Effects 0.000 description 34
- 238000004891 communication Methods 0.000 description 24
- 238000009434 installation Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 8
- 238000005259 measurement Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 238000013459 approach Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000005484 gravity Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000009118 appropriate response Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000005611 electricity Effects 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Closed-Circuit Television Systems (AREA)
- Alarm Systems (AREA)
Abstract
Description
なお、監視システム1は、それぞれ異なる複数の監視対象をそれぞれ管理する複数の管理装置20を有してもよい。その場合、監視システム1は、各監視対象から離れた位置に設置された監視センタに配置されたサーバ装置をさらに有し、サーバ装置が、各管理装置20が管理する情報を収集し、管理してもよい。
音声入力部14は、マイクロフォンと、光電変換素子から出力された電気信号を増幅し、アナログ/デジタル(A/D)変換するA/D変換器とを有する。音声入力部14は、入力された音声をデジタルの入力音声に変換して制御部18へ出力する。
音声出力部15は、例えばスピーカ等であり、制御部18からの指示に従って音声を出力する。特に、音声出力部15は、警備員キャラクタの音声を出力する。
また、記憶部17は、データとして、キャラクタテーブル171を記憶する。キャラクタテーブルの詳細については後述する。また、記憶部17は、データとして、監視空間における監視表示装置10の設置位置、及び、入場ゲートや立入禁止区域等の特定エリアの位置を記憶する。また、記憶部17は、データとして、監視空間におけるセンサ12の配置位置、及び、パルスレーザの照射方向を記憶する。また、記憶部17は、データとして、撮像部13により撮像される画像内の各画素と、監視空間内の各位置との対応関係を示すマップ情報を記憶する。
制御部18は、撮像部13が監視空間を撮像した入力画像又は音声入力部14が集音した入力音声を、通信部16を介して管理装置20へ送信する。また、制御部18は、通信部16を介して管理装置20から受信した監視員の音声を音声出力部15から出力する。
第2音声入力部22は、音声入力部14と同様の構成を有し、入力された音声をデジタルの音声データに変換して第2制御部26へ出力する。
第2音声出力部23は、音声出力部15と同様の構成を有し、第2制御部26からの指示に従って音声を出力する。
第2制御部26は、第2通信部24を介して監視表示装置10から受信した入力画像を第2表示部21に表示するとともに、第2通信部24を介して監視表示装置10から受信した入力音声を第2音声出力部23から出力する。また、第2制御部26は、第2音声入力部22から入力された監視員による音声を、第2通信部24を介して監視表示装置10に送信する。
表示部11は、例えば、液晶ディスプレイ又は有機ELディスプレイ等のモニターの表示面にミラーパネル111を貼り合わせることにより形成されている。ミラーパネル111は、外側(監視空間側)からの光を反射しつつ、内側(モニター側)からの光(画像)を透過する。これにより、表示部11は、監視空間Aを往来する人物H1、H2の像を反射させて表示しつつ、制御部18から出力された警備員キャラクタC1の画像を表示する。
ミラーパネル111の外枠112には、センサ12が監視空間Aに向けて近赤外線のパルスレーザを投光可能に配置される。同様に、外枠112には、撮像部13が監視空間Aを撮像可能に配置され、音声入力部14が監視空間Aの音を集音可能に配置され、音声出力部15が監視空間Aに向けて音を出力可能に配置される。なお、センサ12、撮像部13、音声入力部14及び音声出力部15の配置は外枠112に限られるものではなく、ミラーパネル111越しに配置されてもよい。
各警備員キャラクタは、それぞれ性別、顔立ち及び/又は体つき等が異なるように設定される。キャラクタ画像として、キャラクタ画像自体、又は、キャラクタ画像が記憶されたアドレスが記憶される。監視状況は、監視表示装置10が監視する監視空間の状況であり、時間帯、又は、監視空間内に存在する人物の階層等である。時間帯は、例えば通勤時間帯(6時〜9時、17時〜20時)、日中(9時〜17時)、夜間(20時〜6時)等で区分される。人物の階層は、種別(ビジネスパーソン、作業員、家族連れ等)、性別及び/又は年齢(大人、子供)等であり、何れか1つ又は複数が組み合わせて用いられる。また、監視空間内の人物の階層は監視空間に存在する人物の人数や割合等を考慮して決定される。例えば、人物の階層として性別を用いる場合、監視空間内で検知された人物の男女比が多い方の性別を監視空間内の人物の階層として決定する。ここで、後述の状況検出部181により監視空間内の人物の階層が「男性」と決定された場合、表示制御部183は、監視状況「男性」と関連付けられた「男性の警備員キャラクタ」を表示部11に表示するよう制御する。また、人物の階層として性別及び年齢を用いる場合は、例えば、「女性と子供」、「男性(子供を除く)」のように人物の階層を分けて、監視空間内で検知された人物の比率(人数)が多い方を監視空間内の人物の階層として決定する。なお、比率が多い方を監視空間内の人物の階層として決定する例に限らず、「女性と子供」が所定割合(例えば、30%)以上の場合、「女性と子供」を監視空間内の人物の階層として決定してもよい。また、監視空間に存在する男性、女性、大人、子供の各人数を検出し、最も人数が多い階層を監視空間内の人物の階層として決定してもよい。
人物検知部182は、入力画像から人物を検知する。人物検知部182は、例えばフレーム間差分処理または背景差分処理を利用して、順次撮影された複数の入力画像において輝度値の時間的な変化を有する変化領域を抽出する。人物検知部182は、抽出した各変化領域の大きさ、形状等の特徴量に基づいて、人物らしいと考えられる変化領域を人物領域として抽出する。人物検知部182は、抽出した人物領域に対してSobelフィルタなどを用いて輝度変化の傾き方向が分かるようにエッジ画素を抽出する。人物検知部182は、抽出したエッジ画素から、例えば一般化ハフ変換を用いて、所定の大きさを有する、頭部の輪郭形状を近似した楕円形状のエッジ分布を検出し、そのエッジ分布に囲まれた領域を顔領域として抽出する。なお、人物検知部182は、Adaboost識別器等の他の公知の方法を用いて顔領域を抽出してもよい。人物検知部182は、入力画像から顔領域を抽出した場合、その顔領域に対応する人物領域に含まれる人物を監視空間内の人物として検出する。そして、人物検知部182は、マップ情報に基づいて、検出した人物の足元が写っている、人物領域の最下端の画素に対応する監視空間内の位置を人物位置として特定する。人物検知部182は、複数の顔領域が抽出された場合、抽出した顔領域毎に人物を検出して人物位置を特定する。
人物検知部182は、複数の入力画像にわたって抽出された人物領域に対して公知のトラッキング技術を利用して追跡処理を行い、同一人物が写っている人物領域同士を対応付けることにより人物領域を追跡する。人物検知部182は、例えば、現フレームから抽出された人物領域の重心位置と、前フレームから抽出された人物領域の重心位置の距離を求めて、その距離が閾値以下である場合に、その人物領域に写っている人物を同一人物として対応付ける。なお、人物領域が複数抽出されている場合、人物検知部182は、距離が閾値以下である人物領域の内、重心位置が最も近い人物領域に写っている人物を同一人物として対応付ける。また、人物検知部182は、オプティカルフロー、パーティクルフィルタ等の他の公知の方法を用いて人物領域の追跡処理を行ってもよい。
なお、人物検知部182は、センサ12から取得した測距データから人物を検知した場合、今回検出された人物位置と、前回検出された人物位置の距離を求めて、その距離が閾値以下である場合に、その人物位置に対応する人物を同一人物として対応付ける。なお、人物が複数検知されている場合、人物検知部182は、距離が閾値以下である人物位置の内、最も近い人物位置に対応する人物を同一人物として対応付ける。
例えば、表示制御部183は、人物検知部182により検知された人物の内、監視表示装置10への接近速度が速度閾値以上である人物を対象人物に決定する。その場合、表示制御部183は、検知された人物毎に、各人物の最新の人物位置から監視表示装置10の設置位置までの第1距離と、その人物の直前の人物位置から監視表示装置10の設置位置までの第2距離とを算出する。表示制御部183は、第2距離から第1距離を減算した値を、各人物位置を特定するために使用された各入力画像の撮像時刻又は各測距データの取得時刻の間の時間で除算した値を、各人物の監視表示装置10への接近速度として算出する。
なお、表示制御部183は、人物検知部182により検知された人物の内、監視表示装置10との間の距離が距離閾値未満である人物を対象人物に決定してもよい。その場合、表示制御部183は、検知された人物毎に、各人物の最新の人物位置から監視表示装置10の設置位置までの距離を、監視表示装置10との間の距離として算出する。
また、表示制御部183は、接近速度が速度閾値以上であった人物又は監視表示装置10との間の距離が距離閾値未満である人物の最新の接近速度が第2速度閾値未満である場合に、その人物を対象人物に決定してもよい。第2速度閾値は、速度閾値より小さい値に設定され、例えば一般的な人物がゆっくり歩く速度(例えば時速1km)に設定される。これにより、表示制御部183は、監視表示装置10に近寄って立ち止まった人物を対象人物に設定することができる。
例えば、表示制御部183は、機械学習技術を用いて、人物の属性を特定する。監視表示装置10は、様々な属性を有する人物が写っている複数のサンプル画像を用いて、各サンプル画像が入力された場合にそのサンプル画像に写っている人物の属性を出力するように事前に学習された識別器を記憶部17に記憶しておく。表示制御部183は、入力画像内の人物領域を切り出して識別器に入力し、識別器から出力された属性を、その人物領域に写っている人物の属性として取得する。
なお、表示制御部183は、特徴量マッチング技術を用いて、各人物の属性を特定してもよい。監視表示装置10は、様々な属性を有する人物が写っている複数のサンプル画像から算出された「目」「鼻」「口」「体」等の各部位の特徴量をその属性と関連付けて事前に記憶部17に記憶しておく。特徴量は、ハールライク(Haar-Like)特徴量又はHOG(Histogram of Oriented Gradient)特徴量等である。表示制御部183は、入力画像内の人物領域から、各部位の位置又は形状等の特徴に基づいて各部位を検出し、その特徴量を算出する。表示制御部183は、算出した特徴量と、記憶部17に記憶しておいた各特徴量との類似の程度を算出し、類似の程度が最も高い特徴量に関連付けられた属性を、その人物領域に写っている人物の属性として取得する。類似の程度は、正規化相互相関値等である。
表示制御部183は、所定の属性(例えば男性、20歳以上、緊迫した表情等)を有する人物に限り、対象人物に決定する。これにより、表示制御部183は、より注意を払うべき人物に対して警備員キャラクタの存在感を強く発揮させることが可能となる。
なお、表示制御部183は、対象人物を抽出できなかった場合、対応処理を中止又は終了する。
また、表示制御部183は、各対象人物に対して優先度を設定してもよい。例えば、表示制御部183は、監視表示装置10の設置位置又は特定エリアの位置に近い対象人物ほど高くなるように優先度を設定する。または、表示制御部183は、移動速度が大きい対象人物ほど高くなるように優先度を設定してもよい。そして、表示制御部183は、優先度が高い対象人物から順に警備員キャラクタの視線を向けるように視線方向を決定する。なお、表示制御部183は、優先度が高い対象人物ほど警備員キャラクタの視線を向ける時間を長くしてもよい。これにより、表示制御部183は、より危険性が高い人物に対して、見られている意識を強く与えることが可能となる。
また、表示制御部183は、各対象人物の人物位置及び/又は各対象人物の移動方向に基づいて、各対象人物をグループ化してもよい。例えば、表示制御部183は、人物位置が特定の距離内である一又は複数の対象人物、及び/又は、移動方向(ベクトル)の差が特定の範囲内である一又は複数の対象人物を一つのグループにまとめる。表示制御部183は、一定時間毎に、警備員キャラクタの視線を向けるグループを変更し、そのグループに含まれる各対象人物の人物位置の重心位置に警備員キャラクタの視線を向けるように視線方向を決定する。これにより、表示制御部183は、検知された人物が多数存在する場合に、視線を効率良く変更することができる。
また、表示制御部183は、各対象人物の接近速度、又は、監視表示装置10との間の距離に応じて、表示部11に表示される警備員キャラクタがジェスチャー等により人物に案内したり指示を出したりするときの手の高さ(位置)等を変更してもよい。これにより、表示制御部183は、監視表示装置10に接近する人物の目線の高さにあわせて、警備員キャラクタを動作させることができる。
例えば、表示制御部183は、対象人物の姿勢に応じて、警備員キャラクタの姿勢を変更する。その場合、表示制御部183は、対象人物毎に、各人物の姿勢を特定する。表示制御部183は、人物の姿勢として、敬礼の姿勢又はしゃがむ姿勢等を特定する。
例えば、表示制御部183は、機械学習技術を用いて、人物の姿勢を特定する。監視表示装置10は、様々な姿勢を取っている人物が写っている複数のサンプル画像を用いて、各サンプル画像が入力された場合にそのサンプル画像に写っている人物の姿勢を出力するように事前に学習された識別器を記憶部17に記憶しておく。表示制御部183は、入力画像内の人物領域を切り出して識別器に入力し、識別器から出力された姿勢を、その人物領域に写っている人物の姿勢として取得する。
なお、表示制御部183は、特徴量マッチング技術を用いて、各人物の姿勢を特定してもよい。監視表示装置10は、様々な姿勢を有する人物が写っている複数のサンプル画像から算出された「顔」「腕」「足」「体」等の各部位の特徴量をその姿勢と関連付けて事前に記憶部17に記憶しておく。特徴量は、ハールライク特徴量又はHOG特徴量等である。人物検知部182は、入力画像内の人物領域から、各部位の位置又は形状等の特徴に基づいて各部位を検出し、その特徴量を算出する。人物検知部182は、算出した特徴量と、記憶部17に記憶しておいた各特徴量との類似の程度を算出し、類似の程度が最も高い特徴量に関連付けられた姿勢を、その人物領域に写っている人物の姿勢として取得する。
また、表示制御部183は、対象人物が登録者である場合、警備員キャラクタの姿勢を変更してもよい。例えば、表示制御部183は、対象人物が登録者である場合、警備員キャラクタが敬礼の姿勢を取るように警備員キャラクタの表示を制御する。また、出力制御部183は、検知された人物が登録者である場合、登録者に応じた音声を出力してもよい。例えば、出力制御部183は、検知された人物が登録者である場合、警備員キャラクタが「○○さん、お疲れ様です。」と音声出力するように制御する。これにより、表示制御部183は、登録者に対して個別のサービスを提供することができる。
または、状況検出部181は、監視空間内の人物の階層(種別、性別及び/又は年齢等)を監視状況として検出してもよい。その場合、状況検出部181は、最新の入力画像から監視空間内の人物の階層を検出する。例えば、状況検出部181は、機械学習技術を用いて、人物の階層を特定する。監視表示装置10は、様々な階層に属する人物が写っている複数のサンプル画像を用いて、各サンプル画像が入力された場合にそのサンプル画像に写っている人物が属する階層を出力するように事前に学習された識別器を記憶部17に記憶しておく。状況検出部181は、入力画像内の人物領域を切り出して識別器に入力し、識別器から出力された階層を、その人物領域に写っている人物の階層として取得する。
なお、状況検出部181は、特徴量マッチング技術を用いて、各人物が属する階層を特定してもよい。監視表示装置10は、様々な階層に属する人物が写っている複数のサンプル画像から算出された「目」「鼻」「口」「顔」「体」等の各部位の特徴量をその属性と関連付けて事前に記憶部17に記憶しておく。特徴量は、ハールライク特徴量又はHOG特徴量等である。表示制御部183は、入力画像内の人物領域から、各部位の位置又は形状等の特徴に基づいて各部位を検出し、その特徴量を算出する。表示制御部183は、算出した特徴量と、記憶部17に記憶しておいた各特徴量との類似の程度を算出し、類似の程度が最も高い特徴量に関連付けられた階層を、その人物領域に写っている人物が属する階層として取得する。そして、表示制御部183は、各階層のうち最も人数が多い階層等を監視空間内の人物の階層(監視状況)として検出する。
表示制御部183は、対応処理の実行中に警備員キャラクタの交代を禁止することにより、監視空間内の人物を警戒中(追跡中)又は監視空間内の人物と対話中に警備員キャラクタの画像が切り替わることを防止できる。したがって、表示制御部183は、自然なタイミングで警備員キャラクタを交代させて、警備員キャラクタに、より本物の警備員らしい振る舞いを行わせることが可能となる。
Claims (4)
- 立哨する警備員を模した複数のキャラクタの画像を、監視空間における監視状況と関連付けて記憶する記憶部と、
前記キャラクタの画像を表示する表示部と、
前記監視空間における現在の監視状況を検出する状況検出部と、
前記監視空間内の人物を検知する人物検知部と、
前記状況検出部により検出された監視状況に関連付けられたキャラクタの画像を前記表示部に表示するとともに前記表示するキャラクタの動作を表示制御し、当該キャラクタに前記人物検知部により検知された人物に対する対応を実行させる表示制御部と、を有し、
前記表示制御部は、前記状況検出部により検出される監視状況が変化した場合、前記表示部に表示しているキャラクタの画像を、新たに検出された監視状況に関連付けられたキャラクタの画像に切り替える、
ことを特徴とする監視表示装置。 - 前記状況検出部は、現在の時間帯を前記監視状況として検出する、請求項1に記載の監視表示装置。
- 前記状況検出部は、前記監視空間内の人物の階層を前記監視状況として検出する、請求項1に記載の監視表示装置。
- 前記表示制御部は、前記状況検出部により検出される監視状況が変化した時に、前記キャラクタによる前記対応を実行中であった場合、前記キャラクタの画像の切り替えを禁止し、前記キャラクタによる前記対応を終了した時に前記キャラクタの画像を切り替える、請求項1〜3の何れか一項に記載の監視表示装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019083414A JP7334054B2 (ja) | 2019-04-24 | 2019-04-24 | 監視表示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019083414A JP7334054B2 (ja) | 2019-04-24 | 2019-04-24 | 監視表示装置 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020182093A true JP2020182093A (ja) | 2020-11-05 |
JP2020182093A5 JP2020182093A5 (ja) | 2022-04-19 |
JP7334054B2 JP7334054B2 (ja) | 2023-08-28 |
Family
ID=73023491
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019083414A Active JP7334054B2 (ja) | 2019-04-24 | 2019-04-24 | 監視表示装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7334054B2 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012242187A (ja) * | 2011-05-17 | 2012-12-10 | Yupiteru Corp | システム及びプログラム |
JP2017007033A (ja) * | 2015-06-22 | 2017-01-12 | シャープ株式会社 | ロボット |
JP2018014575A (ja) * | 2016-07-19 | 2018-01-25 | Gatebox株式会社 | 画像表示装置、画像表示方法及び画像表示プログラム |
JP3214565U (ja) * | 2017-11-06 | 2018-01-25 | テイケイ株式会社 | 警備装置 |
JP3214724U (ja) * | 2017-11-17 | 2018-02-01 | テイケイ株式会社 | ネットワーク型警備システムおよび防犯装置 |
JP2018077556A (ja) * | 2016-11-07 | 2018-05-17 | テイケイ株式会社 | 据え置き型警備装置 |
-
2019
- 2019-04-24 JP JP2019083414A patent/JP7334054B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012242187A (ja) * | 2011-05-17 | 2012-12-10 | Yupiteru Corp | システム及びプログラム |
JP2017007033A (ja) * | 2015-06-22 | 2017-01-12 | シャープ株式会社 | ロボット |
JP2018014575A (ja) * | 2016-07-19 | 2018-01-25 | Gatebox株式会社 | 画像表示装置、画像表示方法及び画像表示プログラム |
JP2018077556A (ja) * | 2016-11-07 | 2018-05-17 | テイケイ株式会社 | 据え置き型警備装置 |
JP3214565U (ja) * | 2017-11-06 | 2018-01-25 | テイケイ株式会社 | 警備装置 |
JP3214724U (ja) * | 2017-11-17 | 2018-02-01 | テイケイ株式会社 | ネットワーク型警備システムおよび防犯装置 |
Also Published As
Publication number | Publication date |
---|---|
JP7334054B2 (ja) | 2023-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111383421B (zh) | 隐私保护跌倒检测方法和系统 | |
US9224037B2 (en) | Apparatus and method for controlling presentation of information toward human object | |
US20190026560A1 (en) | Human flow analysis method, human flow analysis apparatus, and human flow analysis system | |
JP4506381B2 (ja) | 単独行動者及びグループ行動者検知装置 | |
JP5396062B2 (ja) | 電子広告システム | |
US20120141000A1 (en) | Method and system for image analysis | |
JP4691708B2 (ja) | ステレオカメラを用いた白杖使用者検出システム | |
JP6109288B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2019106631A (ja) | 画像監視装置 | |
JP7151789B2 (ja) | 情報処理装置 | |
CN108182098A (zh) | 接待语言选择方法、系统及接待机器人 | |
CN115136174A (zh) | 增强现实顾客识别系统和方法 | |
US20220036056A1 (en) | Image processing apparatus and method for recognizing state of subject | |
JP7334054B2 (ja) | 監視表示装置 | |
US11176357B2 (en) | Fast face image capture system | |
JP2017054229A (ja) | 人物判別システム | |
JP3088880B2 (ja) | 人物認識装置 | |
JP7356524B2 (ja) | 監視表示装置 | |
JP7312598B2 (ja) | 監視表示装置 | |
JP2017173455A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP7453192B2 (ja) | ユーザの動的状態に応じて物体認識に基づく情報を提示する携帯装置、プログラム及び方法 | |
CN113724454B (zh) | 移动设备的互动方法、移动设备、装置及存储介质 | |
KR102544147B1 (ko) | 영상분석 기반 1인 낙상 감지 시스템 및 방법 | |
JP6287527B2 (ja) | 情報処理装置、方法及びプログラム | |
JP2022045276A (ja) | 対話型応対装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220411 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220411 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230414 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230801 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230816 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7334054 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |