JP7312598B2 - 監視表示装置 - Google Patents
監視表示装置 Download PDFInfo
- Publication number
- JP7312598B2 JP7312598B2 JP2019083407A JP2019083407A JP7312598B2 JP 7312598 B2 JP7312598 B2 JP 7312598B2 JP 2019083407 A JP2019083407 A JP 2019083407A JP 2019083407 A JP2019083407 A JP 2019083407A JP 7312598 B2 JP7312598 B2 JP 7312598B2
- Authority
- JP
- Japan
- Prior art keywords
- person
- control unit
- character
- display device
- security guard
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Transforming Electric Information Into Light Information (AREA)
- Burglar Alarm Systems (AREA)
- Studio Devices (AREA)
- Controls And Circuits For Display Device (AREA)
Description
なお、監視システム1は、それぞれ異なる複数の監視対象をそれぞれ管理する複数の管理装置20を有してもよい。その場合、監視システム1は、各監視対象から離れた位置に設置された監視センタに配置されたサーバ装置をさらに有し、サーバ装置が、各管理装置20が管理する情報を収集し、管理してもよい。
音声入力部14は、マイクロフォンと、光電変換素子から出力された電気信号を増幅し、アナログ/デジタル(A/D)変換するA/D変換器とを有する。音声入力部14は、入力された音声をデジタルの入力音声に変換して制御部18へ出力する。
音声出力部15は、例えばスピーカ等であり、制御部18からの指示に従って音声を出力する。特に、音声出力部15は、警備員キャラクタの音声を出力する。
また、記憶部17は、データとして、監視空間における監視表示装置10の設置位置、及び、入場ゲートや立入禁止区域等の特定エリアの位置を記憶する。また、記憶部17は、データとして、監視空間におけるセンサ12の配置位置、及び、パルスレーザの照射方向を記憶する。また、記憶部17は、データとして、撮像部13により撮像される画像内の各画素と、監視空間内の各位置との対応関係を示すマップ情報を記憶する。
制御部18は、撮像部13が監視空間を撮像した入力画像又は音声入力部14が集音した入力音声を、通信部16を介して管理装置20へ送信する。また、制御部18は、通信部16を介して管理装置20から受信した監視員の音声を音声出力部15から出力する。
第2音声入力部22は、音声入力部14と同様の構成を有し、入力された音声をデジタルの音声データに変換して第2制御部26へ出力する。
第2音声出力部23は、音声出力部15と同様の構成を有し、第2制御部26からの指示に従って音声を出力する。
第2制御部26は、第2通信部24を介して監視表示装置10から受信した入力画像を第2表示部21に表示するとともに、第2通信部24を介して監視表示装置10から受信した入力音声を第2音声出力部23から出力する。また、第2制御部26は、第2音声入力部22から入力された監視員による音声を、第2通信部24を介して監視表示装置10に送信する。
表示部11は、例えば、液晶ディスプレイ又は有機ELディスプレイ等のモニターの表示面にミラーパネル111を貼り合わせることにより形成されている。ミラーパネル111は、外側(監視空間側)からの光を反射しつつ、内側(モニター側)からの光(画像)を透過する。これにより、表示部11は、監視空間Aを往来する人物H1、H2の像を反射させて表示しつつ、制御部18から出力された警備員キャラクタCの画像を表示する。
ミラーパネル111の外枠112には、センサ12が監視空間Aに向けて近赤外線のパルスレーザを投光可能に配置される。同様に、外枠112には、撮像部13が監視空間Aを撮像可能に配置され、音声入力部14が監視空間Aの音を集音可能に配置され、音声出力部15が監視空間Aに向けて音を出力可能に配置される。なお、センサ12、撮像部13、音声入力部14及び音声出力部15の配置は外枠112に限られるものではなく、ミラーパネル111越しに配置されてもよい。
人物検知部181は、入力画像から人物を検知する。人物検知部181は、例えばフレーム間差分処理または背景差分処理を利用して、順次撮影された複数の入力画像において輝度値の時間的な変化を有する変化領域を抽出する。人物検知部181は、抽出した各変化領域の大きさ、形状等の特徴量に基づいて、人物らしいと考えられる変化領域を人物領域として抽出する。人物検知部181は、抽出した人物領域に対してSobelフィルタなどを用いて輝度変化の傾き方向が分かるようにエッジ画素を抽出する。人物検知部181は、抽出したエッジ画素から、例えば一般化ハフ変換を用いて、所定の大きさを有する、頭部の輪郭形状を近似した楕円形状のエッジ分布を検出し、そのエッジ分布に囲まれた領域を顔領域として抽出する。なお、人物検知部181は、Adaboost識別器等の他の公知の方法を用いて顔領域を抽出してもよい。人物検知部181は、入力画像から顔領域を抽出した場合、その顔領域に対応する人物領域に含まれる人物を監視空間内の人物として検出する。そして、人物検知部181は、マップ情報に基づいて、検出した人物の足元が写っている、人物領域の最下端の画素に対応する監視空間内の位置を人物位置として特定する。人物検知部181は、複数の顔領域が抽出された場合、抽出した顔領域毎に人物を検出して人物位置を特定する。
また、 人物検知部181は、音声入力部14から入力音声を取得し、取得した入力音声から人物を検知してもよい。人物検知部181は、入力音声の音圧が、予め設定された閾値以上である場合に、監視空間に人物が存在すると判定する。なお、人物検知部181は、入力音声の周波数が、予め設定された範囲内である場合に、監視空間に人物が存在すると判定してもよい。
人物検知部181は、複数の入力画像にわたって抽出された人物領域に対して公知のトラッキング技術を利用して追跡処理を行い、同一人物が写っている人物領域同士を対応付けることにより人物領域を追跡する。人物検知部181は、例えば、現フレームから抽出された人物領域の重心位置と、前フレームから抽出された人物領域の重心位置の距離を求めて、その距離が閾値以下である場合に、その人物領域に写っている人物を同一人物として対応付ける。なお、人物領域が複数抽出されている場合、人物検知部181は、距離が閾値以下である人物領域の内、重心位置が最も近い人物領域に写っている人物を同一人物として対応付ける。また、人物検知部181は、オプティカルフロー、パーティクルフィルタ等の他の公知の方法を用いて人物領域の追跡処理を行ってもよい。
なお、人物検知部181は、センサ12から取得した測距データから人物を検知した場合、今回検出された人物位置と、前回検出された人物位置の距離を求めて、その距離が閾値以下である場合に、その人物位置に対応する人物を同一人物として対応付ける。なお、人物が複数検知されている場合、人物検知部181は、距離が閾値以下である人物位置の内、最も近い人物位置に対応する人物を同一人物として対応付ける。
接近状態検知部182は、接近状態として、人物検知部181により検知された人物の監視表示装置10への接近速度を検知する。その場合、接近状態検知部182は、検知された人物毎に、各人物の最新の人物位置から監視表示装置10の設置位置までの第1距離と、その人物の直前の人物位置から監視表示装置10の設置位置までの第2距離とを算出する。接近状態検知部182は、第2距離から第1距離を減算した値を、各人物位置を特定するために使用された各入力画像の撮像時刻又は各測距データの取得時刻の間の時間で除算した値を、各人物の監視表示装置10への接近速度として算出する。
なお、接近状態検知部182は、接近状態として、人物検知部181により検知された人物の監視表示装置10との間の距離を検知してもよい。その場合、接近状態検知部182は、検知された人物毎に、各人物の最新の人物位置から監視表示装置10の設置位置までの距離を、監視表示装置10との間の距離として算出する。
また、接近状態検知部182は、接近状態として、監視表示装置10へ接近している人物の人数を検知してもよい。その場合、接近状態検知部182は、接近速度を検知する場合と同様に第1距離及び第2距離を算出し、第1距離が第2距離より小さい人物の人数を、監視表示装置10へ接近している人物の人数として算出する。
または、出力制御部183は、監視表示装置10の最も近くに存在する人物と監視表示装置10との間の距離が距離閾値(例えば1m)未満である場合、警備員キャラクタの表情を厳格な表情に決定し、その距離が距離閾値以上である場合、警備員キャラクタの表情を温和な表情に決定する。
または、出力制御部183は、監視表示装置10へ接近している人物の人数が人数閾値(例えば3人)以上である場合、警備員キャラクタの表情を厳格な表情に決定し、その人数が人数閾値未満である場合、警備員キャラクタの表情を温和な表情に決定する。
なお、出力制御部183は、各人物の接近速度、監視表示装置10との間の距離、又は監視表示装置10へ接近している人物の人数に応じて、警備員キャラクタの表情を段階的に変更してもよい。
または、出力制御部183は、監視表示装置10の最も近くに存在する人物と監視表示装置10との間の距離が距離閾値未満である場合、警備員キャラクタの視線の向け方を激しい視線の向け方に決定し、その距離が距離閾値以上である場合、警備員キャラクタの視線の向け方を緩やかな視線の向け方に決定する。
または、出力制御部183は、監視表示装置10へ接近している人物の人数が人数閾値以上である場合、警備員キャラクタの視線の向け方を激しい視線の向け方に決定し、その人数が人数閾値未満である場合、警備員キャラクタの視線の向け方を緩やかな視線の向け方に決定する。
なお、出力制御部183は、各人物の接近速度、監視表示装置10との間の距離、又は監視表示装置10へ接近している人物の人数に応じて、警備員キャラクタの視線の向け方を段階的に変更してもよい。
なお、接近速度が速度閾値以上である人物又は監視表示装置10との間の距離が距離閾値未満である人物が複数存在する場合、出力制御部183は、警備員キャラクタの視線を向ける人物を一定時間毎に変更してもよい。
また、出力制御部183は、接近速度が速度閾値以上である人物又は監視表示装置10との間の距離が距離閾値未満である人物の人数に応じて、警備員キャラクタの視線を向ける人物の切り替え時間を変更してもよい。例えば、出力制御部183は、対応する人物の人数が多いほど、警備員キャラクタが各人物に視線を向ける時間を短くする。これにより、出力制御部183は、それぞれの人物に対して、見られている意識を効率良く与えることが可能となる。
また、出力制御部183は、各人物に対して優先度を設定してもよい。例えば、出力制御部183は、接近速度が大きい人物ほど高くなるように優先度を設定する。または、出力制御部183は、監視表示装置10の設置位置又は特定エリアの位置に近い人物ほど高くなるように優先度を設定してもよい。そして、出力制御部183は、優先度が高い人物から順に警備員キャラクタの視線を向けるように視線方向を決定する。なお、出力制御部183は、優先度が高い人物ほど警備員キャラクタの視線を向ける時間を長くしてもよい。これにより、出力制御部183は、より危険性が高い人物に対して、見られている意識を強く与えることが可能となる。
また、出力制御部183は、各人物の人物位置及び/又は各人物の移動方向に基づいて、各人物をグループ化してもよい。例えば、出力制御部183は、人物位置が特定の距離内である一又は複数の人物、及び/又は、移動方向(ベクトル)の差が特定の範囲内である一又は複数の人物を一つのグループにまとめる。出力制御部183は、一定時間毎に、警備員キャラクタの視線を向けるグループを変更し、そのグループに含まれる各人物の人物位置の重心位置に警備員キャラクタの視線を向けるように視線方向を決定する。これにより、出力制御部183は、検知された人物が多数存在する場合に、視線を効率良く変更することができる。
また、出力制御部183は、監視表示装置10との間の距離が距離閾値未満である人物が存在する場合の表示サイズを、監視表示装置10との間の距離が距離閾値未満である人物が存在しない場合の表示サイズの所定倍に設定する。
また、出力制御部183は、監視表示装置10へ接近している人物の人数が人数閾値以上である場合の表示サイズを、その人数が人数閾値未満である場合の表示サイズの所定倍に設定する。
なお、出力制御部183は、各人物の接近速度、監視表示装置10との間の距離、又は監視表示装置10へ接近している人物の人数に応じて、表示サイズを段階的に変更してもよい。
何らかの緊急事態が発生している場合、出力制御部183は、警備員キャラクタの表示サイズを大きくすることにより、警備員キャラクタの存在感を高めることができる。特に、出力制御部183は、監視表示装置10の付近に多数の人物が存在する場合でも、警備員キャラクタの存在感が低減することを抑制できる。
または、出力制御部183は、監視表示装置10の最も近くに存在する人物と監視表示装置10の間の距離が距離閾値未満である場合、警備員キャラクタの声質を硬い声質に決定し、その距離が距離閾値以上である場合、警備員キャラクタの声質を優しい声質に決定する。
または、出力制御部183は、監視表示装置10へ接近している人物の人数が人数閾値以上である場合、警備員キャラクタの声質を硬い声質に決定し、その人数が人数閾値未満である場合、警備員キャラクタの声質を優しい声質に決定する。
なお、出力制御部183は、各人物の接近速度、監視表示装置10との間の距離、又は監視表示装置10へ接近している人物の人数に応じて、警備員キャラクタの声質を段階的に変更してもよい。
これにより、警備員キャラクタの表示を決定したときと同様に、緊急事態の発生が想定されるような場合等においては緊迫感をもって対応している印象を抱かせ、警備員キャラクタに話しかけようとしていることが想定されるような場合等においては話しかけやすさを抱かせることができ、さらに、周囲の人物に安心感を与えることもできる。
監視表示装置10は、例えば、複数の表情毎に、別個の警備員キャラクタの顔画像を予め記憶部17に記憶しておく。出力制御部183は、表示部11に表示される警備員キャラクタの顔画像を、決定された表情に対応する顔画像に置換することにより、警備員キャラクタの画像表示を更新する。
また、監視表示装置10は、例えば、1枚の警備員キャラクタの画像を目、鼻、口、顔の輪郭、首、体、腕、足等の所定のパーツごとに分割し、各パーツにポリゴンを割り当てておく。さらに、監視表示装置10は、複数の視線方向毎に、各視線方向に対応する各パーツのポリゴンの位置及び向きを事前に記憶部17に設定しておく。出力制御部183は、警備員キャラクタが、決定した視線の向け方で視線方向を向くように、ポリゴンを動かし、ポリゴンにあわせて各パーツを動かすことにより、警備員キャラクタの画像表示を更新する。なお、監視表示装置10は、複数の視線の向け方及び視線方向毎に、別個の警備員キャラクタの画像を予め記憶しておいてもよい。その場合、監視表示装置10は、決定した視線の向け方及び視線方向に応じた警備員キャラクタの画像を順次表示させることにより、警備員キャラクタの画像表示を更新する。
また、出力制御部183は、決定した表示サイズで警備員キャラクタが表示されるように、警備員キャラクタの画像表示を更新する。
監視表示装置10は、例えば、警備員キャラクタの発話内容毎に、各音声特性に対応する音声パターンを予め記憶部17に記憶しておく。出力制御部183は、決定された音声特性に対応する音声パターンを音声出力部15から出力することにより、警備員キャラクタの音声特性を変更する。
一方、出力制御部183は、ステップS106~S109の内、二つ以上の処理を組み合わせて実行することにより、監視空間内に存在する人物に対して、より適切な対応を行うことが可能となる。
例えば、人物検知部181は、機械学習技術を用いて、人物の属性を特定する。監視表示装置10は、様々な属性を有する人物が写っている複数のサンプル画像を用いて、各サンプル画像が入力された場合にそのサンプル画像に写っている人物の属性を出力するように事前に学習された識別器を記憶部17に記憶しておく。人物検知部181は、入力画像内の人物領域を切り出して識別器に入力し、識別器から出力された属性を、その人物領域に写っている人物の属性として取得する。
なお、人物検知部181は、特徴量マッチング技術を用いて、各人物の属性を特定してもよい。監視表示装置10は、様々な属性を有する人物が写っている複数のサンプル画像から算出された「目」「鼻」「口」「体」等の各部位の特徴量をその属性と関連付けて事前に記憶部17に記憶しておく。特徴量は、ハールライク(Haar-Like)特徴量又はHOG(Histogram of Oriented Gradient)特徴量等である。人物検知部181は、入力画像内の人物領域から、各部位の位置又は形状等の特徴に基づいて各部位を検出し、その特徴量を算出する。人物検知部181は、算出した特徴量と、記憶部17に記憶しておいた各特徴量との類似の程度を算出し、類似の程度が最も高い特徴量に関連付けられた属性を、その人物領域に写っている人物の属性として取得する。類似の程度は、正規化相互相関値等である。
出力制御部183は、監視表示装置10に接近する人物又は監視表示装置10の近傍に存在する人物が所定の属性(例えば男性、20歳以上、緊迫した表情等)を有する場合に限り警備員キャラクタの立哨に係る態様を変更する。これにより、出力制御部183は、より注意を払うべき人物に対して警備員キャラクタの存在感を強く発揮させることが可能となる。
なお、 人物の表情を接近状態とする場合について、緊迫した表情であるか否かにより警備員キャラクタの表示態様及び/又は音声態様を決定する例について説明したがこれに限られるものではなく、例えば、不安そうな表情であるか否かにより決定するようにしてもよい。この場合、人物の表情が不安そうな表情である場合に、温和な表情、緩やかな視線の向け方、優しい声質に決定することにより人物に話しかけやすさや安心感を与えることができる。
例えば、人物検知部181は、機械学習技術を用いて、人物の姿勢を特定する。監視表示装置10は、様々な姿勢を取っている人物が写っている複数のサンプル画像を用いて、各サンプル画像が入力された場合にそのサンプル画像に写っている人物の姿勢を出力するように事前に学習された識別器を記憶部17に記憶しておく。人物検知部181は、入力画像内の人物領域を切り出して識別器に入力し、識別器から出力された姿勢を、その人物領域に写っている人物の姿勢として取得する。
なお、人物検知部181は、特徴量マッチング技術を用いて、各人物の姿勢を特定してもよい。監視表示装置10は、様々な姿勢を有する人物が写っている複数のサンプル画像から算出された「顔」「腕」「足」「体」等の各部位の特徴量をその姿勢と関連付けて事前に記憶部17に記憶しておく。特徴量は、ハールライク特徴量又はHOG特徴量等である。人物検知部181は、入力画像内の人物領域から、各部位の位置又は形状等の特徴に基づいて各部位を検出し、その特徴量を算出する。人物検知部181は、算出した特徴量と、記憶部17に記憶しておいた各特徴量との類似の程度を算出し、類似の程度が最も高い特徴量に関連付けられた姿勢を、その人物領域に写っている人物の姿勢として取得する。
出力制御部183は、検知された人物が所定の姿勢を取っている場合に限り警備員キャラクタの立哨に係る態様を変更する。これにより、出力制御部183は、より注意を払うべき人物に対して警備員キャラクタの存在感を強く発揮させることが可能となる。
また、出力制御部183は、検知された人物の属性に応じて警備員キャラクタの姿勢を変更してもよい。例えば、出力制御部183は、検知された人物が子供又は車いすの使用者である場合、警備員キャラクタがしゃがむように警備員キャラクタの表示を制御する。これらにより、出力制御部183は、警備員キャラクタに対する親しみやすさ及び話しかけやすさを監視空間内の人物に抱かせることができる。
Claims (5)
- 監視表示装置であって、
立哨警備するキャラクタの画像を表示する表示部と、
監視空間内の人物を検知する人物検知部と、
前記人物検知部により検知された人物の前記監視表示装置への接近状態を検知する接近状態検知部と、
前記表示するキャラクタの動作を表示制御し、前記接近状態検知部により検知された接近状態に応じて、前記表示されたキャラクタの立哨に係る態様を変更する表示制御部と、
を有することを特徴とする監視表示装置。 - 前記接近状態検知部は、前記接近状態として、前記人物検知部により検知された人物の前記監視表示装置への接近速度を検知する、請求項1に記載の監視表示装置。
- 前記表示制御部は、前記キャラクタの立哨に係る態様として、前記キャラクタの表情を変更する、請求項1または2に記載の監視表示装置。
- 前記表示制御部は、前記キャラクタの立哨に係る態様として、前記キャラクタの視線の向け方を変更する、請求項1~3の何れか一項に記載の監視表示装置。
- 前記キャラクタの音声を出力する音声出力部と、
前記表示されたキャラクタが発する音声を出力制御し、前記接近状態に応じて、前記キャラクタが発する声質を変更する音声制御部と、をさらに有する、請求項1~4の何れか一項に記載の監視表示装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019083407A JP7312598B2 (ja) | 2019-04-24 | 2019-04-24 | 監視表示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019083407A JP7312598B2 (ja) | 2019-04-24 | 2019-04-24 | 監視表示装置 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020181346A JP2020181346A (ja) | 2020-11-05 |
JP2020181346A5 JP2020181346A5 (ja) | 2022-04-19 |
JP7312598B2 true JP7312598B2 (ja) | 2023-07-21 |
Family
ID=73024776
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019083407A Active JP7312598B2 (ja) | 2019-04-24 | 2019-04-24 | 監視表示装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7312598B2 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007251556A (ja) | 2006-03-15 | 2007-09-27 | Omron Corp | 監視装置および方法、画像処理装置および方法、並びにプログラム |
JP2011059528A (ja) | 2009-09-11 | 2011-03-24 | Sony Corp | 表示装置および制御方法 |
JP2013131824A (ja) | 2011-12-20 | 2013-07-04 | Nikon Corp | 電子機器 |
JP2014211704A (ja) | 2013-04-17 | 2014-11-13 | 公立大学法人福島県立医科大学 | 回診支援ロボットおよび回診支援ロボットの制御プログラム |
JP2018014575A (ja) | 2016-07-19 | 2018-01-25 | Gatebox株式会社 | 画像表示装置、画像表示方法及び画像表示プログラム |
JP2018077556A (ja) | 2016-11-07 | 2018-05-17 | テイケイ株式会社 | 据え置き型警備装置 |
-
2019
- 2019-04-24 JP JP2019083407A patent/JP7312598B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007251556A (ja) | 2006-03-15 | 2007-09-27 | Omron Corp | 監視装置および方法、画像処理装置および方法、並びにプログラム |
JP2011059528A (ja) | 2009-09-11 | 2011-03-24 | Sony Corp | 表示装置および制御方法 |
JP2013131824A (ja) | 2011-12-20 | 2013-07-04 | Nikon Corp | 電子機器 |
JP2014211704A (ja) | 2013-04-17 | 2014-11-13 | 公立大学法人福島県立医科大学 | 回診支援ロボットおよび回診支援ロボットの制御プログラム |
JP2018014575A (ja) | 2016-07-19 | 2018-01-25 | Gatebox株式会社 | 画像表示装置、画像表示方法及び画像表示プログラム |
JP2018077556A (ja) | 2016-11-07 | 2018-05-17 | テイケイ株式会社 | 据え置き型警備装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2020181346A (ja) | 2020-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7528970B2 (ja) | 映像監視システム、映像監視方法、及びプログラム | |
US9224037B2 (en) | Apparatus and method for controlling presentation of information toward human object | |
US6754373B1 (en) | System and method for microphone activation using visual speech cues | |
WO2007074842A1 (ja) | 画像処理装置 | |
CN108182098A (zh) | 接待语言选择方法、系统及接待机器人 | |
CN111767785A (zh) | 人机交互控制方法及装置、智能机器人及存储介质 | |
CN110582781A (zh) | 视线追踪系统及方法 | |
JP7340063B2 (ja) | 警備システム及び監視表示装置 | |
JP6120444B2 (ja) | ウェアラブルデバイス | |
JP2016076259A (ja) | 情報処理装置、情報処理方法及びプログラム | |
KR20160007341A (ko) | 글라스형 웨어러블 디바이스의 버스도착 알림방법 및 이를 이용한 글라스형 웨어러블 디바이스용 프로그램 | |
CN109986553B (zh) | 一种主动交互的机器人、系统、方法及存储装置 | |
CN111797654A (zh) | 驾驶员疲劳状态检测方法、装置、存储介质及移动终端 | |
JP7312598B2 (ja) | 監視表示装置 | |
JP7334054B2 (ja) | 監視表示装置 | |
JP3088880B2 (ja) | 人物認識装置 | |
Roy et al. | ORCap: Object recognition cap (a navigation system for the blind) | |
JP7356524B2 (ja) | 監視表示装置 | |
JP6321848B2 (ja) | ウェアラブルデバイス | |
Manresa-Yee et al. | Towards hands-free interfaces based on real-time robust facial gesture recognition | |
CN114663919A (zh) | 人体姿势检测方法、装置、电子设备及存储介质 | |
JP2023047410A (ja) | ユーザの動的状態に応じて物体認識に基づく情報を提示する携帯装置、プログラム及び方法 | |
CN113724454A (zh) | 移动设备的互动方法、移动设备、装置及存储介质 | |
JP7574018B2 (ja) | 対話型応対装置 | |
JP7545267B2 (ja) | 対話型応対装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220411 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220411 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230605 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230620 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230710 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7312598 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |