JP2019177973A - 入力装置及び入力方法 - Google Patents
入力装置及び入力方法 Download PDFInfo
- Publication number
- JP2019177973A JP2019177973A JP2018067670A JP2018067670A JP2019177973A JP 2019177973 A JP2019177973 A JP 2019177973A JP 2018067670 A JP2018067670 A JP 2018067670A JP 2018067670 A JP2018067670 A JP 2018067670A JP 2019177973 A JP2019177973 A JP 2019177973A
- Authority
- JP
- Japan
- Prior art keywords
- operation panel
- user
- display
- unit
- closed space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 43
- 238000001514 detection method Methods 0.000 claims abstract description 34
- 238000003384 imaging method Methods 0.000 claims 6
- 238000010586 diagram Methods 0.000 description 12
- 238000009434 installation Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 210000001747 pupil Anatomy 0.000 description 3
- 238000011410 subtraction method Methods 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000001028 reflection method Methods 0.000 description 1
Images
Landscapes
- Indicating And Signalling Devices For Elevators (AREA)
- Cage And Drive Apparatuses For Elevators (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】 利用者にとってスムーズな操作が可能で、誤った操作が発生しない入力装置を提供する。【解決手段】 利用者やエレベーター内の様子を撮像するカメラと、カメラで撮像された画像に含まれているエレベーター利用者の顔向きを推定する顔向き推定部と、顔向き推定部によって推定された利用者の顔向きから、操作盤の表示位置を決定する表示制御部と、表示制御部によって決定された表示位置に操作盤を表示する表示装置と、顔向き推定部によって推定された利用者の顔向きから、利用者が表示装置によって表示された操作盤を向いているかを推定し、操作の可否を判定する操作可否判定部と、操作可否判定部によって判定された操作の可否及びカメラで撮影された画像に含まれている利用者の身体部位の位置から操作盤の操作を検出する操作検出部と、操作検出部によって検出された操作に応じて、エレベーターを制御するエレベーター制御部とを備える。【選択図】 図2
Description
本発明は、機器の制御を実行可能にする入力装置及び入力方法に関する。
従来、機器の制御を実行するためには、利用者は操作盤が設置されている位置まで移動し、ボタンを押すなどする必要があった。
例えば、エレベーターにおいては、階登録やドア開閉を実行するための操作盤は、扉付近の壁や側面の壁に設置されており、利用者は乗車後に操作盤付近まで移動して、目的の階のボタンやドア開閉ボタンを押す必要がある。利用者が操作のため操作盤付近まで移動したいと考えても、エレベーターが混雑している状況では移動が困難である。
そこで、利用者の状態に合わせてかご内にある操作盤の位置を可変にすることで、混雑時においてもスムーズに操作盤を操作できるようにする技術がある(例えば、特許文献1参照)。
従来の技術では、利用者の位置をもとに操作盤の表示位置を決定するため、利用者がどちらを向いているかが分からず、利用者の顔や体が向いていない位置に操作盤を表示してしまう可能性がある。その結果、利用者は操作盤を視認できず、スムーズに操作盤を操作できないという問題点があった。
本発明は、上述のような課題を解決するためになされたもので、利用者にとってスムーズな操作が可能な入力装置及び入力方法を提供することを目的とする。
本発明の一態様に係る操作盤入力装置は、閉空間の内部にいる前記閉空間の利用者を撮像するカメラと、前記カメラで撮像された画像に含まれている1または複数の前記利用者の顔向きを推定する顔向き推定部と、前記顔向き推定部によって推定された前記顔向きの方向に操作盤の表示位置を決定する表示制御部と、前記表示位置に前記操作盤を表示する表示装置とを備えることを特徴とする。
本発明は、利用者に対して簡単に操作盤の位置を視認させることができ、これによりスムーズな操作盤の操作が可能となる。
実施の形態1.
図1は、本実施の形態にかかる入力装置200を持つエレベーターかご100の構成を示す説明図である。エレベーターかご100は、カメラ1、操作盤表示部2、表示装置12(図示しない)、天井100a、正面壁100b、側面壁100c、床面100d、及び入力装置200を備える。入力装置200が、カメラ1を含む構成であってもよい。また、表示装置12は、天井100a、正面壁100b、側面壁100c及び床面100dのうちの一箇所以上の操作盤表示部2に映像を表示できるものであればよい。つまり、操作盤表示部2は、天井100a、正面壁100b、側面壁100c及び床面100dのうちの一箇所以上に表示される表示面である。表示装置12は、例えば、ディスプレイやプロジェクタである。表示装置12がプロジェクタまたはディスプレイである場合、表示装置12は天井100aの上部や下部、正面壁100b、または側面壁100cの背面などに設置される。また、表示装置12がプロジェクタである場合、表示装置12は天井100a、正面壁100b、側面壁100c、及び床面100dのうちの一箇所以上の面の操作盤表示部2に映像を投影する。
図1は、本実施の形態にかかる入力装置200を持つエレベーターかご100の構成を示す説明図である。エレベーターかご100は、カメラ1、操作盤表示部2、表示装置12(図示しない)、天井100a、正面壁100b、側面壁100c、床面100d、及び入力装置200を備える。入力装置200が、カメラ1を含む構成であってもよい。また、表示装置12は、天井100a、正面壁100b、側面壁100c及び床面100dのうちの一箇所以上の操作盤表示部2に映像を表示できるものであればよい。つまり、操作盤表示部2は、天井100a、正面壁100b、側面壁100c及び床面100dのうちの一箇所以上に表示される表示面である。表示装置12は、例えば、ディスプレイやプロジェクタである。表示装置12がプロジェクタまたはディスプレイである場合、表示装置12は天井100aの上部や下部、正面壁100b、または側面壁100cの背面などに設置される。また、表示装置12がプロジェクタである場合、表示装置12は天井100a、正面壁100b、側面壁100c、及び床面100dのうちの一箇所以上の面の操作盤表示部2に映像を投影する。
図2は、本実施の形態にかかる入力装置200の構成を概略的に示すブロック図である。入力装置200は、カメラ1、顔向き推定部10a、表示制御部11、表示装置12、操作可否判定部20、操作検出部21、及び制御信号出力部22を備える。なお、以降の説明は、カメラ1は入力装置200に含まれる構成とする。
図3は、本実施の形態にかかる入力装置200の内部を上部から見た説明図である。エレベーターかご100を上部から見た場合、エレベーター利用者4、位置320、正面壁100b、側面壁100c、床面100d、及び入力装置200が存在する。なお、位置320は、エレベーター利用者4の顔向きの延長線310と壁面との交点の位置である。
まず、各構成部の機能について説明する。
カメラ1は、エレベーターかご100の内部が撮像できる位置に設置される。カメラ1は、図示しない光学レンズ、光学フィルタ、及びイメージセンサを備える。また、カメラ1は、必要であればイメージセンサを制御するプロセッサを備える。カメラ1は、時間的に連続したデジタル画像の画像データを生成し、出力する(以下、動画像と呼ぶ)。カメラ1から出力される動画像は、カラー信号、またはモノクロ信号である。カラー信号は、RGBでも、YCbCrでも、HSV等でもよい。「RGB」は、3原色の信号(Red(赤:R)、Green(緑:G)、Brue(青:B))を独立した三つの信号として扱うものである。「YCbCr」は、輝度Yと、色差Cb及び色差Crからなり、色差CbはBから輝度Yを差し引いた(B−Y)に特定の定数を掛けた値であり、色差CrはRから輝度Yを差し引いた(R−Y)に特定の定数を掛けた値である。HSVは色相(Hue)、彩度(Saturation・Chroma)、明度(Value・Lightness・Brightness)の三つの成分からなる色空間である。カメラ1と顔向き推定部10aとは操作検出部21へ有線により接続してもよい。同様にカメラ1と操作検出部21とは有線により接続してもよい。また、カメラ1、顔向き推定部10a、または操作検出部21に無線通信部を設け、カメラ1と顔向き推定部10aとを無線通信によるデータ伝送としてもよい。同様にカメラ1と操作検出部21とを無線通信によるデータ伝送としてもよい。以降では、動画像に含まれる連続したデジタル画像の画像データの1枚をフレーム画像と呼び、各処理はフレーム画像を入力として行うように説明するが、必ずフレーム画像である必要はなく、動画像(複数枚のフレーム画像)を利用してもよい。
カメラ1は、エレベーターかご100の内部が撮像できる位置に設置される。カメラ1は、図示しない光学レンズ、光学フィルタ、及びイメージセンサを備える。また、カメラ1は、必要であればイメージセンサを制御するプロセッサを備える。カメラ1は、時間的に連続したデジタル画像の画像データを生成し、出力する(以下、動画像と呼ぶ)。カメラ1から出力される動画像は、カラー信号、またはモノクロ信号である。カラー信号は、RGBでも、YCbCrでも、HSV等でもよい。「RGB」は、3原色の信号(Red(赤:R)、Green(緑:G)、Brue(青:B))を独立した三つの信号として扱うものである。「YCbCr」は、輝度Yと、色差Cb及び色差Crからなり、色差CbはBから輝度Yを差し引いた(B−Y)に特定の定数を掛けた値であり、色差CrはRから輝度Yを差し引いた(R−Y)に特定の定数を掛けた値である。HSVは色相(Hue)、彩度(Saturation・Chroma)、明度(Value・Lightness・Brightness)の三つの成分からなる色空間である。カメラ1と顔向き推定部10aとは操作検出部21へ有線により接続してもよい。同様にカメラ1と操作検出部21とは有線により接続してもよい。また、カメラ1、顔向き推定部10a、または操作検出部21に無線通信部を設け、カメラ1と顔向き推定部10aとを無線通信によるデータ伝送としてもよい。同様にカメラ1と操作検出部21とを無線通信によるデータ伝送としてもよい。以降では、動画像に含まれる連続したデジタル画像の画像データの1枚をフレーム画像と呼び、各処理はフレーム画像を入力として行うように説明するが、必ずフレーム画像である必要はなく、動画像(複数枚のフレーム画像)を利用してもよい。
顔向き推定部10aは、フレーム画像であるカメラ画像I1からエレベーター利用者4の顔向きを推定し、基点と方向の情報とを有する顔向き情報I2を出力する。なお、基点は顔の位置を示す。基点は、例えば鼻先の位置など顔の特定の場所である。
方向の推定方法としては、例えば機械学習を用いた手法がある。本手法の1つの形態では、カメラ1に対して様々な顔向きをした人物の顔画像を複数枚準備し、それぞれの画像について目尻、目頭、鼻の頭、または口角などの顔の特徴となる部分の座標と、顔向き(例えば、カメラ正面を向いた状態を0度として、時計回りで角度を割り当てる)をラベル付けする。これらのラベル情報から、学習と呼ばれる統計的な処理を行い、顔向きと顔の特徴となる部分の座標との関係をモデル化する。
この統計的な処理方法としては、例えば教師あり学習の1つであるSVM(Support Vector Machine)と呼ばれる方法がある。SVMは、識別器の方式を利用することで顔向きを判別するための識別境界線を導出するものである。識別境界線は、データの次元数によっては識別境界面や識別境界超平面となる。「超平面」とは、二次元の平面をそれ以外の次元へ一般化した部分空間をいう。その他、従来から提案されている学習の方式を用いてもよい。
顔向き推定部10aはフレーム画像であるカメラ画像I1を取得し、カメラ画像I1にエレベーター利用者4の顔が映っている場合、学習に用いた顔の特徴となる部分の座標をカメラ画像I1から検出する。その座標と事前に学習したモデルとを比較することで、カメラ画像I1に映っているエレベーター利用者4の顔向きを推定する。
表示制御部11は、顔向き情報I2から操作盤3を表示する操作盤表示部2の位置を決定する。図4は、実施の形態1にかかる表示する操作盤の例を概略的に示す説明図である。操作盤3は、階ボタン3aや扉開閉ボタン3b、及び階表示部3c等を備える。操作盤3の表示方法としては、顔向きの延長線310の先にある天井100a、正面壁100b、側面壁100c及び床面100dなどの構造物の位置320にディスプレイを設置する方法や、それらの位置にプロジェクタで投影する方法がある。
カメラ画像I1から得られた顔向き情報I2をもとに、操作盤表示部2の表示位置を決定するためには、カメラ1がエレベーターかご100内のどこに設置されており、どの方向を向いているかという情報(一般に外部パラメータと呼ばれる)を、事前に知っておく必要がある。また、操作盤表示部2の表示位置を顔向きの延長線と交差するように精度よく決定するためには、設置したカメラ1の焦点距離、光軸の中心位置、またはカメラ1に設置されたレンズの歪曲収差という情報(一般に内部パラメータと呼ばれる)も、事前に獲得しておくことが望ましい。
これらのパラメータを獲得する処理(作業)は、一般的に行われるカメラキャリブレーションという処理(作業)であるが、本実施の形態においてはいかなるカメラキャリブレーションの方法をも利用することができる。例えば、エレベーターかご100の四隅の角(正面壁100b側面壁100c、床面100dが交わる点)など、エレベーターかご100内における位置が既知で且つ固定である点について、カメラ1の画像上で映る座標を手動または自動で決定する。自動で決定する場合は、例えばカメラ1の画像を入力とし、機械学習によってモデル化した四隅の角を画像上から検出する処理を実行する。このようにして複数のエレベーターかご100の空間上の点と画像上の点とで対応を見つけ出し、それらを変換することのできる行列を計算によって求めることで、外部パラメータの推定が可能である。
内部パラメータを獲得する方法は、例えば、チェッカーボードと呼ばれる図柄の紙をカメラ1で撮影する方法がある。「チェッカーボード」とは、均一な大きさの白と黒の矩形が一定間隔で順に並んで描かれているものである。この方法は、画像上に現れる矩形の間隔等を検出することで内部パラメータを獲得する。以上のような方法で獲得したパラメータをもとに、エレベーターかご100内の空間上のある一点が、カメラ画像I1においてどの座標に出現するかを計算によって求めることができる。
先述の方法で、顔向き推定部10aが顔向き情報I2(基点、及び方向)を推定し、外部パラメータと内部パラメータとを獲得できると、エレベーターかご100内においてエレベーター利用者4がどの位置からどの方向を見ているかを、カメラ1の画像から推定することができる。また、天井100a、正面壁100b、側面壁100c及び床面100dの幅や高さなどのサイズ情報が既知であるとした場合、エレベーター利用者4の顔向きの延長線が、天井100a、正面壁100b、側面壁100c及び床面100dのいずれかにおける、どの位置と交差するかを推定することができる。従って、表示制御部11はここで推定した位置に操作盤3を表示することを決定する。表示制御部11は、推定した操作盤3の表示位置を表示位置情報I3として表示装置12へ出力する。
なお、表示制御部11が決定する操作盤3の位置は、エレベーター利用者4が乗車した際に一度だけ顔向きを推定して決定する。または、操作盤3の位置は、常時、カメラ画像I1から顔向きを推定して決定する。後者の場合、表示制御部11が決定する操作盤3の位置はエレベーター利用者4の顔向きに追従して変化することになる。
表示装置12は、表示位置を指定する信号を受けて、操作盤表示部2に操作盤3を表示する。先述の通り、表示装置12は、ディスプレイまたはプロジェクタである。
操作可否判定部20は、顔向き情報I2と操作盤3を表示している位置の情報とから、利用者が操作盤3を向いているかどうかを判定する。操作盤3を向いていると判定した場合は、操作盤の操作を可能であることを示すように操作可能情報I4を出力する。一方、利用者が顔向きを変えたり、かご内を操作盤3とは別の方向に歩く等の動作により操作盤を向いていないと判定した場合は、操作盤の操作が不可能であることを示すように操作可能情報I4を出力する。
操作検出部21は、カメラ画像I1と操作盤の表示位置に関する表示位置情報I3とから、操作盤において利用者が触れている位置を検出する。例えば、利用者の手や足などの身体部位や、傘や杖など利用者が把持するものの一部または全体について、エレベーター内での位置が操作盤を表示している位置と一致しているかを検出する。
身体部位や把持するものの位置を特定するためには、例えば、背景差分法を用いることができる。背景差分法の1つの形態は、例えば以下である。予め、エレベーター内に利用者が存在しない時点のカメラ画像I1を記憶する。次に、利用者がエレベーターに乗車したときのカメラ画像I1と、先述の予め記憶しておいたカメラ画像I1との間で、画素毎に画素値の差を算出する。そして、算出した差が一定の閾値以上である場合に、そこに利用者の手や足、または把持するものが存在するとして検出する。背景差分法の別の形態としては、過去の一定数のカメラ画像I1を蓄積して算出した画素毎の平均値と現在のカメラ画像I1の画素値との差分をとる方法や、画素毎ではなく複数の画素を1つのブロックとして、ブロック単位で画素値の差分をとる方法などがある。
また、背景差分法の他にも、機械学習を用いた手法で、身体部位や把持するものの位置を特定する方法も存在する。本手法の1つの形態では、予め準備した複数枚の画像から手や足などが映る座標情報を特定し、この座標情報が示す画像領域から特徴を抽出する。一般的な特徴として、HoG(Histogram of Gradient)やSIFT(Scale Invariant Feature Transform)など、輝度など画素値の変位に基づいた情報を得る手法がある。「HoG」とは、局所領域の輝度の勾配方向をヒストグラム化したものである。「SIFT」とは、画像からキーポイントと呼ばれる特徴点を抽出し、特徴量の記述をおこなうものである。これらの情報または特徴量と、手や足といったラベル情報とから、学習と呼ばれる統計的な処理を行うことで、手や足が持つ特徴を統計的に推定する(一般に、検出器とよばれるものが生成される)。この推定結果を用いて、新たなカメラ画像I1から手や足が持つ特徴を探索し、その位置を特定する。
なお、利用者が操作盤3を触れていることを検出できない、つまり利用者の身体部位や利用者が把持するものの位置が操作盤3に当たっていない場合は、操作検出部21は操作情報I5を出力しない。これにより、例えば操作盤の操作後に目的階に向かっている最中に、操作盤が表示されている壁にもたれ掛かるなどして意図せず操作盤に身体が触れてしまった場合でも利用者の目的階以外の階が登録されてしまうような誤動作を防止する。
制御信号出力部22は、利用者がどのボタンを操作したかという操作検出部21からの信号に基づいて、エレベーターの特定の階を登録する信号や扉の開閉を行う信号をエレベーターの制御部へ出力する。
次に、入力装置200における処理のうち、操作盤3を表示するまでの流れを説明する。図5は、入力装置200における処理を示すフローチャートである。
まず、顔向き推定部10aはカメラ1からフレーム画像であるカメラ画像I1を取得する(S10)。
顔向き推定部10aは、カメラ画像I1から顔向きを推定する。推定した結果として顔向き情報I2を表示制御部11へ出力する(S11)。
表示制御部11は、顔向き推定部10aから顔向き情報I2を受信し、エレベーター利用者4の顔向きの延長線310が、天井100a、正面壁100b、側面壁100c及び床面100dのいずれかと交差する位置320を推定する。推定した位置について、天井100a、正面壁100b、側面壁100c及び床面100dのいずれであるかを表す情報(予め、それぞれに割り当てたID番号などでよい)と、その中でどの位置かという情報(例えば正面壁であれば、正面壁の左上の角を原点とし、その原点から推定した交差する位置までの水平方向及び垂直方向の距離)とを操作盤表示部2の表示位置である表示位置情報I3として表示装置12へ出力する(S12)。但し、ディスプレイの設置位置やプロジェクタの投影位置が事前に分かっている場合で、推定した表示位置にディスプレイが無い、またはプロジェクタで投影ができないと判断できる場合には、表示制御部11は表示装置12へ表示位置情報I3を出力しない。
表示装置12は、表示制御部11から表示位置情報I3を受信し、その内容に従った位置である操作盤表示位置に、操作盤3を表示する(S13)。
次に、入力装置200の処理のうち、操作盤3を表示した後、利用者が操作盤を操作するまでの流れを説明する。図6は、入力装置200の処理を示すフローチャートである。
まず、顔向き推定部10aはカメラ1からフレーム画像であるカメラ画像I1を取得する(S20)。
顔向き推定部10aは、カメラ画像I1から顔向きを推定する。推定した結果として顔向き情報I2を操作可否判定部20へ出力する(S21)。
なお、S20及びS21の処理内容はS10及びS11と同じであり、顔向き情報I2は表示制御部11及び操作可否判定部20の両方に出力される。
操作可否判定部20は、顔向き推定部10aから顔向き情報I2を受信し、表示制御部11から表示位置情報I3を受信する。まず、受信した顔向き情報I2から、エレベーター利用者4の顔向きの延長線310が、天井100a、正面壁100b、側面壁100cまたは床面100dのいずれかと交差する位置320を推定する。推定した位置について、天井100a、正面壁100b、側面壁100cまたは床面100dのいずれであるかを表す情報(予め、それぞれに割り当てたID番号などでよい)と、その中でどの位置かという情報(例えば正面壁であれば、正面壁の左上の角を原点とし、その原点から推定した交差する位置までの水平方向及び垂直方向の距離)とを推定することで、操作盤表示位置を決定する。(S22).
次に、推定した位置と受信した表示位置情報I3とから、エレベーター利用者4が表示されている操作盤3を見ているかどうかを判定する。推定した位置が操作盤3の表示領域に含まれている場合に、エレベーター利用者4が操作盤3を見ていると判定する。または、推定した位置が操作盤3の表示領域から一定の範囲内である場合に、エレベーター利用者4が操作盤3を見ていると判定してもよい。操作盤3を見ていると判定した場合、操作可能情報I4を操作検出部21に出力し、操作盤3を見ていないと判定した場合、処理を終了する(S23)。
操作検出部21は、操作可否判定部20から操作可能情報I4を受信する。また、表示制御部11から表示位置情報I3を受信する。また操作検出部21は、カメラ画像I1を取得する。先述の方法で、操作検出部21は、カメラ画像I1からエレベーター利用者4が操作盤3に触れているか触れていないかを検出する。エレベーター利用者4が操作盤3に触れている場合には、操作検出部21は、エレベーター利用者4が操作盤3のどの位置に触れているかというエレベーター利用者4の操作を検出する。エレベーター利用者4が操作盤3に触れており、且つ操作可能情報I4が入力されている場合に、触れているボタンの種類を示すような操作情報I5を制御信号出力部22に出力する(S24)。
制御信号出力部22は、操作検出部21から操作情報I5を受信し、その信号に基づいてエレベーターを制御する。例えば、3階を示すボタンに触れているという信号を受信した場合に、3階を目的階として登録する(S25)。
以上のように構成された入力装置200においては、エレベーター利用者4は簡単に操作盤3の位置を視認することができ、スムーズで誤った操作が発生しない操作盤3の操作ができるようになる。また、もたれかかり等によって誤った操作が発生するのを防止できる。
実施の形態1における入力装置200は、カメラは1台ではなく複数台を使用してもよい。このようにすることで、エレベーター利用者4がカメラの死角に入り、実施の形態1における検出などの処理ができないことを防ぐことができる。また、入力装置200は、複数台の各々で推定した顔向き情報I2の平均を取ることで推定精度を上げるようにしてもよい。
実施の形態1における入力装置200は、操作検出部21でエレベーター利用者4の操作を検出するために、カメラと異なるセンサを利用するように構成してもよい。例えば、センサからの距離を測定可能なセンサ(例えば、Microsoft社製Kinect(登録商標))を利用することが挙げられる。このようなセンサを利用することで、エレベーター利用者4の手や足などの身体部位や、傘や杖などエレベーター利用者4が把持するものなどの位置や形状が推定しやすくなるため、エレベーター利用者4が触れている位置の推定精度が向上できる。
また、入力装置200は、顔向きの推定に関してもカメラと異なるセンサを利用してもよい。例えば、事前に学習を行う顔向きモデルを3次元モデルとし、エレベーター利用者4の顔向きを3次元的に求めてもよい。
また、入力装置200は、複数台のカメラを利用し、三角測量の原理によってカメラからの距離を測定するようにしてもよい。先述のセンサ同様に、利用者の手や足などの身体部位や、傘や杖などエレベーター利用者4が把持するものなどの位置や形状が推定しやすくなるため、エレベーター利用者4が触れている位置の推定精度が向上できる。
実施の形態1における入力装置200は、複数のエレベーター利用者4がエレベータかご100の内部にいる場合にも実現が可能である。最も単純な形態としては、エレベーター利用者4毎に操作盤3を表示して操作を検出する方法である。その他にも、複数人の顔向きの延長線310とエレベーターかご100との交点の位置320が一定の距離より近い場合には共通の操作盤3を1つ表示しても良い。共通の操作盤3の位置は、例えば、交点の位置または其々の位置の中間となる位置に、1つの操作盤を表示する。
実施の形態1における入力装置200は、カメラ画像I1から乗車した複数のエレベーター利用者4が家族など知り合いの関係にあることを推定し、その場合には共通の操作盤3を1つ表示するように構成しても良い。例えば、子供を抱えながら乗車したエレベーター利用者4などが想定できるが、人物間の距離(接触状態)を検出することで関係性を推定し、操作盤3の表示位置や個数を制御することができる。
実施の形態1における入力装置200は、特定のエレベーター利用者4に対応して表示した操作盤3に対し、その操作盤3がそのエレベーター利用者4に向けたものであることを、判別しやすいように操作盤3の表示内容の一部を改変してもよい。例えば、表示した操作盤3の真横に、対応するエレベーター利用者4の顔画像をカメラ1で撮影して表示したり、エレベーター利用者4の衣服の色や帽子などの装着物をアイコン化した画像を表示したりしてもよい。
実施の形態1における入力装置200は、特定のエレベーター利用者4に対応して表示した操作盤3に対し、その操作盤3がそのエレベーター利用者4に向けたものであることを、判別しやすいように操作盤3の表示サイズを改変してもよい。例えば、エレベーター利用者4がエレベーターに乗車後、表示された操作盤3に近づくにつれて、表示を大きくしても良い。このように、エレベーター利用者4は自らの動きに連動して表示が変化すると、その操作盤3を自身に対して表示されたものであることを認識しやすくなる。
また、入力装置200は、エレベーター利用者4がエレベーターに乗車した際に、操作盤3を大きく表示し、近づくにつれて小さく表示してもよい。このように、エレベーター利用者4は自らの動きに連動して表示が変化すると、その操作盤3を自身に対して表示されたものであることを認識しやすくなる。また、操作盤3から遠い場所にいる場合にも見やすくなる。
実施の形態1における入力装置200は、操作検出部21は、エレベーター利用者4の手や足などの身体部位や、傘や杖などエレベーター利用者4が把持するものが、表示されている操作盤3に触れているかどうかを検出することとして説明を行ったが、操作盤3を完全に触れておらず、一定の距離に近づいた場合に、操作盤3を触れたこととして検出してもよい。このようにすることで、エレベーター利用者4は非接触でボタンの操作を行うことができ、衛生面などにおいて有利な入力装置200を実現できる。
実施の形態1における入力装置200は、操作可否判定部20によって一定時間以上、エレベーター利用者4の顔向きが操作盤3の方向に向いていず、操作盤3を見ていないと判定した場合に、操作可能情報I4を表示制御部11に出力し、その時点で操作盤表示部2に表示している操作盤3の表示を消すようにしてもよい。このようにすることで、消費電力を抑制できる効果が得られる。
実施の形態1における入力装置200は、カメラ1で撮像された動画像からエレベーターかご100の内部にいる1人以上のエレベーター利用者4の立ち位置を検出する利用者位置検出部23を更に備えてもよい。図7は、実施の形態1にかかる入力装置の構成のうち、利用者位置検出部を更に備える場合の構成を概略的に示すブロック図である。利用者位置検出部23は、表示制御部11に対して検出したエレベーター利用者4の立ち位置情報I6を出力し、表示制御部11は、顔向き推定部10aから受信した顔向き情報I2から顔向きの延長線を推定する際に、利用者位置検出部23から受信した立ち位置情報I6を参照し、その延長線に別のエレベーター利用者4がいると判断した場合には、他の利用者に重ならない、最も近い位置に操作盤3を表示するように制御する。このようにすることで、エレベーターかご100内に他の利用者がいる場合にも、操作盤3を視認しやすくなる。
実施の形態2.
図8は、本実施の形態にかかる入力装置200aの構成を概略的に示すブロック図である。図8において、図2に示される構成要素と同一または対応する構成要素には、図2における符号と同じ符号を付している。実施の形態2においては、図2で示された顔向き推定部10aの代わりに視線推定部10bが、カメラ1、表示制御部11、操作可否判定部20に接続されている点が、実施の形態1と異なる。以降、実施の形態1と異なる点について説明する。
図8は、本実施の形態にかかる入力装置200aの構成を概略的に示すブロック図である。図8において、図2に示される構成要素と同一または対応する構成要素には、図2における符号と同じ符号を付している。実施の形態2においては、図2で示された顔向き推定部10aの代わりに視線推定部10bが、カメラ1、表示制御部11、操作可否判定部20に接続されている点が、実施の形態1と異なる。以降、実施の形態1と異なる点について説明する。
まず、視線推定部10bの機能について説明する。
視線推定部10bは、カメラ画像I1からエレベーター利用者4の視線を推定し、基点と方向とを有する視線情報I7を出力する。基点は左右どちらかの瞳孔の中心位置や両目の中間の位置などの特定の場所とする。次に、方向は利用者がどちらの方向を見ているかという情報である。
視線推定部10bは、カメラ画像I1からエレベーター利用者4の視線を推定し、基点と方向とを有する視線情報I7を出力する。基点は左右どちらかの瞳孔の中心位置や両目の中間の位置などの特定の場所とする。次に、方向は利用者がどちらの方向を見ているかという情報である。
方向の推定方法としては、例えば目頭と目尻との位置に対する、瞳孔の位置を利用して推定する方法や、赤外光を照射したときの角膜での反射と、瞳孔の位置関係とを用いる方法(角膜反射法と呼ばれる)などがあるが、視線推定部10bにおいては、これらのいかなる方法も利用することができる。
次に、各部の作用について、実施の形態1と異なる点を説明し、実施の形態1と同様な点は説明を省略する。
まず、視線推定部10bはカメラ画像I1を取得する。
まず、視線推定部10bはカメラ画像I1を取得する。
視線推定部10bは、カメラ画像I1から視線を推定する。推定した結果として視線情報I7を表示制御部11と操作可否判定部20とへ出力する。
表示制御部11は、視線推定部10bから視線情報I7を受信し、エレベーター利用者4の視線の延長線310が、天井100a、正面壁100b、側面壁100c及び床面100dのいずれかと交差する位置を推定する。推定した位置について、天井100a、正面壁100b、側面壁100c及び床面100dのいずれであるかを表す情報と、その中でどの位置かという情報とを表示位置情報I3として表示装置12へ出力する。但し、ディスプレイの設置位置やプロジェクタの投影位置が事前に分かっている場合で、推定した表示位置にディスプレイが無い、またはプロジェクタで投影ができないと判断できる場合には、表示制御部11は表示装置12へ信号を出力しない。
操作可否判定部20は、視線推定部10bから視線情報I7を受信し、表示制御部11から表示位置情報I3を受信する。まず、受信した視線情報I7から、エレベーター利用者4の視線の延長線310が、天井100a、正面壁100b、側面壁100c及び床面100dのいずれかと交差する位置を推定する。推定した位置について、天井100a、正面壁100b、側面壁100c及び床面100dのいずれであるかを表す情報と、その中でどの位置かという情報とを推定する。次に、推定した位置と受信した表示位置情報I3とから、エレベーター利用者4が表示されている操作盤3を見ているかどうかを判定する。
以上のように構成された入力装置200aにおいては、利用者は簡単に操作盤の位置を視認することができ、スムーズに操作盤を操作できるようになる。また、もたれかかり等によって誤った操作が発生するのを防止できる。また、実施の形態1での顔向きを利用する場合と比較して、より正確にエレベーター利用者4が視認しやすい位置に操作盤3を表示することができる。
実施の形態3.
図9は、本実施の形態にかかる入力装置200bの構成を概略的に示すブロック図である。図9において、図2に示される構成要素と同一または対応する構成要素には、図2における符号と同じ符号を付している。実施の形態2においては、図2で示された顔向き推定部10aの代わりに体向き推定部10cが、カメラ1、表示制御部11、操作可否判定部20に接続されている点が、実施の形態1と異なる。以降、実施の形態1と異なる点について説明する。
図9は、本実施の形態にかかる入力装置200bの構成を概略的に示すブロック図である。図9において、図2に示される構成要素と同一または対応する構成要素には、図2における符号と同じ符号を付している。実施の形態2においては、図2で示された顔向き推定部10aの代わりに体向き推定部10cが、カメラ1、表示制御部11、操作可否判定部20に接続されている点が、実施の形態1と異なる。以降、実施の形態1と異なる点について説明する。
まず、体向き推定部10cの機能について説明する。
体向き推定部10cは、カメラ画像I1からエレベーター利用者4の体向きを推定し、基点と方向情報とを有する体向き情報I8を出力する。基点は頭や胸などの特定の場所とする。次に、方向情報は利用者の体がどちらの方向を向いているかという情報である。
体向き推定部10cは、カメラ画像I1からエレベーター利用者4の体向きを推定し、基点と方向情報とを有する体向き情報I8を出力する。基点は頭や胸などの特定の場所とする。次に、方向情報は利用者の体がどちらの方向を向いているかという情報である。
方向の推定方法としては、例えば両肩の位置を利用する方法がある。エレベーター利用者4は前進しながらエレベーターかご100に乗車するが、その時点の両肩の位置を画像認識によって追跡し続けることで、エレベーター利用者4の体がどちらを向いているかを推定することができる。それ以外にも、足の先の向きを検出することで体向きを推定する方法などがあるが、体向き推定部10cにおいては、これらのいかなる方法も利用することができる。
次に、各部の作用について、実施の形態1と異なる点を説明し、実施の形態1と同様な点は説明を省略する。
まず、体向き推定部10cはカメラ画像I1を取得する。
まず、体向き推定部10cはカメラ画像I1を取得する。
体向き推定部10cは、カメラ画像I1から視線を推定する。推定した結果として体向き情報I8を表示制御部11と操作可否判定部20とへ出力する。
表示制御部11は、体向き推定部10cから体向き情報I8を受信し、エレベーター利用者4の体向きの延長線310が、天井100a、正面壁100b、側面壁100c及び床面100dのいずれかと交差する位置を推定する。推定した位置について、天井100a、正面壁100b、側面壁100c及び床面100dのいずれであるかを表す情報と、その中でどの位置かという情報とを表示位置情報I3として表示装置12へ出力する。但し、ディスプレイの設置位置やプロジェクタの投影位置が事前に分かっている場合で、推定した表示位置にディスプレイが無い、またはプロジェクタで投影ができないと判断できる場合には、表示制御部11は表示装置12へ信号を出力しない。
操作可否判定部20は、体向き推定部10cから体向き情報I8を受信し、表示制御部11から表示位置情報I3を受信する。まず、受信した体向き情報I8から、エレベーター利用者4の視線の延長線310が、天井100a、正面壁100b、側面壁100c及び床面100dのいずれかと交差する位置を推定する。推定した位置について、天井100a、正面壁100b、側面壁100c及び床面100dのいずれであるかを表す情報と、その中でどの位置かという情報とを推定する。次に、推定した位置と受信した表示位置情報I3とから、エレベーター利用者4が表示されている操作盤3を見ているかどうかを判定する。
以上のように構成された入力装置200bにおいては、利用者は簡単に操作盤の位置を視認することができ、スムーズに操作盤を操作できるようになる。また、もたれかかり等によって誤った操作が発生するのを防止できる。また、実施の形態1での顔向きを利用する場合と比較して、カメラ1の設置位置などの制約から顔向きを正確に推定できない場合にも、体向きを推定することでエレベーター利用者4が操作盤3を視認しやすい位置を推定することができる。
また、以上の例ではエレベーターを例として説明したが、壁などの面で仕切られた閉空間にあって、その空間を使用する人(利用者)が、壁などの面を向き、面の上または面から近い空間に表示された操作盤をする場合であれば、これらの実施の形態に限るものではない。
また、以上のように本発明の実施の形態について説明したが、本発明はこれらの実施の形態に限るものではない。
1 カメラ、2 操作盤表示部、3 操作盤、3a 階ボタン、3b 扉開閉ボタン、4 エレベーター利用者4、100 エレベーターかご、100a 天井、100b 正面壁、100c 側面壁、100d 床面、200,200a,200b 入力装置、10a 顔向き推定部、10b 視線推定部、10c 体向き推定部、11 表示制御部、12 表示装置、20 操作可否判定部、21 操作検出部、22 制御信号出力部、23 利用者位置検出部。
Claims (14)
- 閉空間の内部にいる前記閉空間の利用者を撮像するカメラと、
前記カメラで撮像された画像に含まれている1または複数の前記利用者の顔向きを推定する顔向き推定部と、
前記顔向き推定部によって推定された前記顔向きの方向に操作盤の表示位置を決定する表示制御部と、
前記表示位置に前記操作盤を表示する表示装置と
を備える入力装置。 - 前記顔向きに基づいて前記操作盤の操作の可否を判定する操作可否判定部と、
前記操作の可否及び前記画像に含まれている前記利用者の身体部位の位置、または動きに基づいて前記操作盤の操作を検出する操作検出部と、
をさらに備える請求項1に記載の入力装置。 - 前記操作可否判定部は、前記顔向き推定部によって推定された前記利用者の顔向きの延長線と、前記表示装置によって表示された操作盤の位置とが一致するか、または一定の距離以内である場合に、前記利用者による操作盤の操作を可能にすると判定する
請求項2に記載の入力装置。 - 前記操作検出部によって検出された前記操作盤の操作に基づいて、前記閉空間にかかる動作信号を前記閉空間の制御部に出力する制御信号出力部と
をさらに備える請求項2または3に記載の入力装置。 - 前記顔向き推定部は、前記画像から、前記利用者の顔の特定部位を検出し、統計的な処理によって事前に作成した顔向きモデルとの比較をすることによって前記利用者の顔向きを推定する
請求項1から4のいずれか一項に記載の入力装置。 - 前記表示制御部は、前記顔向き推定部が推定した顔向きの延長線と前記閉空間の壁、床、または天井との交点の位置に操作盤を表示するように制御する
請求項1から5のいずれか一項に記載の入力装置。 - 前記顔向き推定部は、前記画像から、複数の前記利用者の顔向きを推定し、
前記表示制御部は、前記顔向き推定部によって推定された複数の前記利用者の顔向きの延長線と前記閉空間の壁、床、若しくは天井との交点の位置が一定の距離より近い場合に、交点の位置若しくは其々の位置の中間となる位置に、1つの操作盤を表示するように制御する
請求項1から6のいずれか一項に記載の入力装置。 - 前記表示制御部は、既に表示している操作盤の表示位置に対して、前記顔向き推定部によって推定された顔向きが前記操作盤の方向に設定時間以上向いていない場合に、操作盤の表示を消すように制御する
請求項1から7のいずれか一項に記載の入力装置。 - 前記カメラで撮像された画像から、1または複数の前記利用者の位置を検出する利用者位置検出部を更に備え、
前記表示制御部は、前記利用者位置検出部によって前記閉空間の内部に複数の前記利用者がいることを検出した場合に、其々の利用者について、前記顔向き推定部が推定した顔向きの延長線に他の利用者がいると判定した場合に、他の利用者がおらず、且つ顔向きの延長線と前記閉空間の壁、床、または天井との交点の位置に操作盤を表示するように制御する
請求項1から8のいずれか一項に記載の入力装置。 - 前記利用者位置検出部による前記利用者の位置にしたがって、前記表示制御部が操作盤の表示位置に加え、表示サイズを拡大または縮小するように制御する
請求項9に記載の入力装置。 - 閉空間の内部にいる前記閉空間の利用者を撮像するカメラと、
前記カメラで撮像された画像に含まれている前記利用者の視線方向を推定する視線推定部と、
前記視線推定部によって推定された前記利用者の視線方向の延長線と前記閉空間の壁、床、または天井との交点の位置に操作盤の位置を決定する表示制御部と、
前記表示位置に前記操作盤を表示する表示装置と、
前記視線方向に基づいて前記操作盤の操作の可否を判定する操作可否判定部と、
前記操作の可否及び前記画像に含まれている前記利用者の身体部位の位置、または動きに基づいて前記操作盤の操作を検出する操作検出部と、
前記操作検出部によって検出された前記操作盤の操作に基づいて、前記閉空間にかかる動作信号を前記閉空間の制御部に出力する制御信号出力部と
を備える入力装置。 - 閉空間の内部にいる前記閉空間の利用者を撮像するカメラと、
前記カメラで撮像された画像に含まれている前記利用者の体向きを推定する体向き推定部と、
前記体向き推定部によって推定された前記利用者の体向きの延長線と前記閉空間の壁、床、または天井との交点の位置に操作盤の位置を決定する表示制御部と、
前記表示位置に前記操作盤を表示する表示装置と、
前記体向きに基づいて前記操作盤の操作の可否を判定する操作可否判定部と、
前記操作の可否及び前記画像に含まれている前記利用者の身体部位の位置、または動きに基づいて前記操作盤の操作を検出する操作検出部と、
前記操作検出部によって検出された前記操作盤の操作に基づいて、前記閉空間にかかる動作信号を前記閉空間の制御部に出力する制御信号出力部と
を備える入力装置。 - 閉空間の内部にいる前記閉空間の利用者を撮像する撮像ステップと、
前記撮像ステップによって撮像された画像に含まれている1または複数の前記利用者の顔向きを推定する顔向き推定ステップと、
前記顔向き推定ステップによって推定された前記利用者の顔向きに基づいて操作盤の表示位置を決定する表示制御ステップと、
前記表示位置に前記操作盤を表示する表示ステップと
を備える入力方法。 - 利用者の顔向きに基づいて操作盤の操作の可否を判定する操作可否判定ステップと、
前記操作可否判定ステップによって判定された操作盤の操作の可否及び撮像された画像に含まれている前記利用者の身体部位の位置や動きに基づいて操作盤の操作を検出する操作検出ステップと、
前記操作検出ステップによって検出された操作盤の操作に基づいて、前記閉空間にかかる動作信号を前記閉空間の制御部に出力する制御信号出力ステップと
をさらに備える請求項13に記載の入力方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018067670A JP2019177973A (ja) | 2018-03-30 | 2018-03-30 | 入力装置及び入力方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018067670A JP2019177973A (ja) | 2018-03-30 | 2018-03-30 | 入力装置及び入力方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019177973A true JP2019177973A (ja) | 2019-10-17 |
Family
ID=68277662
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018067670A Pending JP2019177973A (ja) | 2018-03-30 | 2018-03-30 | 入力装置及び入力方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019177973A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113220114A (zh) * | 2021-01-22 | 2021-08-06 | 华南理工大学 | 一种融合人脸识别的可嵌入非接触式电梯按键交互方法 |
CN114249197A (zh) * | 2021-12-15 | 2022-03-29 | 上海贝思特电气有限公司 | 手写呼梯方法、装置、设备及存储介质 |
CN114643934A (zh) * | 2020-12-18 | 2022-06-21 | 丰田自动车株式会社 | 车辆车门倚靠检测系统 |
JP7242813B1 (ja) | 2021-11-16 | 2023-03-20 | 東芝エレベータ株式会社 | エレベータ |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5058335B2 (ja) * | 2008-04-10 | 2012-10-24 | パイオニア株式会社 | 画面表示システム及び画面表示プログラム |
JP2015028733A (ja) * | 2013-07-30 | 2015-02-12 | コニカミノルタ株式会社 | 操作装置および画像処理装置 |
WO2018008226A1 (ja) * | 2016-07-05 | 2018-01-11 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
-
2018
- 2018-03-30 JP JP2018067670A patent/JP2019177973A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5058335B2 (ja) * | 2008-04-10 | 2012-10-24 | パイオニア株式会社 | 画面表示システム及び画面表示プログラム |
JP2015028733A (ja) * | 2013-07-30 | 2015-02-12 | コニカミノルタ株式会社 | 操作装置および画像処理装置 |
WO2018008226A1 (ja) * | 2016-07-05 | 2018-01-11 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114643934A (zh) * | 2020-12-18 | 2022-06-21 | 丰田自动车株式会社 | 车辆车门倚靠检测系统 |
CN114643934B (zh) * | 2020-12-18 | 2024-04-09 | 丰田自动车株式会社 | 车辆车门倚靠检测系统 |
CN113220114A (zh) * | 2021-01-22 | 2021-08-06 | 华南理工大学 | 一种融合人脸识别的可嵌入非接触式电梯按键交互方法 |
CN113220114B (zh) * | 2021-01-22 | 2023-06-20 | 华南理工大学 | 一种融合人脸识别的可嵌入非接触式电梯按键交互方法 |
JP7242813B1 (ja) | 2021-11-16 | 2023-03-20 | 東芝エレベータ株式会社 | エレベータ |
JP2023073740A (ja) * | 2021-11-16 | 2023-05-26 | 東芝エレベータ株式会社 | エレベータ |
CN114249197A (zh) * | 2021-12-15 | 2022-03-29 | 上海贝思特电气有限公司 | 手写呼梯方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019177973A (ja) | 入力装置及び入力方法 | |
CN104364733B (zh) | 注视位置检测装置、注视位置检测方法和注视位置检测程序 | |
JP5106459B2 (ja) | 立体物判定装置、立体物判定方法及び立体物判定プログラム | |
JP4491604B2 (ja) | 瞳孔検出装置 | |
US10489640B2 (en) | Determination device and determination method of persons included in imaging data | |
JP2020046928A (ja) | 情報処理装置、情報処理システム、情報処理方法及びプログラム | |
US20200364444A1 (en) | Information processing apparatus and method of authentication | |
US9746966B2 (en) | Touch detection apparatus, touch detection method, and non-transitory computer-readable recording medium | |
KR100692526B1 (ko) | 시스템 자동제어용 제스처 인식 장치 및 그 방법 | |
JP5510907B2 (ja) | タッチ位置入力装置及びタッチ位置入力方法 | |
KR20100075167A (ko) | 얼굴인식 기능을 이용한 디지털 영상 촬영 장치 및 방법 | |
KR101640014B1 (ko) | 허위 안면 이미지 분류가 가능한 홍채 인식 장치 | |
US10496874B2 (en) | Facial detection device, facial detection system provided with same, and facial detection method | |
JP6452369B2 (ja) | 情報処理装置とその制御方法、プログラム、記憶媒体 | |
KR101396488B1 (ko) | 신호 입력 장치 및 신호 입력 방법 | |
WO2020032254A1 (ja) | 注意対象推定装置及び注意対象推定方法 | |
KR101961266B1 (ko) | 시선 추적 장치 및 이의 시선 추적 방법 | |
US20180020156A1 (en) | Method and system for smart group portrait | |
JP2011002292A (ja) | 三次元指先位置検出方法、三次元指先位置検出装置、およびプログラム | |
JP2017004438A (ja) | 入力装置、指先位置検出方法及び指先位置検出用コンピュータプログラム | |
US20160188856A1 (en) | Authentication device, authentication method, and non-transitory computer readable medium | |
CN114527865B (zh) | 基于注意力方向的装置互动方法 | |
KR20110006062A (ko) | 얼굴 인식 시스템 및 얼굴 인식 방법 | |
JP7259313B2 (ja) | 属性決定装置、属性決定システム、属性決定方法、プログラムおよび記録媒体 | |
JP5951966B2 (ja) | 画像処理装置、画像処理システム、画像処理方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200629 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200714 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210216 |