JP7336553B2 - 処理実行装置、処理実行方法及び処理実行プログラム - Google Patents
処理実行装置、処理実行方法及び処理実行プログラム Download PDFInfo
- Publication number
- JP7336553B2 JP7336553B2 JP2022016986A JP2022016986A JP7336553B2 JP 7336553 B2 JP7336553 B2 JP 7336553B2 JP 2022016986 A JP2022016986 A JP 2022016986A JP 2022016986 A JP2022016986 A JP 2022016986A JP 7336553 B2 JP7336553 B2 JP 7336553B2
- Authority
- JP
- Japan
- Prior art keywords
- processing
- detected
- image data
- specific
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 121
- 238000012545 processing Methods 0.000 claims description 161
- 238000001514 detection method Methods 0.000 claims description 40
- 238000012986 modification Methods 0.000 description 24
- 230000004048 modification Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 241000723377 Coffea Species 0.000 description 7
- 235000016213 coffee Nutrition 0.000 description 7
- 235000013353 coffee beverage Nutrition 0.000 description 7
- 235000013616 tea Nutrition 0.000 description 7
- 244000269722 Thea sinensis Species 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 208000016339 iris pattern Diseases 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009385 viral infection Effects 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Time Recorders, Dirve Recorders, Access Control (AREA)
- Cash Registers Or Receiving Machines (AREA)
- Collating Specific Patterns (AREA)
Description
本開示は、簡便な構成により、非接触で処理の指示を可能にすることを目的とする。
画像データにおける複数の特定領域のうちのいずれかの特定領域において対象物が検出されたか否かを判定する検出判定部と、
前記検出判定部によって前記対象物が検出されたと判定された場合に、前記複数の特定領域のうちのどの特定領域で前記対象物が検出されたかに応じて異なる処理を実行する処理実行部と
を備える。
前記画像データに含まれる顔画像に基づき認証を行う顔認証部
を備え、
前記処理実行部は、前記顔認証部によって認証が成功した場合に、処理を実行する。
前記処理実行装置は、さらに、
検出された前記対象物に含まれる前記識別情報が示す利用者が、前記顔画像から特定される利用者と一致するか否かを判定する二次認証部
を備え、
前記処理実行部は、前記二次認証部によって一致すると判定された場合に、処理を実行する。
前記画像データに前記複数の特定領域を示して表示する表示部
を備える。
コンピュータが、画像データにおける複数の特定領域のうちのいずれかの特定領域において対象物が検出されたか否かを判定し、
コンピュータが、前記対象物が検出されたと判定された場合に、前記複数の特定領域のうちのどの特定領域で前記対象物が検出されたかに応じて異なる処理を実行する。
画像データにおける複数の特定領域のうちのいずれかの特定領域において対象物が検出されたか否かを判定する検出判定処理と、
前記検出判定処理によって前記対象物が検出されたと判定された場合に、前記複数の特定領域のうちのどの特定領域で前記対象物が検出されたかに応じて異なる処理を実行する処理実行処理と
を行う処理実行装置としてコンピュータを機能させる。
***構成の説明***
図1を参照して、実施の形態1に係る処理実行システム100の構成を説明する。
処理実行システム100は、処理実行装置10と、操作端末40とを備える。処理実行装置10と操作端末40とは、伝送路90を介して接続されている。伝送路90は、具体例としてはLAN又はインターネットである。LANは、Local Area Networkの略である。
処理実行装置10は、指示された処理を特定して、処理を実行するサーバ等のコンピュータである。操作端末40は、処理実行装置10に対する指示の入力を受け付ける装置である。操作端末40には、カメラ41が設けられている。カメラ41は、操作端末40に搭載されていてもよいし、外付けされていてもよい。操作端末40は、具体例としては、カメラ41が搭載されたノートPCである。PCは、Personal Computerの略である。また、操作端末40は、具体例としては、カメラ41と表示装置との組合せである。カメラ41には、静止画を撮影するものと、動画を撮影するビデオカメラとを含むものとする。
処理実行装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信インタフェース14とのハードウェアを備える。プロセッサ11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
Circuitの略である。プロセッサ11は、具体例としては、CPU、DSP、GPUである。CPUは、Central Processing Unitの略である。DSPは、Digital Signal Processorの略である。GPUは、Graphics Processing Unitの略である。
処理実行装置10は、通信インタフェース14を介して、操作端末40のカメラ41と接続されている。
ストレージ13には、処理実行装置10の各機能構成要素の機能を実現するプログラムが格納されている。このプログラムは、プロセッサ11によりメモリ12に読み込まれ、プロセッサ11によって実行される。これにより、処理実行装置10の各機能構成要素の機能が実現される。
図3から図5を参照して、実施の形態1に係る処理実行装置10の動作を説明する。
実施の形態1に係る処理実行装置10の動作手順は、実施の形態1に係る処理実行方法に相当する。また、実施の形態1に係る処理実行装置10の動作を実現するプログラムは、実施の形態1に係る処理実行プログラムに相当する。
領域情報31は、複数の特定領域51それぞれについて、位置情報と、処理情報とを含む。
位置情報は、画像データ52における特定領域51の位置を示す。画像データ52は、カメラ41によって取得されるデータである。実施の形態1では、特定領域51は、矩形である。位置情報は、特定領域51の左上の座標と右下の座標とを示している。但し、特定領域51は、矩形に限るものではなく、楕円形等の他の形状でもよい。
処理情報は、実行される処理を示す。図3では、処理実行システム100が勤怠管理に利用される例が示されている。特定領域51Aには出勤時刻の記録処理が割り当てられている。特定領域51Bには退勤時刻の記録処理が割り当てられている。
(ステップS11:画像取得処理)
画像取得部21は、操作端末40からカメラ41によって取得された最新フレームの画像データ52を取得する。ここでは、カメラ41は、周期的に画像データ52を取得している。
表示部22は、ステップS11で取得された画像データ52に、複数の特定領域51を示して表示する。
具体的には、表示部22は、領域情報31の位置情報を参照することにより、複数の特定領域51それぞれの位置を特定する。そして、表示部22は、カメラ41が撮影した画像データ52に、領域情報31に基づき複数の特定領域51それぞれの枠と、領域情報31に記憶された特定領域51の処理情報とを示して、操作端末40の表示装置に表示する。図5では“領域A”、“領域B”という表記になっているが、具体的には”領域A”には、「出勤時間の記録処理」と表示される。また”領域B”には、「退勤時間の記録処理」と表示される。なお処理情報の表記は、特定領域51を示す枠の外でも中でもよい。また処理情報そのものでなく、処理情報を加工して、利用者がわかりやすい表示に変更してもよい。例えば、「出勤時刻を記録します」という表示が考えられる。
図3のように領域情報31が設定されているとする。この場合には、図5に示すように、複数の特定領域51が示された画像データ52が表示される。
検出判定部23は、ステップS11で取得された画像データ52における複数の特定領域51のうちのいずれかの特定領域51において対象物が検出されたか否かを判定する。実施の形態1では、対象物は体の一部又は特定の物等、どのようなものであっても構わない。実施の形態1では、対象物は手とする。対象物が手である場合には、検出判定部23は、いずれかの特定領域51に手がかざされたか否かを判定することになる。
検出判定部23は、対象物が検出された場合には、処理をステップS14に進める。一方、検出判定部23は、対象物が検出されなかった場合には、処理をステップS11に戻す。
例えば、検出判定部23は、画像を入力として対象物を検出する学習済みモデルに部分画像を入力することにより、対象の特定領域51から対象物を検出する。また、検出判定部23は、いわゆるパターンマッチングにより、対象の特定領域51から対象物を検出してもよい。
処理実行部24は、複数の特定領域51のうちのどの特定領域51で対象物が検出されたかに応じて異なる処理を実行する。
具体的には、処理実行部24は、領域情報31を参照して、対象物が検出された特定領域51に対応する処理を特定する。図3のように領域情報31が設定されているとする。この場合には、処理実行部24は、対象物である手が特定領域51Aで検出された場合には、出勤時刻の記録処理を実行する。つまり、処理実行部24は、特定領域51Aに手がかざされると、出勤時刻を記録する。また、処理実行部24は、対象物である手が特定領域51Bで検出された場合には、退勤時刻の記録処理を実行する。つまり、処理実行部24は、特定領域51Bに手がかざされると、退勤時刻を記録する。
以上のように、実施の形態1に係る処理実行装置10は、カメラ41によって取得された画像データ52における複数の特定領域51のうちのどの特定領域51で対象物が検出されたかに応じて異なる処理が実行される。これにより、カメラ41を用いて簡便に非接触で処理の指示を受け付けることが可能である。
<変形例1>
実施の形態1では、処理実行装置10が対象物を検出した。しかし、操作端末40が対象物を検出してもよい。操作端末40がPCのように処理を実行可能な装置である場合には、操作端末40に処理実行装置10が内包されるように構成してもよい。その場合は、図4で示した、画像取得処理、表示処理、検出判定処理及び処理実行処理が全て操作端末40内で実行され、データの送受信処理は機能構成要素間の情報の受渡しとして処理される。
操作端末40と処理実行装置10との一体化により、画像データ52に関して、以下変形例が可能となる。実施の形態1では、カメラ41で撮影された最新フレームである画像データ52を取得して特定領域51で対象物が検出されたとき、領域情報31に定められた処理情報により処理を実行するとした。しかし画像データ52は、カメラ41からリアルタイムで取得するものだけではなく、ストレージ13に記憶された過去に撮影されたものであってもよい。また画像データ52は、他の処理装置(図示せず)から処理実行装置に受け渡されるものであってもよい。このような構成により、リアルタイムに処理が実行できない場合や実行する必要がない場合にも適用可能となる。
例えば、処理実行装置10に代わって操作端末40が対象物を検出してもよい。図4を参照してこの場合の処理を具体的に説明する。ステップS11で操作端末40は、画像データ52に代えて検出結果を処理実行装置10に送信する。検出結果は、各特定領域51について対象物が検出されたか否かを示す。ステップS12で操作端末40は画像データ52に複数の特定領域51等を示して表示する。ステップS13で検出判定部23は、検出結果に基づき、複数の特定領域51のうちのいずれかの領域において対象物が検出されたか否かを判定する。ステップS14で処理実行部24は、検出結果に基づき、どの特定領域51で対象物が検出されたかを特定する。そして、処理実行部24は、対象物が検出された特定領域51に応じた処理を実行する。
処理実行装置10は、複数の操作端末40と接続されていてもよい。この場合には、領域情報31は、操作端末40毎に、複数の特定領域51それぞれについて、位置情報と、処理情報とを含む。そして、図4に示す処理が、複数の操作端末40それぞれを対象の操作端末40として実行される。ステップS12及びステップS13では、対象の操作端末40に対応する位置情報が用いられる。また、ステップS14では、対象の操作端末40に対応する処理情報が用いられる。
実施の形態1では、処理実行システム100が勤怠管理に利用される例を用いて説明した。しかし、処理実行システム100は、勤怠管理に限らず、様々な機器又はシステムに利用可能である。
例えば、飲食店等での発注システムに利用することが考えられる。この場合には、特定領域51毎に注文する商品を割り当てることが考えられる。例えば、特定領域51Aにはお茶、特定領域51Bにはコーヒーが割り当てられる。これにより、特定領域51Aに手がかざされると、お茶が注文され、特定領域51Bに手がかざされると、コーヒーが注文される。
実施の形態1では、全ての特定領域51に処理が割り当てられていた。しかし、複数の特定領域51のうちいずれか1つの特定領域51にのみ処理を割り当てておいてもよい。
図6を参照して具体例を説明する。ここでは、処理実行システム100が扉の解錠システムに利用されているとする。図6では、6個の特定領域51が示されている。このうち、事前に設定された特定領域51Xに対して手がかざされた場合にのみ、処理実行部24は扉を解錠する処理を実行する。一方、他の特定領域51に手がかざされても、処理実行部24は扉を解錠する処理を実行しない。これにより、どの特定領域51に扉を解錠する処理が割り当てられている利用者だけが扉を解錠できる。
なお、他の特定領域51に連続して基準回数以上手がかざされた場合には、警備室等に通知を行ってもよい。この際、手がかざされたときの画像データ52を警備室に送ってもよい。手がかざされたときの画像データ52には、手をかざしている人の顔等が映っている可能性がある。
実施の形態1では、各機能構成要素がソフトウェアで実現された。しかし、変形例5として、各機能構成要素はハードウェアで実現されてもよい。この変形例5について、実施の形態1と異なる点を説明する。
各機能構成要素がハードウェアで実現される場合には、処理実行装置10は、プロセッサ11とメモリ12とストレージ13とに代えて、電子回路15を備える。電子回路15は、各機能構成要素と、メモリ12と、ストレージ13との機能とを実現する専用の回路である。
各機能構成要素を1つの電子回路15で実現してもよいし、各機能構成要素を複数の電子回路15に分散させて実現してもよい。
変形例6として、一部の各機能構成要素がハードウェアで実現され、他の各機能構成要素がソフトウェアで実現されてもよい。
実施の形態2は、検出された対象物の向きに応じて異なる処理を実行する点が実施の形態1と異なる。実施の形態2では、この異なる点を説明し、同一の点については説明を省略する。
図8を参照して、実施の形態2に係る領域情報31を説明する。
領域情報31は、複数の特定領域51それぞれについて、位置情報と、向きと、処理情報とを含む。向きは、対象物の向きである。対象物が手の場合には、対象物の向きは、手の先がどちらを向いているかを意味する。
図8では、特定領域51Aにはお茶の注文に関する処理が割り当てられている。特定領域51Aについて向きが上の場合には、注文数を1増やす処理が割り当てられている。特定領域51Aについて向きが下の場合には、注文数を1減らす処理が割り当てられている。特定領域51Bにはコーヒーの注文に関する処理が割り当てられている。特定領域51Bについて向きが上の場合には、注文数を1増やす処理が割り当てられている。特定領域51Bについて向きが下の場合には、注文数を1減らす処理が割り当てられている。特定領域51Cには、向きに関わらず、注文の確定処理が割り当てられている。
ステップS11及びステップS12の処理は、実施の形態1と同じである。
検出判定部23は、ステップS11で取得された画像データ52における複数の特定領域51のうちのいずれかの特定領域51において対象物が検出されたか否かを判定する。検出判定部23は、対象物が検出された場合には、対象物の向きを特定する。対象物の向きは、対象物の検出と合わせて学習済みモデルにより行うことが考えられる。
処理実行部24は、複数の特定領域51のうちのどの特定領域51で対象物が検出されたかに加えて、対象物がどの向きかに応じて異なる処理を実行する。
具体的には、処理実行部24は、領域情報31を参照して、対象物が検出された特定領域51と、検出された対象物の向きとに対応する処理を特定する。図8のように領域情報31が設定されているとする。この場合には、特定領域51Aに上向きの手がかざされると、お茶の注文数が1つ増える。特定領域51Aに下向きの手がかざされると、お茶の注文数が1つ減る。同様に、特定領域51Bに上向きの手がかざされると、コーヒーの注文数が1つ増える。特定領域51Bに下向きの手がかざされると、コーヒーの注文数が1つ減る。特定領域51Cに手がかざされると、注文が確定される。例えば、特定領域51Aに上向きの手が3回かざされ、特定領域51Bに上向きの手が2回かざされた後に、特定領域51Cに手がかざされると、お茶3つとコーヒー2つの注文が確定される。
以上のように、実施の形態2に係る処理実行装置10は、検出された対象物の向きに応じて異なる処理を実行する。これにより、実施の形態1に比べ、より柔軟な操作が可能になる。
<変形例7>
実施の形態2では、実施の形態1との組合せであったため、特定領域51が複数存在することが前提であった。しかし、特定領域51は1つだけでもよい。この場合には、図4のステップS14で処理実行部24は、検出された対象物の向きにのみ応じた処理を実行する。
実施の形態2では、対象物の向きに応じて異なる処理が実行された。対象物の種類に応じて異なる処理が実行されてもよい。例えば、対象物が複数の種類の札であるとする。図4のステップS13では、検出判定部23は、複数の特定領域51のうちのいずれかの特定領域51においていずれかの札が検出されたか否かを判定する。図4のステップS14では、処理実行部24は、複数の特定領域51のうちのどの特定領域51で対象物が検出されたかに加えて、どの種類の札が検出されたかに応じて異なる処理を実行する。この際、処理実行部24は、対象物の向きにも応じて異なる処理を実行してもよい。
図9では、特定領域51Aにはお茶の注文に関する処理が割り当てられている。特定領域51Aについて種類1の札の場合には、注文数を1増やす処理が割り当てられている。特定領域51Aについて種類2の札の場合には、注文数を1減らす処理が割り当てられている。特定領域51Bにはコーヒーの注文に関する処理が割り当てられている。特定領域51Bについて種類1の札の場合には、注文数を1増やす処理が割り当てられている。特定領域51Bについて種類2の札の場合には、注文数を1減らす処理が割り当てられている。特定領域51Cには、札の種類に関わらず、注文の確定処理が割り当てられている。
実施の形態3は、顔認証を行う点が実施の形態1,2と異なる。実施の形態では、この異なる点を説明し、同一の点については説明を省略する。
実施の形態3では、実施の形態1に変更を加えた場合を説明する。しかし、実施の形態2に変更を加えることも可能である。
図10を参照して、実施の形態3に係る処理実行装置10の構成を説明する。
処理実行装置10は、機能構成要素として、顔認証部25を備える点が図2に示す処理実行装置10と異なる。顔認証部25の機能は、他の機能構成要素と同様に、ソフトウェア又はハードウェアによって実現される。
図11を参照して、実施の形態3に係る処理実行装置10の処理の流れを説明する。
図11に示す処理の前提として、処理実行装置10のストレージ13には1人以上の利用者それぞれの顔の画像が利用者属性情報と対応付けられた照合画像として記憶されている。また顔認証について、虹彩認証としてもよく、その場合は利用者の目の虹彩模様が判別できる画像を照合画像として記憶する。以下の説明で顔認証には、虹彩認証を含むものとする。
顔認証部25は、ステップS21で取得された画像データ52に含まれる顔画像に基づき認証を行う。
具体的には、顔認証部25は、画像データ52から顔を検出する。顔の検出は、例えば、画像を入力として顔を検出する学習済みモデルに部分画像を入力することにより実現される。顔認証部25は、検出された顔部分の画像である顔画像と、1人以上の利用者それぞれの照合画像とを比較する。顔認証部25は、類似度が基準以上の照合画像があったか否かを判定する。顔認証部25は、類似度が基準以上の照合画像があった場合には、認証が成功したと判定する。一方、顔認証部25は、類似度が基準以上の照合画像がなかった場合には、認証が失敗したと判定する。
顔認証部25は、認証が成功した場合には、照合画像に対応する利用者を特定する。なお、類似度が基準以上の照合画像が複数あった場合には、最も類似度が高い照合画像に対応する利用者を特定する。そして、顔認証部25は、処理をステップS24に進める。一方、顔認証部25は、認証が失敗した場合には、処理をステップS21に戻す。
処理実行部24は、ステップS24で実行した処理内容と、ステップS23で特定された利用者とを対応付けて履歴としてストレージ13に書き込む。例えば、処理実行システム100が勤怠管理に利用されるとする。この場合には、図12に示すように、各利用者の出勤時刻と退勤時刻とが記録されることになる。
以上のように、実施の形態3に係る処理実行装置10は、顔認証を行う。処理実行装置10は、カメラ41で取得された画像データ52を用いて処理の指示を受け付ける。そのため、処理の指示をする際に、併せて顔認証を行うことが可能である。これにより、適切な利用者だけが処理を指示できるようにすることが可能である。
以上の説明では、特定領域51の位置は固定されていた。しかし、特定領域51は、画像データ52に含まれる顔の位置に応じて決定されてもよい。この場合には、図13に示すように、領域情報31は、位置情報として、顔の位置を基準とした位置が設定される。顔の位置は、顔の検出枠の位置である。図13では、特定領域51Aは、顔の検出枠の左上に、顔の検出枠の1.5倍の大きさで表示されるように設定されている。特定領域51Bは、顔の検出枠の右上に、顔の検出枠の1.5倍の大きさで表示されるように設定されている。
利用者の位置又は身長等によっては、特定領域51に対象物をかざしづらい可能性がある。顔の位置を基準とすることにより、利用者が対象物をかざしやすい位置に特定領域51を設定することが可能である。
実施の形態4は、対象物が利用者を識別する識別情報を含む点が実施の形態3と異なる。実施の形態4では、この異なる点を説明し、同一の点については説明を省略する。
図14を参照して、実施の形態3に係る処理実行装置10の構成を説明する。
処理実行装置10は、機能構成要素として、二次認証部26を備える点が図10に示す処理実行装置10と異なる。二次認証部26の機能は、他の機能構成要素と同様に、ソフトウェア又はハードウェアによって実現される。
図15を参照して、実施の形態4に係る処理実行装置10の処理の流れを説明する。
実施の形態4では、対象物は、利用者の識別情報を記録した二次元コードであるとする。これに限らず、対象物は、利用者の識別情報を示す社員証等であってもよい。
二次認証部26は、ステップS34で検出された対象物に含まれる識別情報が示す利用者が、顔画像から特定される利用者と一致するか否かを判定する。
具体的には、二次認証部26は、ステップS34で検出された対象物から識別情報を抽出する。ここでは、二次認証部26は、二次元コードを読み取ることにより、識別情報を抽出する。二次認証部26は、識別情報が示す利用者を特定する。二次認証部26は、特定された利用者が、ステップS33で特定された利用者と一致するか否かを判定する。
二次認証部26は、一致する場合には、処理をステップS36に進める。一方、二次認証部26は、一致しない場合には、処理をステップS31に戻す。
以上のように、実施の形態4に係る処理実行装置10は、顔認証に加えて、対象物に含まれる識別情報による認証を行う。これにより、利用者をより適切に識別可能である。
変形例8では、対象物の種類に応じて異なる処理が実行されるとした。対象物として、識別情報を含まない第1物と、識別情報を含む第2物とを設定してもよい。そして、第1物がかざされた場合と、第2物がかざされた場合とで異なる処理が実行されてもよい。
例えば、第1物を手とし、第2物を二次元コードとする。そして、手をかざすと部屋の中の人を呼ぶ処理が実行される。二次元コードをかざすと扉を解錠する処理が実行される。これにより、二次元コードが示された社員証等を忘れた利用者は、扉を開けることはできないが、中の人を呼ぶことができる。
実施の形態4では、ステップS35において、ステップS33で認証された顔画像と対応付けられた利用者と、ステップS34で検出された識別情報が示す利用者とが一致するか否かを判定した。しかし、ステップS33の処理を省略し、ステップS34で識別された識別情報および利用者属性情報と、予めストレージ13に記憶された識別情報と利用者属性情報とが一致するかをステップS35で判定するように構成してもよい。なお利用者属性情報とは、利用者氏名、社員番号等を示す。
Claims (10)
- 画像データにおける複数の特定領域のうちのいずれかの特定領域において、利用者を識別する識別情報を含む対象物が検出されたか否かを判定する検出判定部と、
前記画像データに含まれる顔画像に基づき認証を行う顔認証部と、
前記検出判定部によって検出された前記対象物に含まれる前記識別情報が示す利用者が、前記顔認証部によって前記顔画像から特定された利用者と一致するか否かを判定する二次認証部と、
前記二次認証部によって一致すると判定された場合に、前記複数の特定領域のうちのどの特定領域で前記対象物が検出されたかに応じて異なる処理を実行する処理実行部と
を備える処理実行装置。 - 前記処理実行部は、検出された前記対象物の向きに応じて異なる処理を実行する
請求項1に記載の処理実行装置。 - 前記処理実行部は、検出された前記対象物の種類に応じて異なる処理を実行する
請求項1又は2に記載の処理実行装置。 - 前記複数の特定領域の位置は、前記画像データに含まれる顔の位置に応じて決定される請求項1から3までのいずれか1項に記載の処理実行装置。
- 前記処理実行装置は、さらに、
前記画像データに前記複数の特定領域を示して表示する表示部
を備える請求項1から4までのいずれか1項に記載の処理実行装置。 - コンピュータが、画像データにおける複数の特定領域のうちのいずれかの特定領域において、利用者を識別する識別情報を含む対象物が検出されたか否かを判定し、
コンピュータが、前記画像データに含まれる顔画像に基づき認証を行い、
コンピュータが、検出された前記対象物に含まれる前記識別情報が示す利用者が、前記顔画像から特定された利用者と一致するか否かを判定し、
コンピュータが、利用者が一致すると判定された場合に、前記複数の特定領域のうちのどの特定領域で前記対象物が検出されたかに応じて異なる処理を実行する処理実行方法。 - 画像データにおける複数の特定領域のうちのいずれかの特定領域において、利用者を識別する識別情報を含む対象物が検出されたか否かを判定する検出判定処理と、
前記画像データに含まれる顔画像に基づき認証を行う顔認証処理と、
前記検出判定処理によって検出された前記対象物に含まれる前記識別情報が示す利用者が、前記顔認証処理によって前記顔画像から特定された利用者と一致するか否かを判定する二次認証処理と、
前記二次認証処理によって一致すると判定された場合に、前記複数の特定領域のうちのどの特定領域で前記対象物が検出されたかに応じて異なる処理を実行する処理実行処理とを行う処理実行装置としてコンピュータを機能させる処理実行プログラム。 - 前記処理実行処理は、検出された前記対象物の向きに応じて異なる処理を実行する
請求項7に記載の処理実行プログラム。 - 前記処理実行処理は、検出された前記対象物の種類に応じて異なる処理を実行する
請求項7又は8に記載の処理実行プログラム。 - 前記複数の特定領域の位置は、前記画像データに含まれる顔の位置に応じて決定される請求項7から9までのいずれか1項に記載の処理実行プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022016986A JP7336553B2 (ja) | 2022-02-07 | 2022-02-07 | 処理実行装置、処理実行方法及び処理実行プログラム |
JP2023133735A JP7523644B2 (ja) | 2022-02-07 | 2023-08-21 | 処理実行装置、処理実行方法及び処理実行プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022016986A JP7336553B2 (ja) | 2022-02-07 | 2022-02-07 | 処理実行装置、処理実行方法及び処理実行プログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023133735A Division JP7523644B2 (ja) | 2022-02-07 | 2023-08-21 | 処理実行装置、処理実行方法及び処理実行プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023114587A JP2023114587A (ja) | 2023-08-18 |
JP7336553B2 true JP7336553B2 (ja) | 2023-08-31 |
Family
ID=87569842
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022016986A Active JP7336553B2 (ja) | 2022-02-07 | 2022-02-07 | 処理実行装置、処理実行方法及び処理実行プログラム |
JP2023133735A Active JP7523644B2 (ja) | 2022-02-07 | 2023-08-21 | 処理実行装置、処理実行方法及び処理実行プログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023133735A Active JP7523644B2 (ja) | 2022-02-07 | 2023-08-21 | 処理実行装置、処理実行方法及び処理実行プログラム |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7336553B2 (ja) |
Citations (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000082107A (ja) | 1998-06-30 | 2000-03-21 | Sony Corp | 画像処理装置、画像処理方法、および媒体 |
JP2002116859A (ja) | 2000-10-11 | 2002-04-19 | Sony Corp | 情報処理装置、命令認識処理方法及びプログラム格納媒体 |
WO2006037786A3 (en) | 2004-10-05 | 2006-06-15 | Sony France Sa | A content-management interface |
JP2007054413A (ja) | 2005-08-25 | 2007-03-08 | Aruze Corp | 遊技機および遊技システム |
JP2008097151A (ja) | 2006-10-06 | 2008-04-24 | Sharp Corp | 情報処理装置、情報処理システム、情報処理方法およびプログラム |
JP2009134677A (ja) | 2007-02-28 | 2009-06-18 | Fuji Xerox Co Ltd | ジェスチャインターフェースシステム、ジェスチャ入力用ワンド、アプリケーション制御方法、カメラ校正方法、及び制御プログラム |
JP2010534895A (ja) | 2007-07-27 | 2010-11-11 | ジェスチャー テック,インコーポレイテッド | 高度なカメラをベースとした入力 |
JP2011186892A (ja) | 2010-03-10 | 2011-09-22 | Sony Corp | 画像処理装置、画像処理方法及びプログラム |
JP2011232964A (ja) | 2010-04-28 | 2011-11-17 | Casio Comput Co Ltd | 電気機器、及びその制御方法とプログラム |
JP2012058884A (ja) | 2010-09-07 | 2012-03-22 | Sony Corp | 情報処理装置、および情報処理方法 |
JP2013205983A (ja) | 2012-03-27 | 2013-10-07 | Sony Corp | 情報入力装置及び情報入力方法、並びにコンピューター・プログラム |
JP2013246514A (ja) | 2012-05-23 | 2013-12-09 | Toshiba Corp | 情報処理装置、情報処理方法、およびプログラム |
CN103674057A (zh) | 2012-09-11 | 2014-03-26 | 北京航天计量测试技术研究所 | 带有反射球的标准球杆及其对相机外部参数的标定方法 |
KR101406855B1 (ko) | 2013-04-17 | 2014-06-13 | 한국과학기술연구원 | 다차원 입력장치를 이용한 컴퓨터 시스템 |
JP2015038648A (ja) | 2010-12-24 | 2015-02-26 | 株式会社東芝 | 情報処理装置、制御方法およびプログラム |
JP2016218946A (ja) | 2015-05-26 | 2016-12-22 | 沖電気工業株式会社 | 表示装置、表示方法及びプログラム |
JP2017012240A (ja) | 2015-06-26 | 2017-01-19 | 株式会社バンダイナムコエンターテインメント | ゲーム装置 |
WO2019031531A1 (ja) | 2017-08-10 | 2019-02-14 | 日本電気株式会社 | 情報取得システム、情報取得方法及び記憶媒体 |
JP2019121099A (ja) | 2017-12-28 | 2019-07-22 | 株式会社コナミデジタルエンタテインメント | 情報処理装置、情報処理装置のプログラム、情報処理システム、及び、表示方法 |
JP2020005980A (ja) | 2018-07-10 | 2020-01-16 | 株式会社セガゲームス | ゲーム機および遊技媒体 |
JP2021071894A (ja) | 2019-10-30 | 2021-05-06 | 三菱電機株式会社 | 操作装置、操作方法及びプログラム |
JP2021176460A (ja) | 2020-05-10 | 2021-11-11 | 望月 貴里子 | 仮想空間表示装置、プログラム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013257686A (ja) | 2012-06-12 | 2013-12-26 | Sony Corp | 投影型画像表示装置及び画像投影方法、並びにコンピューター・プログラム |
JP6442939B2 (ja) | 2014-09-09 | 2018-12-26 | 株式会社リコー | ウェアラブル端末、プログラム、情報処理システム、情報処理システムの制御方法および相互接続システム |
JP6569320B2 (ja) | 2015-06-19 | 2019-09-04 | セイコーエプソン株式会社 | 電子機器、及び、電子機器の制御方法 |
-
2022
- 2022-02-07 JP JP2022016986A patent/JP7336553B2/ja active Active
-
2023
- 2023-08-21 JP JP2023133735A patent/JP7523644B2/ja active Active
Patent Citations (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000082107A (ja) | 1998-06-30 | 2000-03-21 | Sony Corp | 画像処理装置、画像処理方法、および媒体 |
JP2002116859A (ja) | 2000-10-11 | 2002-04-19 | Sony Corp | 情報処理装置、命令認識処理方法及びプログラム格納媒体 |
WO2006037786A3 (en) | 2004-10-05 | 2006-06-15 | Sony France Sa | A content-management interface |
JP2007054413A (ja) | 2005-08-25 | 2007-03-08 | Aruze Corp | 遊技機および遊技システム |
JP2008097151A (ja) | 2006-10-06 | 2008-04-24 | Sharp Corp | 情報処理装置、情報処理システム、情報処理方法およびプログラム |
JP2009134677A (ja) | 2007-02-28 | 2009-06-18 | Fuji Xerox Co Ltd | ジェスチャインターフェースシステム、ジェスチャ入力用ワンド、アプリケーション制御方法、カメラ校正方法、及び制御プログラム |
JP2010534895A (ja) | 2007-07-27 | 2010-11-11 | ジェスチャー テック,インコーポレイテッド | 高度なカメラをベースとした入力 |
JP2011186892A (ja) | 2010-03-10 | 2011-09-22 | Sony Corp | 画像処理装置、画像処理方法及びプログラム |
JP2011232964A (ja) | 2010-04-28 | 2011-11-17 | Casio Comput Co Ltd | 電気機器、及びその制御方法とプログラム |
JP2012058884A (ja) | 2010-09-07 | 2012-03-22 | Sony Corp | 情報処理装置、および情報処理方法 |
JP2015038648A (ja) | 2010-12-24 | 2015-02-26 | 株式会社東芝 | 情報処理装置、制御方法およびプログラム |
JP2013205983A (ja) | 2012-03-27 | 2013-10-07 | Sony Corp | 情報入力装置及び情報入力方法、並びにコンピューター・プログラム |
JP2013246514A (ja) | 2012-05-23 | 2013-12-09 | Toshiba Corp | 情報処理装置、情報処理方法、およびプログラム |
CN103674057A (zh) | 2012-09-11 | 2014-03-26 | 北京航天计量测试技术研究所 | 带有反射球的标准球杆及其对相机外部参数的标定方法 |
KR101406855B1 (ko) | 2013-04-17 | 2014-06-13 | 한국과학기술연구원 | 다차원 입력장치를 이용한 컴퓨터 시스템 |
JP2016218946A (ja) | 2015-05-26 | 2016-12-22 | 沖電気工業株式会社 | 表示装置、表示方法及びプログラム |
JP2017012240A (ja) | 2015-06-26 | 2017-01-19 | 株式会社バンダイナムコエンターテインメント | ゲーム装置 |
WO2019031531A1 (ja) | 2017-08-10 | 2019-02-14 | 日本電気株式会社 | 情報取得システム、情報取得方法及び記憶媒体 |
JP2019121099A (ja) | 2017-12-28 | 2019-07-22 | 株式会社コナミデジタルエンタテインメント | 情報処理装置、情報処理装置のプログラム、情報処理システム、及び、表示方法 |
JP2020005980A (ja) | 2018-07-10 | 2020-01-16 | 株式会社セガゲームス | ゲーム機および遊技媒体 |
JP2021071894A (ja) | 2019-10-30 | 2021-05-06 | 三菱電機株式会社 | 操作装置、操作方法及びプログラム |
JP2021176460A (ja) | 2020-05-10 | 2021-11-11 | 望月 貴里子 | 仮想空間表示装置、プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP7523644B2 (ja) | 2024-07-26 |
JP2023160843A (ja) | 2023-11-02 |
JP2023114587A (ja) | 2023-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6159491B1 (ja) | 人物画特定システム、人物画特定方法及びプログラム | |
WO2019200872A1 (zh) | 身份验证方法和装置、电子设备、计算机程序和存储介质 | |
CN108959884B (zh) | 人证核验装置和方法 | |
US9147109B2 (en) | Method for adding business card information into contact list | |
US20140270417A1 (en) | Portable fingerprint device with enhanced security | |
JP6376246B2 (ja) | 認証装置、認証方法、制御プログラムおよび記録媒体 | |
US10212159B2 (en) | Pharmacy authentication methods and systems | |
JP7336553B2 (ja) | 処理実行装置、処理実行方法及び処理実行プログラム | |
CN108734099A (zh) | 身份验证方法和装置、电子设备、计算机程序和存储介质 | |
TW202004551A (zh) | 攝像裝置、影像處理系統及方法 | |
CN108764033A (zh) | 身份验证方法和装置、电子设备、计算机程序和存储介质 | |
JP6773144B2 (ja) | コンテンツ選択装置、コンテンツ選択方法、コンテンツ選択システム及びプログラム | |
US20140229317A1 (en) | Kiosk for extracting geometric elements of a key, mapping to a master key-code database, and saving data into a customer's loyalty account | |
JP2008123041A (ja) | 本人証明システム及び本人証明方法 | |
JPH02173869A (ja) | Icカードを用いた個人認証システム | |
JP2000207524A (ja) | カ―ド発行装置、カ―ド利用装置、本人識別装置、本人識別システム及び本人識別方法 | |
WO2018122960A1 (ja) | 撮影者特定システム、撮影者特定方法およびプログラム | |
TW202004539A (zh) | 具有整合介面裝置的影音記錄裝置 | |
JP7318696B2 (ja) | 個体識別装置、個体識別方法及びプログラム | |
US20230012914A1 (en) | Non-transitory computer readable storage, output control method, and terminal device | |
US20230334908A1 (en) | Inmate release verification | |
WO2023120221A1 (ja) | 認証装置、認証システム、認証方法及び記録媒体 | |
JP2018173767A (ja) | 個体識別装置、情報処理システム、個体識別装置の制御方法及びプログラム | |
JP2001101359A (ja) | 認証管理システム | |
WO2021128096A1 (zh) | 辨识用户身分的系统及辨识用户身分的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230428 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230725 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230821 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7336553 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |