JP7336553B2 - 処理実行装置、処理実行方法及び処理実行プログラム - Google Patents

処理実行装置、処理実行方法及び処理実行プログラム Download PDF

Info

Publication number
JP7336553B2
JP7336553B2 JP2022016986A JP2022016986A JP7336553B2 JP 7336553 B2 JP7336553 B2 JP 7336553B2 JP 2022016986 A JP2022016986 A JP 2022016986A JP 2022016986 A JP2022016986 A JP 2022016986A JP 7336553 B2 JP7336553 B2 JP 7336553B2
Authority
JP
Japan
Prior art keywords
processing
detected
image data
specific
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022016986A
Other languages
English (en)
Other versions
JP2023114587A (ja
Inventor
武史 安川
嘉之 加藤
泰継 加藤
賀一 福永
雄太 奥野
Original Assignee
三菱電機Itソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機Itソリューションズ株式会社 filed Critical 三菱電機Itソリューションズ株式会社
Priority to JP2022016986A priority Critical patent/JP7336553B2/ja
Publication of JP2023114587A publication Critical patent/JP2023114587A/ja
Priority to JP2023133735A priority patent/JP7523644B2/ja
Application granted granted Critical
Publication of JP7336553B2 publication Critical patent/JP7336553B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)
  • Cash Registers Or Receiving Machines (AREA)
  • Collating Specific Patterns (AREA)

Description

本開示は、カメラを使って非接触で処理の指示を行う技術に関する。
機器に触れることにより、ウイルス感染のリスクが高くなる。また、飲食業では、濡れた手又は油が付着した手で機器に触れることにより、機器の故障に繋がる。そのため、機器に接触することなく、機器を利用可能にしたいという要求がある。
特許文献1には、複数の非接触センサを用いて、利用者からの指示を受け付けることが記載されている。
特許第6962419号公報
特許文献1のように、操作対象の機器によっては、複数の非接触センサを搭載させることが困難な場合がある。また、操作対象の機器に複数の非接触センサを搭載させるとコストがかかってしまう。
本開示は、簡便な構成により、非接触で処理の指示を可能にすることを目的とする。
本開示に係る処理実行装置は、
画像データにおける複数の特定領域のうちのいずれかの特定領域において対象物が検出されたか否かを判定する検出判定部と、
前記検出判定部によって前記対象物が検出されたと判定された場合に、前記複数の特定領域のうちのどの特定領域で前記対象物が検出されたかに応じて異なる処理を実行する処理実行部と
を備える。
前記処理実行部は、検出された前記対象物の向きに応じて異なる処理を実行する。
前記処理実行部は、検出された前記対象物の種類に応じて異なる処理を実行する。
前記処理実行装置は、さらに、
前記画像データに含まれる顔画像に基づき認証を行う顔認証部
を備え、
前記処理実行部は、前記顔認証部によって認証が成功した場合に、処理を実行する。
前記対象物は、利用者を識別する識別情報を含み、
前記処理実行装置は、さらに、
検出された前記対象物に含まれる前記識別情報が示す利用者が、前記顔画像から特定される利用者と一致するか否かを判定する二次認証部
を備え、
前記処理実行部は、前記二次認証部によって一致すると判定された場合に、処理を実行する。
前記複数の特定領域の位置は、前記画像データに含まれる顔の位置に応じて決定される。
前記処理実行装置は、さらに、
前記画像データに前記複数の特定領域を示して表示する表示部
を備える。
本開示に係る処理実行方法は、
コンピュータが、画像データにおける複数の特定領域のうちのいずれかの特定領域において対象物が検出されたか否かを判定し、
コンピュータが、前記対象物が検出されたと判定された場合に、前記複数の特定領域のうちのどの特定領域で前記対象物が検出されたかに応じて異なる処理を実行する。
本開示に係る処理実行プログラムは、
画像データにおける複数の特定領域のうちのいずれかの特定領域において対象物が検出されたか否かを判定する検出判定処理と、
前記検出判定処理によって前記対象物が検出されたと判定された場合に、前記複数の特定領域のうちのどの特定領域で前記対象物が検出されたかに応じて異なる処理を実行する処理実行処理と
を行う処理実行装置としてコンピュータを機能させる。
本開示では、画像データにおける複数の特定領域のうちのどの特定領域で対象物が検出されたかに応じて異なる処理が実行される。これにより、カメラを用いて簡便に非接触で処理の指示を受け付けることが可能である。
実施の形態1に係る処理実行システム100の構成図。 実施の形態1に係る処理実行装置10の構成図。 実施の形態1に係る領域情報31の説明図。 実施の形態1に係る処理実行装置10の処理の流れを示すフローチャート。 実施の形態1に係る表示処理の説明図。 変形例4の説明図。 変形例5に係る処理実行装置10の構成図。 実施の形態2に係る領域情報31の説明図。 変形例8に係る領域情報31の説明図。 実施の形態3に係る処理実行装置10の構成図。 実施の形態3に係る処理実行装置10の処理の流れを示すフローチャート。 実施の形態3に係る履歴を示す図。 変形例9に係る特定領域51の説明図。 実施の形態3に係る処理実行装置10の構成図。 実施の形態4に係る処理実行装置10の処理の流れを示すフローチャート。
実施の形態1.
***構成の説明***
図1を参照して、実施の形態1に係る処理実行システム100の構成を説明する。
処理実行システム100は、処理実行装置10と、操作端末40とを備える。処理実行装置10と操作端末40とは、伝送路90を介して接続されている。伝送路90は、具体例としてはLAN又はインターネットである。LANは、Local Area Networkの略である。
処理実行装置10は、指示された処理を特定して、処理を実行するサーバ等のコンピュータである。操作端末40は、処理実行装置10に対する指示の入力を受け付ける装置である。操作端末40には、カメラ41が設けられている。カメラ41は、操作端末40に搭載されていてもよいし、外付けされていてもよい。操作端末40は、具体例としては、カメラ41が搭載されたノートPCである。PCは、Personal Computerの略である。また、操作端末40は、具体例としては、カメラ41と表示装置との組合せである。カメラ41には、静止画を撮影するものと、動画を撮影するビデオカメラとを含むものとする。
図2を参照して、実施の形態1に係る処理実行装置10の構成を説明する。
処理実行装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信インタフェース14とのハードウェアを備える。プロセッサ11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
プロセッサ11は、プロセッシングを行うICである。ICは、Integrated
Circuitの略である。プロセッサ11は、具体例としては、CPU、DSP、GPUである。CPUは、Central Processing Unitの略である。DSPは、Digital Signal Processorの略である。GPUは、Graphics Processing Unitの略である。
メモリ12は、データを一時的に記憶する記憶装置である。メモリ12は、具体例としては、SRAM、DRAMである。SRAMは、Static Random Access Memoryの略である。DRAMは、Dynamic Random Access Memoryの略である。
ストレージ13は、データを保管する記憶装置である。ストレージ13は、具体例としては、HDDである。HDDは、Hard Disk Driveの略である。また、ストレージ13は、SD(登録商標)メモリカード、CF、NANDフラッシュ、フレキシブルディスク、光ディスク、コンパクトディスク、Blu-ray(登録商標)ディスク、DVDといった可搬記録媒体であってもよい。SDは、Secure Digitalの略である。CFは、CompactFlash(登録商標)の略である。DVDは、Digital Versatile Diskの略である。
通信インタフェース14は、外部の装置と通信するためのインタフェースである。通信インタフェース14は、具体例としては、Ethernet(登録商標)、USB、HDMI(登録商標)のポートである。USBは、Universal Serial Busの略である。HDMIは、High-Definition Multimedia Interfaceの略である。
処理実行装置10は、通信インタフェース14を介して、操作端末40のカメラ41と接続されている。
処理実行装置10は、機能構成要素として、画像取得部21と、表示部22と、検出判定部23と、処理実行部24とを備える。処理実行装置10の各機能構成要素の機能はソフトウェアにより実現される。
ストレージ13には、処理実行装置10の各機能構成要素の機能を実現するプログラムが格納されている。このプログラムは、プロセッサ11によりメモリ12に読み込まれ、プロセッサ11によって実行される。これにより、処理実行装置10の各機能構成要素の機能が実現される。
ストレージ13には、領域情報31が記憶される。
図2では、プロセッサ11は、1つだけ示されていた。しかし、プロセッサ11は、複数であってもよく、複数のプロセッサ11が、各機能を実現するプログラムを連携して実行してもよい。
***動作の説明***
図3から図5を参照して、実施の形態1に係る処理実行装置10の動作を説明する。
実施の形態1に係る処理実行装置10の動作手順は、実施の形態1に係る処理実行方法に相当する。また、実施の形態1に係る処理実行装置10の動作を実現するプログラムは、実施の形態1に係る処理実行プログラムに相当する。
図3を参照して、実施の形態1に係る領域情報31を説明する。
領域情報31は、複数の特定領域51それぞれについて、位置情報と、処理情報とを含む。
位置情報は、画像データ52における特定領域51の位置を示す。画像データ52は、カメラ41によって取得されるデータである。実施の形態1では、特定領域51は、矩形である。位置情報は、特定領域51の左上の座標と右下の座標とを示している。但し、特定領域51は、矩形に限るものではなく、楕円形等の他の形状でもよい。
処理情報は、実行される処理を示す。図3では、処理実行システム100が勤怠管理に利用される例が示されている。特定領域51Aには出勤時刻の記録処理が割り当てられている。特定領域51Bには退勤時刻の記録処理が割り当てられている。
図4を参照して、実施の形態1に係る処理実行装置10の処理の流れを説明する。
(ステップS11:画像取得処理)
画像取得部21は、操作端末40からカメラ41によって取得された最新フレームの画像データ52を取得する。ここでは、カメラ41は、周期的に画像データ52を取得している。
(ステップS12:表示処理)
表示部22は、ステップS11で取得された画像データ52に、複数の特定領域51を示して表示する。
具体的には、表示部22は、領域情報31の位置情報を参照することにより、複数の特定領域51それぞれの位置を特定する。そして、表示部22は、カメラ41が撮影した画像データ52に、領域情報31に基づき複数の特定領域51それぞれの枠と、領域情報31に記憶された特定領域51の処理情報とを示して、操作端末40の表示装置に表示する。図5では“領域A”、“領域B”という表記になっているが、具体的には”領域A”には、「出勤時間の記録処理」と表示される。また”領域B”には、「退勤時間の記録処理」と表示される。なお処理情報の表記は、特定領域51を示す枠の外でも中でもよい。また処理情報そのものでなく、処理情報を加工して、利用者がわかりやすい表示に変更してもよい。例えば、「出勤時刻を記録します」という表示が考えられる。
図3のように領域情報31が設定されているとする。この場合には、図5に示すように、複数の特定領域51が示された画像データ52が表示される。
(ステップS13:検出判定処理)
検出判定部23は、ステップS11で取得された画像データ52における複数の特定領域51のうちのいずれかの特定領域51において対象物が検出されたか否かを判定する。実施の形態1では、対象物は体の一部又は特定の物等、どのようなものであっても構わない。実施の形態1では、対象物は手とする。対象物が手である場合には、検出判定部23は、いずれかの特定領域51に手がかざされたか否かを判定することになる。
検出判定部23は、対象物が検出された場合には、処理をステップS14に進める。一方、検出判定部23は、対象物が検出されなかった場合には、処理をステップS11に戻す。
具体的には、検出判定部23は、複数の特定領域51それぞれを対象の特定領域51に設定する。検出判定部23は、画像データ52における対象の特定領域51の部分画像を入力として、対象物を検出されるか否かを判定する。検出判定部23は、領域情報31の位置情報を参照することにより、各特定領域51の位置を特定する。これにより、検出判定部23は、画像データ52から対象の特定領域51の部分画像を切り出すことができる。
例えば、検出判定部23は、画像を入力として対象物を検出する学習済みモデルに部分画像を入力することにより、対象の特定領域51から対象物を検出する。また、検出判定部23は、いわゆるパターンマッチングにより、対象の特定領域51から対象物を検出してもよい。
(ステップS14:処理実行処理)
処理実行部24は、複数の特定領域51のうちのどの特定領域51で対象物が検出されたかに応じて異なる処理を実行する。
具体的には、処理実行部24は、領域情報31を参照して、対象物が検出された特定領域51に対応する処理を特定する。図3のように領域情報31が設定されているとする。この場合には、処理実行部24は、対象物である手が特定領域51Aで検出された場合には、出勤時刻の記録処理を実行する。つまり、処理実行部24は、特定領域51Aに手がかざされると、出勤時刻を記録する。また、処理実行部24は、対象物である手が特定領域51Bで検出された場合には、退勤時刻の記録処理を実行する。つまり、処理実行部24は、特定領域51Bに手がかざされると、退勤時刻を記録する。
なお、処理実行部24は、実行した処理を利用者に通知してもよい。具体的には、処理実行部24は、実行した処理内容を操作端末40に表示してもよい。例えば、処理実行部24は、出勤時刻を記録した場合には、“出勤時刻を記録しました”というメッセージを操作端末40に表示してもよい。
***実施の形態1の効果***
以上のように、実施の形態1に係る処理実行装置10は、カメラ41によって取得された画像データ52における複数の特定領域51のうちのどの特定領域51で対象物が検出されたかに応じて異なる処理が実行される。これにより、カメラ41を用いて簡便に非接触で処理の指示を受け付けることが可能である。
実施の形態1に係る処理実行装置10は、特定領域51の数を任意に設定することができる。これにより、処理実行装置10により操作したい機器に応じて、適切な処理の割り当てを行うことが可能である。
***他の構成***
<変形例1>
実施の形態1では、処理実行装置10が対象物を検出した。しかし、操作端末40が対象物を検出してもよい。操作端末40がPCのように処理を実行可能な装置である場合には、操作端末40に処理実行装置10が内包されるように構成してもよい。その場合は、図4で示した、画像取得処理、表示処理、検出判定処理及び処理実行処理が全て操作端末40内で実行され、データの送受信処理は機能構成要素間の情報の受渡しとして処理される。
操作端末40と処理実行装置10との一体化により、画像データ52に関して、以下変形例が可能となる。実施の形態1では、カメラ41で撮影された最新フレームである画像データ52を取得して特定領域51で対象物が検出されたとき、領域情報31に定められた処理情報により処理を実行するとした。しかし画像データ52は、カメラ41からリアルタイムで取得するものだけではなく、ストレージ13に記憶された過去に撮影されたものであってもよい。また画像データ52は、他の処理装置(図示せず)から処理実行装置に受け渡されるものであってもよい。このような構成により、リアルタイムに処理が実行できない場合や実行する必要がない場合にも適用可能となる。
また、操作端末40がPCのように処理を実行可能な装置である場合には、操作端末40が処理実行装置10の一部の処理を行う構成であってもよい。
例えば、処理実行装置10に代わって操作端末40が対象物を検出してもよい。図4を参照してこの場合の処理を具体的に説明する。ステップS11で操作端末40は、画像データ52に代えて検出結果を処理実行装置10に送信する。検出結果は、各特定領域51について対象物が検出されたか否かを示す。ステップS12で操作端末40は画像データ52に複数の特定領域51等を示して表示する。ステップS13で検出判定部23は、検出結果に基づき、複数の特定領域51のうちのいずれかの領域において対象物が検出されたか否かを判定する。ステップS14で処理実行部24は、検出結果に基づき、どの特定領域51で対象物が検出されたかを特定する。そして、処理実行部24は、対象物が検出された特定領域51に応じた処理を実行する。
また、例えば、操作端末40が、領域情報31を記憶しておき、処理実行装置10に代わって操作端末40が、どの処理を実行するかを特定してもよい。つまり、操作端末40は、領域情報31を参照して、特定領域51で対象物が検出されたかを特定し、どの処理を実行するかを特定する。この場合には、操作端末40は、検出結果に実行する処理の識別情報を含める。ステップS14で処理実行部24は、検出結果に含まれた識別情報が示す処理を実行する。
<変形例2>
処理実行装置10は、複数の操作端末40と接続されていてもよい。この場合には、領域情報31は、操作端末40毎に、複数の特定領域51それぞれについて、位置情報と、処理情報とを含む。そして、図4に示す処理が、複数の操作端末40それぞれを対象の操作端末40として実行される。ステップS12及びステップS13では、対象の操作端末40に対応する位置情報が用いられる。また、ステップS14では、対象の操作端末40に対応する処理情報が用いられる。
<変形例3>
実施の形態1では、処理実行システム100が勤怠管理に利用される例を用いて説明した。しかし、処理実行システム100は、勤怠管理に限らず、様々な機器又はシステムに利用可能である。
例えば、飲食店等での発注システムに利用することが考えられる。この場合には、特定領域51毎に注文する商品を割り当てることが考えられる。例えば、特定領域51Aにはお茶、特定領域51Bにはコーヒーが割り当てられる。これにより、特定領域51Aに手がかざされると、お茶が注文され、特定領域51Bに手がかざされると、コーヒーが注文される。
<変形例4>
実施の形態1では、全ての特定領域51に処理が割り当てられていた。しかし、複数の特定領域51のうちいずれか1つの特定領域51にのみ処理を割り当てておいてもよい。
図6を参照して具体例を説明する。ここでは、処理実行システム100が扉の解錠システムに利用されているとする。図6では、6個の特定領域51が示されている。このうち、事前に設定された特定領域51Xに対して手がかざされた場合にのみ、処理実行部24は扉を解錠する処理を実行する。一方、他の特定領域51に手がかざされても、処理実行部24は扉を解錠する処理を実行しない。これにより、どの特定領域51に扉を解錠する処理が割り当てられている利用者だけが扉を解錠できる。
なお、他の特定領域51に連続して基準回数以上手がかざされた場合には、警備室等に通知を行ってもよい。この際、手がかざされたときの画像データ52を警備室に送ってもよい。手がかざされたときの画像データ52には、手をかざしている人の顔等が映っている可能性がある。
<変形例5>
実施の形態1では、各機能構成要素がソフトウェアで実現された。しかし、変形例5として、各機能構成要素はハードウェアで実現されてもよい。この変形例5について、実施の形態1と異なる点を説明する。
図7を参照して、変形例5に係る処理実行装置10の構成を説明する。
各機能構成要素がハードウェアで実現される場合には、処理実行装置10は、プロセッサ11とメモリ12とストレージ13とに代えて、電子回路15を備える。電子回路15は、各機能構成要素と、メモリ12と、ストレージ13との機能とを実現する専用の回路である。
電子回路15としては、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA、ASIC、FPGAが想定される。GAは、Gate Arrayの略である。ASICは、Application Specific Integrated Circuitの略である。FPGAは、Field-Programmable Gate Arrayの略である。
各機能構成要素を1つの電子回路15で実現してもよいし、各機能構成要素を複数の電子回路15に分散させて実現してもよい。
<変形例6>
変形例6として、一部の各機能構成要素がハードウェアで実現され、他の各機能構成要素がソフトウェアで実現されてもよい。
プロセッサ11とメモリ12とストレージ13と電子回路15とを処理回路という。つまり、各機能構成要素の機能は、処理回路により実現される。
実施の形態2.
実施の形態2は、検出された対象物の向きに応じて異なる処理を実行する点が実施の形態1と異なる。実施の形態2では、この異なる点を説明し、同一の点については説明を省略する。
***動作の説明***
図8を参照して、実施の形態2に係る領域情報31を説明する。
領域情報31は、複数の特定領域51それぞれについて、位置情報と、向きと、処理情報とを含む。向きは、対象物の向きである。対象物が手の場合には、対象物の向きは、手の先がどちらを向いているかを意味する。
図8では、特定領域51Aにはお茶の注文に関する処理が割り当てられている。特定領域51Aについて向きが上の場合には、注文数を1増やす処理が割り当てられている。特定領域51Aについて向きが下の場合には、注文数を1減らす処理が割り当てられている。特定領域51Bにはコーヒーの注文に関する処理が割り当てられている。特定領域51Bについて向きが上の場合には、注文数を1増やす処理が割り当てられている。特定領域51Bについて向きが下の場合には、注文数を1減らす処理が割り当てられている。特定領域51Cには、向きに関わらず、注文の確定処理が割り当てられている。
図4を参照して、実施の形態2に係る処理実行装置10の処理の流れを説明する。
ステップS11及びステップS12の処理は、実施の形態1と同じである。
(ステップS13:検出判定処理)
検出判定部23は、ステップS11で取得された画像データ52における複数の特定領域51のうちのいずれかの特定領域51において対象物が検出されたか否かを判定する。検出判定部23は、対象物が検出された場合には、対象物の向きを特定する。対象物の向きは、対象物の検出と合わせて学習済みモデルにより行うことが考えられる。
(ステップS14:処理実行処理)
処理実行部24は、複数の特定領域51のうちのどの特定領域51で対象物が検出されたかに加えて、対象物がどの向きかに応じて異なる処理を実行する。
具体的には、処理実行部24は、領域情報31を参照して、対象物が検出された特定領域51と、検出された対象物の向きとに対応する処理を特定する。図8のように領域情報31が設定されているとする。この場合には、特定領域51Aに上向きの手がかざされると、お茶の注文数が1つ増える。特定領域51Aに下向きの手がかざされると、お茶の注文数が1つ減る。同様に、特定領域51Bに上向きの手がかざされると、コーヒーの注文数が1つ増える。特定領域51Bに下向きの手がかざされると、コーヒーの注文数が1つ減る。特定領域51Cに手がかざされると、注文が確定される。例えば、特定領域51Aに上向きの手が3回かざされ、特定領域51Bに上向きの手が2回かざされた後に、特定領域51Cに手がかざされると、お茶3つとコーヒー2つの注文が確定される。
***実施の形態2の効果***
以上のように、実施の形態2に係る処理実行装置10は、検出された対象物の向きに応じて異なる処理を実行する。これにより、実施の形態1に比べ、より柔軟な操作が可能になる。
***他の構成***
<変形例7>
実施の形態2では、実施の形態1との組合せであったため、特定領域51が複数存在することが前提であった。しかし、特定領域51は1つだけでもよい。この場合には、図4のステップS14で処理実行部24は、検出された対象物の向きにのみ応じた処理を実行する。
<変形例8>
実施の形態2では、対象物の向きに応じて異なる処理が実行された。対象物の種類に応じて異なる処理が実行されてもよい。例えば、対象物が複数の種類の札であるとする。図4のステップS13では、検出判定部23は、複数の特定領域51のうちのいずれかの特定領域51においていずれかの札が検出されたか否かを判定する。図4のステップS14では、処理実行部24は、複数の特定領域51のうちのどの特定領域51で対象物が検出されたかに加えて、どの種類の札が検出されたかに応じて異なる処理を実行する。この際、処理実行部24は、対象物の向きにも応じて異なる処理を実行してもよい。
この場合には、図9に示すように、領域情報31は、複数の特定領域51それぞれについて、位置情報と、種類と、処理情報とを含む。向きを考慮する場合には、領域情報31は、複数の特定領域51それぞれについて、位置情報と、向きと、種類と、処理情報とを含む。
図9では、特定領域51Aにはお茶の注文に関する処理が割り当てられている。特定領域51Aについて種類1の札の場合には、注文数を1増やす処理が割り当てられている。特定領域51Aについて種類2の札の場合には、注文数を1減らす処理が割り当てられている。特定領域51Bにはコーヒーの注文に関する処理が割り当てられている。特定領域51Bについて種類1の札の場合には、注文数を1増やす処理が割り当てられている。特定領域51Bについて種類2の札の場合には、注文数を1減らす処理が割り当てられている。特定領域51Cには、札の種類に関わらず、注文の確定処理が割り当てられている。
なお、変形例7と同様に、特定領域51は1つだけでもよい。この場合には、図4のステップS14で処理実行部24は、検出された対象物の種類のみに応じた処理を実行する。
実施の形態3.
実施の形態3は、顔認証を行う点が実施の形態1,2と異なる。実施の形態では、この異なる点を説明し、同一の点については説明を省略する。
実施の形態3では、実施の形態1に変更を加えた場合を説明する。しかし、実施の形態2に変更を加えることも可能である。
***構成の説明***
図10を参照して、実施の形態3に係る処理実行装置10の構成を説明する。
処理実行装置10は、機能構成要素として、顔認証部25を備える点が図2に示す処理実行装置10と異なる。顔認証部25の機能は、他の機能構成要素と同様に、ソフトウェア又はハードウェアによって実現される。
***動作の説明***
図11を参照して、実施の形態3に係る処理実行装置10の処理の流れを説明する。
図11に示す処理の前提として、処理実行装置10のストレージ13には1人以上の利用者それぞれの顔の画像が利用者属性情報と対応付けられた照合画像として記憶されている。また顔認証について、虹彩認証としてもよく、その場合は利用者の目の虹彩模様が判別できる画像を照合画像として記憶する。以下の説明で顔認証には、虹彩認証を含むものとする。
ステップS21からステップS22の処理は、図4のステップS11からステップS12の処理と同じである。ステップS24からステップS25の処理は、図4のステップS13からステップS14の処理と同じである。
(ステップS23:顔認証処理)
顔認証部25は、ステップS21で取得された画像データ52に含まれる顔画像に基づき認証を行う。
具体的には、顔認証部25は、画像データ52から顔を検出する。顔の検出は、例えば、画像を入力として顔を検出する学習済みモデルに部分画像を入力することにより実現される。顔認証部25は、検出された顔部分の画像である顔画像と、1人以上の利用者それぞれの照合画像とを比較する。顔認証部25は、類似度が基準以上の照合画像があったか否かを判定する。顔認証部25は、類似度が基準以上の照合画像があった場合には、認証が成功したと判定する。一方、顔認証部25は、類似度が基準以上の照合画像がなかった場合には、認証が失敗したと判定する。
顔認証部25は、認証が成功した場合には、照合画像に対応する利用者を特定する。なお、類似度が基準以上の照合画像が複数あった場合には、最も類似度が高い照合画像に対応する利用者を特定する。そして、顔認証部25は、処理をステップS24に進める。一方、顔認証部25は、認証が失敗した場合には、処理をステップS21に戻す。
(ステップS26:履歴記憶処理)
処理実行部24は、ステップS24で実行した処理内容と、ステップS23で特定された利用者とを対応付けて履歴としてストレージ13に書き込む。例えば、処理実行システム100が勤怠管理に利用されるとする。この場合には、図12に示すように、各利用者の出勤時刻と退勤時刻とが記録されることになる。
***実施の形態3の効果***
以上のように、実施の形態3に係る処理実行装置10は、顔認証を行う。処理実行装置10は、カメラ41で取得された画像データ52を用いて処理の指示を受け付ける。そのため、処理の指示をする際に、併せて顔認証を行うことが可能である。これにより、適切な利用者だけが処理を指示できるようにすることが可能である。
また、処理を指示した利用者を特定することが可能である。そのため、勤怠管理のように利用者を特定する必要があるシステムに処理実行システム100が利用される場合には、別途利用者を特定する必要がなくなる。
実施の形態3の機能を、変形例4に記載された解錠の例と合わせることが考えられる。これにより、顔認証に成功し、かつ、どの特定領域51に扉を解錠する処理が割り当てられているかを知る利用者だけが扉を解錠できる。
<変形例9>
以上の説明では、特定領域51の位置は固定されていた。しかし、特定領域51は、画像データ52に含まれる顔の位置に応じて決定されてもよい。この場合には、図13に示すように、領域情報31は、位置情報として、顔の位置を基準とした位置が設定される。顔の位置は、顔の検出枠の位置である。図13では、特定領域51Aは、顔の検出枠の左上に、顔の検出枠の1.5倍の大きさで表示されるように設定されている。特定領域51Bは、顔の検出枠の右上に、顔の検出枠の1.5倍の大きさで表示されるように設定されている。
利用者の位置又は身長等によっては、特定領域51に対象物をかざしづらい可能性がある。顔の位置を基準とすることにより、利用者が対象物をかざしやすい位置に特定領域51を設定することが可能である。
実施の形態4.
実施の形態4は、対象物が利用者を識別する識別情報を含む点が実施の形態3と異なる。実施の形態4では、この異なる点を説明し、同一の点については説明を省略する。
***構成の説明***
図14を参照して、実施の形態3に係る処理実行装置10の構成を説明する。
処理実行装置10は、機能構成要素として、二次認証部26を備える点が図10に示す処理実行装置10と異なる。二次認証部26の機能は、他の機能構成要素と同様に、ソフトウェア又はハードウェアによって実現される。
***動作の説明***
図15を参照して、実施の形態4に係る処理実行装置10の処理の流れを説明する。
実施の形態4では、対象物は、利用者の識別情報を記録した二次元コードであるとする。これに限らず、対象物は、利用者の識別情報を示す社員証等であってもよい。
ステップS31からステップS34の処理は、図11のステップS21からステップS24の処理と同じである。ステップS36からステップS37の処理は、図11のステップS25からステップS26の処理と同じである。
(ステップS35:二次認証処理)
二次認証部26は、ステップS34で検出された対象物に含まれる識別情報が示す利用者が、顔画像から特定される利用者と一致するか否かを判定する。
具体的には、二次認証部26は、ステップS34で検出された対象物から識別情報を抽出する。ここでは、二次認証部26は、二次元コードを読み取ることにより、識別情報を抽出する。二次認証部26は、識別情報が示す利用者を特定する。二次認証部26は、特定された利用者が、ステップS33で特定された利用者と一致するか否かを判定する。
二次認証部26は、一致する場合には、処理をステップS36に進める。一方、二次認証部26は、一致しない場合には、処理をステップS31に戻す。
***実施の形態4の効果***
以上のように、実施の形態4に係る処理実行装置10は、顔認証に加えて、対象物に含まれる識別情報による認証を行う。これにより、利用者をより適切に識別可能である。
<変形例10>
変形例8では、対象物の種類に応じて異なる処理が実行されるとした。対象物として、識別情報を含まない第1物と、識別情報を含む第2物とを設定してもよい。そして、第1物がかざされた場合と、第2物がかざされた場合とで異なる処理が実行されてもよい。
例えば、第1物を手とし、第2物を二次元コードとする。そして、手をかざすと部屋の中の人を呼ぶ処理が実行される。二次元コードをかざすと扉を解錠する処理が実行される。これにより、二次元コードが示された社員証等を忘れた利用者は、扉を開けることはできないが、中の人を呼ぶことができる。
<変形例11>
実施の形態4では、ステップS35において、ステップS33で認証された顔画像と対応付けられた利用者と、ステップS34で検出された識別情報が示す利用者とが一致するか否かを判定した。しかし、ステップS33の処理を省略し、ステップS34で識別された識別情報および利用者属性情報と、予めストレージ13に記憶された識別情報と利用者属性情報とが一致するかをステップS35で判定するように構成してもよい。なお利用者属性情報とは、利用者氏名、社員番号等を示す。
なお、以上の説明における「部」を、「回路」、「工程」、「手順」、「処理」又は「処理回路」に読み替えてもよい。
以上、本開示の実施の形態及び変形例について説明した。これらの実施の形態及び変形例のうち、いくつかを組み合わせて実施してもよい。また、いずれか1つ又はいくつかを部分的に実施してもよい。なお、本開示は、以上の実施の形態及び変形例に限定されるものではなく、必要に応じて種々の変更が可能である。
100 処理実行システム、10 処理実行装置、11 プロセッサ、12 メモリ、13 ストレージ、14 通信インタフェース、15 電子回路、21 画像取得部、22 表示部、23 検出判定部、24 処理実行部、25 顔認証部、26 二次認証部、31 領域情報、40 操作端末、41 カメラ、51 特定領域、52 画像データ、90 伝送路。

Claims (10)

  1. 画像データにおける複数の特定領域のうちのいずれかの特定領域において、利用者を識別する識別情報を含む対象物が検出されたか否かを判定する検出判定部と、
    前記画像データに含まれる顔画像に基づき認証を行う顔認証部と、
    前記検出判定部によって検出された前記対象物に含まれる前記識別情報が示す利用者が、前記顔認証部によって前記顔画像から特定された利用者と一致するか否かを判定する二次認証部と、
    前記二次認証部によって一致すると判定された場合に、前記複数の特定領域のうちのどの特定領域で前記対象物が検出されたかに応じて異なる処理を実行する処理実行部と
    を備える処理実行装置。
  2. 前記処理実行部は、検出された前記対象物の向きに応じて異なる処理を実行する
    請求項1に記載の処理実行装置。
  3. 前記処理実行部は、検出された前記対象物の種類に応じて異なる処理を実行する
    請求項1又は2に記載の処理実行装置。
  4. 前記複数の特定領域の位置は、前記画像データに含まれる顔の位置に応じて決定される請求項1から3までのいずれか1項に記載の処理実行装置。
  5. 前記処理実行装置は、さらに、
    前記画像データに前記複数の特定領域を示して表示する表示部
    を備える請求項1からまでのいずれか1項に記載の処理実行装置。
  6. コンピュータが、画像データにおける複数の特定領域のうちのいずれかの特定領域において、利用者を識別する識別情報を含む対象物が検出されたか否かを判定し、
    コンピュータが、前記画像データに含まれる顔画像に基づき認証を行い、
    コンピュータが、検出された前記対象物に含まれる前記識別情報が示す利用者が、前記顔画像から特定された利用者と一致するか否かを判定し、
    コンピュータが、利用者が一致すると判定された場合に、前記複数の特定領域のうちのどの特定領域で前記対象物が検出されたかに応じて異なる処理を実行する処理実行方法。
  7. 画像データにおける複数の特定領域のうちのいずれかの特定領域において、利用者を識別する識別情報を含む対象物が検出されたか否かを判定する検出判定処理と、
    前記画像データに含まれる顔画像に基づき認証を行う顔認証処理と、
    前記検出判定処理によって検出された前記対象物に含まれる前記識別情報が示す利用者が、前記顔認証処理によって前記顔画像から特定された利用者と一致するか否かを判定する二次認証処理と、
    前記二次認証処理によって一致すると判定された場合に、前記複数の特定領域のうちのどの特定領域で前記対象物が検出されたかに応じて異なる処理を実行する処理実行処理とを行う処理実行装置としてコンピュータを機能させる処理実行プログラム。
  8. 前記処理実行処理は、検出された前記対象物の向きに応じて異なる処理を実行する
    請求項7に記載の処理実行プログラム。
  9. 前記処理実行処理は、検出された前記対象物の種類に応じて異なる処理を実行する
    請求項7又は8に記載の処理実行プログラム。
  10. 前記複数の特定領域の位置は、前記画像データに含まれる顔の位置に応じて決定される請求項7から9までのいずれか1項に記載の処理実行プログラム。
JP2022016986A 2022-02-07 2022-02-07 処理実行装置、処理実行方法及び処理実行プログラム Active JP7336553B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022016986A JP7336553B2 (ja) 2022-02-07 2022-02-07 処理実行装置、処理実行方法及び処理実行プログラム
JP2023133735A JP7523644B2 (ja) 2022-02-07 2023-08-21 処理実行装置、処理実行方法及び処理実行プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022016986A JP7336553B2 (ja) 2022-02-07 2022-02-07 処理実行装置、処理実行方法及び処理実行プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023133735A Division JP7523644B2 (ja) 2022-02-07 2023-08-21 処理実行装置、処理実行方法及び処理実行プログラム

Publications (2)

Publication Number Publication Date
JP2023114587A JP2023114587A (ja) 2023-08-18
JP7336553B2 true JP7336553B2 (ja) 2023-08-31

Family

ID=87569842

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022016986A Active JP7336553B2 (ja) 2022-02-07 2022-02-07 処理実行装置、処理実行方法及び処理実行プログラム
JP2023133735A Active JP7523644B2 (ja) 2022-02-07 2023-08-21 処理実行装置、処理実行方法及び処理実行プログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023133735A Active JP7523644B2 (ja) 2022-02-07 2023-08-21 処理実行装置、処理実行方法及び処理実行プログラム

Country Status (1)

Country Link
JP (2) JP7336553B2 (ja)

Citations (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000082107A (ja) 1998-06-30 2000-03-21 Sony Corp 画像処理装置、画像処理方法、および媒体
JP2002116859A (ja) 2000-10-11 2002-04-19 Sony Corp 情報処理装置、命令認識処理方法及びプログラム格納媒体
WO2006037786A3 (en) 2004-10-05 2006-06-15 Sony France Sa A content-management interface
JP2007054413A (ja) 2005-08-25 2007-03-08 Aruze Corp 遊技機および遊技システム
JP2008097151A (ja) 2006-10-06 2008-04-24 Sharp Corp 情報処理装置、情報処理システム、情報処理方法およびプログラム
JP2009134677A (ja) 2007-02-28 2009-06-18 Fuji Xerox Co Ltd ジェスチャインターフェースシステム、ジェスチャ入力用ワンド、アプリケーション制御方法、カメラ校正方法、及び制御プログラム
JP2010534895A (ja) 2007-07-27 2010-11-11 ジェスチャー テック,インコーポレイテッド 高度なカメラをベースとした入力
JP2011186892A (ja) 2010-03-10 2011-09-22 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2011232964A (ja) 2010-04-28 2011-11-17 Casio Comput Co Ltd 電気機器、及びその制御方法とプログラム
JP2012058884A (ja) 2010-09-07 2012-03-22 Sony Corp 情報処理装置、および情報処理方法
JP2013205983A (ja) 2012-03-27 2013-10-07 Sony Corp 情報入力装置及び情報入力方法、並びにコンピューター・プログラム
JP2013246514A (ja) 2012-05-23 2013-12-09 Toshiba Corp 情報処理装置、情報処理方法、およびプログラム
CN103674057A (zh) 2012-09-11 2014-03-26 北京航天计量测试技术研究所 带有反射球的标准球杆及其对相机外部参数的标定方法
KR101406855B1 (ko) 2013-04-17 2014-06-13 한국과학기술연구원 다차원 입력장치를 이용한 컴퓨터 시스템
JP2015038648A (ja) 2010-12-24 2015-02-26 株式会社東芝 情報処理装置、制御方法およびプログラム
JP2016218946A (ja) 2015-05-26 2016-12-22 沖電気工業株式会社 表示装置、表示方法及びプログラム
JP2017012240A (ja) 2015-06-26 2017-01-19 株式会社バンダイナムコエンターテインメント ゲーム装置
WO2019031531A1 (ja) 2017-08-10 2019-02-14 日本電気株式会社 情報取得システム、情報取得方法及び記憶媒体
JP2019121099A (ja) 2017-12-28 2019-07-22 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置のプログラム、情報処理システム、及び、表示方法
JP2020005980A (ja) 2018-07-10 2020-01-16 株式会社セガゲームス ゲーム機および遊技媒体
JP2021071894A (ja) 2019-10-30 2021-05-06 三菱電機株式会社 操作装置、操作方法及びプログラム
JP2021176460A (ja) 2020-05-10 2021-11-11 望月 貴里子 仮想空間表示装置、プログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013257686A (ja) 2012-06-12 2013-12-26 Sony Corp 投影型画像表示装置及び画像投影方法、並びにコンピューター・プログラム
JP6442939B2 (ja) 2014-09-09 2018-12-26 株式会社リコー ウェアラブル端末、プログラム、情報処理システム、情報処理システムの制御方法および相互接続システム
JP6569320B2 (ja) 2015-06-19 2019-09-04 セイコーエプソン株式会社 電子機器、及び、電子機器の制御方法

Patent Citations (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000082107A (ja) 1998-06-30 2000-03-21 Sony Corp 画像処理装置、画像処理方法、および媒体
JP2002116859A (ja) 2000-10-11 2002-04-19 Sony Corp 情報処理装置、命令認識処理方法及びプログラム格納媒体
WO2006037786A3 (en) 2004-10-05 2006-06-15 Sony France Sa A content-management interface
JP2007054413A (ja) 2005-08-25 2007-03-08 Aruze Corp 遊技機および遊技システム
JP2008097151A (ja) 2006-10-06 2008-04-24 Sharp Corp 情報処理装置、情報処理システム、情報処理方法およびプログラム
JP2009134677A (ja) 2007-02-28 2009-06-18 Fuji Xerox Co Ltd ジェスチャインターフェースシステム、ジェスチャ入力用ワンド、アプリケーション制御方法、カメラ校正方法、及び制御プログラム
JP2010534895A (ja) 2007-07-27 2010-11-11 ジェスチャー テック,インコーポレイテッド 高度なカメラをベースとした入力
JP2011186892A (ja) 2010-03-10 2011-09-22 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2011232964A (ja) 2010-04-28 2011-11-17 Casio Comput Co Ltd 電気機器、及びその制御方法とプログラム
JP2012058884A (ja) 2010-09-07 2012-03-22 Sony Corp 情報処理装置、および情報処理方法
JP2015038648A (ja) 2010-12-24 2015-02-26 株式会社東芝 情報処理装置、制御方法およびプログラム
JP2013205983A (ja) 2012-03-27 2013-10-07 Sony Corp 情報入力装置及び情報入力方法、並びにコンピューター・プログラム
JP2013246514A (ja) 2012-05-23 2013-12-09 Toshiba Corp 情報処理装置、情報処理方法、およびプログラム
CN103674057A (zh) 2012-09-11 2014-03-26 北京航天计量测试技术研究所 带有反射球的标准球杆及其对相机外部参数的标定方法
KR101406855B1 (ko) 2013-04-17 2014-06-13 한국과학기술연구원 다차원 입력장치를 이용한 컴퓨터 시스템
JP2016218946A (ja) 2015-05-26 2016-12-22 沖電気工業株式会社 表示装置、表示方法及びプログラム
JP2017012240A (ja) 2015-06-26 2017-01-19 株式会社バンダイナムコエンターテインメント ゲーム装置
WO2019031531A1 (ja) 2017-08-10 2019-02-14 日本電気株式会社 情報取得システム、情報取得方法及び記憶媒体
JP2019121099A (ja) 2017-12-28 2019-07-22 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置のプログラム、情報処理システム、及び、表示方法
JP2020005980A (ja) 2018-07-10 2020-01-16 株式会社セガゲームス ゲーム機および遊技媒体
JP2021071894A (ja) 2019-10-30 2021-05-06 三菱電機株式会社 操作装置、操作方法及びプログラム
JP2021176460A (ja) 2020-05-10 2021-11-11 望月 貴里子 仮想空間表示装置、プログラム

Also Published As

Publication number Publication date
JP7523644B2 (ja) 2024-07-26
JP2023160843A (ja) 2023-11-02
JP2023114587A (ja) 2023-08-18

Similar Documents

Publication Publication Date Title
JP6159491B1 (ja) 人物画特定システム、人物画特定方法及びプログラム
WO2019200872A1 (zh) 身份验证方法和装置、电子设备、计算机程序和存储介质
CN108959884B (zh) 人证核验装置和方法
US9147109B2 (en) Method for adding business card information into contact list
US20140270417A1 (en) Portable fingerprint device with enhanced security
JP6376246B2 (ja) 認証装置、認証方法、制御プログラムおよび記録媒体
US10212159B2 (en) Pharmacy authentication methods and systems
JP7336553B2 (ja) 処理実行装置、処理実行方法及び処理実行プログラム
CN108734099A (zh) 身份验证方法和装置、电子设备、计算机程序和存储介质
TW202004551A (zh) 攝像裝置、影像處理系統及方法
CN108764033A (zh) 身份验证方法和装置、电子设备、计算机程序和存储介质
JP6773144B2 (ja) コンテンツ選択装置、コンテンツ選択方法、コンテンツ選択システム及びプログラム
US20140229317A1 (en) Kiosk for extracting geometric elements of a key, mapping to a master key-code database, and saving data into a customer's loyalty account
JP2008123041A (ja) 本人証明システム及び本人証明方法
JPH02173869A (ja) Icカードを用いた個人認証システム
JP2000207524A (ja) カ―ド発行装置、カ―ド利用装置、本人識別装置、本人識別システム及び本人識別方法
WO2018122960A1 (ja) 撮影者特定システム、撮影者特定方法およびプログラム
TW202004539A (zh) 具有整合介面裝置的影音記錄裝置
JP7318696B2 (ja) 個体識別装置、個体識別方法及びプログラム
US20230012914A1 (en) Non-transitory computer readable storage, output control method, and terminal device
US20230334908A1 (en) Inmate release verification
WO2023120221A1 (ja) 認証装置、認証システム、認証方法及び記録媒体
JP2018173767A (ja) 個体識別装置、情報処理システム、個体識別装置の制御方法及びプログラム
JP2001101359A (ja) 認証管理システム
WO2021128096A1 (zh) 辨识用户身分的系统及辨识用户身分的方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230821

R150 Certificate of patent or registration of utility model

Ref document number: 7336553

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150