JP2021157644A - 制御装置、機器、プログラム、及び、制御方法 - Google Patents
制御装置、機器、プログラム、及び、制御方法 Download PDFInfo
- Publication number
- JP2021157644A JP2021157644A JP2020058865A JP2020058865A JP2021157644A JP 2021157644 A JP2021157644 A JP 2021157644A JP 2020058865 A JP2020058865 A JP 2020058865A JP 2020058865 A JP2020058865 A JP 2020058865A JP 2021157644 A JP2021157644 A JP 2021157644A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- function
- user
- article
- control device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C9/00—Individual registration on entry or exit
- G07C9/00174—Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
- G07C9/00563—Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys using personal physical data of the operator, e.g. finger prints, retinal images, voicepatterns
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C9/00—Individual registration on entry or exit
- G07C9/00174—Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
- G07C9/00896—Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys specially adapted for particular uses
Abstract
【課題】ユーザの身体動作及びユーザが物品を所持しているか否かに基づいて複数の機能を有する機器を制御する制御装置を提供する。【解決手段】車両100において、複数の機能を有する機器を制御する制御装置である車両制御部110は、機器のユーザの身体動作に関する特徴を検出する検出部であり、ユーザが物品を所持しているか否かを判定する第1判定部である画像解析部234と、複数の機能のうち何れかの機能を機器に実行させる実行部である機能実行部238と、を備える。検出部は、ユーザを撮像した画像に基づいて、特徴を検出する。第1判定部は、ユーザを撮像した画像に基づいて、物品を所持しているか否かを判定する。実行部は、検出部の検出結果及び第1判定部の判定結果に基づいて、複数の機能のうちの何れかの機能を機器に実行させる。【選択図】図2
Description
本発明は、制御装置、機器、プログラム、及び、制御方法に関する。
特許文献1には、ドアガラスの上端面に配置された接触センサへの接触操作によって、ドアガラスを昇降させる車両用ドアガラス開閉装置が開示されている。
[先行技術文献]
[特許文献]
[特許文献1] 特開2016−132864号公報
[先行技術文献]
[特許文献]
[特許文献1] 特開2016−132864号公報
本発明の第1の態様においては、制御装置が提供される。上記の制御装置は、例えば、複数の機能を有する機器を制御する。上記の制御装置は、例えば、機器のユーザが撮像された画像に基づいて、ユーザの身体動作に関する特徴を検出する検出部を備える。上記の制御装置は、例えば、画像に基づいて、ユーザが物品を所持しているか否かを判定する第1判定部を備える。上記の制御装置は、例えば、検出部の検出結果及び第1判定部の判定結果に基づいて、複数の機能のうちの何れかの機能を、機器に実行させる実行部を備える。
上記の制御装置において、(a)(i)検出部が第1身体動作に関する特徴を検出し、且つ、(ii)第1判定部が、ユーザが物品を所持していると判定した場合、又は、(b)検出部が、第1身体動作とは異なる第2身体動作に関する特徴を検出した場合、実行部は、複数の機能のうちの第1機能を機器に実行させてよい。上記の制御装置において、(i)検出部が第1身体動作に関する特徴を検出し、且つ、(ii)第1判定部が、ユーザが物品を所持していないと判定した場合、実行部は、複数の機能のうち、第1機能とは異なる第2機能を機器に実行させてよい。上記の制御装置において、実行部が第1機能を機器に実行させた後、予め定められた期間内に、検出部が第1身体動作に関する特徴を検出した場合、実行部は、第1機能を機器に実行させてよい。
上記の制御装置において、第1判定部は、機器の構成部品とは異なる特徴を有する第1物品が、ユーザの身体の特定の部位の近傍に検出されるか否かを判定してよい。第1判定部は、第1物品がユーザの特定の部位の近傍に検出されたと判定された場合に、ユーザが物品を所持していると判定してよい。
上記の制御装置において、第1判定部は、ユーザの身体の特定の部位の形状が、予め定められた特徴を有するか否かを判定してよい。第1判定部は、ユーザの特定の部位の形状が予め定められた特徴を有すると判定された場合に、ユーザが物品を所持していると判定してよい。
本発明の第2の態様においては、制御装置が提供される。上記の制御装置は、例えば、複数の機能を有する機器を制御する。上記の制御装置は、例えば、機器のユーザが撮像された画像に基づいて、ユーザの身体動作に関する特徴を検出する検出部を備える。上記の制御装置は、例えば、画像に基づいて、予め定められた特徴を有する第2物品が、ユーザの身体の特定の部位の近傍に存在するか否かを判定する第2判定部を備える。上記の制御装置は、例えば、検出部の検出結果及び第2判定部の判定結果に基づいて、複数の機能のうちの何れかの機能を、機器に実行させる実行部を備える。
上記の制御装置において、(a)(i)検出部が第1身体動作に関する特徴を検出し、且つ、(ii)第2判定部が、第2物品がユーザの特定の部位の近傍に存在すると判定した場合、又は、(b)検出部が、第1身体動作とは異なる第2身体動作に関する特徴を検出した場合、実行部は、複数の機能のうちの第1機能を機器に実行させてよい。上記の制御装置において、(i)検出部が第1身体動作に関する特徴を検出し、且つ、(ii)第2判定部が、第2物品がユーザの特定の部位の近傍に存在しないと判定した場合、実行部は、複数の機能のうち、第1機能とは異なる第2機能を機器に実行させてよい。上記の制御装置において、実行部が第1機能を機器に実行させた後、予め定められた期間内に、検出部が第1身体動作に関する特徴を検出した場合、実行部は、第1機能を機器に実行させてよい。
上記の第1又は第2の態様に係る制御装置において、機器は、開閉可能に構成された窓を有する移動体であってよい。上記の制御装置において、第1機能は、窓を開ける機能又は窓を閉める機能であってよい。
本発明の第3の態様においては、機器が提供される。上記の機器は、例えば、上記の第1又は第2の態様に係る制御装置を備える。上記の機器は、例えば、複数の機能のそれぞれを実行する複数の機能部を備える。上記の機器において、例えば、複数の機能部のそれぞれは、制御装置からの指示に基づいて、各機能部に割り当てられた機能を実行する。上記の機器は、機器のユーザを撮像する撮像部を備えてよい。
本発明の第4の態様においては、制御方法が提供される。上記の制御装置は、例えば、複数の機能を有する機器を制御するために用いられる。上記の方法は、例えば、機器のユーザが撮像された画像に基づいて、ユーザの身体動作に関する特徴を検出する検出段階を有する。上記の方法は、例えば、画像に基づいて、ユーザが物品を所持しているか否かを判定する第1判定段階を有する。上記の方法は、例えば、検出段階における検出結果及び第1判定段階における判定結果に基づいて、複数の機能のうちの何れかの機能を、機器に実行させる実行段階を有する。
本発明の第5の態様においては、制御方法が提供される。上記の方法は、例えば、複数の機能を有する機器を制御するために用いられる。上記の方法は、例えば、機器のユーザが撮像された画像に基づいて、ユーザの身体動作に関する特徴を検出する検出段階を有する。上記の方法は、例えば、画像に基づいて、予め定められた特徴を有する第2物品が、ユーザの身体の特定の部位の近傍に存在するか否かを判定する第2判定段階を有する。上記の方法は、例えば、検出段階における検出結果及び第2判定段階における判定結果に基づいて、複数の機能のうちの何れかの機能を、機器に実行させる実行段階を有する。
本発明の第6の態様においては、プログラムが提供される。上記のプログラムは、コンピュータを、上記の第1又は第2の態様に係る制御装置として機能させるためのプログラムであってよい。上記のプログラムは、コンピュータに、上記の第4又は第5の態様に係る制御方法を実行させるためのプログラムであってもよい。上記のプログラムを格納するコンピュータ可読媒体が提供されてもよい。コンピュータ可読媒体は、非一時的なコンピュータ可読媒体であってもよい。コンピュータ可読媒体は、コンピュータ可読記録媒体であってもよい。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。なお、図面において、同一または類似の部分には同一の参照番号を付して、重複する説明を省く場合がある。
[車両100の概要]
図1及び図2を用いて、車両100のシステム構成の一例が説明される。車両100としては、自転車、自動車、自動二輪車、電車などが例示される。自動二輪車としては、(i)バイク、(ii)三輪バイク、(iii)セグウェイ(登録商標)、動力ユニット付きキックボード(登録商標)、動力ユニット付きスケートボードのような、動力ユニットを有する立ち乗り二輪車又は三輪車などが例示される。車両100は、動力源として、内燃機関を利用してもよく、電動機を利用してもよく、内燃機関及び電動機の両方を利用してもよい。
図1及び図2を用いて、車両100のシステム構成の一例が説明される。車両100としては、自転車、自動車、自動二輪車、電車などが例示される。自動二輪車としては、(i)バイク、(ii)三輪バイク、(iii)セグウェイ(登録商標)、動力ユニット付きキックボード(登録商標)、動力ユニット付きスケートボードのような、動力ユニットを有する立ち乗り二輪車又は三輪車などが例示される。車両100は、動力源として、内燃機関を利用してもよく、電動機を利用してもよく、内燃機関及び電動機の両方を利用してもよい。
図1に示されるとおり、本実施形態において、車両100は、車両制御部110と、カメラ120とを備える。車両100は、複数のカメラ120を備えてもよい。
本実施形態において、車両制御部110は、車両100を制御する。例えば、車両制御部110は、車両100が有する複数の機能の実行を制御する。車両制御部110の詳細は後述される。
本実施形態において、カメラ120は、車両100を利用する搭乗者20を撮像する。一実施形態において、カメラ120は、例えば、搭乗者20の手22の様子を撮像することができるように構成される。他の実施形態において、カメラ120は、例えば、搭乗者20が駐車チケット30を手22に所持している場合に、少なくとも駐車チケット30の特徴部分を撮像することができるように構成される。カメラ120は、搭乗者20が撮像された画像の画像データを、車両制御部110に出力する。上記の画像は、1又は複数の静止画像であってもよく、動画像であってもよい。
図2に示されるとおり、本実施形態において、車両100は、例えば、ドア210をさらに備える。本実施形態において、ドア210は、例えば、ドア開閉部212と、窓220と、窓開閉部222とを有する。また、上記の車両制御部110は、例えば、画像データ取得部232と、画像解析部234と、機能割当部236と、機能実行部238とを有する。
本実施形態においては、ドア210及び窓220のそれぞれが開閉可能に構成されており、搭乗者20がドア210又は窓220を開閉する場合を例として、車両100及び車両制御部110の詳細が説明される。しかしながら、車両100及び車両制御部110は本実施形態に限定されないことに留意されたい。
従来技術のように、窓220に配された窓ガラス(図示されていない。)の上端面に配置された接触センサを搭乗者20が接触操作することで、窓220が開閉するように構成されている場合、例えば、搭乗者20が駐車チケット30を手22に所持しているときには、窓220の開閉操作が非常に煩雑となる。
本実施形態によれば、車両制御部110は、カメラ120が撮像した搭乗者20の画像を解析して、搭乗者20の身体動作(ジェスチャと称される場合がある。)により、窓220を開閉させる。これにより、例えば、搭乗者20が駐車チケット30を手22に所持している場合であっても、搭乗者20は、窓220を容易に開閉することができる。身体動作は、搭乗者20の身体の任意の部位の動作であってよい。身体動作としては、手22の動き、手22の形の変化(つまり、指の動きである)、腕の動き、表情、視線の動き、口の動きなどが例示される。
本実施形態において、ドア開閉部212は、ドア210の開閉機能を実行する。ドア開閉部212は、車両制御部110からの指示に基づいて、ドア210の開閉機能を実行してよい。例えば、ドア開閉部212は、電動機(図示されていない。)を利用して、ドア開閉部212を開閉させる。ドア開閉部212は、ドア210の鍵(図示されていない。)の施錠及び解錠の少なくとも一方を実行してもよい。
本実施形態において、窓開閉部222は、窓220の開閉機能を実行する。窓開閉部222は、車両制御部110からの指示に基づいて、窓220の開閉機能を実行してよい。例えば、窓開閉部222は、窓220に配された窓ガラス(図示されていない。)を昇降させることで、窓220を開閉させる。窓開閉部222は、窓220の鍵(図示されていない。)の施錠及び解錠の少なくとも一方を実行してもよい。
本実施形態において、画像データ取得部232は、カメラ120から、カメラ120が撮像した画像の画像データを取得する。画像データ取得部232は、上記の画像データを画像解析部234に出力する。画像データ取得部232は、車両制御部110及びカメラ120の間のデータ通信を制御する通信インターフェースであってもよい。
本実施形態において、画像解析部234は、カメラ120が撮像した搭乗者20の画像を解析する。画像解析部234は、解析結果を示す情報を、例えば機能割当部236に出力する。画像解析部234の詳細は後述される。
一実施形態において、画像解析部234は、搭乗者20の画像を解析して、搭乗者20の身体動作を検出する。画像解析部234は、搭乗者20の身体動作を特定してもよい。例えば、画像解析部234は、特定の種類の身体動作を検出する。画像データ取得部232は、検出された身体動作の種類を示す情報を、例えば機能割当部236に出力する。上記の検出された身体動作の種類を示す情報は、特定の身体動作が検出されたことを示す情報であってもよい。
他の実施形態において、画像解析部234は、搭乗者20の画像を解析して、搭乗者20の状況を認識する。画像データ取得部232は、認識された搭乗者20の状況を示す情報を、例えば機能割当部236に出力する。
例えば、画像解析部234は、搭乗者20が物品を手22に所持しているか否かを判定する。画像解析部234は、搭乗者20が、搭乗者20の手22のうち、窓220の側に位置する手22に物品を所持しているか否かを判定してよい。
例えば、画像解析部234は、駐車チケット30の有無を判定する。画像解析部234は、搭乗者20の手22の周辺の空間における駐車チケット30の有無を判定してもよい。画像解析部234は、搭乗者20の手22のうち、窓220の側に位置する手22の周辺の空間における、駐車チケット30の有無を判定してもよい。
本実施形態において、機能割当部236は、搭乗者20の身体動作に、車両100の機能を割り当てる。機能割当部236は、例えば、予め定められたルールに従って、搭乗者20の身体動作に、車両100の機能を割り当てる。上記のルールの詳細は後述される。機能割当部236は、搭乗者20の身体動作に対して割り当てられた車両100の機能を示す情報を、例えば機能実行部238に出力する。
一実施形態において、画像解析部234から、検出された身体動作の種類を示す情報を取得する。機能割当部236は、検出された身体動作に対して割り当てられる車両100の機能の種類を決定する。機能割当部236は、検出された身体動作に対して割り当てられた車両100の機能の種類を示す情報を、例えば機能実行部238に出力する。
他の実施形態において、機能割当部236は、画像解析部234から、認識された搭乗者20の状況を示す情報をさらに取得する。機能割当部236は、搭乗者20の状況に応じて、検出された身体動作に対して割り当てられる車両100の機能の種類を決定する。機能割当部236は、検出された身体動作に対して割り当てられた車両100の機能の種類を示す情報を、例えば機能実行部238に出力する。
本実施形態において、機能実行部238は、車両100の機能の実行を制御する。例えば、機能実行部238は、ドア開閉部212を制御して、ドア開閉部212にドア210の開閉機能を実行させる。これにより、ドア開閉部212は、ドア210を開ける動作を実行したり、ドア210を閉める動作を実行したりする。同様に、機能実行部238は、窓開閉部222を制御して、窓開閉部222に窓220の開閉機能を実行させる。これにより、窓開閉部222は、窓220を開ける動作を実行したり、窓220を閉める動作を実行したりする。
本実施形態において、機能実行部238は、機能実行部238から、画像解析部234が検出した搭乗者20の身体動作に対して割り当てられた車両100の機能の種類を示す情報を取得する。機能実行部238は、上記の情報により示される種類の機能を、車両100に実行させる。
上述されたとおり、機能割当部236は、画像解析部234の解析結果に基づいて、搭乗者20の身体動作に対して車両100の動作を割り当てる。これにより、機能実行部238は、画像解析部234の解析結果に基づいて、車両100が有する複数の機能のうちの何れかの機能を、車両100に実行させることができる。
[車両100の各部の具体的な構成]
車両100の各部は、ハードウエアにより実現されてもよく、ソフトウエアにより実現されてもよく、ハードウエア及びソフトウエアにより実現されてもよい。車両100の各部は、その少なくとも一部が、ECU(Electronic Control Unit)などの制御ユニットにより実現されてよい。車両100の各部は、その少なくとも一部が、パーソナルコンピュータ又は携帯端末によって実現されてもよい。例えば、パーソナルコンピュータ又は携帯端末が、車両制御部110のユーザインタフェースとして利用され得る。携帯端末としては、携帯電話、スマートフォン、PDA、タブレット、ノートブック・コンピュータ又はラップトップ・コンピュータ、ウエアラブル・コンピュータなどが例示される。
車両100の各部は、ハードウエアにより実現されてもよく、ソフトウエアにより実現されてもよく、ハードウエア及びソフトウエアにより実現されてもよい。車両100の各部は、その少なくとも一部が、ECU(Electronic Control Unit)などの制御ユニットにより実現されてよい。車両100の各部は、その少なくとも一部が、パーソナルコンピュータ又は携帯端末によって実現されてもよい。例えば、パーソナルコンピュータ又は携帯端末が、車両制御部110のユーザインタフェースとして利用され得る。携帯端末としては、携帯電話、スマートフォン、PDA、タブレット、ノートブック・コンピュータ又はラップトップ・コンピュータ、ウエアラブル・コンピュータなどが例示される。
車両100を構成する構成要素の少なくとも一部がソフトウエアにより実現される場合、当該ソフトウエアにより実現される構成要素は、一般的な構成の情報処理装置において、当該構成要素に関する動作を規定したプログラムを起動することにより実現されてよい。上記の情報処理装置は、例えば、(i)各種プロセッサ(プロセッサとしては、CPU、GPUなどが例示される)、ROM、RAM、通信インタフェースなどを有するデータ処理装置と、(ii)メモリ、HDDなどの記憶装置(外部記憶装置を含む。)とを備える。上記の情報処理装置は、(iii)キーボード、タッチパネル、カメラ、マイク、各種センサ、GPS受信機などの入力装置を備えてもよく、(iv)表示装置、スピーカ、振動装置などの出力装置を備えてもよい。
上記の情報処理装置において、上記のデータ処理装置又は記憶装置は、プログラムを格納してよい。上記のプログラムに記述された情報処理は、例えば、当該プログラムがコンピュータに読込まれることにより、当該プログラムに関連するソフトウエアと、車両100の各種のハードウエア資源とが協働した具体的手段として機能する。そして、上記の具体的手段が、本実施形態におけるコンピュータの使用目的に応じた情報の演算又は加工を実現することにより、当該使用目的に応じた車両100が構築される。
上記のプログラムは、コンピュータ可読媒体に格納されていてもよい。上記のプログラムは、非一時的なコンピュータ可読記録媒体に格納されていてもよい。上記のプログラムは、CD−ROM、DVD−ROM、メモリ、ハードディスクなどのコンピュータ読み取り可能な媒体に記憶されていてもよく、ネットワークに接続された記憶装置に記憶されていてもよい。上記のプログラムは、コンピュータ読み取り可能な媒体又はネットワークに接続された記憶装置から、車両100の少なくとも一部を構成するコンピュータにインストールされてよい。
上記のプログラムが実行されることにより、車両100に搭載されたコンピュータが、車両100の各部の少なくとも一部として機能してもよい。上記のプログラムが実行されることにより、車両100に搭載されたコンピュータが、車両100の各部の少なくとも一部における情報処理方法を実行してもよい。
車両100に搭載されたコンピュータを車両100の各部の少なくとも一部として機能させるためのプログラムは、例えば、車両100の各部の少なくとも一部の動作を規定したモジュールを備える。上記のプログラム又はモジュールが実行されると、上記のプログラム又はモジュールは、データ処理装置、入力装置、出力装置、記憶装置等に働きかけて、コンピュータを車両100の各部として機能させたり、コンピュータに車両100の各部における情報処理方法を実行させたりする。
一実施形態において、上記の情報処理方法は、車両100を制御するための制御方法であってよい。上記の制御方法は、例えば、車両100のユーザが撮像された画像に基づいて、ユーザの身体動作に関する特徴を検出する検出段階を有する。上記の制御方法は、例えば、車両100のユーザが撮像された画像に基づいて、ユーザが物品を所持しているか否かを判定する第1判定段階を有する。上記の制御方法は、例えば、検出段階における検出結果及び第1判定段階における判定結果に基づいて、複数の機能のうちの何れかの機能を、機器に実行させる実行段階を有する。
他の実施形態において、上記の情報処理方法は、車両100を制御するための制御方法であってよい。上記の制御方法は、例えば、車両100のユーザが撮像された画像に基づいて、ユーザの身体動作に関する特徴を検出する検出段階を有する。上記の制御方法は、例えば、車両100のユーザが撮像された画像に基づいて、予め定められた特徴を有する第2物品が、ユーザの身体の特定の部位の近傍に存在するか否かを判定する第2判定段階を有する。上記の制御方法は、例えば、検出段階における検出結果及び第2判定段階における判定結果に基づいて、複数の機能のうちの何れかの機能を、機器に実行させる実行段階を有する。
搭乗者20は、ユーザの一例であってよい。手22は、ユーザの身体の特定の部位の一例であってよい。駐車チケット30は、物品、第1物品又は第2物品の一例であってよい。車両100は、機器又は移動体の一例であってよい。車両制御部110は、制御装置の一例であってよい。カメラ120は、撮像部の一例であってよい。
ドア210の開閉機能は、第2機能の一例であってよい。ドア開閉部212は、機能部の一例であってよい。窓220の開閉機能は、第1機能の一例であってよい。窓開閉部222は、機能部の一例であってよい。画像解析部234は、検出部、第1判定部又は第2判定部の一例であってよい。機能実行部238は、実行部の一例であってよい。
本実施形態においては、車両制御部110が、車両100を制御する場合を例として、車両制御部110の詳細が説明された。しかしながら、車両100は、本実施形態に限定されない。車両100は、任意の種類の移動体を制御してもよい。
移動体としては、車両の他、船舶、飛行体などが例示される。船舶としては、船、ホバークラフト、水上バイク、潜水艦、潜水艇、水中スクータなどが例示される。飛行体としては、飛行機、飛行船又は風船、気球、ヘリコプター、ドローンなどが例示される。
図3は、画像解析部234の内部構成の一例を概略的に示す。本実施形態において、画像解析部234は、ジェスチャ検出部320と、状況認識部340とを備える。本実施形態において、ジェスチャ検出部320は、ノック動作検出部322と、フリック動作検出部324とを有する。本実施形態において、状況認識部340は、所持判定部342と、チケット検出部344とを有する。
本実施形態において、ジェスチャ検出部320は、搭乗者20のジェスチャを検出する。例えば、ジェスチャ検出部320は、画像データ取得部232から、カメラ120が撮像した搭乗者20の画像の画像データを取得する。ジェスチャ検出部320は、搭乗者20が撮像された画像に基づいて、搭乗者20の身体動作に関する特徴を検出する。ジェスチャ検出部320は、単一のカメラ120が搭乗者20を撮像した画像に基づいて、搭乗者20の身体動作に関する特徴を検出してもよく、複数のカメラ120が搭乗者20を撮像した画像に基づいて、搭乗者20の身体動作に関する特徴を検出してもよい。
ジェスチャ検出部320は、検出された搭乗者20の身体動作に関する特徴に基づいて、搭乗者20のジェスチャを特定してよい。例えば、ジェスチャ検出部320は、複数のジェスチャのそれぞれについて、当該ジェスチャの識別情報と、身体動作に関する特徴とを対応づけて格納するデータテーブルを参照して、検出された搭乗者20の身体動作に合致するジェスチャを抽出することで、搭乗者20のジェスチャを特定する。上記のデータテーブルは、画像解析部234に格納されていてもよく、車両100に配された適切な記憶装置(図示されていない。)に格納されていてもよい。
本実施形態において、ジェスチャ検出部320は、検出された搭乗者20の身体動作に関する特徴を示す情報を、機能割当部236に出力する。ジェスチャ検出部320は、特定されたジェスチャの種類を示す情報を、機能割当部236に出力してもよい。ジェスチャ検出部320は、特定の種類のジェスチャが検出されたことを示す情報を、機能割当部236に出力してもよい。
本実施形態においては、ジェスチャ検出部320が、搭乗者20のノック動作と、フリック操作とを検出する場合を例として、ジェスチャ検出部320の詳細が説明される。しかしながら、ジェスチャ検出部320は本実施形態に限定されないことに留意されたい。ジェスチャ検出部320は、任意の種類のジェスチャを検出してよい。
ノック動作検出部322は、搭乗者20が撮像された画像に基づいて、搭乗者20のノック動作を検出する。ノック動作検出部322は、ノック動作が検出されたことを示す情報を、機能割当部236に出力する。
ノック動作は、搭乗者20の手22が窓220の近傍の空間に位置する状態で、搭乗者20が窓220をノックするような動作であればよく、その詳細は特に限定されない。ノック動作において、手22の形状は、軽く握られた形状であってよい。ノック動作中に、搭乗者20の手22と、窓220とが接触してもよく、搭乗者20の手22と、窓220とが接触しなくてもよい。ノック動作中に、搭乗者20が物品を手22に所持していてもよく、搭乗者20が物品を手22に所持していなくてもよい。
例えば、ノック動作検出部322は、(i)搭乗者20の手22の動きを認識し、(i)手22の動きの特徴が、ノック動作に特有の特徴を示す場合に、搭乗者20のノック動作を検出する。ノック動作検出部322は、同様の手順により、搭乗者20の手22の動き及び形状に基づいて、搭乗者20のノック動作を検出してもよい。
フリック動作検出部324は、搭乗者20のフリック動作を検出する。フリック動作検出部324は、フリック動作が検出されたことを示す情報を、機能割当部236に出力する。
フリック動作は、搭乗者20の手22が窓220の近傍の空間に位置する状態で、搭乗者20が、手22又は指で、窓220の開方向又は閉方向に、窓220を軽く払うような動作であればよく、その詳細は特に限定されない。フリック動作において、手22の形状は、軽く開かれた形状であってよい。フリック動作中に、搭乗者20の手22と、窓220とが接触してもよく、搭乗者20の手22と、窓220とが接触しなくてもよい。フリック動作中に、搭乗者20が物品を手22に所持していてもよく、搭乗者20が物品を手22に所持していなくてもよい。
フリック動作検出部324は、フリック動作と、スワイプ動作とを区別してもよく、両者を区別しなくてもよい。スワイプ動作は、搭乗者20の手22が窓220の近傍の空間に位置する状態で、搭乗者20が、手22又は指を、窓220の開方向又は閉方向に長く滑らせるような動作であってよい。
状況認識部340は、搭乗者20の状況を認識する。例えば、状況認識部340は、搭乗者20の状況として、搭乗者20が物品を手22に所持しているか否かを判定する。例えば、状況認識部340は、搭乗者20の状況として、搭乗者20の手22の周辺の空間に駐車チケット30が存在するか否かを判定する。
本実施形態において、状況認識部340は、認識された搭乗者20の状況を示す情報を、機能割当部236に出力する。状況認識部340は、搭乗者20が物品を手22に所持しているか否かを示す情報を、機能割当部236に出力してよい。状況認識部340は、搭乗者20が手22に所持している物品に関する情報を、機能割当部236に出力してよい。状況認識部340は、搭乗者20が手22に所持している物品が、特定の物品(例えば、駐車チケット30である。)であるか否かを示す情報を、機能割当部236に出力してよい。状況認識部340は、搭乗者20の手22の周辺の空間に駐車チケット30が存在するか否かを示す情報を、機能割当部236に出力してよい。
本実施形態において、所持判定部342は、搭乗者20が撮像された画像に基づいて、搭乗者20が物品を手22に所持しているか否かを判定する。所持判定部342は、搭乗者20が、搭乗者20の手22のうち、窓220の側に位置する手22に物品を所持しているか否かを判定してよい。所持判定部342は、単一のカメラ120が搭乗者20を撮像した画像に基づいて、搭乗者20が物品を手22に所持しているか否かを判定してもよく、複数のカメラ120が搭乗者20を撮像した画像に基づいて、搭乗者20が物品を手22に所持しているか否かを判定してもよい。
一実施形態において、所持判定部342は、搭乗者20が撮像された画像を解析して、車両100の構成部品とは異なる特徴を有する物品が、搭乗者20の手22の近傍に検出されるか否かを判定する。搭乗者20の手22の近傍に、車両100の構成部品以外の何らかの物品が検出された場合、所持判定部342は、搭乗者20が物品を手22に所持していると判定する。
他の実施形態において、所持判定部342は、搭乗者20の手22の形状が、予め定められた特徴を有するか否かを判定する。搭乗者20の手22の形状が、予め定められた特徴を有すると判定された場合、所持判定部342は、搭乗者20が物品を手22に所持していると判定する。例えば、所持判定部342は、搭乗者20の手22の形状を解析して、手22が握られていると判定された場合、又は、手22が何かを握っていると判定された場合に、所持判定部342は、搭乗者20が物品を手22に所持していると判定する。
本実施形態において、チケット検出部344は、搭乗者20が撮像された画像に基づいて、駐車チケット30が、搭乗者20の手22の近傍に存在するか否かを判定する。チケット検出部344は、搭乗者20が撮像された画像に基づいて、搭乗者20が駐車チケット30を手22に所持しているか否かを判定してもよい。チケット検出部344は、単一のカメラ120が搭乗者20を撮像した画像に基づいて、駐車チケット30が搭乗者20の手22の近傍に存在するか否かを判定してもよく、複数のカメラ120が搭乗者20を撮像した画像に基づいて、駐車チケット30が搭乗者20の手22の近傍に存在するか否かを判定してもよい。
ジェスチャ検出部320は、検出部の一例であってよい。ノック動作検出部322は、検出部の一例であってよい。フリック動作検出部324は、検出部の一例であってよい。状況認識部340は、第1判定部又は第2判定部の一例であってよい。所持判定部342は、第1判定部の一例であってよい。チケット検出部344は、第2判定部の一例であってよい。ノック動作は、第1身体動作の一例であってよい。フリック動作は、第2身体動作の一例であってよい。車両100の構成部品とは異なる特徴を有する物品は、第1物品の一例であってよい。駐車チケット30は、第2物品の一例であってよい。駐車チケット30の特徴は、予め定められた特徴の一例であってよい。
図4は、機能割当ルール400の一例を概略的に示す。図4を用いて、機能割当部236における機能割当処理、及び、機能実行部238における機能実行処理の一例が説明される。本実施形態において、機能割当ルール400は、1以上のジェスチャ420と、各ジェスチャが検出されたときのユーザの状況430と、各ジェスチャに対して割り当てられる機能440とを対応付けて格納するデータテーブルであってよい。データテーブルは、1以上のレコードを含んでよい。各レコードは、各ジェスチャ及び各状況に対応する機能の種類を示す情報格納する。
上述されたとおり、機能割当部236は、ジェスチャ検出部320の検出結果に基づいて、機能実行部238が実行させる車両100の機能を決定する。また、機能割当部236は、ジェスチャ検出部320の検出結果及び状況認識部340の判定結果に基づいて、機能実行部238が実行させる車両100の機能を決定してもよい。
例えば、機能割当部236は、検出された搭乗者20のジェスチャに対して割り当てられる車両100の機能の種類を決定する。また、機能割当部236は、搭乗者20の状況に応じて、検出された身体動作に対して割り当てられる車両100の機能の種類を決定してもよい。
より具体的には、機能割当部236は、機能割当ルール400を構成する1以上のレコードの中から、(i)ジェスチャ420に格納されたジェスチャが、ジェスチャ検出部320が検出したジェスチャに合致し、且つ、(ii)ユーザの状況430に格納された搭乗者20の状況が、状況認識部340が認識した搭乗者20の状況に合致するレコードを抽出する。機能割当部236は、抽出されたレコードの機能440に格納された機能を、検出された身体動作に対して割り当てられる車両100の機能として決定する。
これにより、機能実行部238は、ジェスチャ検出部320の検出結果に基づいて、車両100が有する複数の機能のうちの何れかの機能を、機器に実行させることができる。また、機能実行部238は、ジェスチャ検出部320の検出結果、及び、状況認識部340の判定結果に基づいて、車両100が有する複数の機能のうちの何れかの機能を、機器に実行させることができる。
一実施形態において、機能実行部238は、ノック動作検出部322の検出結果、及び、所持判定部342の判定結果に基づいて、車両100が有する複数の機能のうちの何れかの機能を、機器に実行させることができる。他の実施形態において、機能実行部238は、ノック動作検出部322の検出結果、及び、チケット検出部344の判定結果に基づいて、車両100が有する複数の機能のうちの何れかの機能を、機器に実行させることができる。
さらに他の実施形態において、機能実行部238は、ノック動作検出部322の検出結果、所持判定部342の判定結果、及び、チケット検出部344の判定結果に基づいて、車両100が有する複数の機能のうちの何れかの機能を、機器に実行させることができる。さらに他の実施形態において、機能実行部238は、フリック動作検出部324の判定結果に基づいて、車両100が有する複数の機能のうちの何れかの機能を、機器に実行させることができる。
図4を用いて、機能割当部236における機能割当処理が、より具体的に説明される。図4に示されるとおり、本実施形態によれば、(A)ノック動作検出部322がノック動作を検出した場合において、(a−1)所持判定部342が、搭乗者20が手22に物品を所持していないと判定した場合、機能割当部236は、ノック動作に対して、ドア210の開閉機能を割り当てる。その結果、機能実行部238は、ドア開閉部212を制御して、ドア開閉部212にドア210の開動作又は閉動作を実行させる。
一方、(A)ノック動作検出部322がノック動作を検出した場合において、(a−2)所持判定部342が、搭乗者20が手22に物品を所持していると判定した場合、機能割当部236は、ノック動作に対して、窓220の開閉機能を割り当てる。その結果、機能実行部238は、窓開閉部222を制御して、窓開閉部222に窓220の開動作又は閉動作を実行させる。
同様に、(A)ノック動作検出部322がノック動作を検出した場合において、(b)チケット検出部344が、駐車チケット30が搭乗者20の手22の近傍に存在すると判定した場合、機能割当部236は、ノック動作に対して、窓220の開閉機能を割り当てる。その結果、機能実行部238は、窓開閉部222を制御して、窓開閉部222に窓220の開動作又は閉動作を実行させる。
所持判定部342における情報処理は、チケット検出部344における情報処理と比較して複雑になる場合がある。しかしながら、本実施形態によれば、少なくともノック動作に対して窓220の開閉機能を割り当てる工程において、所持判定部342の判定結果を利用する必要がない。これにより、画像解析処理が簡略化され得る。その結果、画像解析部234の負荷が減少したり、画像解析部234の解析精度が向上したりする。
また、例えば、搭乗者20が手22に鞄を所持している状態でノック動作をした場合には、ドア210が開閉される。一方、搭乗者20が手22に駐車チケット30を所持している状態でノック動作をした場合には、窓220が開閉される。これにより、車両100は、搭乗者20の状況に応じて適切な動作を実行することができる。
また、図4に示されるとおり、本実施形態によれば、(B)フリック動作検出部324がフリック動作を検出した場合、機能割当部236は、フリック動作に対して、窓220の開閉機能を割り当てる。その結果、機能実行部238は、窓開閉部222を制御して、窓開閉部222に窓220の開動作又は閉動作を実行させる。本実施形態において、機能割当部236は、フリック動作に対して機能を割り当てるときに、状況認識部340の判定結果を利用しなくてもよい。
上述されたとおり、図4に関連して説明された実施形態によれば、ノック動作検出部322がノック動作に関する特徴を検出し、且つ、所持判定部342が、搭乗者20が物品を所持していると判定した場合、又は、フリック動作検出部324がフリック動作に関する特徴を検出した場合、機能実行部238は、窓220の開閉機能を車両100に実行させる。一方、ノック動作検出部322がノック動作に関する特徴を検出し、且つ、所持判定部342が、搭乗者20が物品を所持していないと判定した場合、機能実行部238は、ドア210の開閉機能を車両100に実行させる。
同様に、ノック動作検出部322がノック動作に関する特徴を検出し、且つ、チケット検出部344が、駐車チケット30が搭乗者20の手22の近傍に存在すると判定した場合、又は、フリック動作検出部324がフリック動作に関する特徴を検出した場合、機能実行部238は、窓220の開閉機能を車両100に実行させてよい。ノック動作検出部322がノック動作に関する特徴を検出し、且つ、チケット検出部344が、駐車チケット30が搭乗者20の手22の近傍に存在しないと判定した場合、機能実行部238は、ドア210のの開閉機能を車両100に実行させてよい。なお、この場合において、所持判定部342が、搭乗者20が物品を所持していると判定したとき、機能実行部238は、窓220の開閉機能を車両100に実行させてもよい。
図5は、車両制御部110における情報処理の一例を概略的に示す。本実施形態によれば、ステップ510(ステップが、Sと略記される場合がある。)において、画像データ取得部232が、カメラ120から、搭乗者20が撮像された画像の画像データを取得する。また、ノック動作検出部322が、上記の画像データを解析して、搭乗者20のノック動作が検出されるか否かを判定する。
搭乗者20のノック動作が検出されない場合(S510のNoの場合)、S510の処理が繰り返される。一方、搭乗者20のノック動作が検出された場合(S510のYesの場合)、S520において、所持判定部342が、上記の画像データを解析して、搭乗者20が、窓220の側の手22に車両部品以外の物品を所持しているか否かを判定する。また、S530において、チケット検出部344が、上記の画像データを解析して、駐車チケット30が、搭乗者20の窓220の側の手22の近傍に存在するか否かを判定する。
所持判定部342により、搭乗者20が、窓220の側の手22に車両部品以外の物品を所持していると判定されなかった場合(S520のNoの場合)、S522において、機能割当部236が、搭乗者20のノック動作に対して、ドア210の開閉機能を割り当てる。一方、所持判定部342により、搭乗者20が、窓220の側の手22に車両部品以外の物品を所持していると判定された場合(S520のYesの場合)、S524において、機能割当部236が、搭乗者20のノック動作に対して、窓220の開閉機能を割り当てる。
チケット検出部344により、駐車チケット30が、搭乗者20の窓220の側の手22の近傍に存在すると判定された場合(S530のYesの場合)、S524において、機能割当部236が、搭乗者20のノック動作に対して、窓220の開閉機能を割り当てる。一方、チケット検出部344により、駐車チケット30が、搭乗者20の窓220の側の手22の近傍に存在すると判定されなかった場合(S530のNoの場合)、S540において、所持判定部342が、上記の画像データを解析して、搭乗者20が、窓220の側の手22に車両部品以外の物品を所持しているか否かを判定する。なお、S540において、S520における判定結果が流用されてもよい。
所持判定部342により、搭乗者20が、窓220の側の手22に車両部品以外の物品を所持していると判定されなかった場合(S540のNoの場合)、S542において、機能割当部236が、搭乗者20のノック動作に対して、ドア210の開閉機能を割り当てる。一方、所持判定部342により、搭乗者20が、窓220の側の手22に車両部品以外の物品を所持していると判定された場合(S540のYesの場合)、S524において、機能割当部236が、搭乗者20のノック動作に対して、窓220の開閉機能を割り当てる。
図6は、機能割当ルール600の一例を概略的に示す。図6を用いて、機能割当部236における機能割当処理、及び、機能実行部238における機能実行処理の一例が説明される。本実施形態において、機能割当ルール600は、1以上のジェスチャ620と、各ジェスチャが検出されたときのユーザの状況630と、各ジェスチャに対して割り当てられる機能640とを対応付けて格納するデータテーブルであってよい。データテーブルは、1以上のレコードを含んでよい。各レコードは、各ジェスチャ及び各状況に対応する機能の種類を示す情報格納する。
機能割当ルール600は、機能割当ルール400と同様、機能割当部236における機能割当処理における判断基準として利用され得る。機能割当ルール600は、ユーザが物品を手に所持していない場合において、前回のノック動作から所定期間が経過しているか否かに応じて、ノック動作に対して割り当てられる機能が異なる点で、機能割当ルール400と相違する。また、機能割当ルール600は、ユーザが物品を手に所持している場合において、当該所持物が特定の物品であるか否かに応じて、ノック動作に対して割り当てられる機能が異なる点で、機能割当ルール400と相違する。上記の相違点を除いて、機能割当ルール600は、機能割当ルール400と同様の構成を有してよい。
図6に示されるとおり、本実施形態によれば、(A)ノック動作検出部322がノック動作を検出した場合において、(a−1)所持判定部342が、搭乗者20が手22に物品を所持していないと判定した場合、例えば、所持判定部342が、前回、搭乗者20のノック動作が検出された後、予め定められた期間が経過したか否かを判定する。所持判定部342は、前回、搭乗者20のノック動作に対して窓220の開閉機能が割り当てられた後、予め定められた期間が経過したか否かを判定してもよい。
上記の予め定められた期間が経過したと判定された場合、機能割当部236は、ノック動作に対して、ドア210の開閉機能を割り当てる。一方、上記の予め定められた期間が経過していないと判定された場合、機能割当部236は、ノック動作に対して、窓220の開閉機能を割り当てる。この場合、搭乗者20が駐車チケット30を手22に所持していない場合であっても、搭乗者20は、ノック動作により窓220を開閉させることができる。これにより、例えば、搭乗者20は、前回のノック動作において開けられた窓220を、今回のノック動作により閉じることができる。
また、本実施形態によれば、(A)ノック動作検出部322がノック動作を検出した場合において、(a−2)所持判定部342が、搭乗者20が手22に物品を所持していると判定した場合、例えば、所持判定部342が、搭乗者20の所持品が駐車チケット30であるか否かを判定する。搭乗者20の所持品が駐車チケット30であると判定されなかった場合、機能割当部236は、ノック動作に対して、ドア210の開閉機能を割り当てる。一方、搭乗者20の所持品が駐車チケット30であると判定された場合、機能割当部236は、ノック動作に対して、窓220の開閉機能を割り当てる。
これにより、例えば、搭乗者20が手22に鞄を所持している状態でノック動作をした場合には、ドア210が開閉される。一方、搭乗者20が手22に駐車チケット30を所持している状態でノック動作をした場合には、窓220が開閉される。その結果、車両100は、搭乗者20の状況に応じて適切な動作を実行することができる。
同様に、(A)ノック動作検出部322がノック動作を検出した場合において、(b)チケット検出部344が、駐車チケット30が搭乗者20の手22の近傍に存在すると判定した場合、機能割当部236は、ノック動作に対して、窓220の開閉機能を割り当てる。また、(B)フリック動作検出部324がフリック動作を検出した場合、機能割当部236は、フリック動作に対して、窓220の開閉機能を割り当てる。
本実施形態においては、搭乗者20のノック動作に対する基本機能としてドア210の開閉機能が割り当てられており、搭乗者20の状況が特定の条件を満たす場合に、搭乗者20のノック動作に対して窓220の開閉機能が割り当てられる場合を例として、車両制御部110の詳細が説明された。具体的には、搭乗者20の状況として、搭乗者20が手22に物品を所持しているという条件が成立する場合、又は、搭乗者20の手22の近傍に駐車チケット30が検出されるという条件が成立する場合に、搭乗者20のノック動作に対して窓220の開閉機能が割り当てられた。しかしながら、車両制御部110は本実施形態に限定されない。
他の実施形態において、搭乗者20の状況として、搭乗者20の表情、視線などが特定の条件を満たす場合に、搭乗者20のノック動作に対して窓220の開閉機能が割り当てられる。例えば、搭乗者20が笑顔の状態でノック動作を実行した場合、当該ノック動作に対して窓220の開閉機能が割り当てられる。例えば、搭乗者20がカメラ120に視線を合わせた状態でノック動作を実行した場合、当該ノック動作に対して窓220の開閉機能が割り当てられる。
本実施形態においては、搭乗者20のノック動作又はフリック動作により窓220が全開又は全閉する場合を例として、車両制御部110の詳細が説明された。しかしながら、車両制御部110は本実施形態に限定されない。
他の実施形態において、車両制御部110は、搭乗者20のノック動作におけるノックの回数により、窓220の開度又は開閉速度を調整してよい。また、車両制御部110は、搭乗者20のフリック動作における手22又は指の移動速度により、窓220の開度又は開閉速度を調整してよい。車両制御部110は、スワイプ動作における手22又は指の移動距離により、窓220の開度又は開閉速度を調整してもよい。また、スワイプ動作時は動作開始してから止まった手22又は指の高さを検出して、その高さまで窓を開ける、もしくは窓を閉めるといった制御を実行してもよい。
本実施形態においては、機能割当部236が、搭乗者20のノック動作に対する車両100の機能を割り当て、機能実行部238が、機能割当部236により割り当てられた機能を車両100に実行させる場合を例として、車両制御部110の詳細が説明された。しかしながら、車両制御部110は本実施形態に限定されない。
他の実施形態において、機能実行部238が機能割当部236の機能の少なくとも一部を有してよい。この場合、例えば、機能実行部238が、画像解析部234の解析結果に基づいて、搭乗者20のノック動作に対応する車両100の機能を決定し、当該機能を車両100に実行させる。
図7は、本発明の複数の態様が全体的又は部分的に具現化されてよいコンピュータ3000の一例を示す。車両100の一部は、コンピュータ3000により実現されてよい。例えば、車両制御部110又はその一部が、コンピュータ3000により実現される。
コンピュータ3000にインストールされたプログラムは、コンピュータ3000に、本発明の実施形態に係る装置に関連付けられるオペレーション又は当該装置の1又は複数の「部」として機能させ、又は当該オペレーション又は当該1又は複数の「部」を実行させることができ、及び/又はコンピュータ3000に、本発明の実施形態に係るプロセス又は当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ3000に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつか又はすべてに関連付けられた特定のオペレーションを実行させるべく、CPU3012によって実行されてよい。
本実施形態によるコンピュータ3000は、CPU3012、RAM3014、グラフィックコントローラ3016、及びディスプレイデバイス3018を含み、それらはホストコントローラ3010によって相互に接続されている。コンピュータ3000はまた、通信インターフェース3022、ハードディスクドライブ3024、DVD−ROMドライブ3026、及びICカードドライブのような入出力ユニットを含み、それらは入出力コントローラ3020を介してホストコントローラ3010に接続されている。コンピュータはまた、ROM3030及びキーボード3042のようなレガシの入出力ユニットを含み、それらは入出力チップ3040を介して入出力コントローラ3020に接続されている。
CPU3012は、ROM3030及びRAM3014内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ3016は、RAM3014内に提供されるフレームバッファ等又はそれ自体の中に、CPU3012によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス3018上に表示されるようにする。
通信インターフェース3022は、ネットワークを介して他の電子デバイスと通信する。ハードディスクドライブ3024は、コンピュータ3000内のCPU3012によって使用されるプログラム及びデータを格納する。DVD−ROMドライブ3026は、プログラム又はデータをDVD−ROM3001から読み取り、ハードディスクドライブ3024にRAM3014を介してプログラム又はデータを提供する。ICカードドライブは、プログラム及びデータをICカードから読み取り、及び/又はプログラム及びデータをICカードに書き込む。
ROM3030はその中に、アクティブ化時にコンピュータ3000によって実行されるブートプログラム等、及び/又はコンピュータ3000のハードウエアに依存するプログラムを格納する。入出力チップ3040はまた、様々な入出力ユニットをパラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入出力コントローラ3020に接続してよい。
プログラムが、DVD−ROM3001又はICカードのようなコンピュータ可読記憶媒体によって提供される。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもあるハードディスクドライブ3024、RAM3014、又はROM3030にインストールされ、CPU3012によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ3000に読み取られ、プログラムと、上記様々なタイプのハードウエアリソースとの間の連携をもたらす。装置又は方法が、コンピュータ3000の使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。
例えば、通信がコンピュータ3000及び外部デバイス間で実行される場合、CPU3012は、RAM3014にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インターフェース3022に対し、通信処理を命令してよい。通信インターフェース3022は、CPU3012の制御の下、RAM3014、ハードディスクドライブ3024、DVD−ROM3001、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。
また、CPU3012は、ハードディスクドライブ3024、DVD−ROMドライブ3026(DVD−ROM3001)、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM3014に読み取られるようにし、RAM3014上のデータに対し様々なタイプの処理を実行してよい。CPU3012は次に、処理されたデータを外部記録媒体にライトバックしてよい。
様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU3012は、RAM3014から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM3014に対しライトバックする。また、CPU3012は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU3012は、当該複数のエントリの中から、第1の属性の属性値が指定されている条件に一致するエントリを検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。
上で説明したプログラム又はソフトウエアモジュールは、コンピュータ3000上又はコンピュータ3000近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それにより、上記のプログラムを、ネットワークを介してコンピュータ3000に提供する。
上記実施形態におけるフローチャート及びブロック図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、及び/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタル及び/又はアナログハードウェア回路を含んでよく、集積回路(IC)及び/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、及びプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、及び他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。
コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD−ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。
コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかを含んでよい。
コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路が、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を生成するために当該コンピュータ可読命令を実行すべく、ローカルに又はローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。また、技術的に矛盾しない範囲において、特定の実施形態について説明した事項を、他の実施形態に適用することができる。また、各構成要素は、名称が同一で、参照符号が異なる他の構成要素と同様の特徴を有してもよい。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
20 搭乗者、22 手、30 駐車チケット、100 車両、110 車両制御部、120 カメラ、210 ドア、212 ドア開閉部、220 窓、222 窓開閉部、232 画像データ取得部、234 画像解析部、236 機能割当部、238 機能実行部、320 ジェスチャ検出部、322 ノック動作検出部、324 フリック動作検出部、340 状況認識部、342 所持判定部、344 チケット検出部、400 機能割当ルール、420 ジェスチャ、430 状況、440 機能、600 機能割当ルール、620 ジェスチャ、630 状況、640 機能、3000 コンピュータ、3001 DVD−ROM、3010 ホストコントローラ、3012 CPU、3014 RAM、3016 グラフィックコントローラ、3018 ディスプレイデバイス、3020 入出力コントローラ、3022 通信インターフェース、3024 ハードディスクドライブ、3026 DVD−ROMドライブ、3030 ROM、3040 入出力チップ、3042 キーボード
Claims (16)
- 複数の機能を有する機器を制御する制御装置であって、
前記機器のユーザが撮像された画像に基づいて、前記ユーザの身体動作に関する特徴を検出する検出部と、
前記画像に基づいて、前記ユーザが物品を所持しているか否かを判定する第1判定部と、
前記検出部の検出結果及び前記第1判定部の判定結果に基づいて、前記複数の機能のうちの何れかの機能を、前記機器に実行させる実行部と、
を備える、制御装置。 - 前記実行部は、
(a)(i)前記検出部が第1身体動作に関する特徴を検出し、且つ、(ii)前記第1判定部が、前記ユーザが前記物品を所持していると判定した場合、又は、(b)前記検出部が、前記第1身体動作とは異なる第2身体動作に関する特徴を検出した場合、
前記複数の機能のうちの第1機能を前記機器に実行させる、
請求項1に記載の制御装置。 - 前記実行部は、
(i)前記検出部が前記第1身体動作に関する特徴を検出し、且つ、(ii)前記第1判定部が、前記ユーザが前記物品を所持していないと判定した場合、
前記複数の機能のうち、前記第1機能とは異なる第2機能を前記機器に実行させる、
請求項2に記載の制御装置。 - 前記実行部は、
前記実行部が前記第1機能を前記機器に実行させた後、予め定められた期間内に、記検出部が第1身体動作に関する特徴を検出した場合、
前記第1機能を前記機器に実行させる、
請求項2又は請求項3に記載の制御装置。 - 前記第1判定部は、
前記機器の構成部品とは異なる特徴を有する第1物品が、前記ユーザの身体の特定の部位の近傍に検出されるか否かを判定し、
前記第1物品が前記ユーザの前記特定の部位の近傍に検出されたと判定された場合に、前記ユーザが物品を所持していると判定する、
請求項1から請求項4までの何れか一項に記載の制御装置。 - 前記第1判定部は、
前記ユーザの身体の特定の部位の形状が、予め定められた特徴を有するか否かを判定し、
前記ユーザの前記特定の部位の形状が前記予め定められた特徴を有すると判定された場合に、前記ユーザが物品を所持していると判定する、
請求項1から請求項4までの何れか一項に記載の制御装置。 - 複数の機能を有する機器を制御する制御装置であって、
前記機器のユーザが撮像された画像に基づいて、前記ユーザの身体動作に関する特徴を検出する検出部と、
前記画像に基づいて、予め定められた特徴を有する第2物品が、前記ユーザの身体の特定の部位の近傍に存在するか否かを判定する第2判定部と、
前記検出部の検出結果及び前記第2判定部の判定結果に基づいて、前記複数の機能のうちの何れかの機能を、前記機器に実行させる実行部と、
を備える、制御装置。 - 前記実行部は、
(a)(i)前記検出部が第1身体動作に関する特徴を検出し、且つ、(ii)前記第2判定部が、前記第2物品が前記ユーザの前記特定の部位の近傍に存在すると判定した場合、又は、(b)前記検出部が、前記第1身体動作とは異なる第2身体動作に関する特徴を検出した場合、
前記複数の機能のうちの第1機能を前記機器に実行させる、
請求項7に記載の制御装置。 - 前記実行部は、
(i)前記検出部が前記第1身体動作に関する特徴を検出し、且つ、(ii)前記第2判定部が、前記第2物品が前記ユーザの前記特定の部位の近傍に存在しないと判定した場合、
前記複数の機能のうち、前記第1機能とは異なる第2機能を前記機器に実行させる、
請求項8に記載の制御装置。 - 前記実行部は、
前記実行部が前記第1機能を前記機器に実行させた後、予め定められた期間内に、前記検出部が第1身体動作に関する特徴を検出した場合、
前記第1機能を前記機器に実行させる、
請求項8又は請求項9に記載の制御装置。 - 前記機器は、開閉可能に構成された窓を有する移動体であり、
前記第1機能は、前記窓を開ける機能又は前記窓を閉める機能である、
請求項2又は請求項8に記載の制御装置。 - 請求項1から請求項11までの何れか一項に記載の制御装置と、
複数の機能のそれぞれを実行する複数の機能部と、
を備え、
前記複数の機能部のそれぞれは、前記制御装置からの指示に基づいて、各機能部に割り当てられた機能を実行する、
機器。 - 前記機器のユーザを撮像する撮像部をさらに備える、
請求項12に記載の機器。 - コンピュータを、請求項1から請求項11までの何れか一項に記載の制御装置として機能させるためのプログラム。
- 複数の機能を有する機器を制御する制御方法であって、
前記機器のユーザが撮像された画像に基づいて、前記ユーザの身体動作に関する特徴を検出する検出段階と、
前記画像に基づいて、前記ユーザが物品を所持しているか否かを判定する第1判定段階と、
前記検出段階における検出結果及び前記第1判定段階における判定結果に基づいて、前記複数の機能のうちの何れかの機能を、前記機器に実行させる実行段階と、
を有する、制御方法。 - 複数の機能を有する機器を制御する制御方法であって、
前記機器のユーザが撮像された画像に基づいて、前記ユーザの身体動作に関する特徴を検出する検出段階と、
前記画像に基づいて、予め定められた特徴を有する第2物品が、前記ユーザの身体の特定の部位の近傍に存在するか否かを判定する第2判定段階と、
前記検出段階における検出結果及び前記第2判定段階における判定結果に基づいて、前記複数の機能のうちの何れかの機能を、前記機器に実行させる実行段階と、
を有する、制御方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020058865A JP2021157644A (ja) | 2020-03-27 | 2020-03-27 | 制御装置、機器、プログラム、及び、制御方法 |
CN202110191413.2A CN113450476A (zh) | 2020-03-27 | 2021-02-19 | 控制装置、设备、计算机可读存储介质以及控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020058865A JP2021157644A (ja) | 2020-03-27 | 2020-03-27 | 制御装置、機器、プログラム、及び、制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021157644A true JP2021157644A (ja) | 2021-10-07 |
Family
ID=77808918
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020058865A Pending JP2021157644A (ja) | 2020-03-27 | 2020-03-27 | 制御装置、機器、プログラム、及び、制御方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2021157644A (ja) |
CN (1) | CN113450476A (ja) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106527674A (zh) * | 2015-09-14 | 2017-03-22 | 上海羽视澄蓝信息科技有限公司 | 一种车载单目摄像机人机交互方法、设备及系统 |
US9816308B2 (en) * | 2016-02-17 | 2017-11-14 | Ford Global Technologies, Llc | Methods and systems for opening of a vehicle access point using audio or video data associated with a user |
CN107719303A (zh) * | 2017-09-05 | 2018-02-23 | 观致汽车有限公司 | 一种车辆门窗开启控制系统、方法及车辆 |
US11072311B2 (en) * | 2017-09-05 | 2021-07-27 | Future Mobility Corporation Limited | Methods and systems for user recognition and expression for an automobile |
CN110673717A (zh) * | 2018-07-03 | 2020-01-10 | 百度在线网络技术(北京)有限公司 | 用于控制输出设备的方法和装置 |
-
2020
- 2020-03-27 JP JP2020058865A patent/JP2021157644A/ja active Pending
-
2021
- 2021-02-19 CN CN202110191413.2A patent/CN113450476A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
CN113450476A (zh) | 2021-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10599393B2 (en) | Multimodal input system | |
KR102460737B1 (ko) | 공중 필기 인식을 위한 방법, 장치, 기기 및 컴퓨터 판독 가능한 저장 매체 | |
KR102292028B1 (ko) | 제스처 인식 방법, 장치, 전자 기기 및 저장 매체 | |
US9911052B2 (en) | System and method for superimposed handwriting recognition technology | |
US9384403B2 (en) | System and method for superimposed handwriting recognition technology | |
US9171223B2 (en) | System and method for effective section detecting of hand gesture | |
CN105579319B (zh) | 用于识别车载信息系统中的手写手势的系统和方法 | |
WO2012151471A2 (en) | Identifying gestures using multiple sensors | |
CN107533599B (zh) | 一种手势识别方法、装置及电子设备 | |
US9746929B2 (en) | Gesture recognition using gesture elements | |
US20130177209A1 (en) | Image cache | |
US20210350122A1 (en) | Stroke based control of handwriting input | |
US20200218488A1 (en) | Multimodal input processing for vehicle computer | |
EP4047561A1 (en) | Method for recognizing an emotion of a driver, apparatus, device, medium and vehicle | |
CN110972112A (zh) | 地铁运行方向的确定方法、装置、终端及存储介质 | |
US10755074B2 (en) | Latent fingerprint pattern estimation | |
CN112771609A (zh) | 包括神经形态处理模块的传感器处理系统及其方法 | |
US20120278729A1 (en) | Method of assigning user interaction controls | |
JP2021157644A (ja) | 制御装置、機器、プログラム、及び、制御方法 | |
Challa et al. | Virtual Alphabet Recognition using Deep Convolution Neural Networks | |
Rahman et al. | Continuous motion numeral recognition using RNN architecture in air-writing environment | |
CN111816211B (zh) | 情绪识别方法、装置、存储介质及电子设备 | |
Fodli et al. | Driving Behavior Recognition using Multiple Deep Learning Models | |
CN114510142A (zh) | 基于二维图像的手势识别方法及其系统和电子设备 | |
KR102310385B1 (ko) | 중첩된 필기 인식 기술을 위한 시스템 및 방법 |