WO2020066269A1 - ジェスチャ入力装置 - Google Patents

ジェスチャ入力装置 Download PDF

Info

Publication number
WO2020066269A1
WO2020066269A1 PCT/JP2019/029613 JP2019029613W WO2020066269A1 WO 2020066269 A1 WO2020066269 A1 WO 2020066269A1 JP 2019029613 W JP2019029613 W JP 2019029613W WO 2020066269 A1 WO2020066269 A1 WO 2020066269A1
Authority
WO
WIPO (PCT)
Prior art keywords
gesture
unit
line
sight
input device
Prior art date
Application number
PCT/JP2019/029613
Other languages
English (en)
French (fr)
Inventor
小西 敏之
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2020066269A1 publication Critical patent/WO2020066269A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Abstract

ジェスチャ入力装置は、車両に搭載され、操作者に対して相対的に移動して視認される車外の対象物(A、B)に対応する操作者の手差しジェスチャ操作に基づいて、指し示された対象物(A)を特定する。ジェスチャ入力装置は、手差しジェスチャ操作を検出するジェスチャ検出部(110)と、操作者の対象物に対する視線を検出する視線検出部(120)と、手差しジェスチャ操作によって指し示された領域に対象物が複数あると、視線検出部によって得られた視線の移動ベクトルと同等の相対的な移動を伴う対象物を、手差しジェスチャ操作によって指し示された対象物として特定する特定部(144)と、を備える。

Description

ジェスチャ入力装置 関連出願の相互参照
 本出願は、2018年9月28日に出願された日本国特許出願2018-183549号に基づくものであり、ここにその記載内容を参照により援用する。
 本開示は、操作者のジェスチャによる入力を可能とするジェスチャ入力装置に関するものである。
 ジェスチャ入力装置として、例えば、特許文献1に記載されたものが知られている。特許文献1のジェスチャ入力装置(対象物特定装置)は、車両の周囲を撮像する撮像部、ユーザが手を用いて指し示した指示方向を検知する指差し方向検知部、情報を表示する表示部、および制御部等を備えている。制御部は、ユーザが指差しをした方向の対象物(例えば、建物や施設等)を、撮像部にて撮像された画像内から抽出するようになっており、更に、抽出した対象物の情報(例えば、施設名、位置、案内ルート、ホームページ等)が表示部に表示されるようになっている。
JP 2007-80060 A
 特許文献1のように、ジェスチャを用いた入力装置において、対象物に対する指差しの要領には個人差があり、また、車両においては、走行時の車両振動も発生することから、指差しによる誤差やズレは大きくなる。よって、指差しを行う方向に複数の対象物がある場合であると、ユーザがどの対象物を特定しようとしているのか判定するのが更に難しくなるおそれがある。よって、指差しによる対象物を正確に特定するために、更に異なるジェスチャを加える等の対応(指差し+ワンアクション等)が必要となり、ジェスチャ入力の負荷が増えるおそれがある。
 本開示は、ジェスチャの負荷を増やすことなく、対象物を正確に特定できるジェスチャ入力装置を提供することを目的とする。
 本開示の一態様によれば、車両に搭載され、操作者に対して相対的に移動して視認される車外の対象物に対応する操作者の手差しジェスチャ操作に基づいて、指し示された対象物を特定するジェスチャ入力装置が提供される。ジェスチャ入力装置は、手差しジェスチャ操作を検出するジェスチャ検出部と、操作者の対象物に対する視線を検出する視線検出部と、手差しジェスチャ操作によって指し示された領域に対象物が複数あると、視線検出部によって得られた視線の移動ベクトルと同等の相対的な移動を伴う対象物を、手差しジェスチャ操作によって指し示された対象物として特定する特定部と、を備える。
 本開示の構成によれば、手差しジェスチャによって指し示された対象物の相対的な移動は、視線の移動ベクトルと同等のものとなるので、操作者による手差しジェスチャに対して、視線の移動ベクトルの条件を加えることによって、正確に対象物を特定することが可能となる。よって、ジェスチャの負荷を増やすことなく、対象物を正確に特定することができる。
 本開示の別の態様によれば、車両に搭載され、操作者に対して相対的に移動して視認される車外の対象物に対応する操作者の手差しジェスチャ操作に基づいて、指し示された対象物を特定するジェスチャ入力装置が提供される。ジェスチャ入力装置は、手差しジェスチャ操作を検出するジェスチャ検出部と、手差しジェスチャ操作によって指し示された領域に対象物が複数あると、対象物と共に移動される手差しジェスチャの移動方向と同等の相対的な移動を伴う対象物を、手差しジェスチャ操作によって指し示された対象物として特定する特定部と、を備える。
 本開示の構成によれば、手差しジェスチャによって指し示された対象物の相対的な移動は、手差しジェスチャの移動方向と同等のものとなるので、操作者による手差しジェスチャに対して、手差しジェスチャの移動方向の条件を加えることによって、正確に対象物を特定することが可能となる。よって、ジェスチャの負荷を増やすことなく、対象物を正確に特定することができる。
 本開示についての上記および他の目的、特徴や利点は、添付図面を参照した下記詳細な説明から、より明確になる。添付図面において、
第1実施形態におけるジェスチャ入力装置の構成を示すブロック図である。 第1実施形態における制御部が実行する制御内容を示すフローチャートである。 手差しジェスチャ操作によって指し示された領域に複数の対象物がある場合を示す説明図である。 複数の対象物の移動ベクトルが異なることを示す説明図である。 第2実施形態における制御部が実行する制御内容を示すフローチャートである。 第2実施形態における対象物を示す説明図である。 指し示された対象物を特定する要領を示す説明図である。 第3実施形態におけるジェスチャ入力装置の構成を示すブロック図である。
 以下に、図面を参照しながら本開示を実施するための複数の形態を説明する。各形態において先行する形態で説明した事項に対応する部分には同一の参照符号を付して重複する説明を省略する場合がある。各形態において構成の一部のみを説明している場合は、構成の他の部分については先行して説明した他の形態を適用することができる。各実施形態で具体的に組み合わせが可能であることを明示している部分同士の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても実施形態同士を部分的に組み合せることも可能である。
 (第1実施形態)
 第1実施形態のジェスチャ入力装置100について図1~図4を用いて説明する。本実施形態のジェスチャ入力装置100は、車両に搭載され、運転者(操作者)に対して相対的に移動して視認される車外の対象物に対応する運転者の手差しジェスチャ操作に基づいて、指し示された対象物を特定する装置となっている。ここで言う対象物は、例えば、道路脇や上部に設定される各種看板、道路標識、あるいは道路に沿って建てられた各種建物、施設等である。以下、本実施形態では、対象物として、各種看板(A、B、C等)を代表例として説明する。ジェスチャ入力装置100は、図1に示すように、手動作検出部110、視線検出部120、車外情報取得部130、制御部140、およびデータベース150等を備えている。
 手動作検出部110は、運転者の体の特定部位の動き(ジェスチャ)を検出するジェスチャ検出部となっている。手動作検出部110は、運転者の体の特定部位を例えば画像によって検知し、時間経過に対する画像の変化から、運転者の体の特定部位の動きを検出するようになっている。手動作検出部110は、検知した画像(ジェスチャ)のデータを制御部140に出力するようになっている。
 運転者の体の特定部位としては、例えば、運転者の手の指、手の平、腕等とすることができる。本実施形態では、入力操作における対象物を選択確定(特定)するために、運転者の体の特定部位として、主に、手の指を用いるものとしている。よって、手差しジェスチャの事例としては、具体的には、指差しジェスチャとなっている。
 手動作検出部110としては、2次元画像、あるいは3次元画像を形成するカメラを用いることができる。カメラは、例えば、複数の方向から同時に撮影して奥行方向の情報も記録できるステレオカメラ、あるいは、ToF(Time of Flight)方式を用いて対象物を立体的に撮影するToFカメラ等とすることができる。尚、カメラに代えて、例えば、近赤外線を用いた近赤外線センサ、あるいは遠赤外線を用いた遠赤外線センサ等を用いてもよい。手動作検出部110は、例えば、車両天井に取付けされており、運転者の指(指差しジェスチャ操作の指先)が車外のどの方向(どの対象物)に向けられているかを検出するようになっている。
 視線検出部120は、例えば、手動作検出部110と同様のカメラ等が用いられて、運転者の視線の移動ベクトル(主に、視線の方向と移動長さ)を計測するものとなっている。視線検出部120は、例えば、車両インストルメントパネルの運転席前に配置されるコンビネーションメータの上部に取付けされており、運転者の顔の位置、顔の向きに対する瞳の位置から視線方向を計測するようになっている。視線検出部120は、計測した運転者の視線方向の信号を制御部140に出力するようになっている。
 尚、運転者の視線方向が、手動作検出部110(カメラ)によって、指差しジェスチャと共に、検出できる場合は、視線検出部120(カメラ)は、手動作検出部110と兼用されるものとしてもよい。また、視線検出部120としては、上記カメラに限らず、眼電位センサ等を用いてもよい。
 車外情報取得部130は、車両前方における景色を捉えることで、車両前方に存在する各種対象物を取得するものであり、例えば、手動作検出部110と同様のカメラが用いられている。車外情報取得部130は、例えば、車両天井の前方部で、ルームミラーと併設されるようにして、車外前方に向けて取付けされた前方カメラとなっている。車外情報取得部130によって、取得された各種対象物の画像データは、制御部140に出力されるようになっている。
 制御部140は、手動作検出部110によって検出された指差しジェスチャと、視線検出部120によって検出された視線の移動ベクトルと、車外情報取得部130によって取得された車外の対象物とを関連付けて、複数の対象物のうち、指差しジェスチャによって指し示され、且つ、視線の向けられた対象物を選択確定(特定)するようになっている。制御部140は、選択確定した対象物を、データベース150(地図データに係る記憶媒体やクラウドの記憶部等)に出力し、蓄積(記憶)させて、例えば、カーナビゲーション装置に関する地図データを更新していくようになっている。制御部140は、指示動作判定部141、指示領域判定部142、視線追従判定部143、および指示対象特定部144等を有している。
 指示動作判定部141は、手動作検出部110で検出された指差しジェスチャの画像データから、運転者が対象物を特定するための指差しジェスチャを行ったか否かを判定する部位となっている。指示動作判定部141は、判定した結果を指示対象特定部144に出力するようになっている。
 指示領域判定部142は、手動作検出部110で検出された手差しジェスチャの画像データと、車外情報取得部130によって検出された対象物の画像データとの対応をとって、運転者が車両前方のどの領域(どの対象物)を指差ししたかを判定する部位となっている。指示領域判定部142は、判定した結果を指示対象特定部144に出力するようになっている。
 視線追従判定部143は、視線検出部120で検出された視線方向の信号(視線のベクトル信号)と、車外情報取得部130によって検出された対象物の画像データとの対応をとって、運転者の視線が車両前方のどの領域(どの対象物)に沿って移動しているかを判定する部位となっている。視線追従判定部143は、判定した結果を指示対象特定部144に出力するようになっている。
 指示対象特定部144は、指示動作判定部141、指示領域判定部142、および視線追従判定部143からの信号やデータを基に、運転者の指差しした対象物を特定する部位(本開示の特定部)となっている。特定されたデータ(対象物)は、データベース150に出力されて、データベース150におけるデータが更新されるようになっている。例えば、新たに特定された対象物(看板等)が、カーナビゲーション装置(システム)用の地図データに追加され、更新された(アップデートされた)地図データが、順次、運転者によって使用されるようになっている。
 データベース150は、例えば、カーナビゲーション装置(システム)に係る各種データ(地図データ)を記憶する部位であり、地図用記憶ディスク、あるいはクラウドの地図データ記憶部等となっている。
 本実施形態のジェスチャ入力装置100の構成は、以上のようになっている。以下、図2~図4を加えて、その作動および作用効果の一例について説明する。
 図2において、S100にて、制御部140(指示動作判定部141)は、手動作検出部110からのジェスチャの画像データに基づいて、運転者による手の動作を検出する。そして、S110で、制御部140(指示動作判定部141)は、運転者による指差しジェスチャがあったか否かを判定する。S110で、否定判定すると、本制御を終了する。
 S110で肯定判定すると、S120で、制御部140(指示領域判定部142)は、ジェスチャの画像と、車両前方の対象物の画像データとから、車両前方画像のうち、どの領域(エリア)に指差しが行われたかを判定して、指差しされた点を基に指示エリアを抽出する。
 車両に搭載されたジェスチャ入力装置100においては、個人ごとの指差しの要領や、走行時の車両振動等を踏まえると、運転者は運転操作をしながら、所望する対象物を正確に指差すことは、難しいおそれがある。よって、ここでは、指差しによる指示エリアを抽出するようにしている。
 図3は、例えば、運転者に対して前方の右側方に見える景色(看板A、B)をイメージした図となっている。指示エリアとは、指差しされた点(図3中の×印)を中心とする部分領域(破線の四角形で囲まれた領域)である。S120は、車両前方景色の全体の領域の中で、運転者は、右側の領域なのか、左側の領域なのか、あるいは中央側の領域なのか、どの領域を指さしたかを、まず明確にするステップである。図3は、指差し動作により、対象領域を特定したが、複数の看板が存在することがある場合を表している。
 次に、S130で、制御部140(指示領域判定部142)は、指示エリア内に、対象物は複数あるか否かを判定する。図3、図4では、対象物が、複数ある場合(例えば、看板A、看板B)を示している。S130で対象物が複数あると判定すると、S140に進む。尚、S130で対象物が単数であると判定すると、S160に進む。
 S140では、制御部140(視線追従判定部143)は、運転者の視線の移動ベクトルを抽出する。例えば、図4において、車両前方の対象物(看板A、B)は、車両の動きに対して、相対的に、車両に近づくように移動してくる。この場合、ある時点からT秒後の対象物の移動ベクトルは、車外情報取得部130による対象物の画像データより、各看板A、Bの位置関係によって、看板Aでは、AA´、看板BではBB´となり、両看板A、Bの移動ベクトルは異なる。
 このとき、運転者は、特定したい対象物として看板Aを視認していたとすると、視線の移動ベクトルの方向は、看板Aの移動ベクトルの方向と同等のものとなる。このように、本実施形態では、視線の移動ベクトルの方向が考慮されるようになっている。
 よって、S150では、制御部140(指示対象特定部144)は、対象物の移動ベクトルの方向と、視線の移動ベクトルの方向とが同等となる対象物、この場合、看板Aを特定すべき対象物として対象選別処理を行う。図4の事例においては、両対象物の移動ベクトルの方向が明らかに異なることから、視線の移動ベクトルとしては、その移動ベクトルの方向をもって対象物の移動ベクトルの方向と比較するようにすればよい。尚、視線の移動ベクトルの長さも加味するようにしてもよい。図4は、看板Aと看板Bは、視認追従していた場合、移動ベクトルが異なる場合を表している。
 制御部140(指示対象特定部144)は、S160で、データ処理を行う。即ち、指示対象特定部144は、特定した対象物(看板A)のデータをデータベース150に蓄積させる。上記で説明したように、特定されたデータ(対象物)は、データベース150に出力されて、データ更新される。例えば、新たに特定された対象物(看板A)が、カーナビゲーション装置(システム)用の地図データに追加され、更新された(アップデートされた)地図データが、順次、運転者によって使用される。つまり、更新された新しい地図データでは、看板Aが記された地図データが使用され、走行中に近くを通ると、看板Aが表示され、看板Aの情報を見ることが可能となる。
 以上のように、本実施形態では、手差しジェスチャによって指し示された対象物の相対的な移動は、視線の移動ベクトルと同等のものとなるので、操作者による手差しジェスチャに対して、視線の移動ベクトルの条件を加えることによって、正確に対象物を特定することが可能となる。よって、ジェスチャの負荷を増やすことなく、対象物を正確に特定することができる。
 (第2実施形態)
 第2実施形態を図5~図7に示す。第2実施形態のジェスチャ入力装置100は、構成は上記第1実施形態と同一であるが、制御の内容(図5)を変更したものとなっている。第2実施形態では、対象物の移動ベクトルにおいて、同一となるものが複数ある場合に、視線の移動ベクトルの方向と長さとを用いて、運転者が所望する対象物を特定可能としている。
 図5において、まず、S100にて、制御部140(指示動作判定部141)は、手動作検出部110からのジェスチャの画像データに基づいて、運転者による手の動作を検出する。そして、S110で、制御部140(指示動作判定部141)は、運転者による指差しジェスチャがあったか否かを判定する。S110で、否定判定すると、本制御を終了する。
 S110で肯定判定すると、S120で、制御部140(指示領域判定部142)は、車両前方画像において、指差しされた点を基に指示エリアを抽出する。
 次に、S130で、制御部140(指示領域判定部142)は、指示エリア内に、対象物は複数あるか否かを判定する。図6、図7では、対象物が、複数ある場合(例えば、看板A、看板B、看板C)を示している。S130で対象物が複数あると判定すると、S140に進む。尚、S130で対象物が単数であると判定すると、S160に進む。図6では、看板Aと看板Cのように、ベクトルが同じ対象が存在する場合を表している。この場合、視認の移動量、タイミングなどを用いて判別を実施する。
 S140では、制御部140(視線追従判定部143)は、運転者の視線の移動ベクトルを抽出する。ここでは、運転者は、特定したい対象物として看板Aを視認していたとする(図7)。
 次に、S150では、制御部140(指示対象特定部144)は、まず、視線の移動ベクトルに対して、対象物の移動ベクトルが同一方向となる対象物を選別する(対象選別処理)。ここでは、視線の移動ベクトルの方向と、対象物の移動ベクトルの方向とが同等となる対象物は、看板Aと看板Cがある(図7)。
 そして、S152で、制御部140(指示対象特定部144)は、S150における選別処理において、対象物が複数あるか否かを判定し、複数ある場合は、S154に進み、否定判定すると、S160に進む。
 S154では、制御部140(指示対象特定部144)は、S150で選別した対象物のそれぞれの移動ベクトルの長さと、視線の方向ベクトルの長さとを比べ、更に、S156で、同等となる対象物を特定すべき対象物として対象選別処理を行う。図7の場合では、視線の移動ベクトルに対して、対象物の移動ベクトルの方向および長さ共に同等となる看板Aを選別する。このように、本実施形態では、視線の移動ベクトルの方向と長さとが考慮されるようになっている。
 そして、S160で、特定した対象物(看板A)のデータをデータベース150に蓄積させる(データ処理)。
 本実施形態では、対象物の移動ベクトルにおいて、視線の移動ベクトルの方向と同じものが複数ある場合であっても、視線の移動ベクトルの方向に加えて、長さも加味して(考慮して)対象物を選別するので、正確な特定が可能となる。
 (第3実施形態)
 第3実施形態のジェスチャ入力装置100Aを図8に示す。第3実施形態は、上記第1、第2実施形態に対して、車外情報取得部130を廃止し、表示部51を追加したものである。
 表示部51は、例えば、車両のカーナビゲーション装置50において、地図、自車位置、および行先案内情報等を画像表示するディスプレイ部となっている。表示部51は、例えば、車両インストルメントパネルの左右方向の中央部に配置されて、運転者によって表示画像が視認されるようになっている。本カーナビゲーション装置50では、表示部51に表示される地図は、例えば、道路脇の建物や施設等が立体的な3D画像によって描かれたものとなっている。
 本実施形態では、運転者が表示部51に表示される建物や施設等(3D画像)に指差しジェスチャを行い、上記第1、第2実施形態と同様に制御部140(指示対象特定部144)で指示対象を特定することができるようになっている。制御部140は、図2、図5の制御フローのS160におけるデータ処理に対して、特定された対象物の詳細情報をデータベース150から読み込んで、表示部51に表示させる表示処理を行う。例えば、運転者によって特定された対象物が施設であると、表示部51の所定の領域に、施設の営業時間、施設の内容(サービス内容)、混み具合等を表示する。
 尚、上記第1、第2実施形態と同様に車外情報取得部130を設けた場合で、例えば、特定された対象物が看板であると、車外情報取得部130で取得された看板の内容を表示部51に表示するようにしてもよい。
 これにより、表示部51に表示された対象物(3D画像)に対しても、上記第1、第2実施形態と同様に正確な特定が可能となり、更に、詳細情報が表示されることで、運転者の利便性を高めることができる。
 (第4実施形態)
 上記第1~第3実施形態では、運転者の指差しジェスチャと視線の移動ベクトルとを用いて、運転者が所望する対象物を正確に特定できるようにした。
 しかしながら、これに限定されることなく、運転者の指差しジェスチャ、および視線の移動ベクトルを用いたものに対して、運転者に対して相対的に移動する対象物と共に移動される指の移動ジェスチャ(本開示の手差しジェスチャの移動方向)を加えて、所望する対象物を特定するようにしてもよい。この場合は、対象物の移動のベクトルに対して、視線の移動ベクトルと、更に、移動ジェスチャの移動ベクトルとを加味することで、対象物を特定する際の正確性を更に向上させることができる。
 あるいは、視線検出部120を廃止して、視線の移動ベクトルは使用せずに、運転者の指差しジェスチャと、上記のような対象物の動きに沿った指の移動ジェスチャとを用いて、対象物を特定するものとしてもよい。この場合は、上記第1~第3実施形態における視線の移動ベクトルの代わりに、指の移動ジェスチャを活用したものとすればよい。
 (その他の実施形態)
 上記各実施形態に対して、視線の移動ベクトルを用いて、対象物が車室外のものであるか、車室内のものであるかの判別をするようにしてもよい。つまり、対象物が車室外のものであれば、上記各実施形態で説明したように、視線の移動ベクトルが発生するものとなるが、対象物が車室内のものであると、対象物(車載機器のスイッチ部等)は運転者に対して相対的な移動が生じないので、視線の移動ベクトルは発生しない。このような視線の移動ベクトルの変化を用いた判別も可能である。
 また、上記各実施形態に対して、指差しジェスチャによって操作対象が選択確定されたときに、運転者に対して確認用のフィードバックを与える機能(フィードバック部)を追加したものとしてもよい。例えば、ステアリングを振動させる振動発生部を設けて、指示対象が選択確定された後に、ステアリングを振動させるようにしてもよい。あるいは、効果音や音声を発生させる発生部を設けて、指示対象が選択確定された後に、効果音(ピッ)や音声(選択確定されました)等を運転者に伝えるようにしてもよい。これにより、運転者が指差した対象物が、確かに選択確定されたことを知ることができ、安心して入力操作を行うことができる。
 また、対象となる操作者は、運転者に限らず、助手席者としてもよい。この場合、助手席者も、上記の各種ジェスチャを行うことで、制御部140によるジェスチャ認識が行われて、各種対象物の特定が可能となる。
 手動作検出部110は、本開示のジェスチャ検出部の一例に対応し、指示対象特定部144は特定部の一例に対応する。看板A、看板B、看板Cは、対象物の一例に対応する。
 制御部の各種機能の少なくとも一部または全部は、CPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)、ASIC(Application Specific Processor)などで構成されうる。
 本開示に記載の制御及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサを構成する専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の制御及びその手法は、専用ハードウエア論理回路によってプロセッサを構成する専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の制御及びその手法は、コンピュータプログラムを実行するプロセッサと一つ以上のハードウエア論理回路との組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。
 ここで本願に記載されるフローチャート、あるいは、フローチャートの処理は、複数のステップ(あるいはセクションと言及される)から構成され、各ステップは、たとえば、S100と表現される。さらに、各ステップは、複数のサブステップに分割されることができる、一方、複数のステップが合わさって一つのステップにすることも可能である。
 以上、本開示の一態様に係るジェスチャ入力装置の実施形態、構成、態様を例示したが、本開示に係る実施形態、構成、態様は、上述した各実施形態、各構成、各態様に限定されるものではない。例えば、異なる実施形態、構成、態様にそれぞれ開示された技術的部を適宜組み合わせて得られる実施形態、構成、態様についても本開示に係る実施形態、構成、態様の範囲に含まれる。
 

 

Claims (5)

  1.  車両に搭載され、操作者に対して相対的に移動して視認される車外の対象物(A、B)に対応する操作者の手差しジェスチャ操作に基づいて、指し示された前記対象物(A)を特定するジェスチャ入力装置において、
     前記手差しジェスチャ操作を検出するジェスチャ検出部(110)と、
     前記操作者の前記対象物に対する視線を検出する視線検出部(120)と、
     前記手差しジェスチャ操作によって指し示された領域に前記対象物が複数あると、前記視線検出部によって得られた前記視線の移動ベクトルと同等の前記相対的な移動を伴う対象物を、前記手差しジェスチャ操作によって指し示された対象物として特定する特定部(144)と、を備えるジェスチャ入力装置。
  2.  前記特定部は、前記対象物の特定にあたり、前記移動ベクトルの移動する向きを考慮する請求項1に記載のジェスチャ入力装置。
  3.  前記特定部は、前記対象物の特定にあたり、前記移動ベクトルの移動する長さを考慮する請求項1または請求項2に記載のジェスチャ入力装置。
  4.  前記特定部は、前記対象物の特定にあたり、前記視線の移動ベクトルに加えて、前記対象物と共に移動される前記手差しジェスチャの移動方向を考慮する請求項1~請求項3のいずれか1つに記載のジェスチャ入力装置。
  5.  車両に搭載され、操作者に対して相対的に移動して視認される車外の対象物(A、B)に対応する操作者の手差しジェスチャ操作に基づいて、指し示された前記対象物(A)を特定するジェスチャ入力装置において、
     前記手差しジェスチャ操作を検出するジェスチャ検出部(110)と、
     前記手差しジェスチャ操作によって指し示された領域に前記対象物が複数あると、前記対象物と共に移動される前記手差しジェスチャの移動方向と同等の前記相対的な移動を伴う対象物を、前記手差しジェスチャ操作によって指し示された対象物として特定する特定部(144)と、を備えるジェスチャ入力装置。

     
PCT/JP2019/029613 2018-09-28 2019-07-29 ジェスチャ入力装置 WO2020066269A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018183549A JP2020052875A (ja) 2018-09-28 2018-09-28 ジェスチャ入力装置
JP2018-183549 2018-09-28

Publications (1)

Publication Number Publication Date
WO2020066269A1 true WO2020066269A1 (ja) 2020-04-02

Family

ID=69949324

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/029613 WO2020066269A1 (ja) 2018-09-28 2019-07-29 ジェスチャ入力装置

Country Status (2)

Country Link
JP (1) JP2020052875A (ja)
WO (1) WO2020066269A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005138755A (ja) * 2003-11-07 2005-06-02 Denso Corp 虚像表示装置およびプログラム
JP2009151419A (ja) * 2007-12-19 2009-07-09 Advanced Telecommunication Research Institute International 対象物特定方法および装置
DE102012219280A1 (de) * 2012-10-23 2014-04-24 Robert Bosch Gmbh Fahrerassistenzsystem und Verfahren
JP2015135674A (ja) * 2014-01-03 2015-07-27 ハーマン インターナショナル インダストリーズ インコーポレイテッド ユーザに方向付けられた個人情報アシスタント
JP2017090615A (ja) * 2015-11-09 2017-05-25 三菱自動車工業株式会社 音声認識制御システム
DE102017211089A1 (de) * 2017-06-29 2019-01-03 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung für ein Kraftfahrzeug zur Kommunikation mit einem weiteren Kraftfahrzeug und/oder zum autonomen Nachverfolgen eines weiteren Kraftfahrzeugs

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005138755A (ja) * 2003-11-07 2005-06-02 Denso Corp 虚像表示装置およびプログラム
JP2009151419A (ja) * 2007-12-19 2009-07-09 Advanced Telecommunication Research Institute International 対象物特定方法および装置
DE102012219280A1 (de) * 2012-10-23 2014-04-24 Robert Bosch Gmbh Fahrerassistenzsystem und Verfahren
JP2015135674A (ja) * 2014-01-03 2015-07-27 ハーマン インターナショナル インダストリーズ インコーポレイテッド ユーザに方向付けられた個人情報アシスタント
JP2017090615A (ja) * 2015-11-09 2017-05-25 三菱自動車工業株式会社 音声認識制御システム
DE102017211089A1 (de) * 2017-06-29 2019-01-03 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung für ein Kraftfahrzeug zur Kommunikation mit einem weiteren Kraftfahrzeug und/oder zum autonomen Nachverfolgen eines weiteren Kraftfahrzeugs

Also Published As

Publication number Publication date
JP2020052875A (ja) 2020-04-02

Similar Documents

Publication Publication Date Title
US10029700B2 (en) Infotainment system with head-up display for symbol projection
JP6521081B2 (ja) 車両用表示装置
JP2012045706A (ja) 移動ロボットの遠隔操縦のための衝突防止装置及び方法
KR102531888B1 (ko) 자동차에서 디스플레이 장치를 작동하기 위한 방법
WO2014188536A1 (ja) ナビゲーション装置
CN111052735B (zh) 图像处理装置、图像处理方法以及图像显示系统
JP2013196595A (ja) 車両走行支援システム
JP2020125033A (ja) 表示制御装置および表示制御プログラム
JP6677474B2 (ja) 周辺認識装置
JP2018055614A (ja) ジェスチャ操作システム、ジェスチャ操作方法およびプログラム
JP5881566B2 (ja) ナビゲーション装置およびナビゲーション情報の表示制御方法
JP6444508B2 (ja) 表示制御装置およびナビゲーション装置
WO2018116565A1 (ja) 車両用情報表示装置及び車両用情報表示プログラム
WO2020066269A1 (ja) ジェスチャ入力装置
US20210382560A1 (en) Methods and System for Determining a Command of an Occupant of a Vehicle
WO2019077908A1 (ja) ジェスチャ入力装置
JP2010085203A (ja) ナビゲーション装置及び案内誘導方法
JP2005071041A (ja) 運転者視対象検出装置及び運転者視対象検出システム
JP6597128B2 (ja) 車両用表示装置
JP2014174880A (ja) 情報提供装置、及び情報提供プログラム
JP7302311B2 (ja) 車両用表示制御装置、車両用表示制御方法、車両用表示制御プログラム
JP7236674B2 (ja) 表示装置
JP6770488B2 (ja) 注視対象物推定装置、注視対象物推定方法、およびプログラム
JP6939147B2 (ja) 走行情報案内装置及びコンピュータプログラム
JP5326328B2 (ja) 情報表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19867463

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19867463

Country of ref document: EP

Kind code of ref document: A1