JP2017027456A - ジェスチャ操作システム、方法およびプログラム - Google Patents

ジェスチャ操作システム、方法およびプログラム Download PDF

Info

Publication number
JP2017027456A
JP2017027456A JP2015146956A JP2015146956A JP2017027456A JP 2017027456 A JP2017027456 A JP 2017027456A JP 2015146956 A JP2015146956 A JP 2015146956A JP 2015146956 A JP2015146956 A JP 2015146956A JP 2017027456 A JP2017027456 A JP 2017027456A
Authority
JP
Japan
Prior art keywords
gesture
instruction
operator
reception window
gesture input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015146956A
Other languages
English (en)
Inventor
藤原 直樹
Naoki Fujiwara
直樹 藤原
祐司 篠村
Yuji Shinomura
祐司 篠村
泉 賢二
Kenji Izumi
賢二 泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimane Prefecture
Original Assignee
Shimane Prefecture
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimane Prefecture filed Critical Shimane Prefecture
Priority to JP2015146956A priority Critical patent/JP2017027456A/ja
Priority to PCT/JP2016/003418 priority patent/WO2017017938A1/ja
Publication of JP2017027456A publication Critical patent/JP2017027456A/ja
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)

Abstract

【課題】移動体を安全に操縦しながら、移動体に関連する操作をジェスチャ入力によって指示する操作システムを提供する。
【解決手段】撮像されたステアリングホイールおよび操作者の手の撮像データに基づいて操作入力を行うシステムで、ジェスチャ入力の指示を受け付けることのできる指示領域を生成し、その指示領域をステアリングホイールおよび操作者の手との関係に応じて配置する。3つのサブ指示領域を予め割り当てることができる。操作者がスイッチを付勢してジェスチャ入力の受付を許可するための受付窓を開いてジェスチャ入力の受付を許可し、予め定めた操作パターンに応じて、該受付窓を閉じてジェスチャ入力のそれ以降の受付を禁止する受付窓を生成する。受付窓が開かれ、ジェスチャ入力の受付が許可されている状態において、撮像データを受付けて、サブ指示領域における、手によるジェスチャ入力を認識する。
【選択図】図6

Description

本発明は、操作者によるジェスチャ入力に応じて、予め定めた操作を操作対象に対して行うためのジェスチャ操作システム、ジェスチャ操作方法およびジェスチャ操作プログラムに関する。
従来、車載機器、たとえば、車載オーディオ機器、ナビゲーション装置などの車に関連する機器を、車の走行中に操作するにあたって、タッチパネル、リモートコントロール装置、ステアリングスイッチ、さらには音声入力装置などが用いられている。タッチパネルを用いる場合およびリモートコントロール装置を用いる場合には、どうしてもスクリーンを注視しなければならず、運転時には危険が伴う。ステアリングスイッチを用いる場合には、多機能に対応する操作が複雑化し、そのためのスイッチ数や配置にも制約があり、しかもスイッチ数を多くすると、スイッチを目視で探さざるを得ない危険もある。音声入力装置の場合にはこれらの問題点は解消されるものの、雑音環境下においては、音声の誤認識が誤操作に繋がりやすく、しかも使用者が考えながら発生して入力するので、運転がおろそかになりやすい欠点もある。
他方、ジェスチャ入力、すなわち、手など人体の一部の動きにより予め定めた入力を行うことが提案されている(特許文献1,2,3,4,5)。
ここで、人体の一部としては、手のほかに、首振りの動き、目の瞬きなどの動き、なども考えられる。以下では手の動きを代表に取り上げて、本発明を説明するが、本発明におけるジェスチャ入力は手による入力に限定されない。
これら従来のジェスチャ入力の場合、ジェスチャ入力を感知するセンサを配置したディスプレイの画面に対して、操作者がジェスチャ入力により、車に関連する機器の操作についての指示を行う。その操作指示をセンサが感知し、当該ジェスチャ入力に応じて、当該機器に対して、操作指示に対応した、予め定めた操作を行う。
特開2010−184600号公報 特開2006−285370号公報 特開2009−104297号公報 特開2001−216069号公報 特開2005−50177号公報
しかし、このような従来の装置では、センサの視野内において人の移動や荷物などの出し入れなどの種々の動きが感知されるので、意図されたジェスチャ入力であるのか否かについて判断しにくく、これがジェスチャ入力の誤認識を惹起する。さらに、ジェスチャ入力のために、手の形状、動きなど操作者が予め学習する事項が多すぎ、指示のためのルールが複雑化する問題点もある。しかも、操作者がステアリングから少なくとも片手を離して操作する必要があることから、その操作に危険を伴う。
以上に鑑み、本発明の目的は、以上に述べた従来のジェスチャ入力の欠点を克服し、操作性、安全性、および操作指示の認識率の高いジェスチャ操作のためのシステム、方法、およびプログラムを提供することにある。
より詳しくは、本発明の目的は、車などの移動体に対する安全な操縦性を保持しつつ、ジェスチャ入力による正確な操作指示を可能にするジェスチャ操作のためのシステム、方法、およびプログラムを提供することにある。
上記目的を達成するために、本発明によるジェスチャ操作システムは、移動体の操舵装置および該操舵装置を操作する操作者の手を撮像する撮像部と、前記撮像部によって撮像された操舵装置および操作者の手の撮像データに基づいて、前記操舵装置に関連して前記操作者の手による、前記移動体に関連する予め定めた操作対象に対する予め定めた操作についてのジェスチャ入力の指示を受け付けることのできる指示領域を生成し、当該生成された指示領域を前記操舵装置および前記操作者の手との関係に応じて配置し、および前記指示領域を予め定めた少なくともひとつのサブ指示領域に割り当てる指示領域設定部と、前記操作者の手によるジェスチャ入力の受付を許可するための受付窓を開いてジェスチャ入力の受付を許可し、予め定めた操作パターンに応じて、該受付窓を閉じてジェスチャ入力のそれ以降の受付を禁止する受付窓を生成する受付窓生成部と、前記受付窓が開かれ、前記ジェスチャ入力の受付が許可されている状態において、前記撮像部からの撮像データを受付けて、前記サブ指示領域における前記手によるジェスチャ入力を認識する認識部と、前記ジェスチャ入力と予め定められた操作対象に対する予め定められた操作についての指示内容との対応を格納したテーブルと、前記テーブルを照合して前記認識されたジェスチャ入力に対応する指示内容を特定する操作指示部と、を備え、受け付けられたジェスチャ入力の指示内容により、前記予め定められた操作対象に対する予め定められた操作を行うようにする。
本発明によるジェスチャ操作方法は、移動体の操舵装置および該操舵装置を操作する操作者の手を撮像する撮像部と、前記操作者の手によるジェスチャ入力の受付の許可を開始して受付窓を生成するためのスイッチと、前記ジェスチャ入力と予め定められた所定の操作対象に対する所定の操作についての指示内容との対応を格納したテーブルとを備えたジェスチャ操作システムにおいて、前記操作者の手によるジェスチャ入力に応じて、予め定めた操作対象に対する予め定めた操作を行うように指示する、ジェスチャによる操作を行うにあたり、前記撮像部によって撮像された操舵装置および操作者の手の撮像データに基づいて、前記操舵装置に関連して前記操作者の手による、前記移動体に関連する予め定めた操作対象に対する予め定めた操作についてのジェスチャ入力の指示を受け付けることのできる指示領域を生成し、当該生成された指示領域を前記操舵装置および前記操作者の手との関係に応じて配置し、および前記指示領域を予め定めた少なくともひとつのサブ指示領域に割り当てる指示領域設定ステップと、前記スイッチの動作に応答して、前記操作者の手によるジェスチャ入力の受付を許可するための受付窓を開いてジェスチャ入力の受付を許可し、予め定めた操作パターンに応じて、該受付窓を閉じてジェスチャ入力のそれ以降の受付を禁止する受付窓を生成するステップと、前記受付窓が開かれ、前記ジェスチャ入力の受付が許可されている状態において、前記撮像部からの撮像データを受付けて、前記サブ指示領域における前記手によるジェスチャ入力を認識する認識ステップと、前記テーブルを照合して前記認識ステップにおいて認識されたジェスチャ入力に対応する指示内容を特定する操作指示ステップと、を備え、受け付けられたジェスチャ入力の指示内容により、前記予め定められた操作対象に対する予め定められた操作を行う。
本発明によるジェスチャ操作プログラムは、移動体の操舵装置および該操舵装置を操作する操作者の手を撮像する撮像部と、前記操作者の手によるジェスチャ入力の受付の許可を開始して受付窓を生成するためのスイッチと、前記ジェスチャ入力と予め定められた所定の操作対象に対する所定の操作についての指示内容との対応を格納したテーブルとを備えたジェスチャ操作システムにおいて用いられ、前記操作者の手によるジェスチャ入力に応じて、予め定めた操作対象に対する予め定めた操作を行うように指示するにあたり、前記撮像部によって撮像された操舵装置および操作者の手の撮像データに基づいて、前記操舵装置に関連して前記操作者の手による、前記移動体に関連する予め定めた操作対象に対する予め定めた操作についてのジェスチャ入力の指示を受け付けることのできる指示領域を生成し、当該生成された指示領域を前記操舵装置および前記操作者の手との関係に応じて配置し、および前記指示領域を予め定めた少なくともひとつのサブ指示領域に割り当てる指示領域設定ステップと、前記スイッチの動作に応答して、前記操作者の手によるジェスチャ入力の受付を許可するための受付窓を開いてジェスチャ入力の受付を許可し、予め定めた操作パターンに応じて、該受付窓を閉じてジェスチャ入力のそれ以降の受付を禁止する受付窓を生成するステップと、前記受付窓が開かれ、前記ジェスチャ入力の受付が許可されている状態において、前記撮像部からの撮像データを受付けて、前記サブ指示領域における前記手によるジェスチャ入力を認識する認識ステップと、前記テーブルを照合して前記認識ステップにおいて認識されたジェスチャ入力に対応する指示内容を特定する操作指示ステップと、を備え、受け付けられたジェスチャ入力の指示内容により、前記予め定められた操作対象に対する予め定められた操作を行う。
ここで、前記認識部により認識されたジェスチャ入力の指示内容が意図された操作の指示であったか否かを判断する認識判断部をさらに備えることができる。
前記受付窓生成部は操作者が付勢および消勢することのできるスイッチを有し、該スイッチの付勢により前記受付窓を開き、および前記スイッチの消勢により前記受付窓を閉じるようにすることができる。
前記受付窓生成部は操作者が付勢および消勢することのできるスイッチを有し、該スイッチの付勢およびその付勢に引き続く消勢に応答して前記受付窓を開き、および前記スイッチが前記付勢に引き続く消勢から予め定めた時間が経過した時に、前記受付窓を閉じることができる。
前記受付窓生成部は操作者が付勢および消勢することのできるスイッチを有し、該スイッチの付勢およびその付勢に引き続く消勢に応答して前記受付窓を開き、および前記スイッチが再び付勢され、およびその付勢に引き続く消勢がなされた時に、前記受付窓を閉じることができる。
前記指示領域を複数のサブ指示領域に分割することができる。
前記サブ指示領域の個数を、前記予め定めた操作対象に対応して定めてもよい。
前記指示領域を、前記操作者の手と前記操舵装置との関係に応じて定めることができる。
前記受付窓が開かれている状態において、前記操作者が前記操舵装置を操作している際に、前記指示領域を、前記操作者の手と前記操舵装置との関係に追随して定めることができる。
前記認識判断部によりジェスチャ入力の指示内容が意図された操作の指示であったか否かが判断されたときに、その判断結果を出力する出力部をさらに備えてもよい。
本発明によれば、車などの移動体のステアリングから手を離すことなく操作の指示を行うことができ、しかもその操作指示は単純なルールに従って行うのみでよいので操作性が向上し、しかも、ジェスチャ入力の受付開始と終了とをスイッチ入力などにより確実に行うことができるので、ジェスチャ入力が誤って認識されることが少なくなる。したがって、本発明によれば、移動体に対する安全な操縦性を保持しつつ、ジェスチャ入力による正確な操作指示を行うことができる。
本発明の実施形態に係るジェスチャ操作システムの構成の一例を示すブロック図である。 図1に示したジェスチャ操作システムを移動体の一例としての自動車に搭載した一例を示す説明図である。 スイッチ操作の一例を示す説明図である。 スイッチ操作の操作パターンに基づいて定められるジェスチャ入力の受付窓の3形態を時間軸上で示す説明図である。 3分割されたサブ判定領域の一例を示す説明図である。 ジェスチャ操作システムにおけるジェスチャ入力による操作を行うソフトウエアの一例を示すフローチャートである。 ジェスチャ入力と指示された操作との照合テーブルの一例を示す図である。 図1に示したジェスチャ操作システムに図6に示したソフトウエアを組み込んだ全体構成を示すブロック図である。 ジェスチャ操作システムにおける処理のソフトウエアの一例として図4(a)に対応する例を示すフローチャートである。 ジェスチャ操作システムにおける処理のソフトウエアの一例として図4(b)に対応する例を示すフローチャートである。 ジェスチャ操作システムにおける処理のソフトウエアの一例として図4(c)に対応する例を示すフローチャートである。 操作パターン1において、再生中の曲を切替えるために行われるジェスチャ入力の例を説明するための図である。 操作パターン1において、再生中の曲を早送りするために行われるジェスチャ入力の例を説明するための図である。 操作パターン2において、再生中の曲を切替えるために行われるジェスチャ入力の例を説明するための図である。 操作パターン3において、再生中の曲を切替えるために行われるジェスチャ入力の例を説明するための図である。 操作パターン1において、地図を拡大するために行われるジェスチャ入力の例を説明するための図である。 操作パターン1において、地図を縮小するために行われるジェスチャ入力の例を説明するための図である。 指示領域が操作者の手の位置に応じて移動する場合の例を説明するための図である。 種々のジェスチャパターンを説明するための図である。 右手または左手による操作者の操作態様を説明するための図である。 指示領域のサイズが最適化される場合の例を説明するための図である。 指示領域の分割数が変化する場合の例を説明するための図である。 指示領域の分割例を説明するための図である。 スイッチの配置例を説明するための図である。 スイッチの変形例を示す図である。 コラムスイッチがスイッチ32として用いられた場合のコラムスイッチの操作例を説明するための図である。 種々のセンサの配置例を説明するための図である。 種々の操作対象の適用例1を示すリスト図である。 種々の操作対象の適用例2を示すリスト図である。 種々の操作対象の適用例3を示すリスト図である。 指示領域から3つのサブ指示領域を生成する手順の一例の説明図である。 指示領域から3つのサブ指示領域を生成する手順の一例を示すフローチャートである。
以下、本発明の実施形態であるジェスチャ操作システムの一例について、図1および図2を参照して説明する。このジェスチャ操作システム1は、運転者、すなわち、このジェスチャ操作システム1の操作者のジェスチャ入力に応じて、移動体に関連する特定の機器に対する操作の指示を与える。ここでは、その一例として、自動車に搭載されたカーナビゲーション装置4に対する指示の操作を行う場合について説明する。
[ジェスチャ操作システム1の構成]
図1は、本発明の一実施形態に係るジェスチャ操作システム1の構成例を示すブロック図である。図2は図1のジェスチャ操作システムが搭載された自動車のジェスチャ操作に係わる部分を示す説明図である。
図2において、4はナビゲーション装置、5はステアリングホイール、6はインスツルメンタルパネル(計器盤パネル)、7は運転者が視認可能なように、フロントガラス8に配置されたヘッドアップディスプレイ(HUD)、31はインスツルメンタルパネル6に配置され、ジェスチャ入力を感知するセンサ、32はステアリングホイール5に配置され、ジェスチャ入力の受付窓を指示するためのオン・オフスイッチ、34はナビゲーション装置用およびジェスチャ入力が正しく認識されたか否かを音声で示すためのスピーカ、および42はカーナビゲーション装置4のディスプレイである。
図1に示すように、ジェスチャ操作システム1は、中央処理装置(CPU:Central Processing Unit)11と、読み取り専用メモリ(ROM:Read Only Memory)12と、ランダムアクセスメモリ(RAM:Random Access Memory)13と、ジェスチャ入力を感知するセンサ31と、ジェスチャ入力の受付窓を指示するオン・オフスイッチ32と、インスツルメンタルパネル6、HUD7およびカーナビゲーション装置4のディスプレイ42を含む表示部33と、ナビゲーション処理部41と、スピーカ34とを有する。
なお、ここでは、ジェスチャ入力により操作の指示を行う対象機器として、カーナビゲーション装置の場合を例示しているが、本発明はこの例に限定されず、例えば、音楽、テレビジョン、ラジオ、電話、カメラなどに関連する機器、室内ライト、ヘッドライトなどのランプ類、さらには車両自体のエンジン、ドアロック装置、ワイパー、座席調整機器、空調機器、パワーウインドウ、トランク開閉装置などいかなる車両関連の装置にも適用可能であり、それら機器の操作をジェスチャ入力によって行うことができる。
ナビゲーション処理部41は単独のナビゲーション装置であってもよいが、CPU11,ROM12およびRAM13に一体的に組み込んでもよい。
CPU11は、各構成要素11,12,13,31,32,33,34,41とバス1000で接続されて、制御信号やデータの転送処理を行うとともに、センサ31及びスイッチ32によるジェスチャ入力に応答して、ジェスチャ操作システム1全体の動作を実現するための各種のプログラムの実行、演算処理等を行う。
ROM12には、ジェスチャ操作システム1全体の動作に必要なプログラムおよびデータを格納する。これらプログラムはDVD-ROM、HDD、SDD等の記録媒体に格納されており、RAM13に読み出されてCPU11による実行が開始され、本実施形態のジェスチャ制御システム1の処理を行う。なお、このようなROMに変えて、クラウドサービスを用いて必要なプログラムおよびデータを取り込むことももちろん可能である。
RAM13には、後述するジェスチャ入力処理を行うためのソフトウエアに従って作成されたプログラム、および入力されたジェスチャ入力によるデータを一時的に保持する。
センサ31は、運転者によって行われるジェスチャを検出する撮像装置である。そのセンサ出力をCPU11によって処理して、ジェスチャ入力を作成する。後述するように、この実施形態のジェスチャ操作システム1では、ステアリングホイール5を操作する運転者は、手によるジェスチャを行うが、このジェスチャの検出が可能であれば、センサ31の構成としていかなる携帯のセンサであってもよく、ここに例示した撮像装置に限定されない。センサ31は、例えば、手を撮像可能なRGBカラーセンサないしは3D距離画像センサ、または手の動きを検知可能な超音波センサであってもよい。
スイッチ32は、運転者によって行われるプレス(押下)時に、プレス状態を示す信号をCPU11へ伝送するように構成されている。この実施形態のジェスチャ制御システム1では、スイッチ32のプレス(押下)または/およびリリース(釈放)に応答して、ジェスチャ入力を受け付ける窓(以下、「受付窓」と称す。)を、図3を参照して後述する3態様のいずれかの態様に従って定める。
表示部33について、図2の配置においては、インスツルメンタルパネル6、HUD7およびカーナビゲーション装置4のディスプレイ42を個別に配置した例を示したがこの例に限られず、例えば、インスツルメンタルパネル6とディスプレイ42とを一体的に構成することもできる。
ディスプレイ42およびスピーカ34と接続されたナビゲーション処理部41によって得られた地図データの画像情報を、ディスプレイ42へ出力する。ナビゲーション処理部41による慣例のナビゲーション用の音声情報をスピーカ34から出力させるのに加えて、CPU11による制御の下、ジェスチャ入力が正しく認識されたことの確認を伝えるための音声情報をスピーカ34から出力させる。
スイッチ32の操作例について、図3を参照して説明する。図3において、(a)はスイッチ32のリリース(オフ)状態を示し、(b)はスイッチ32のプレス(オン)状態を示している。スイッチ32が、図3(b)に示すようにプレス状態の場合に、CPU11は、そのプレス状態を示す信号を、スイッチ32から受信する。スイッチ32が、図3(a)に示すようにリリース状態の場合に、CPU11は、そのリリース状態を示す信号を、スイッチ32から受信する。これら信号の組み合わせに応じて、図4に示す3つの操作パターン1,2および3のうちから予め定めたひとつの操作パターンに従って、受付窓を特定する。これら3操作パターンの詳細を以下に説明する。
図4(a)に示す操作パターン1では、スイッチ32を押し下げた(付勢)瞬時「プレスP」からスイッチ32を釈放した(消勢)瞬時「リリースR」までの期間、すなわち、スイッチ32のオン信号が立ち上がっている時間幅Wを、ジェスチャ入力の受付が可能な受付窓Wとして定める。CPU11は、この受付窓信号を受信することにより、受付可能である旨を判断する。
図4(b)に示す操作パターン2では、スイッチ32を押し下げた(付勢)瞬時「プレスP」から、それに引き続いてスイッチ32を釈放した(消勢)瞬時「リリースR」までの時間、オン信号が生起していることをCPU11が確認する。CPU11はそのオン信号が消滅した時点から予め定めた時間幅Wを、ジェスチャ入力の受付窓Wに設定する。なお、この時間幅Wは、ジェスチャ入力を完了するのに十分な時間よりも多少長い時間に定めておく。
図4(c)に示す操作パターン3では、スイッチ32を最初に押し下げた(付勢)瞬時「プレスP」から次にスイッチ32を釈放した(消勢)瞬時「リリースR」までの時間、オン信号が生起している。このオン信号が消滅した時点をCPU11により確認して受付窓Wを開始する。さらに、引き続き、スイッチ32を再び(第2回目)押し下げた(付勢)瞬時「プレスP」から次にスイッチ32を釈放した(消勢)瞬時「リリースR」までの時間、オン信号が再び生起している。このオン信号が消滅した時点をCPU11により確認して、受付窓Wを終了する。
図5は、ジェスチャ操作システム1において、ジェスチャ入力を指示するための指示領域を3つ設ける例を示す。ここで、(a)は操作者側から見た状態を示し、(b)はセンサ32側から見た状態を示す。
図5(a)および(b)に示すように、ジェスチャを認識するために設定された指示領域50を、例えば3つのサブ指示領域51,52,53に分割する。この指示領域50は、センサ31か得られた、操作者の手およびステアリングホイール5などの撮像データにづいて、CPU11によって得られた、手の重心や特徴点、ステアリングホイール5の形状等のデータから、ステアリングホイール5における手の周辺に設定し、さらに、CPU11によってサブ指示領域51,52,53を設定する。
なお、サブ指示領域の個数は3つに限られるものではなく、1つ、2つ、4つ、5つなど適宜に定めことができることはもちろんである。各サブ指示領域の形状も図示の例に限定されるものではない。
図5(a)および(b)の例では、操作者が、ステアリングホイール5を握る左手LHでジェスチャを行う。センサ31により、そのジェスチャを撮像し、得られた撮像データをCPU11に伝送する。CPU11は、その撮像データに基づいて、各サブ指示領域51〜53におけるジェスチャ入力を認識する。例えば図5(a)および図5(b)に示すように、操作者が、サブ指示領域53内で親指TMを立てた場合、CPU11は、そのジェスチャを、サブ指示領域53に対するジェスチャ入力として認識する。CPU11は、その認識結果に従って、操作を認識し、その認識された操作の内容を表示部33および/またはスピーカ34より出力する。その出力を操作者が受け取り、出力された認識が正しければ、意図したジェスチャ入力として確定する。つまり、その操作指示に従った所望の操作に進む。
以下の説明では、各サブ指示領域51,52,53に、操作者のジェスチャとしての指TMを立てた状態のジェスチャ態様を、「ジェスチャパターン」と称する。種々のジェスチャパターンは、各サブ指示領域51〜53でのすべての指のジェスチャ態様(例えば、指の本数など)によって、予め定めておく。
[ジェスチャ操作システム1のソフトウエア構成]
図6は、ジェスチャ操作システム1における処理を行うために、ROM12に組み込むソフトウエアの一例を示すフローチャートである。
図6において、車の運転中に、スイッチ32が押し下げられると、すなわち、プレスされると、予め定められた操作パターン(図4)に従って、CPU11は受付窓Wが開いたか否かを判断する(ステップS100)。受付窓Wが開かれたことをCPU11が判断すると、次のステップS200に進む。
ステップS200およびS300において、図5に示したように、指示領域50を生成し、ステアリングホイール5との関係で予め定めた位置に配置し、次いで、サブ指示領域51〜53に分割する。
さらに詳しく述べると、ステップS200において、ステアリングホイール5において行われる操作者の左手LHおよびステアリングホイール5をセンサ31により撮像して、その撮像データをCPU11に伝送する。CPU11は、その受信した撮像データに基づいて、撮像された被写体、すなわち、操作者の左手LHおよびステアリングホイール5のサイズと形状を推定し、操作者の左手LHおよびステアリングホイール5の位置およびサイズを算出する。この算出結果に基づいて、図31(a)に示すように、左手LHの周囲に、点A、B、C、Dによって画成された指示領域50を生成する。
次に、ステップS300において、指示領域50から、ひとつ又は複数個のサブ指示領域を生成する。ここで、サブ指示領域の個数は、予め定めた個数に設定することができる。あるいはまた、操作対象に関連して、その個数を変更するようにしてもよい。以下では、指示領域50を3分割して、3つのサブ指示領域51〜53を生成する手順の例を、図32を参照して説明する。
図32のステップS301に示すように、指示領域50において、撮像データから左手LHの重心位置、予め定めた特徴量、ステアリングホイール5の重心位置などに基づいて、指示領域50を2分割するための特徴点、例えば、図31(b)に示す特徴点Gを抽出する。ステップS302において、指示領域50を2分割する。すなわち、図31(c)に示すように、線分ABと線分CDに対して、特徴点Gを通過する線分EFによって指示領域50を2分割する。
次に、ステップS303において、指示領域50を4分割するための特徴点、例えば、図31(d)に示す特徴点Hを抽出する。この特徴点Hについても、撮像データから左手LHの重心位置、予め定めた特徴量、ステアリングホイール5の重心位置などに基づいて抽出する。ここで、先に特定した特徴点Gを特徴点Hとして用いることもできる。ステップS304において、指示領域50を4分割する。すなわち、図31(e)に示すように、線分EFに加えて、線分AHと線分BHを用いて、指示領域50を4分割する。
次のステップS305において、図31(f)に示すように、線分EHを削除して、指示領域50を、点A、C、F、Hにより画成されたサブ指示領域53、点B、D、F、Hにより画成されたサブ指示領域51、および点A、B、Hにより画成されたサブ指示領域52に3分割する。以上により、ステップS300を終了し、図6に示した次のステップS401に進む。
次に、CPU11は、ステップS401に進み、受付窓Wが開いている状態において、操作者の手によって行われたジェスチャ入力を認識する。すなわち、このステップS401において、ステアリングホイール5において行われる操作者の左手LHによるジェスチャおよびステアリングホイール5をセンサ31により撮像して、その撮像データをCPU11に伝送する。CPU11は、その受信した撮像データに基づいて、各サブ指示領域51〜53におけるジェスチャパターンを特定することによって、サブ指示領域51〜53(図5を参照)内での操作者によるジェスチャ入力を認識する。
ROM12には、図7において後述するジェスチャ入力d11とあらかじめ定められた所定の操作対象に対する所定の操作についての指示内容d12との対応、すなわち、操作指示管理データ1011を予め格納した照合テーブル10(図1を参照)を設けておく。
ステップS402において、この照合テーブル10を照合して、ステップS401において認識されたジェスチャ入力に対応する指示内容を出力する。次のステップS403において、照合テーブル10を参照したときに照合が取れたか否かを判定する。照合が取れなかったときには、ステップS401に戻り、再度、ジェスチャ入力を認識する。他方、ステップS403において、照合がとれたときには、次のステップS404に進む。このステップS404において、照合されたジェスチャ入力を出力する。なお、このステップS404において、照合が取れたことを表示部33および/またはスピーカ34に出力することで、操作者が、ジェスチャ入力がなされたことを理解するようにしてもよい。
次のステップS500では、図4に示した操作パターンのいずれかの態様に応じて、ジェスチャ入力の受付窓Wが閉じられたか否かを判断する。ここで、ジェスチャ入力の受付窓Wが閉じられていると判断されると、それ以降は、ジェスチャ入力の認識を禁止する。
ステップS403において、ジェスチャ入力が照合されたときには、ステップS500を経て、次のステップS700に進み、ここで、操作対象に対して、ジェスチャ入力に応じた所望の操作を行うべく、CPU11は必要な処理を行う。ここで、例えば、正しく入力された旨を表示部33(例えば、インスツルメンタルパネル6、HUD7またはディスプレイ42)および/またはスピーカ34によって出力してもよいし、あるいはまた、入力された指示に従った操作による結果を表示部33および/またはスピーカ34から出力するのみでもよい。
他方、ステップS403において、ジェスチャ入力が正しく認識されなかったときには、CPU11は、再度、ステップS401に戻り、操作者が、所望する操作に対するジェスチャ入力を再度行うのを待機する。なお、ステップS403からステップS401に戻る際に、ステップS405において、エラー情報(例えば、「再度、ジェスチャ入力を促す旨の警告表示」または「入力エラーを警告する警告音」など)を表示部33および/またはスピーカ34により出力して、当該エラーを操作者に警告することもできる。すなわち、エラー情報を出力することにより、操作者は再度のジェスチャ入力が要求されていることを認識することができる。
図6において、ステップS200およびS300による指示領域の生成と配置、およびサブ指示領域の生成は、ステップS100の処理を行う前に行ってもよい。あるいはまた、これら一連のジェスチャ入力の処理に先立って、プリセットしておくこともできる。
ステップS403により、ジェスチャ入力が正しく照合されたか否かを判断することを省略し、その代わりに、表示部33又はスピーカ34からの出力を操作者が見たり、聞いたりし、あるいは何の操作もされなかったことを操作者が把握することによって、指示された操作がなされているのか否かを、判断することもできる。
図7は、ジェスチャ入力とそれにより指示された操作との対応関係の一例を示す説明図である。
図7において、1011は、ジェスチャ入力d11と、指示された操作d12との対応関係を予め格納した操作指示管理データのテーブルを示す。例えば、ジェスチャ入力x1は、例えば図5(a)および図5(b)に示した親指TMのジェスチャ態様であり、「曲の切替え」という指示に応じた操作と予め対応付けられている。操作指示管理データ1011はROM12に予め格納しておき、ジェスチャ制御システム1の動作時には、ジェスチャ入力d11に対応する操作指示d12が特定される。
ステップS402において、CPU11は、図7に示した操作指示管理データ1011を参照し、認識されたジェスチャ入力に基づいてジェスチャ入力d11に対応付けられた操作指示d12を特定して実施する。すなわち、CPU11は、ステップS401で認識されたジェスチャ入力と一致するジェスチャパターンd11を見つけ出し、そのジェスチャ入力に応じた操作を指示する。例えば図5において、指示領域50は3つのサブ指示領域51〜53を含むので、CPU11は、各サブ指示領域51〜53における認識結果に応じて操作に指示を行う。したがって、例えば、2つのサブ指示領域51,52でのジェスチャ入力と操作の指示とが対応付けられている場合には、各サブ指示領域51,52でのジェスチャ入力が適切なものと判断され、当該指示された操作が実施されることになる。
[ジェスチャ操作システム1のハードウエアに図6に示したソフトウエアを組み込んだ全体構成]
図8は、図1に示したジェスチャ操作システム1のハードウエアに図6に示したソフトウエアを組み込んだ全体構成の一例を示すブロック図である。
図8において、このジェスチャ制御システム1は、記憶部100、撮像部31、指示領域設定部200、操作開始の指示を行うスイッチ32、そのスイッチ32の付勢に応答して受付窓を生成する受付窓生成300、ジェスチャ入力認識部400、および操作指示部500を備える。600は移動体に関連する特定の機器、すなわち操作対象である。
記億部100は、図1におけるROM12およびRAM13により構成される。記憶部100は、前述した選択操作管理データ1011(図7)、すなわち、ジェスチャ入力とそれに対応した操作の内容を格納したテーブル10(図1)を有する。
撮像部(センサ)31は、例えば、図1に示したセンサ31で構成され、ステアリングホイール(操舵装置)5およびステアリングホイール5を操舵する操作者の手を撮像する。
指示領域設定部200では、撮像部31によって撮像されたステアリングホイール5および操作者の手の撮像データに基づいて、ステアリングホイール5に関連して操作者の手による、操作対象600に対する予め定めた操作についてのジェスチャ入力の指示を受け付けることのできる指示領域50(図5)を生成し、その生成された指示領域50を操舵装置5および操作者の手との関係に応じて配置し、およびその指示領域を予め定めた少なくともひとつ、例えば、3つのサブ指示領域51,52,53(図5)に割り当てる。
受付窓生成部300では、操作者がその手によりスイッチ32を付勢することによって、ジェスチャ入力の受付を許可するための受付窓を開いてジェスチャ入力の受付を許可し、図4に示したような、予め定めた操作パターンのいずれかに応じて、その受付窓を閉じてジェスチャ入力のそれ以降の受付を禁止する受付窓を生成する。
ジェスチャ入力認識部400では、受付窓生成部300において受付窓が開かれ、ジェスチャ入力の受付が許可されている状態において、撮像部31からの撮像データを受付けて、サブ指示領域51,52,53における手によるジェスチャ入力を認識する。
操作指示部500では、ジェスチャ入力と予め定められた操作対象に対する予め定められた操作についての指示内容との対応を格納したテーブル10を参照して、認識されたジェスチャ入力に対応する指示内容を特定する。この操作指示部500からの操作指示出力を操作対象600に渡すことにより、当該操作対象に対して、受け付けられたジェスチャ入力の指示内容による予め定められた操作を行う。
図9,10,11は、図6に示した処理の手順を、図4に示した操作パターン1,2および3に対応して、それぞれ、具体的に示すフローチャートである。ここで、図6と同様のステップには同一のステップ符号を付すことにする。
図9において、ステップS101はステップS100に対応し、スイッチ32が押し下げされたか否かを判断する。スイッチ32は、いったん、押し下げされたらば、ステップS401〜S404の処理の間、ずっと押し下げ状態(オン状態)を保ち、ステップS401〜S404の処理が終了したならば、押し下げ状態から釈放し、ステップS500に対応するステップS501においてスイッチ32のオフ状態を判断する。ここで、スイッチ32がオフであると判断されると、次のステップS700に進む。
図10においては、ステップS101およびS102はステップS100に対応し、スイッチ32が押し下げ(オン)され、引き続いて押し下げから釈放(オフ)されたか否かを判断する。このようにスイッチ32は、釈放されたならば、ステップS401〜S404の処理の間、押し下げ状態にしておく必要はない。つまり、この操作パターンでは、スイッチ32が釈放されたならば、受付窓の予め定めた時間幅Wの計時を開始する。ステップS401〜S404の処理が終了したならば、ステップS500に対応するステップS503において受付窓Wの予め定めた時間幅Wに到達したか否かを判断する。その時間幅Wに到達したならば、次のステップS700に進む。
図11においては、ステップS101およびS102はステップS100に対応し、スイッチ32が押し下げされ、引き続いて押し下げから釈放されたか否かを判断する。すなわち、スイッチ32がオン、オフされたときに、受付窓Wを開始する。このようにスイッチ32は、釈放(オフ)されたならば、ステップS401〜S404の処理の間、押し下げ(オン)状態にしておく必要はない。ステップS401〜S404の処理が終了したならば、ステップS500に対応するステップS501およびS502において、スイッチ32が押し下げされ、引き続いて押し下げから釈放されたか否かを判断する。すなわち、スイッチ32が再びオン、オフされたときに、受付窓Wを終了し、次のステップS700に進む。
図12〜図17は、図6に示した手順における処理の具体例を示す。
図12は、図4に示した操作パターン1に応じた曲の切替え操作の例を説明するための図である。図13は、操作パターン1に応じた曲の早送り操作の例を説明するための図である。図14は、操作パターン2に応じた曲の切替え操作の例を説明するための図である。図15は、操作パターン3に応じた曲の切替え操作の例を説明するための図である。図16は、操作パターン1に応じた地図の拡大操作の例を説明するための図である。図17は、操作パターン1に応じた地図の縮小操作の例を説明するための図である。
図12において、操作者が曲Aを聴きながら運転しているときに(図12(a))、右手でステアリングホイール5のスイッチ32を押し下げる(図12(b))。図9の流れに従って、スイッチ32のプレス動作により、操作パターン1による受付窓WがCPU11によって特定され、ジェスチャ入力の受付が可能になった旨がCPU11によって判断される。すなわち、ジェスチャ入力の受付窓Wが開く。その後はスイッチ32を押し下げしたままの状態に保つ。
次に、操作者が左手の例えば親指TMを立てるジェスチャを行い(図12(c))、その後、スイッチ32をリリースする(図12(d))。このスイッチ32のリリースによって、ジェスチャ入力の受付窓Wは閉じることになる(図4(a)参照)。
図12(c)に示した親指TMのジェスチャによって、センサ31からの撮像データに基づいて操作者のジェスチャ入力が認識され(図9のステップS401)、さらに、対応するジェスチャ入力に対応する操作指示がCPU11により特定される(図9のステップS402)。この結果、図12(e)に示すように、曲Aがその次曲である曲Bに切り替えられる。
図13は、操作パターン1において曲Aが早送りされるときの操作態様を例示している。図13では、図9のステップS700をステップS404とS501との間で処理する。図13(c)に示したジェスチャを行うことで、曲Aが早送りされることになる(図13(d))。その後に、スイッチ32を釈放する。図13(a)〜(c)および(e)は、それぞれ、図12(a)〜(d)に対応する。
図14は、図12に示した操作パターン1の代わりに、操作パターン2(図4(b))を用いて、曲Aから曲Bに切り替えるときの操作態様を例示している。すなわち、図14では、操作者は、スイッチ32のプレスおよびリリースの操作(図14(b)および(c))を行ってから、予め定められた受付窓Wの計時が開始され、その受付窓Wの時間(例えば5秒など)内に、指によるジェスチャを行う必要がある(図14(d))。図14(a)、(b)、(d)および(e)は、それぞれ、図12(a)、(b)、(c)および(e)に対応する。
図15は、図12に示した操作パターン1の代わりに、操作パターン3(図4(c))を用いて曲Aから曲Bに切り替えるときの操作態様を例示している。すなわち、図15でも、操作者は、スイッチ32のプレスおよびリリースの操作(図15(b)および(c))を行ってから、指によるジェスチャを行う必要がある(図15(d))。
なお、図15の例では、図15(c)に示したリリース操作の後に、引き続きプレスおよびリリースの操作(図15(e)および(f))を行うことによって、ジェスチャ入力の受付窓Wが終了する。
図16は、図12に示した曲Aの切替えの代わりに、カーナビゲーション装置4のディスプレイ42に表示されている地図を拡大する場合の操作態様を例示している。すなわち、図16では、操作指示として、地図が拡大されることになる(図16(d))。図16(a)〜(c)および(e)は、それぞれ、図12(a)〜(c)および(d)に対応する。
図17は、図16に示した地図の拡大の代わりに、地図を縮小するときの操作態様を例示している。この場合、例えば、操作者は、図17(c)および(d)に示したサブ指示領域51において人差し指FFを立てるジェスチャを行う。図17(a)、(b)および(e)は、それぞれ、図16(a)、(b)および(e)に対応する。
以上説明したように、本実施形態のジェスチャ制御システム1によれば、ジェスチャ入力の受付窓W内に、ステアリングホイール5を操作する操作者が、ステアリングホイール5から手を離すことなく、手によるジェスチャ入力を行うことにより操作を指示する。ここで、受付窓Wは、スイッチ32の押し下げ(プレスP)によって開始されるので、操作者が操作の指示を意識してジェスチャを行うことができる。したがって、ジェスチャ入力による正確な操作の指示を実現することができる。
また、操作者によるジェスチャ入力は、操作者がステアリングホイール5から手を離さないようにして行うことができるので、ジェスチャ入力時においても車両の安全な操縦性を保持することができる。
次に、本実施形態のジェスチャ制御システム1の変形例について説明する。
(変形例1)
以上では、指示領域50を移動させる態様について言及しなかったが、手の位置に応じて、指示領域50の位置を移動させるようにしてもよい。
例えば図18は、操作者が左手をステアリングホイール5に沿って移動させるのに応じて、指示領域50を移動させる態様を例示している。図18では、操作者は、左手の親指TMを立てた状態で左手をステアリングホイール5に沿って動かし、それに応じて指示領域50もステアリングホイール5に沿って移動するように、CPU11によって処理する。これにより、車両走行の安全性が一層確保される。
(変形例2)
上述したジェスチャ入力のパターンは、ジェスチャ入力を互いに認識できるものであればよく、他の種々の代替のパターンによっても実施することができる。図19は、種々
のジェスチャパターンを例示している。図19において、(a)はサブ指示領域53内での親指TMによるジェスチャパターン、(b)はサブ指示領域52内での親指TMによるジェスチャパターン、(c)はサブ指示領域52内での人差し指FFによるジェスチャパターン、(d)はサブ指示領域51内での人差し指FFによるジェスチャパターン、(e)はサブ指示領域51内での親指TMによるジェスチャパターン、(f)はサブ指示領域51内での4本の指、すなわち、人差し指FF、中指MF、薬指TF、小指LFによるジェスチャとサブ指示領域53内での親指TMによるジェスチャとの組み合わせからなるジェスチャパターンを示している。種々のジェスチャパターンを組み合わせ用いることによって、操作者によるジェスチャ操作の利便性を向上させることができる。
(変形例3)
上述したスイッチ32を配置する箇所に応じて、ジェスチャを右手または左手のいずれで行うようにしてもよい。図20(a)および(b)において、スイッチ32をステアリングホイール5の右側に配置することにより、右手による操作を行う態様を例示している。図20(c)および(d)において、スイッチ32をステアリングホイール5の左側に配置することにより、左手による操作を行う態様を例示している。
(変形例4)
上述した指示領域50は、手の大きさに応じて、その領域の大きさを変更するようにしてもよい。例えば、図21(b)は、図21(a)に示した指示領域50(3つのサブ指示領域51〜53を含む。)よりも大きい指示領域50A(3つのサブ指示領域51A,52Aおよび53Aを含む。)を設定した例を示している。この例において、CPU11は、操作者の手の大きさを測定し、その結果に基づいて指示領域50の大きさを定める。これにより、操作者に合った適切なサイズを持つ指示領域50を設定してジェスチャ入力を認識することができる。
(変形例5)
上述した指示領域50の分割数は、操作対象によって操作の指示が多岐に亘る場合もあることを考慮して、増減することもできる。例えば、操作対象としてのカーナビゲーション装置4を別の操作対象(例えば、車内空調システムなど)に切り替えたときに、分割数を変更可能にしてもよい。例えば、図22は、指示領域の分割数を3から4に変化させる例を示す。図22(a)では、3分割されたサブ指示領域51〜53を含む指示領域50が設定されているが、図22(b)では、4分割されたサブ指示領域61〜64を含む指示領域が設定されている。
(変形例6)
上述した指示領域の分割数は、操作対象に応じて、自在に変更することができ、図示した例のみに限定されないことはもちろんである。図23は、指示領域の分割例を変更する例を示す図であって、(a)は分割数が零、すなわち1つの指示領域50のみの態様、(b)は2つのサブ指示領域51と52の態様、(c)は4つのサブ指示領域61〜64の態様を示す。
(変形例7)
上述したスイッチ32の個数および配置は図2の例にのみ限定されるものではなく、変更することができる。図24は、スイッチ32の配置の他の例を示す図であって、図24(a)はスイッチ32が2つの場合の配置例を示し、図24(b)は1つのスイッチ32をステアリングホイール5の左側に配置した例を示す。
(変形例8)
上述したスイッチ32は、プレスまたはリリースが検出可能であればよく、図2に示した例に限られない。例えば後付けタイプのハードウェアスイッチ、または静電容量式スイッチなどでもよい。図25は、このようなスイッチ32Aをステアリングホイール5に取り付けた例を示す。
(変形例9)
あるいはまた、上述したスイッチ32に代えて、図26に示すように、コラムスイッチ51をスイッチ32として機能させることもできる。図26(a)では、コラムスイッチ51を回転して、「オン」状態をスイッチ32の「プレス」状態とし、「オフ」状態をスイッチ31の「リリース」状態とする。図26(b)では、コラムスイッチ51を矢印51aの方向にプッシュしたときの「オン」状態をスイッチ32の「プレス」状態とし、矢印51bの方向にプルしたときの「オフ」状態をスイッチ32の「リリース」状態とする。
図26(c)では、コラムスイッチ51にタッチしたときの接触状態をスイッチ32の「プレス」状態とするとともに、コラムスイッチ51からリリースしたときの非接触状態をスイッチ32の「リリース」状態とする。図26(d)では、コラムスイッチ51をプレスしたときの状態をスイッチ32の「プレス」状態とし、コラムスイッチ51からリリースしたときの状態をスイッチ32の「リリース」状態とする。
(変形例10)
上述したセンサ31は、操作者の手およびステアリングホイール5を少なくとも撮像可能であればよいので、車内の適宜な位置に配置することができる。例えば、図27は、センサ31の種々の取付け例を示す。図27では、センサ31をインスツルメンタルパネル6に配置した態様(図27(a))、コラムカバー9に配置した態様(図27(b))、ダッシュボード10に配置した態様(図27(c))、車の天井50に配置した態様(図27(d))、およびマップランプ51に配置した態様(図27(e))を示す。
(変形例11)
以上では、ジェスチャによる操作の指示として、曲の切替えや早送り、地図の縮小・拡大を例にとって説明したが、他の種々の操作対象の操作を指示する場合にも適用することができる。例えば、図28は、操作対象71として地図スケールなどが挙げられ、その地図の広域/詳細などの操作の指示のための指示項目72を対応して示したリスト70である。
図29は、操作対象81としてエンジンなどが挙げられ、そのエンジンのオン/オフなどの操作の指示のための指示項目82を対応して示したリスト80である。
図30は、操作対象91としてカメラ映像などが挙げられ、そのバックカメラ映像/パノラマ映像の切替えなどの操作の指示のための指示項目92を対応して示したリスト90である。
(変形例12)
以上では、ジェスチャ操作システム1が自動車などの車両に搭載されている場合について説明してきたが、例えば船舶などの移動体にジェスチャ制御システム1を搭載して、移動体の車載装置や操縦に関連する選択操作をジェスチャによって行うようにしてもよく、移動体の種類は車両のみに限定されない。
加えて、上記各変形例は、上記実施形態のジェスチャ制御システム1と組み合わせて実施することができる。
1 ジェスチャ操作システム
4 ナビゲーション装置(操作対象の一例)
5 ステアリングホイール
6 インスツルメンタルパネル(計器盤パネル)
7 ヘッドアップディスプレイ(HUD)
8 フロントガラス
10 照合テーブル
11 CPU
12 ROM
13 RAM
31 センサ
32 スイッチ
33 表示部
34 スピーカ
41 ナビゲーション処理部
50 指示領域
51〜53 サブ指示領域
100 記億部
200 指示領域設定部
300 受付窓生成部
400 ジェスチャ入力認識部
500 操作指示部
600 操作対象

Claims (30)

  1. 移動体の操舵装置および該操舵装置を操作する操作者の手を撮像する撮像部と、
    前記撮像部によって撮像された操舵装置および操作者の手の撮像データに基づいて、前記操舵装置に関連して前記操作者の手による、前記移動体に関連する予め定めた操作対象に対する予め定めた操作についてのジェスチャ入力の指示を受け付けることのできる指示領域を生成し、当該生成された指示領域を前記操舵装置および前記操作者の手との関係に応じて配置し、および前記指示領域を予め定めた少なくともひとつのサブ指示領域に割り当てる指示領域設定部と、
    前記操作者の手によるジェスチャ入力の受付を許可するための受付窓を開いてジェスチャ入力の受付を許可し、予め定めた操作パターンに応じて、該受付窓を閉じてジェスチャ入力のそれ以降の受付を禁止する受付窓を生成する受付窓生成部と、
    前記受付窓が開かれ、前記ジェスチャ入力の受付が許可されている状態において、前記撮像部からの撮像データを受付けて、前記サブ指示領域における前記手によるジェスチャ入力を認識する認識部と、
    前記ジェスチャ入力と予め定められた操作対象に対する予め定められた操作についての指示内容との対応を格納したテーブルと、
    前記テーブルを照合して前記認識されたジェスチャ入力に対応する指示内容を特定する操作指示部と、
    を備え、受け付けられたジェスチャ入力の指示内容により、前記予め定められた操作対象に対する予め定められた操作を行うようにすることを特徴とするジェスチャ操作システム。
  2. 前記認識部により認識されたジェスチャ入力の指示内容が意図された操作の指示であったか否かを判断する認識判断部をさらに備えたことを特徴とする請求項1に記載のジェスチャ操作システム。
  3. 前記受付窓生成部は操作者が付勢および消勢することのできるスイッチを有し、該スイッチの付勢により前記受付窓を開き、および前記スイッチの消勢により前記受付窓を閉じることを特徴とする請求項1または2に記載のジェスチャ操作システム。
  4. 前記受付窓生成部は操作者が付勢および消勢することのできるスイッチを有し、該スイッチの付勢およびその付勢に引き続く消勢に応答して前記受付窓を開き、および前記スイッチが前記付勢に引き続く消勢から予め定めた時間が経過した時に、前記受付窓を閉じることを特徴とする請求項1または2に記載のジェスチャ操作システム。
  5. 前記受付窓生成部は操作者が付勢および消勢することのできるスイッチを有し、該スイッチの付勢およびその付勢に引き続く消勢に応答して前記受付窓を開き、および前記スイッチが再び付勢され、およびその付勢に引き続く消勢がなされた時に、前記受付窓を閉じることを特徴とする請求項1または2に記載のジェスチャ操作システム。
  6. 前記指示領域を複数のサブ指示領域に分割したことを特徴とする請求項1ないし5のいずれかに記載のジェスチャ操作システム。
  7. 前記サブ指示領域の個数を、前記予め定めた操作対象に対応して定めたことを特徴とする請求項1ないし6のいずれかに記載のジェスチャ操作システム。
  8. 前記指示領域を、前記操作者の手と前記操舵装置との関係に応じて定めることを特徴とする請求項1ないし7のいずれかに記載のジェスチャ操作システム。
  9. 前記受付窓が開かれている状態において、前記操作者が前記操舵装置を操作している際に、前記指示領域を、前記操作者の手と前記操舵装置との関係に追随して定めることを特徴とする請求項8に記載のジェスチャ操作システム。
  10. 前記認識判断部によりジェスチャ入力の指示内容が意図された操作の指示であったか否かが判断されたときに、その判断結果を出力する出力部をさらに備えたことを特徴とする請求項2ないし9のいずれかに記載のジェスチャ操作システム。
  11. 移動体の操舵装置および該操舵装置を操作する操作者の手を撮像する撮像部と、
    前記操作者の手によるジェスチャ入力の受付の許可を開始して受付窓を生成するためのスイッチと、
    前記ジェスチャ入力と予め定められた所定の操作対象に対する所定の操作についての指示内容との対応を格納したテーブルとを備えたジェスチャ操作システムにおいて、前記操作者の手によるジェスチャ入力に応じて、予め定めた操作対象に対する予め定めた操作を行うように指示する、ジェスチャによる操作を行うにあたり、
    前記撮像部によって撮像された操舵装置および操作者の手の撮像データに基づいて、前記操舵装置に関連して前記操作者の手による、前記移動体に関連する予め定めた操作対象に対する予め定めた操作についてのジェスチャ入力の指示を受け付けることのできる指示領域を生成し、当該生成された指示領域を前記操舵装置および前記操作者の手との関係に応じて配置し、および前記指示領域を予め定めた少なくともひとつのサブ指示領域に割り当てる指示領域設定ステップと、
    前記スイッチの動作に応答して、前記操作者の手によるジェスチャ入力の受付を許可するための受付窓を開いてジェスチャ入力の受付を許可し、予め定めた操作パターンに応じて、該受付窓を閉じてジェスチャ入力のそれ以降の受付を禁止する受付窓を生成するステップと、
    前記受付窓が開かれ、前記ジェスチャ入力の受付が許可されている状態において、前記撮像部からの撮像データを受付けて、前記サブ指示領域における前記手によるジェスチャ入力を認識する認識ステップと、
    前記テーブルを照合して前記認識ステップにおいて認識されたジェスチャ入力に対応する指示内容を特定する操作指示ステップと、
    を備え、受け付けられたジェスチャ入力の指示内容により、前記予め定められた操作対象に対する予め定められた操作を行うことを特徴とするジェスチャ操作方法。
  12. 前記認識ステップにより認識されたジェスチャ入力の指示内容が意図された操作の指示であったか否かを判断する認識判断ステップをさらに備えたことを特徴とする請求項11に記載のジェスチャ操作方法。
  13. 前記受付窓生成ステップにおいて、前記スイッチの付勢により前記受付窓を開き、および前記スイッチの消勢により前記受付窓を閉じることを特徴とする請求項11または12に記載のジェスチャ操作方法。
  14. 前記受付窓生成ステップにおいて、前記スイッチの付勢およびその付勢に引き続く消勢に応答して前記受付窓を開き、および前記スイッチが前記付勢に引き続く消勢から予め定めた時間が経過した時に、前記受付窓を閉じることを特徴とする請求項11または12に記載のジェスチャ操作方法。
  15. 前記受付窓生成ステップにおいて、前記スイッチの付勢およびその付勢に引き続く消勢に応答して前記受付窓を開き、および前記スイッチが再び付勢され、およびその付勢に引き続く消勢がなされた時に、前記受付窓を閉じることを特徴とする請求項11または12に記載のジェスチャ操作方法。
  16. 前記指示領域を複数のサブ指示領域に分割したことを特徴とする請求項11ないし15のいずれかに記載のジェスチャ操作方法。
  17. 前記サブ指示領域の個数を、前記予め定めた操作対象に対応して定めたことを特徴とする請求項11ないし16のいずれかに記載のジェスチャ操作方法。
  18. 前記指示領域を、前記操作者の手と前記操舵装置との関係に応じて定めることを特徴とする請求項11ないし17のいずれかに記載のジェスチャ操作方法。
  19. 前記受付窓が開かれている状態において、前記操作者が前記操舵装置を操作している際に、前記指示領域を、前記操作者の手と前記操舵装置との関係に追随して定めることを特徴とする請求項18に記載のジェスチャ操作方法。
  20. 前記認識判断ステップによりジェスチャ入力の指示内容が意図された操作の指示であったか否かが判断されたときに、その判断結果を出力するステップをさらに備えたことを特徴とする請求項12ないし19のいずれかに記載のジェスチャ操作方法。
  21. 移動体の操舵装置および該操舵装置を操作する操作者の手を撮像する撮像部と、
    前記操作者の手によるジェスチャ入力の受付の許可を開始して受付窓を生成するためのスイッチと、
    前記ジェスチャ入力と予め定められた所定の操作対象に対する所定の操作についての指示内容との対応を格納したテーブルとを備えたジェスチャ操作システムにおいて用いられ、前記操作者の手によるジェスチャ入力に応じて、予め定めた操作対象に対する予め定めた操作を行うように指示するための、ジェスチャ操作プログラムにおいて、
    前記撮像部によって撮像された操舵装置および操作者の手の撮像データに基づいて、前記操舵装置に関連して前記操作者の手による、前記移動体に関連する予め定めた操作対象に対する予め定めた操作についてのジェスチャ入力の指示を受け付けることのできる指示領域を生成し、当該生成された指示領域を前記操舵装置および前記操作者の手との関係に応じて配置し、および前記指示領域を予め定めた少なくともひとつのサブ指示領域に割り当てる指示領域設定ステップと、
    前記スイッチの動作に応答して、前記操作者の手によるジェスチャ入力の受付を許可するための受付窓を開いてジェスチャ入力の受付を許可し、予め定めた操作パターンに応じて、該受付窓を閉じてジェスチャ入力のそれ以降の受付を禁止する受付窓を生成するステップと、
    前記受付窓が開かれ、前記ジェスチャ入力の受付が許可されている状態において、前記撮像部からの撮像データを受付けて、前記サブ指示領域における前記手によるジェスチャ入力を認識する認識ステップと、
    前記テーブルを照合して前記認識ステップにおいて認識されたジェスチャ入力に対応する指示内容を特定する操作指示ステップと、
    を備え、受け付けられたジェスチャ入力の指示内容により、前記予め定められた操作対象に対する予め定められた操作を行うことを特徴とするジェスチャ操作プログラム。
  22. 前記認識ステップにより認識されたジェスチャ入力の指示内容が意図された操作の指示であったか否かを判断する認識判断ステップをさらに備えたことを特徴とする請求項21に記載のジェスチャ操作プログラム。
  23. 前記受付窓生成ステップにおいて、前記スイッチの付勢により前記受付窓を開き、および前記スイッチの消勢により前記受付窓を閉じることを特徴とする請求項21または22に記載のジェスチャ操作プログラム。
  24. 前記受付窓生成ステップにおいて、前記スイッチの付勢およびその付勢に引き続く消勢に応答して前記受付窓を開き、および前記スイッチが前記付勢に引き続く消勢から予め定めた時間が経過した時に、前記受付窓を閉じることを特徴とする請求項21または22に記載のジェスチャ操作プログラム。
  25. 前記受付窓生成ステップにおいて、前記スイッチの付勢およびその付勢に引き続く消勢に応答して前記受付窓を開き、および前記スイッチが再び付勢され、およびその付勢に引き続く消勢がなされた時に、前記受付窓を閉じることを特徴とする請求項21または22に記載のジェスチャ操作プログラム。
  26. 前記指示領域を複数のサブ指示領域に分割したことを特徴とする請求項21ないし25のいずれかに記載のジェスチャ操作プログラム。
  27. 前記サブ指示領域の個数を、前記予め定めた操作対象に対応して定めたことを特徴とする請求項21ないし26のいずれかに記載のジェスチャ操作プログラム。
  28. 前記指示領域を、前記操作者の手と前記操舵装置との関係に応じて定めることを特徴とする請求項21ないし27のいずれかに記載のジェスチャ操作プログラム。
  29. 前記受付窓が開かれている状態において、前記操作者が前記操舵装置を操作している際に、前記指示領域を、前記操作者の手と前記操舵装置との関係に追随して定めることを特徴とする請求項28に記載のジェスチャ操作プログラム。
  30. 前記認識判断ステップによりジェスチャ入力の指示内容が意図された操作の指示であったか否かが判断されたときに、その判断結果を出力するステップをさらに備えたことを特徴とする請求項22ないし29のいずれかに記載のジェスチャ操作プログラム。
JP2015146956A 2015-07-24 2015-07-24 ジェスチャ操作システム、方法およびプログラム Pending JP2017027456A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015146956A JP2017027456A (ja) 2015-07-24 2015-07-24 ジェスチャ操作システム、方法およびプログラム
PCT/JP2016/003418 WO2017017938A1 (ja) 2015-07-24 2016-07-21 ジェスチャ操作システム、方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015146956A JP2017027456A (ja) 2015-07-24 2015-07-24 ジェスチャ操作システム、方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2017027456A true JP2017027456A (ja) 2017-02-02

Family

ID=57884234

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015146956A Pending JP2017027456A (ja) 2015-07-24 2015-07-24 ジェスチャ操作システム、方法およびプログラム

Country Status (2)

Country Link
JP (1) JP2017027456A (ja)
WO (1) WO2017017938A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022519411A (ja) * 2019-12-23 2022-03-24 商▲湯▼国▲際▼私人有限公司 ジェスチャー認識方法および装置、電子デバイス、並びに記録媒体

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5029470B2 (ja) * 2008-04-09 2012-09-19 株式会社デンソー プロンプター式操作装置
JP2014032502A (ja) * 2012-08-02 2014-02-20 Alpine Electronics Inc 操作入力装置、それを用いた車載機器及び操作入力処理方法
WO2014151054A2 (en) * 2013-03-15 2014-09-25 Honda Motor Co., Ltd. Systems and methods for vehicle user interface
JP5750687B2 (ja) * 2013-06-07 2015-07-22 島根県 カーナビ用ジェスチャ入力装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022519411A (ja) * 2019-12-23 2022-03-24 商▲湯▼国▲際▼私人有限公司 ジェスチャー認識方法および装置、電子デバイス、並びに記録媒体

Also Published As

Publication number Publication date
WO2017017938A1 (ja) 2017-02-02

Similar Documents

Publication Publication Date Title
US10466800B2 (en) Vehicle information processing device
JP5957745B1 (ja) 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム及び自動運転車両
EP3395600B1 (en) In-vehicle device
WO2017022198A1 (ja) 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム及び自動運転車両
US20130204457A1 (en) Interacting with vehicle controls through gesture recognition
JP6393537B2 (ja) 車両用装置、車両制御システム、車両制御方法
JP6515028B2 (ja) 車両用操作装置
JP2018163112A (ja) 自動駐車制御方法およびそれを利用した自動駐車制御装置、プログラム
WO2018163457A1 (ja) 運転モード切替制御装置、方法およびプログラム
US11023786B2 (en) Device control apparatus
WO2018061603A1 (ja) ジェスチャ操作システム、ジェスチャ操作方法およびプログラム
US20210072831A1 (en) Systems and methods for gaze to confirm gesture commands in a vehicle
CN111204219A (zh) 车辆用显示装置、车辆用显示方法及存储介质
JP2017090614A (ja) 音声認識制御システム
KR20200093091A (ko) 단말기, 그를 가지는 차량 및 그 제어 방법
US20190258247A1 (en) Remote vehicle control device, remote vehicle control system, and remote vehicle control method
JP4683123B2 (ja) 行動推定装置、プログラム
JP4613999B2 (ja) 行動推定装置、プログラム
WO2017017938A1 (ja) ジェスチャ操作システム、方法およびプログラム
JP2018158701A (ja) 自動駐車制御方法およびそれを利用した自動駐車制御装置、プログラム
KR20130076214A (ko) 운전자의 포인팅 제스처를 이용한 차량 구동 장치 및 그 방법
JP2018190275A (ja) 車両用操作装置
WO2023153314A1 (ja) 車内機器制御装置、車内機器制御方法
US20230278575A1 (en) Control device, control method, and computer-readable recording medium
JP2017033539A (ja) 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム及び自動運転車両