JP7295046B2 - 装置操作システムおよび装置制御方法 - Google Patents

装置操作システムおよび装置制御方法 Download PDF

Info

Publication number
JP7295046B2
JP7295046B2 JP2020005275A JP2020005275A JP7295046B2 JP 7295046 B2 JP7295046 B2 JP 7295046B2 JP 2020005275 A JP2020005275 A JP 2020005275A JP 2020005275 A JP2020005275 A JP 2020005275A JP 7295046 B2 JP7295046 B2 JP 7295046B2
Authority
JP
Japan
Prior art keywords
gesture
unit
movement
instruction
window
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020005275A
Other languages
English (en)
Other versions
JP2020118024A (ja
Inventor
敏昭 塩谷
知之 岩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsuba Corp
Original Assignee
Mitsuba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsuba Corp filed Critical Mitsuba Corp
Publication of JP2020118024A publication Critical patent/JP2020118024A/ja
Application granted granted Critical
Publication of JP7295046B2 publication Critical patent/JP7295046B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

特許法第30条第2項適用 平成30年(2018年)5月23日~25日にパシフィコ横浜(神奈川県横浜市西区みなとみらい1-1-1)で開催された自動車技術展「人とくるまのテクノロジー展」で発表
本発明は、装置操作者のジェスチャ動作(身振り、手振り等の身体の動き)により当該装置のスイッチ操作が可能な装置操作システムに関し、特に、自動車等の車両における窓ガラスの開閉等に適用して有効な技術に関する。
通常、自動車側部の窓(ドアウインド)は開閉できるようになっており、昨今の自動車では、ドアウインドを自動で開閉するパワーウインド装置を備えたものが一般的となっている。このパワーウインド装置は、ドアパネル内に収容された電動モータ(以下、モータと略記する)を駆動源としており、運転者や同乗者によるスイッチ操作によりモータが作動し窓の開閉が行われる。この場合、窓の開閉動作は、ドアパネルやセンターコンソール等に取り付けられた開閉スイッチの操作によって行われるが、ドアパネルに配したスイッチによるものが主流となっている。
実開平6-51462号公報
ところが、パワーウインドの開閉スイッチは、その取り付け位置や形状、操作方法がメーカーや車種によって異なる場合が多い。このため、慣れてない車や、夜間でスイッチが見えにくいときなどは、スイッチがどこにあるかわからず、思うように窓の開閉ができない場合があった。特に、レンタカーやカーシェアリングが普及した今日では、特定の車両以外を運転する機会が増えており、ユーザが車種によって異なるスイッチを探したり、その操作に手間取ってしまったりするという問題があった。さらに、ロック機能等、スイッチが複数設けられている場合などは、開閉スイッチを見つけること自体が難しくなってしまうことも多かった。
本発明の目的は、スイッチの位置や形状等が分からなくても、スイッチに触れることなく、窓の開閉操作等が可能な装置操作システムおよび装置制御方法を提供することにある。
本発明の装置操作システムは、装置使用者によるスイッチ操作に基づいて作動する被作動装置の操作システムであって、前記被作動装置を作動させるための駆動部と、前記装置使用者のジェスチャを撮影する撮影部と、前記撮影部にて撮影された画像データを解析し、該ジェスチャによる前記装置使用者の指示を認識するジェスチャ認識部と、前記ジェスチャ認識部における認識結果に基づき、前記装置使用者の指示に従って前記駆動部の動作を制御する制御部と、を有し、前記ジェスチャ認識部は、前記画像データから、複数個の特徴点を選び出す特徴点抽出部と、前記各特徴点に付随する特徴ベクトルを算出する特徴ベクトル算出部と、撮影時点を異にする複数の前記画像データの前記特徴ベクトルを比較し、前記特徴ベクトルが近似する前記特徴点を検出し、該特徴点の時間的な動きを把握する特徴ベクトルトラッキング部と、前記特徴ベクトルトラッキング部にて把握した前記特徴点の動きを該特徴点の動きベクトルとして算出する動きベクトル算出部と、複数の前記動きベクトルから、前記動きベクトルの時間的な変化を示す時系列データを作成する動きベクトル処理部と、前記動きベクトル処理部にて得られた前記時系列データを所定の判別閾値を用いて解析する動きベクトル解析部と、前記動きベクトル解析部の解析結果に基づいて、前記装置使用者のジェスチャによる指示を判別するジェスチャ判別部と、を有することを特徴とする
本発明にあっては、カメラ等の撮影部によって装置使用者のジェスチャ(例えば、手の動きなどの身体の動作)を撮影し、ジェスチャ認識部により、撮影された画像データを解析して、該ジェスチャによる装置使用者の指示を認識する。そして、ジェスチャ認識部における認識結果に基づき、装置使用者の指示に従って被作動装置の駆動部の動作を制御する。これにより、装置使用者のジェスチャにより、ドアウインドなどの被作動装置のスイッチ操作をスイッチに触れることなく行うことができる。したがって、スイッチの位置や形状等が分からなくても、装置使用者の意思通りに被作動装置の操作を行うことが可能となる。
前記装置操作システムにおいて、前記ジェスチャは前記装置使用者の身体(例えば、手)の動きであり、前記装置使用者は前記身体の動きにより前記被作動装置の動作を指示し、前記撮影部は、前記装置使用者の前記身体の動きを撮影し、前記ジェスチャ認識部は、前記身体の動きから前記装置使用者の指示を認識し、前記制御部は、前記装置使用者の前記身体の動きによる指示に基づいて前記駆動部の動作を制御するようにしても良い。また、前記制御部は、前記ジェスチャの運動方向に基づいて、前記被作動装置の動作形態を制御するようにしても良い。
この場合、前記動きベクトル解析部は、前記時系列データのそれぞれについてFFT解析を行い、前記動きベクトルの周波数ごとの振幅値を取得し、前記ジェスチャ判別部は、前記振幅値から、周波数の範囲と振幅の大きさについての所定の閾値に基づいて前記装置使用者のジェスチャを検出し、該ジェスチャによる前記装置使用者の指示を判別するようにしてもよい。また、前記動きベクトル解析部は、前記時系列データのそれぞれについてFFT解析を行い、前記ジェスチャ判別部は、最大振幅となる周波数の位相差に基づいて前記装置使用者のジェスチャを検出し、該ジェスチャによる前記装置使用者の指示を判別するようにしても良い。
さらに、前記被作動装置が自動車のパワーウインド装置であっても良く、この場合、前記撮影部は、前記自動車の乗員によるジェスチャを撮影し、前記ジェスチャ認識部は、前記乗員のジェスチャから前記乗員からの窓の開閉についての指示を認識し、前記制御部は、前記乗員の前記ジェスチャによる窓の開閉指示に基づいて前記駆動部の動作を制御し、前記窓の開閉を行う。また、前記ジェスチャが前記乗員の手の動きであっても良く、前記乗員は前記手の動きにより前記自動車の窓の開閉動作を指示し、前記撮影部は、前記装置使用者の前記手の動きを撮影し、前記ジェスチャ認識部は、前記手の動きから前記乗員による前記窓の開閉についての指示を認識し、前記制御部は、前記乗員の前記手の運動方向により、前記窓の開閉動作を制御する。さらに、前記制御部により、前記乗員の手が第1の方向に回転運動したときは前記窓を開放するよう前記駆動部を作動させ、前記乗員の手が第2の方向に回転運動したときは前記窓を閉鎖するよう前記駆動部を作動させるようにしても良い。
一方、本発明による装置制御方法は、装置使用者によるスイッチ操作に基づいて作動する被作動装置の制御方法であって、前記装置使用者のジェスチャを撮影し、撮影された画像データから、複数個の特徴点を選び出し、前記各特徴点に付随する特徴ベクトルを算出し、撮影時点を異にする複数の前記画像データの前記特徴ベクトルを比較し、前記特徴ベクトルが近似する前記特徴点を検出し、該特徴点の時間的な動きを把握し、前記特徴点の動きを該特徴点の動きベクトルとして算出し、複数の前記動きベクトルから、前記動きベクトルの時間的な変化を示す時系列データを作成し、前記時系列データを所定の判別閾値を用いて解析し、前記時系列データの解析結果に基づいて、前記装置使用者のジェスチャによる指示を判別することにより、該ジェスチャによる前記装置使用者の指示を認識し、前記ジェスチャの認識結果に基づき、前記装置使用者の指示に従って前記被作動装置を動作させることを特徴とする。
本発明にあっては、装置使用者のジェスチャを撮影し、撮影された画像データを解析して、該ジェスチャによる装置使用者の指示を認識する。そして、ジェスチャの認識結果に基づき、装置使用者の指示に従って被作動装置を動作させる。これにより、装置使用者のジェスチャ(例えば、手の動きなど)により、ドアウインドなどの被作動装置のスイッチ操作をスイッチに触れることなく行うことができる。したがって、スイッチの位置や形状等が分からなくても、装置使用者の意思通りに被作動装置の操作を行うことが可能となる。
前記装置制御方法において、前記ジェスチャが前記装置使用者の手の動きであっても良く、この場合、前記装置使用者は前記手の動きにより前記被作動装置の動作を指示し、前記手の動きを撮影した画像データを解析することにより、前記手の動きから前記装置使用者の指示を認識し、前記手の動きから認識された前記装置使用者の指示に基づいて、前記被作動装置を動作させる。
この場合、前記時系列データのそれぞれについてFFT解析を行い、前記動きベクトルの周波数ごとの振幅値を取得し、前記振幅値から、周波数の範囲と振幅の大きさについての所定の閾値に基づいて前記装置使用者のジェスチャを検出し、該ジェスチャによる前記装置使用者の指示を判別するようにしても良い。また、前記時系列データのそれぞれについてFFT解析を行い、最大振幅となる周波数の位相差に基づいて前記装置使用者のジェスチャを検出し、該ジェスチャによる前記装置使用者の指示を判別するようにしても良い。
さらに、前記被作動装置が自動車のパワーウインド装置であり、前記ジェスチャが前記自動車の乗員の手の動きであっても良く、この場合、前記乗員は手の動きにより前記自動車の窓の開閉動作を指示し、前記乗員の手の動きを撮影した画像データを解析することにより、前記手の動きから前記乗員の指示を認識し、前記手の動きから認識された前記乗員の指示に基づいて、前記パワーウインド装置を動作させ、前記窓の開閉を行う。
本発明の装置操作システムによれば、装置使用者によるスイッチ操作に基づいて作動する被作動装置の操作システムにおいて、装置使用者のジェスチャを撮影する撮影部と、撮影部にて撮影された画像データを解析し、該ジェスチャによる装置使用者の指示を認識するジェスチャ認識部と、ジェスチャ認識部における認識結果に基づき、装置使用者の指示に従って被作動装置の駆動部の動作を制御する制御部と、を設けたので、装置使用者のジェスチャにより、被作動装置のスイッチ操作をスイッチに触れることなく行うことができる。したがって、スイッチの位置や形状等が分からなくても、装置使用者の意思通りに被作動装置の操作を行うことが可能となる。
本発明の装置制御方法によれば、装置使用者によるスイッチ操作に基づいて作動する被作動装置における装置制御方法において、装置使用者のジェスチャを撮影し、撮影された画像データを解析することにより、該ジェスチャによる装置使用者の指示を認識し、このジェスチャの認識結果に基づき、装置使用者の指示に従って被作動装置を動作させるようにしたので、装置使用者のジェスチャにより、被作動装置のスイッチ操作をスイッチに触れることなく行うことができる。したがって、スイッチの位置や形状等が分からなくても、装置使用者の意思通りに被作動装置の操作を行うことが可能となる。
本発明の実施の形態1である装置操作システムを用いたパワーウインド装置の構成を示す説明図である。 本発明の実施の形態1である装置操作システムの構成を示すブロック図である。 カメラの設置位置の一例を示す説明図である。 ジェスチャ認識装置の構成を示すブロック図である。 ジェスチャ認識装置における解析処理の流れを示す説明図である。 図5の処理における解析データの流れを示すデータフローダイアグラムである。 特徴点の抽出処理を示す説明図である。 特徴点とそのトラッキング処理に関する説明図である。 動きベクトルの時系列データ(図9(b))をFFT解析した結果(同(a))の一例を示す説明図である。 本発明の実施の形態2である装置操作システムの構成を示すブロック図である。 ジェスチャ停止認識装置の構成を示すブロック図である。 ジェスチャ停止認識装置における特徴点のトラッキング処理およびその後のジェスチャ停止判定に関する説明図である。 図10の装置操作システムにおけるジェスチャ判定装置における解析処理の流れを示す説明図である。 カメラの設置位置の他の一例を示す説明図である。
(実施の形態1)
以下、本発明の実施の形態を図面に基づいて詳細に説明する。図1は、本発明の実施の形態1である装置操作システムを用いたパワーウインド装置(被作動装置)の構成を示す説明図であり、本発明の方法も図1のパワーウインド装置にて実施される。図1のパワーウインド装置1は、自動車の側面に設けられたドア2の窓(ドアウインド)3を開閉するための装置であり、窓開閉用のモータ(駆動部)4によって駆動される。なお、以下の記載では、運転席側のドアウインドを例に取って説明するが、助手席側の窓や後部座席の窓にも当該システムは適用可能である。
パワーウインド装置1では、ドアウインド3とモータ4の間にXアーム式のウインドレギュレータ5が配されており、モータ4を作動させると、ウインドレギュレータ5によりドアウインド3が昇降し、窓開口部6が開閉される。この場合、ドアウインド3の動作は、通常の自動車と同様に、ドアパネル7に配したパワーウインド開閉スイッチ8によって操作可能であるが、当該パワーウインド装置1では、乗員(ユーザ:装置使用者)のジェスチャ動作(手の動きなどの身体の動作)によりドアウインド3を開閉できるようになっている。ここでは、車内の乗員が車両前方方向を見たとき左側に位置するドアの場合、ユーザが、指で左周り(反時計回り)に円を描いた場合はドアウインド3が開き、右周り(時計回り)に円を描いた場合はドアウインド3が閉じるよう設定されている。
図2は、パワーウインド装置1に使用される装置操作システム10(以下、適宜システム10と略記する)の構成を示すブロック図である。前述のように、システム10では、乗員(ここでは運転者)の手の動き(ジェスチャ)によってドアウインド3の動きをコントロールできる。そのために、当該システム10は、図2に示すように、運転者の手の動きを撮影するカメラ(撮影部)11と、カメラ11の映像を用いて運転者のジェスチャを認識・解析するジェスチャ認識装置(ジェスチャ認識部)12とを備えている。ジェスチャ認識装置12における解析結果は、窓の開閉動作に関するユーザの意思を示すユーザ操作データとして窓開閉制御装置(制御部)13に送られる。
一方、パワーウインド装置1には、従来同様、パワーウインド開閉スイッチ8(以下、スイッチ8と略記する)が設けられており、ユーザによるスイッチ操作に基づいて作動する。このスイッチ8の状態(窓開け・窓閉め)も、ユーザ操作データとして窓開閉制御装置13に送られる。窓開閉制御装置13は、ジェスチャ認識装置12あるいはスイッチ8から入力されたユーザ操作データに基づいて、モータ4を作動させ、ドアウインド3を昇降させる。
システム10のカメラ11は、乗員の動作を常時モニタしており、乗員が窓を開閉したい旨のサインを発したときは、そのジェスチャを捉えてジェスチャ認識装置12に送出する。システム10では、カメラ11は、乗員のジェスチャを確実に把握できるように、撮影対象(ここでは乗員の手)がある場所を常時撮影可能な位置に設置され、手から300~500mm程度離れた場所にて、概ね直径600~800mm程度の範囲を撮影できるようになっている。
図3は、カメラの設置位置の一例を示す説明図である。図3に示すように、本実施形態では、カメラ11は、ドア2の前端部(カーオーディオのツイータ等が配される窓開口部6の前方側)に設置されており、乗員の手が存在する可能性の高い、ハンドル9とドア2との間を撮影する。また、カメラ11は、ジェスチャを認識するために必要なフレームレート(30fps~60fps程度)にて撮影を行い、その画像データはジェスチャ認識装置12に送出される。
ジェスチャ認識装置12は、カメラ11からの画像データに基づいて、乗員のジェスチャを認識する。ジェスチャ認識装置12には、カメラ11からは乗員の手の画像データが逐次入力され、入力された画像からトラッキングしやすい「特徴点」と呼ばれる点が抽出される。そして、この特徴点の動きを解析することにより乗員の手の動きを判別し、その動きが意味するユーザの意思をユーザ操作データとして窓開閉制御装置13に送出する。図4は、このような認識・解析処理を行うジェスチャ認識装置12の構成を示すブロック図である。
図4に示すように、ジェスチャ認識装置12には、画像データから「特徴点」を選び出す特徴点抽出部21と、各特徴点に付随する特徴ベクトルを算出する特徴ベクトル算出部22が設けられている。また、特徴ベクトル算出部22の後段には、特徴ベクトルを比較し特徴点の動きを検出する特徴ベクトルトラッキング部23と、特徴ベクトルトラッキング部23にて検出された特徴点の動き(位置の変化)を各特徴点の動きベクトルとして算出する動きベクトル算出部24が設けられている。
さらに、ジェスチャ認識装置12には、動きベクトルの時間的な変化に関する時系列データを算出する動きベクトル処理部25と、動きベクトル処理部25にて得られた時系列データを所定の判別閾値を用いて解析する動きベクトル解析部26、動きベクトル解析部26の解析結果に基づいて乗員のジェスチャの意味(窓開・窓閉)を判別するジェスチャ判別部27が設けられている。なお、ジェスチャ認識装置12には、各特徴点の特徴ベクトルや動きベクトル、動きベクトルの時系列データなどを格納するRAM28と、ジェスチャ認識装置12における各処理に関するプログラムや時系列データの解析処理に用いられる判別閾値等が格納されたROM29も設けられている。
このような装置操作システム10では、次のようにしてユーザのジェスチャを把握してドアウインド3を作動させる。図5は、ジェスチャ認識装置12における解析処理の流れを示す説明図、図6は、ジェスチャ認識装置12における解析データの流れを示すデータフローダイアグラムである。図5に示すように、ジェスチャ認識装置12ではまず、カメラ11から送られて来た画像データから、特徴点抽出部21により「特徴点」Pを抽出する(ステップS1)。特徴点Pは、画像内におけるコントラスト(明暗)差に基づき、画像のエッジ部分やコーナ部分などが、特徴らしさの指標に沿って選別される。その際、特徴らしさの指標として、明暗差などについて所定の選別閾値を、図7に示すように、手の輪郭部分や指先などに特徴点Pが300~500個程度抽出される(図7では、簡単のため代表的な点のみを示す)ように設定する。
特徴点抽出部21にて抽出された特徴点Pには、それぞれに固有の「特徴ベクトル」が付随しており、特徴ベクトル算出部22は各特徴点Pのデータから特徴ベクトルを算出する(ステップS2)。この場合、特徴ベクトルとは、その特徴点の特徴量をベクトルの形で表現したものであり、例えば、文献[JRM Vol.28 No.6 pp. 887-898「Autonomous Mobile Robot Navigation Using Scene Matching with Local Features」]に記載されているような、各特徴点が持つ元々の情報をできるだけ失わないようにしたベクトルである。ここでは、明→暗に変化する方向を基準方向とし、1つの特徴点を4×4の領域に分け、それぞれの領域におけるX,Y方向の明度変化の総和(Σdx,Σdy)と、変化量の絶対値の総和(Σ|dx|,Σ|dy|)をベクトル化しており、各特徴点には4×4×4=64個の特徴ベクトルが存在する。特徴ベクトル算出部22は、各特徴点の64個の特徴ベクトルを算出し、これらはRAM28に格納される(ステップS3)。
特徴ベクトルを算出しそれをRAM28に格納した後、今度は、次にカメラ11から送られて来た画像データについて、特徴点Pの抽出と特徴ベクトルの算出を行い、それをRAM28に格納する(ステップS1→S3)。このようにして撮影時点の異なる複数の画像データについて特徴ベクトルを得た後、特徴ベクトルトラッキング部23にて、前フレームの画像データ(図8(a))と、今フレームの画像データ(図8(b))を比較する。特徴ベクトルトラッキング部23は、前フレームと今フレームの各画像データから抽出された特徴点Pを相互に比較し、最も特徴ベクトルが近似している組を探索し、組み合わせる(トラッキング処理:ステップS4)。この際、前フレーム画像内の特徴点それぞれについて、それらが備える各特徴ベクトルと、今フレーム画像内の全ての特徴点の特徴ベクトルとが比較される。すなわち、図8(c)に示すように、図8(a)の点P1は、図8(b)の全ての特徴点と比較され、このとき、図8(b)の特徴点のうち特徴ベクトルが最も近い点P2が検出され、両者が組み合わされる。これにより、各特徴点Pの時間的な動き(前フレーム→今フレーム)が把握される。特徴ベクトルトラッキング部23は、このようにして時々刻々と画像データの解析を行い、特徴ベクトルのトラッキング処理を実施する。これにより、ユーザのジェスチャが逐次解析され、ジェスチャの認識精度向上が図られる。
前後の画像でトラッキングが成功したときは、組み合わされた特徴点Pは、動きベクトル算出部24により、各組ごとに位置変化が算出され「動きベクトル」(動きベクトル列)が作成される(図8(d):ステップS5)。このようにして得た動きベクトルは、動きベクトル処理部25にて、統計的な処理が行われ、それらの中から、動きの小さいものや、極端に大きいものを、閾値を設けて取り除く。そして、残った動きベクトルの平均を取り、その時点の動きベクトルの代表値とし(ステップS6)、これを平均ベクトルとしてRAM28に逐次蓄積する(ステップS7)。
ステップS6の処理を逐次画像が入力されるごとに実行すると、動きベクトルの時間的な変化が分かる。そこで、動きベクトル処理部25は、RAM28に蓄積された平均ベクトルから、図8(e)に示すような動きベクトル(平均ベクトル)の時間的な変化データ(時系列データ)を作成する。その際、カメラ11が30fpsのフレームレートで撮影を行っている場合には、1秒間の平均ベクトルを集めた場合、30個の平均ベクトルによる時系列データが得られる。
このようにして、動きベクトルの時系列データを作成した後、動きベクトル解析部26にて、所定時間分(例えば、1秒)の時系列データ(図9(b))について周波数解析(例えば、FFT(Fast Fourier Transform:高速フーリエ変換)解析)を行う(ステップS8)。FFT解析により、図9(a)に示すような、時間とサンプル数に応じた周波数ごとの振幅値が得られる。なお、円を描くように手を動かすと、動きベクトルのX成分とY成分が、図9(b)のように、位相が90°ずれた正弦波状になり動きが判別しやすい。このため、当該システム10では、ユーザの指示に円運動のジェスチャ(手回し動作)を採用している。
動きベクトル解析部26による解析の後、ジェスチャ判別部27では、その解析結果から、動きベクトルの振幅の大きさや、周波数の範囲、X成分とY成分の位相差などの各項目について、所定の閾値と比較を行い、ジェスチャ動作の意味(ユーザの意図)を判断する(ステップS9)。この場合、(1)振幅、(2)周波数の範囲、(3)位相差の各項目については、次のような判別閾値が設定されており、ジェスチャ判定はポイント制となっている。ジェスチャ判別部27は、各閾値に設定されたポイントを加算し、それが所定の基準値を超えたとき、ユーザから開・閉のサインが発せられたと判別する。これらの閾値やポイントはROM29に格納されている。
《判別閾値の例》
(1)振幅
・振幅の大きさ第1下限:150[pix/dt]→2pt
・振幅の大きさ第2下限:100[pix/dt]→1pt
(2)周波数範囲
・周波数の下限:0.5[Hz]
・周波数の上限:3.1[Hz]
→上限~下限の範囲に入り、かつX成分とY成分の周波数が同値であれば2pt
→X成分とY成分の周波数が共に上限~下限の範囲に入れば1pt
(3)位相差(X成分とY成分)
・位相差の第1範囲:60-120[deg]→2pt
・位相差の第2範囲:30-150[deg]→1pt
(1)振幅
前記判別閾値では、振幅の大きさは、ユーザの手の動きの範囲に対応しており、手回し動作の場合、X成分とY成分共にピーク値が存在する(手をスライド動作させた場合には、スライド動作方向と異なる成分のピーク値が出にくい)。また、振幅の値は円の直径に相当する。この場合、振幅が100[pix/dt]未満の状態は、ユーザの動きが小さいことを意味しており、ノイズも多くなるため、ユーザのサインはなし、と判断する。振幅の大きさが100~150の場合は、ユーザの手の動きはある程度大きく、円運動の可能性はあるがサインではない可能性もある。一方、150を超えた場合には、サインとしての円運動と判断できる。したがって、評価ポイントして、振幅が100~150の場合は1pt、150を超えた場合は2ptを付与する。
(2)周波数範囲
次に、周波数範囲は、ユーザの手の動きの速さに対応しており、振幅がピーク値を示す周波数が上限以上ではサインとしては動きが早すぎ、下限以下では動きが遅すぎる。このため、上限・下限を外れた場合は、ユーザのサインである可能性が低い。これに対し、上限~下限の範囲に入ればユーザのサインである可能性が高い。そこで、周波数が上限~下限に入った場合は1ptを付与する。また、手回し動作の場合、理想的な円運動であれば、X成分とY成分共に同じ周波数になる可能性が高い。したがって、周波数が上限~下限に入り、かつX成分とY成分で同値となった場合は2ptを付与する。図9(a)では、2Hz付近に振幅のピーク値があり、これは、1秒間に2回転程度の円運動のサインをユーザが発している状態を示している。
(3)位相差
図9(b)に示したX成分とY成分の位相差は、ユーザのサインが完全な円運動であれば90度となる。このため、第1範囲ならば円運動と判断し2pt、第2範囲ならば疑いの余地が残るため1ptとし、それ以外の範囲の場合には円運動ではないと判断しポイントは付与しない。そして、ジェスチャ判別部27は、各項目のポイントを加算し、3要素をどれだけ満たしているかによって判別する。すなわち、5ptを取得した場合は、「ジェスチャあり:円運動」と判断する。一方、5ptに満たない場合は、ジェスチャがあったものの窓開閉を求めるユーザのサインではない、として「操作なし」と判断する。なお、位相差の判定に際しては、位相差算出の容易性から、最大振幅となる周波数(図9(a)では2Hz)の動きベクトルの位相差を用いることが好適である。
ジェスチャ判別部27は、動きベクトルの解析結果から、ユーザの手の動きを円運動と判断した場合には、さらに位相差に基づいて運動方向を判別する。そして、開・閉何れのサインであるかを見極め、ユーザ操作データとして窓開閉制御装置13に送出する。すなわち、ジェスチャ判別部27は、ユーザの手の動きを左回転(第1方向)と判断した場合には、「窓開け」のユーザ操作データを、右回転(第2方向)と判断した場合には、「窓閉め」のユーザ操作データを窓開閉制御装置13に出力する。なお、「操作なし」の場合には、スイッチ8を操作しない場合と同様に、特に信号は出力されない。
このようにして、ジェスチャ認識装置12は、カメラ11にて撮影された画像データを解析してユーザの指示を認識し、ユーザ操作データを出力する。そして、これを受けた窓開閉制御装置13は、ジェスチャ認識装置12の認識結果に基づいてモータ4を駆動する。これにより、ユーザのジェスチャ指示に沿ってドアウインド3が昇降され、窓の開放・閉鎖動作が行われる。
以上のように、本発明の装置操作システム10では、ユーザのジェスチャ(ここでは手の動き)により、ドアウインド3の開閉を自在に行うことができる。具体的には、概ね直径15cm程度の円を描くように指を1周回すことにより、窓の開閉を行うことができる。このため、パワーウインド開閉スイッチの位置や形状等が分からなくても、スイッチに触れることなく、ユーザの意思通りに窓の開閉操作を行うことができる。したがって、レンタカーやカーシェアリングなど、メーカーや車種の異なる自動車を運転する場合でも、一定のジェスチャにて窓の開閉を行うことができ、慣れない車や暗いときでも容易に窓の開閉を行うことができる。また、例えば、助手席で食事をするなどして手が汚れている人でも、窓の開閉操作を行うことができる。
さらに、例えば、手指に障害があるなど、従来の操作スイッチでは操作が困難な人でも、窓の開閉操作を行うことができる。加えて、スイッチ操作が単純かつ簡便なため、ドライバーの注意を削ぐことなく窓の開閉を行うことができ、運転時の安全性向上も図られる。なお、ユーザのジェスチャは手の動きに限定されず、例えば、頭や足、腕など、ユーザの他の部位の身体の動きに応じて機器を作動させることも可能である。その場合、手や足が不自由な人でも各種機器の操作ができるようになることから、本発明の装置操作システムは、福祉機器の操作インターフェースとしても応用可能である。
(実施の形態2)
次に、本発明の実施の形態2として、ユーザが窓を開閉したいサインを発している間だけ窓の開閉を行い、ドアウインドを任意の位置で止められるようにしたシステムについて説明する。図10は、本発明の実施の形態2である装置操作システムの構成を示すブロック図である。なお、実施の形態2では、実施の形態1と同様の部分や部材、処理等については、実施の形態1と同一の番号を付しその説明は省略する。
図10に示すように、実施の形態2の装置操作システム30(以下、適宜システム30と略記する)では、カメラ11と窓開閉制御装置13との間に、ジェスチャ認識装置12とジェスチャ停止認識装置31を備えたジェスチャ判定装置32が設けられている。図11は、ジェスチャ停止認識装置31の構成を示すブロック図であり、ジェスチャ認識装置12におけるジェスチャ判別部27(図4参照)に代えて、ジェスチャ停止動作判別部33が設けられている。なお、ジェスチャ停止認識装置31とジェスチャ認識装置12は、ジェスチャ停止動作判別部33とジェスチャ判別部27を除く部分を共用しており、ジェスチャ判定装置32では、ジェスチャ停止とジェスチャ認識は同時に処理される。
ジェスチャ停止認識装置31は、動きベクトル処理部25によって統計処理された動きベクトルを、動きベクトル解析部26とジェスチャ停止動作判別部33にて解析処理し、ユーザの開閉サインが止まっている(ユーザの手の動きが止まっている)と判別したとき、窓開閉制御装置13に対し操作停止データを出力する。窓開閉制御装置13は、ジェスチャ認識装置12から入力される操作データとジェスチャー停止認識装置31から入力される操作停止データとに基づいて窓の動作を決定し、モータ4に供給する電力を制御し、ドアウインド3を作動あるいは停止させる。
このようなシステム30では、次のようにしてジェスチャの停止が判断される。この場合、システム30においても、実施の形態1のシステム10と同様の処理により、カメラ11の画像データからユーザの手の特徴点Pを抽出してトラッキング処理を行い、動きベクトルを作成する。そして、この動きベクトルを統計処理した後、動きベクトルの絶対値総和を取り、所定の閾値と比較し、総和が閾値未満の場合は開閉サインが止まったと判断する。図12は、その際のジェスチャ停止認識装置31における特徴点とそのトラッキング処理およびその後のジェスチャ停止判定に関する説明図、図13は、ジェスチャ判定装置32における解析処理の流れを示す説明図である。
システム30では、ジェスチャ停止認識装置31もジェスチャ認識装置12と同様に、カメラ11から送られて来た画像データから、特徴点抽出部21により「特徴点」Pを抽出する(ステップS1)。特徴点抽出部21にて特徴点Pを抽出した後、特徴ベクトル算出部22により、各特徴点Pに固有の「特徴ベクトル」を各特徴点Pのデータから算出する(ステップS2)。算出された特徴ベクトルは、RAM28に格納される(ステップS3)。現時点の特徴ベクトルをRAM28に格納した後、次の画像データについて、特徴点Pの抽出と特徴ベクトルの算出を行い、それをRAM28に格納する(ステップS1→S3)。
撮影時点の異なる複数の画像データについて特徴ベクトルを得た後、特徴ベクトルトラッキング部23にて、前フレームの画像データ(図12(a))と、今フレームの画像データ(図12(b))を比較し、図12(c)に示すように、最も特徴ベクトルが近似している組を探索し(例えば、点P1と点P2)、組み合わせる(トラッキング処理:ステップS4)。この際、先の実施の形態1と同様に、全ての特徴点の特徴ベクトルが比較される。これにより、各特徴点Pの時間的な動き(前フレーム→今フレーム)が把握される。特徴ベクトルトラッキング部23は、このようにして時々刻々と画像データの解析を行い、特徴ベクトルのトラッキング処理を実施する。
前後の画像でトラッキングが成功したときは、組み合わされた特徴点Pは、動きベクトル算出部24により、各組ごとに位置変化が算出され「動きベクトル」(動きベクトル列)が作成される(図12(d):ステップS5)。動きベクトルは、動きベクトル処理部25にて、統計的な処理が行われ、それらの中から、動きの小さいものや、極端に大きいものを、閾値を設けて取り除く(ステップS6)。
ジェスチャ停止認識装置31では、このようにして統計処理され残った動きベクトルについて、動きベクトル解析部26にて、各ベクトルのX成分とY成分を求め、両者の総和(絶対値の和ΣV=Σ|dX|+Σ|dY|)を求める(図12(e):ステップS11)。これにより、ユーザの手の動きの大きさが数値として把握される。そして、ジェスチャ停止動作判別部33により、この総和ΣVを所定の閾値Thと比較し(図12(f):ステップS12)、総和ΣVが閾値Th未満の場合(ΣV<Th)、ユーザのジェスチャが止まっている、すなわち、ユーザの開閉サインが止まったと判断し、操作停止データを窓開閉制御装置13に送出する。窓開閉制御装置13は、操作停止データが入力されると、モータ4を停止させ、これにより、ドアウインド3の開閉動作が停止する。
一方、ステップS12にて、総和ΣVが閾値Th以上(ΣV≧Th)の場合は、ユーザのジェスチャは止まっていないと判断し、ステップS7に進む。その場合、ステップS7以下の処理は、実施の形態1のシステム10と同様に、ジェスチャ認識装置12にて実施され、窓開閉制御装置13には操作データが送出される。
このように、実施の形態2のシステム30では、ジェスチャ停止認識装置31により、ユーザのジェスチャが停止したことを認識できる。このため、ユーザがジェスチャを行っている間だけ窓の開閉動作を行うことができる。この点、実施の形態1のシステム10は、ジェスチャの認識結果に基づきパワーウインド装置を動作させると、窓が全開閉するまで動作するが、当該システム30では、開閉動作の途中で窓を止めることができ、窓の開閉位置の微調整も可能となる。また、窓の全開閉位置に加えて、その途中の位置であっても窓を開閉させることが可能となる。
本発明は前記実施形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることは言うまでもない。
前述の実施形態では、予めROM29に格納した閾値によって、FFT解析後のデータを判定しているが、教師付学習のAI(Artificial Intelligence)によるニューラルネットワーク判定を行っても良い。この場合、例えば、複数人分(50人分など)の開閉ジェスチャ動作の画像データやFFT解析結果、開閉ジェスチャではない画像データやFFT解析結果をROM29に格納し、ジェスチャ判別部27にパターン学習させてジェスチャ判定を行わせる。
また、カメラ11の設置位置は、図3のようなドア2の前端部には限定されず、乗員のジェスチャを検知できる位置であれば、窓開口部6の下端部(図14)やドアパネル7の上縁部、アームレスト、インストルメントパネルなどに設置することも可能である。さらに、パワーウインド装置1の構成も図1のようなXアーム式のものには限定されない。
一方、ユーザのジェスチャ動作も、手回し動作ではなく、上下や左右などの往復動作としても良く、この場合もFFTを用いた解析・判別が可能である。また、手回し速度により開閉状態を変化させることも可能であり、例えば、ユーザが手を早く回しているときは全開・全閉(オート)モードとなるようにしても良い。さらに、ユーザが指し示す位置に窓を停止させる機能を付加することも可能である。加えて、ジェスチャ動作以外に、音声認識による指示を併用することも可能である。
本発明による装置操作システムは、自動車のパワーウインド装置以外にも適用可能であり、スイッチ操作に基づいて作動する被作動装置として、エアコンやカーオーディオにも適用できる。この場合、エアコンやカーオーディオのスイッチ類をモータ駆動可能な構成とし、ジェスチャにより、温度やボリュームのアップ・ダウン(例えば、右回転の手回しはアップ、左回転はダウン)などを指示するような設定も可能である。また、電動サンルーフ装置や電動スライドドア、電動リアゲート、電動リクライニング装置、ワイパ装置などを被作動装置とし、それらの操作に本発明を適用することも可能である。
1 パワーウインド装置
2 ドア
3 ドアウインド
4 モータ
5 ウインドレギュレータ
6 窓開口部
7 ドアパネル
8 パワーウインド開閉スイッチ
9 ハンドル
10 装置操作システム
11 カメラ
12 ジェスチャ認識装置
13 窓開閉制御装置
21 特徴点抽出部
22 特徴ベクトル算出部
23 特徴ベクトルトラッキング部
24 動きベクトル算出部
25 動きベクトル処理部
26 動きベクトル解析部
27 ジェスチャ判別部
28 RAM
29 ROM
30 装置操作システム
31 ジェスチャ停止認識装置
32 ジェスチャ判定装置
33 ジェスチャ停止動作判別部
P 特徴点

Claims (13)

  1. 装置使用者によるスイッチ操作に基づいて作動する被作動装置の操作システムであって、
    前記被作動装置を作動させるための駆動部と、
    前記装置使用者のジェスチャを撮影する撮影部と、
    前記撮影部にて撮影された画像データを解析し、該ジェスチャによる前記装置使用者の指示を認識するジェスチャ認識部と、
    前記ジェスチャ認識部における認識結果に基づき、前記装置使用者の指示に従って前記駆動部の動作を制御する制御部と、を有し、
    前記ジェスチャ認識部は、
    前記画像データから、複数個の特徴点を選び出す特徴点抽出部と、
    前記各特徴点に付随する特徴ベクトルを算出する特徴ベクトル算出部と、
    撮影時点を異にする複数の前記画像データの前記特徴ベクトルを比較し、前記特徴ベクトルが近似する前記特徴点を検出し、該特徴点の時間的な動きを把握する特徴ベクトルトラッキング部と、
    前記特徴ベクトルトラッキング部にて把握した前記特徴点の動きを該特徴点の動きベクトルとして算出する動きベクトル算出部と、
    複数の前記動きベクトルから、前記動きベクトルの時間的な変化を示す時系列データを作成する動きベクトル処理部と、
    前記動きベクトル処理部にて得られた前記時系列データを所定の判別閾値を用いて解析する動きベクトル解析部と、
    前記動きベクトル解析部の解析結果に基づいて、前記装置使用者のジェスチャによる指示を判別するジェスチャ判別部と、を有することを特徴とする装置操作システム。
  2. 請求項1記載の装置操作システムにおいて、
    前記ジェスチャは前記装置使用者の身体の動きであり、前記装置使用者は前記身体の動きにより前記被作動装置の動作を指示し、
    前記撮影部は、前記装置使用者の前記身体の動きを撮影し、
    前記ジェスチャ認識部は、前記身体の動きから前記装置使用者の指示を認識し、
    前記制御部は、前記装置使用者の前記身体の動きによる指示に基づいて前記駆動部の動作を制御することを特徴とする装置操作システム。
  3. 請求項1又は2記載の装置操作システムにおいて、
    前記制御部は、前記ジェスチャの運動方向に基づいて、前記被作動装置の動作形態を制御することを特徴とする装置操作システム。
  4. 請求項1~3の何れか1項に記載の装置操作システムにおいて、
    前記動きベクトル解析部は、前記時系列データのそれぞれについてFFT解析を行い、前記動きベクトルの周波数ごとの振幅値を取得し、
    前記ジェスチャ判別部は、前記振幅値から、周波数の範囲と振幅の大きさについての所定の閾値に基づいて前記装置使用者のジェスチャを検出し、該ジェスチャによる前記装置使用者の指示を判別することを特徴とする装置操作システム。
  5. 請求項1~3の何れか1項に記載の装置操作システムにおいて、
    前記動きベクトル解析部は、前記時系列データのそれぞれについてFFT解析を行い、
    前記ジェスチャ判別部は、最大振幅となる周波数の位相差に基づいて前記装置使用者のジェスチャを検出し、該ジェスチャによる前記装置使用者の指示を判別することを特徴とする装置操作システム。
  6. 請求項1~の何れか1項に記載の装置操作システムにおいて、
    前記被作動装置は自動車のパワーウインド装置であり、
    前記撮影部は、前記自動車の乗員によるジェスチャを撮影し、
    前記ジェスチャ認識部は、前記乗員のジェスチャから前記乗員からの窓の開閉についての指示を認識し、
    前記制御部は、前記乗員の前記ジェスチャによる窓の開閉指示に基づいて前記駆動部の動作を制御し、前記窓の開閉を行うことを特徴とする装置操作システム。
  7. 請求項記載の装置操作システムにおいて、
    前記ジェスチャは前記乗員の手の動きであり、前記乗員は前記手の動きにより前記自動車の窓の開閉動作を指示し、
    前記撮影部は、前記装置使用者の前記手の動きを撮影し、
    前記ジェスチャ認識部は、前記手の動きから前記乗員による前記窓の開閉についての指示を認識し、
    前記制御部は、前記乗員の前記手の運動方向により、前記窓の開閉動作を制御することを特徴とする装置操作システム。
  8. 請求項記載の装置操作システムにおいて、
    前記制御部は、前記乗員の手が第1の方向に回転運動したときは前記窓を開放するよう前記駆動部を作動させ、前記乗員の手が第2の方向に回転運動したときは前記窓を閉鎖するよう前記駆動部を作動させることを特徴とする装置操作システム。
  9. 装置使用者によるスイッチ操作に基づいて作動する被作動装置の制御方法であって、
    前記装置使用者のジェスチャを撮影し、
    撮影された画像データから、複数個の特徴点を選び出し、
    前記各特徴点に付随する特徴ベクトルを算出し、
    撮影時点を異にする複数の前記画像データの前記特徴ベクトルを比較し、前記特徴ベクトルが近似する前記特徴点を検出し、該特徴点の時間的な動きを把握し、
    前記特徴点の動きを該特徴点の動きベクトルとして算出し、
    複数の前記動きベクトルから、前記動きベクトルの時間的な変化を示す時系列データを作成し、
    前記時系列データを所定の判別閾値を用いて解析し、
    前記時系列データの解析結果に基づいて、前記装置使用者のジェスチャによる指示を判別することにより、該ジェスチャによる前記装置使用者の指示を認識し、
    前記ジェスチャの認識結果に基づき、前記装置使用者の指示に従って前記被作動装置を動作させることを特徴とする装置制御方法。
  10. 請求項記載の装置制御方法において、
    前記ジェスチャは前記装置使用者の身体の動きであり、前記装置使用者は前記身体の動きにより前記被作動装置の動作を指示し、
    前記身体の動きを撮影した画像データを解析することにより、前記身体の動きから前記装置使用者の指示を認識し、
    前記身体の動きから認識された前記装置使用者の指示に基づいて、前記被作動装置を動作させることを特徴とする装置制御方法。
  11. 請求項9又は10記載の装置制御方法において、
    前記時系列データのそれぞれについてFFT解析を行い、前記動きベクトルの周波数ごとの振幅値を取得し、
    前記振幅値から、周波数の範囲と振幅の大きさについての所定の閾値に基づいて前記装置使用者のジェスチャを検出し、該ジェスチャによる前記装置使用者の指示を判別することを特徴とする装置制御方法。
  12. 請求項9又は10記載の装置制御方法において、
    前記時系列データのそれぞれについてFFT解析を行い、
    最大振幅となる周波数の位相差に基づいて前記装置使用者のジェスチャを検出し、該ジェスチャによる前記装置使用者の指示を判別することを特徴とする装置制御方法。
  13. 請求項12の何れか1項に記載の装置制御方法において、
    前記被作動装置は自動車のパワーウインド装置であり、
    前記ジェスチャは前記自動車の乗員の手の動きであって、前記乗員は手の動きにより前記自動車の窓の開閉動作を指示し、
    前記乗員の手の動きを撮影した画像データを解析することにより、前記手の動きから前記乗員の指示を認識し、
    前記手の動きから認識された前記乗員の指示に基づいて、前記パワーウインド装置を動作させ、前記窓の開閉を行うことを特徴とする装置制御方法。
JP2020005275A 2019-01-23 2020-01-16 装置操作システムおよび装置制御方法 Active JP7295046B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019008880 2019-01-23
JP2019008880 2019-01-23

Publications (2)

Publication Number Publication Date
JP2020118024A JP2020118024A (ja) 2020-08-06
JP7295046B2 true JP7295046B2 (ja) 2023-06-20

Family

ID=71890247

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020005275A Active JP7295046B2 (ja) 2019-01-23 2020-01-16 装置操作システムおよび装置制御方法

Country Status (1)

Country Link
JP (1) JP7295046B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116193243B (zh) * 2021-11-25 2024-03-22 荣耀终端有限公司 拍摄方法和电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004157994A (ja) 2002-10-07 2004-06-03 Sony France Sa 自由空間に作られるジェスチャを解析する方法及び装置
JP2010271944A (ja) 2009-05-21 2010-12-02 Chuo Univ 周期ジェスチャ識別装置、周期ジェスチャ識別方法、周期ジェスチャ識別プログラム、及び記録媒体
US20110301934A1 (en) 2010-06-04 2011-12-08 Microsoft Corporation Machine based sign language interpreter
US20160305176A1 (en) 2015-04-14 2016-10-20 Hon Hai Precision Industry Co., Ltd. Window control system and control method thereof
JP2017211884A (ja) 2016-05-26 2017-11-30 トヨタ紡織株式会社 動き検出システム
JP2018206073A (ja) 2017-06-05 2018-12-27 株式会社東海理化電機製作所 遠隔操作システム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5594469A (en) * 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004157994A (ja) 2002-10-07 2004-06-03 Sony France Sa 自由空間に作られるジェスチャを解析する方法及び装置
JP2010271944A (ja) 2009-05-21 2010-12-02 Chuo Univ 周期ジェスチャ識別装置、周期ジェスチャ識別方法、周期ジェスチャ識別プログラム、及び記録媒体
US20110301934A1 (en) 2010-06-04 2011-12-08 Microsoft Corporation Machine based sign language interpreter
US20160305176A1 (en) 2015-04-14 2016-10-20 Hon Hai Precision Industry Co., Ltd. Window control system and control method thereof
JP2017211884A (ja) 2016-05-26 2017-11-30 トヨタ紡織株式会社 動き検出システム
JP2018206073A (ja) 2017-06-05 2018-12-27 株式会社東海理化電機製作所 遠隔操作システム

Also Published As

Publication number Publication date
JP2020118024A (ja) 2020-08-06

Similar Documents

Publication Publication Date Title
US7437488B2 (en) Interface for car-mounted devices
CN108725357B (zh) 基于人脸识别的参数控制方法、系统与云端服务器
US9725098B2 (en) Vehicle driver identification
JP6030430B2 (ja) 制御装置、車両及び携帯端末
US9600728B2 (en) System, methods, and apparatus for in-vehicle fiducial mark tracking and interpretation
CN108350716B (zh) 用于打开和关闭车门的系统和方法
CN105912099B (zh) 一种车辆操作系统、一种车辆操作方法以及一种电动车辆
CN112590794A (zh) 确定车辆驾驶员接管车辆控制的能力估计值的方法和装置
US20160357186A1 (en) Autonomous driving system and method for same
KR101490908B1 (ko) 차량 내 손모양 궤적 인식을 이용한 사용자 인터페이스 조작 시스템 및 방법
KR101438615B1 (ko) 2차원 카메라를 이용한 사용자 인터페이스 조작 시스템 및 방법
JP7147259B2 (ja) 車載装置、車載装置の制御方法、及び予備動作推定システム
JP7295046B2 (ja) 装置操作システムおよび装置制御方法
CN113799729A (zh) 车辆控制系统及车辆控制方法
WO2022116656A1 (en) Methods and devices for hand-on-wheel gesture interaction for controls
US20230049900A1 (en) Displaced haptic feedback
JP2018206073A (ja) 遠隔操作システム
CN108791119A (zh) 车辆控制系统及方法
CN112905003A (zh) 一种智能座舱手势控制方法、装置和存储介质
CN110850975B (zh) 具有手掌辨识的电子系统、车辆及其操作方法
JP7410764B2 (ja) 車両制御装置、車両制御方法、及び車両制御用プログラム
US20200218347A1 (en) Control system, vehicle and method for controlling multiple facilities
EP3831656A1 (en) A vehicle system to facilitate cosmetic care
CN112721565A (zh) 车载空调控制方法、车辆和介质
US10963064B2 (en) Control device and control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220728

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230608

R150 Certificate of patent or registration of utility model

Ref document number: 7295046

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150