JP2020118024A - Device operating system and device control method - Google Patents

Device operating system and device control method Download PDF

Info

Publication number
JP2020118024A
JP2020118024A JP2020005275A JP2020005275A JP2020118024A JP 2020118024 A JP2020118024 A JP 2020118024A JP 2020005275 A JP2020005275 A JP 2020005275A JP 2020005275 A JP2020005275 A JP 2020005275A JP 2020118024 A JP2020118024 A JP 2020118024A
Authority
JP
Japan
Prior art keywords
gesture
movement
unit
instruction
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020005275A
Other languages
Japanese (ja)
Other versions
JP7295046B2 (en
Inventor
敏昭 塩谷
Toshiaki Shiotani
敏昭 塩谷
知之 岩田
Tomoyuki Iwata
知之 岩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsuba Corp
Original Assignee
Mitsuba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsuba Corp filed Critical Mitsuba Corp
Publication of JP2020118024A publication Critical patent/JP2020118024A/en
Application granted granted Critical
Publication of JP7295046B2 publication Critical patent/JP7295046B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Window Of Vehicle (AREA)
  • User Interface Of Digital Computer (AREA)
  • Power-Operated Mechanisms For Wings (AREA)

Abstract

To provide a device operating system and a device control method that can perform opening/closing operation for windows and the like without touching a switch even if the position, shape, and the like of the switch are unknown.SOLUTION: A gesture of a user is photographed. The user's instruction through the gesture is recognized by analyzing the captured image data. Based on gesture recognition results, a power window device is operated according to the user's instruction. Features are selected from the captured image data and a feature vector that follows each feature is calculated. Feature vectors from the previous and next image data are compared, and features for which feature vectors are similar are detected and temporal movement of the features is grasped. The movement of features is calculated as movement vectors and chronological data that indicates temporal changes in movement vectors is analyzed using a predetermined determination threshold. Based on results of the analysis, the user's instruction through gesture is determined, and according to the instruction, the power window device is operated.SELECTED DRAWING: Figure 5

Description

本発明は、装置操作者のジェスチャ動作(身振り、手振り等の身体の動き)により当該装置のスイッチ操作が可能な装置操作システムに関し、特に、自動車等の車両における窓ガラスの開閉等に適用して有効な技術に関する。 The present invention relates to a device operation system capable of operating a switch of the device by a gesture operation of the device operator (movement of a body such as a gesture or a hand gesture), and is particularly applied to opening and closing a window glass in a vehicle such as an automobile. Regarding effective technology.

通常、自動車側部の窓(ドアウインド)は開閉できるようになっており、昨今の自動車では、ドアウインドを自動で開閉するパワーウインド装置を備えたものが一般的となっている。このパワーウインド装置は、ドアパネル内に収容された電動モータ(以下、モータと略記する)を駆動源としており、運転者や同乗者によるスイッチ操作によりモータが作動し窓の開閉が行われる。この場合、窓の開閉動作は、ドアパネルやセンターコンソール等に取り付けられた開閉スイッチの操作によって行われるが、ドアパネルに配したスイッチによるものが主流となっている。 Normally, a window (door window) on the side of an automobile can be opened and closed, and a recent automobile is generally equipped with a power window device that automatically opens and closes the door window. This power window device uses an electric motor (hereinafter abbreviated as a motor) housed in a door panel as a drive source, and the motor is operated by a switch operation by a driver or a passenger to open and close a window. In this case, the opening/closing operation of the window is performed by operating an opening/closing switch attached to a door panel, a center console, or the like, but a switch arranged on the door panel is mainly used.

実開平6−51462号公報Japanese Utility Model Publication No. 6-51462

ところが、パワーウインドの開閉スイッチは、その取り付け位置や形状、操作方法がメーカーや車種によって異なる場合が多い。このため、慣れてない車や、夜間でスイッチが見えにくいときなどは、スイッチがどこにあるかわからず、思うように窓の開閉ができない場合があった。特に、レンタカーやカーシェアリングが普及した今日では、特定の車両以外を運転する機会が増えており、ユーザが車種によって異なるスイッチを探したり、その操作に手間取ってしまったりするという問題があった。さらに、ロック機能等、スイッチが複数設けられている場合などは、開閉スイッチを見つけること自体が難しくなってしまうことも多かった。 However, the opening and closing switch of the power window often has its mounting position, shape, and operation method different depending on the manufacturer and vehicle model. For this reason, when you are unfamiliar with the car or when it is difficult to see the switch at night, you may not be able to open and close the window as you do not know where the switch is. In particular, with the widespread use of rental cars and car sharing, there are more and more opportunities to drive other than a specific vehicle, and there is a problem that the user finds a different switch depending on the vehicle type and takes time to operate it. Further, when a plurality of switches such as a lock function are provided, it is often difficult to find the open/close switch itself.

本発明の目的は、スイッチの位置や形状等が分からなくても、スイッチに触れることなく、窓の開閉操作等が可能な装置操作システムおよび装置制御方法を提供することにある。 An object of the present invention is to provide an apparatus operation system and an apparatus control method capable of opening and closing a window without touching the switch without knowing the position or shape of the switch.

本発明の装置操作システムは、装置使用者によるスイッチ操作に基づいて作動する被作動装置の操作システムであって、前記被作動装置を作動させるための駆動部と、前記装置使用者のジェスチャを撮影する撮影部と、前記撮影部にて撮影された画像データを解析し、該ジェスチャによる前記装置使用者の指示を認識するジェスチャ認識部と、前記ジェスチャ認識部における認識結果に基づき、前記装置使用者の指示に従って前記駆動部の動作を制御する制御部と、を有することを特徴とする。 An apparatus operation system of the present invention is an operation system for an operated apparatus that operates based on a switch operation by an apparatus user, and captures a drive unit for operating the operated apparatus and a gesture of the apparatus user. And a gesture recognition unit that analyzes image data captured by the photographing unit and recognizes an instruction of the device user by the gesture, and the device user based on a recognition result in the gesture recognition unit. And a control unit that controls the operation of the drive unit in accordance with the instruction of 1.

本発明にあっては、カメラ等の撮影部によって装置使用者のジェスチャ(例えば、手の動きなどの身体の動作)を撮影し、ジェスチャ認識部により、撮影された画像データを解析して、該ジェスチャによる装置使用者の指示を認識する。そして、ジェスチャ認識部における認識結果に基づき、装置使用者の指示に従って被作動装置の駆動部の動作を制御する。これにより、装置使用者のジェスチャにより、ドアウインドなどの被作動装置のスイッチ操作をスイッチに触れることなく行うことができる。したがって、スイッチの位置や形状等が分からなくても、装置使用者の意思通りに被作動装置の操作を行うことが可能となる。 In the present invention, an image capturing unit such as a camera captures a gesture of a device user (for example, a body motion such as a hand movement), and a gesture recognition unit analyzes the captured image data, Recognize the device user's instruction by gesture. Then, based on the recognition result of the gesture recognition unit, the operation of the drive unit of the actuated device is controlled according to the instruction of the device user. Accordingly, the device user can perform a switch operation of the operated device such as a door window without touching the switch by a gesture of the device user. Therefore, even if the position and shape of the switch are not known, it is possible to operate the actuated device according to the intention of the user of the device.

前記装置操作システムにおいて、前記ジェスチャは前記装置使用者の身体(例えば、手)の動きであり、前記装置使用者は前記身体の動きにより前記被作動装置の動作を指示し、前記撮影部は、前記装置使用者の前記身体の動きを撮影し、前記ジェスチャ認識部は、前記身体の動きから前記装置使用者の指示を認識し、前記制御部は、前記装置使用者の前記身体の動きによる指示に基づいて前記駆動部の動作を制御するようにしても良い。また、前記制御部は、前記ジェスチャの運動方向に基づいて、前記被作動装置の動作形態を制御するようにしても良い。 In the device operation system, the gesture is a motion of a body (for example, a hand) of the device user, the device user instructs the operation of the actuated device by the motion of the body, and the imaging unit, The movement of the body of the device user is photographed, the gesture recognition unit recognizes an instruction of the device user from the movement of the body, and the control unit gives an instruction by the movement of the body of the device user. The operation of the drive unit may be controlled based on the above. Further, the control unit may control an operation form of the actuated device based on a movement direction of the gesture.

また、前記ジェスチャ認識部を、前記画像データから、前記ジェスチャの中の複数個の特徴点を選び出す特徴点抽出部と、前記各特徴点に付随する特徴ベクトルを算出する特徴ベクトル算出部と、撮影時点を異にする複数の前記画像データの前記特徴ベクトルを比較し、前記特徴ベクトルが近似する前記特徴点を検出し、該特徴点の時間的な動きを把握する特徴ベクトルトラッキング部と、前記特徴ベクトルトラッキング部にて把握した前記特徴点の動きを該特徴点の動きベクトルとして算出する動きベクトル算出部と、複数の前記動きベクトルから、前記動きベクトルの時間的な変化を示す時系列データを作成する動きベクトル処理部と、前記動きベクトル処理部にて得られた前記時系列データを所定の判別閾値を用いて解析する動きベクトル解析部と、前記動きベクトル解析部の解析結果に基づいて、前記装置使用者のジェスチャによる指示を判別するジェスチャ判別部と、を有する構成としても良い。 In addition, the gesture recognition unit, a feature point extraction unit that selects a plurality of feature points in the gesture from the image data, a feature vector calculation unit that calculates a feature vector associated with each feature point, shooting A characteristic vector tracking unit that compares the characteristic vectors of the plurality of image data at different time points, detects the characteristic points that the characteristic vectors approximate, and grasps the temporal movement of the characteristic points; A motion vector calculation unit that calculates the motion of the feature point grasped by the vector tracking unit as a motion vector of the feature point, and time-series data indicating a temporal change of the motion vector from the plurality of motion vectors Based on the analysis result of the motion vector processing unit, the motion vector analysis unit that analyzes the time-series data obtained by the motion vector processing unit using a predetermined determination threshold, and the motion vector analysis unit. It may be configured to include a gesture determination unit that determines an instruction by a gesture of the device user.

この場合、前記動きベクトル解析部は、前記時系列データのそれぞれについてFFT解析を行い、前記動きベクトルの周波数ごとの振幅値を取得し、前記ジェスチャ判別部は、前記振幅値から、周波数の範囲と振幅の大きさについての所定の閾値に基づいて前記装置使用者のジェスチャを検出し、該ジェスチャによる前記装置使用者の指示を判別するようにしてもよい。また、前記動きベクトル解析部は、前記時系列データのそれぞれについてFFT解析を行い、前記ジェスチャ判別部は、最大振幅となる周波数の位相差に基づいて前記装置使用者のジェスチャを検出し、該ジェスチャによる前記装置使用者の指示を判別するようにしても良い。 In this case, the motion vector analysis unit performs FFT analysis on each of the time-series data, acquires an amplitude value for each frequency of the motion vector, and the gesture determination unit determines a frequency range from the amplitude value. The gesture of the device user may be detected based on a predetermined threshold value of the amplitude, and the device user's instruction by the gesture may be determined. Further, the motion vector analysis unit performs FFT analysis on each of the time-series data, and the gesture determination unit detects the gesture of the device user based on the phase difference of the frequency having the maximum amplitude, and the gesture is detected. The instruction of the user of the device may be determined.

さらに、前記被作動装置が自動車のパワーウインド装置であっても良く、この場合、前記撮影部は、前記自動車の乗員によるジェスチャを撮影し、前記ジェスチャ認識部は、前記乗員のジェスチャから前記乗員からの窓の開閉についての指示を認識し、前記制御部は、前記乗員の前記ジェスチャによる窓の開閉指示に基づいて前記駆動部の動作を制御し、前記窓の開閉を行う。また、前記ジェスチャが前記乗員の手の動きであっても良く、前記乗員は前記手の動きにより前記自動車の窓の開閉動作を指示し、前記撮影部は、前記装置使用者の前記手の動きを撮影し、前記ジェスチャ認識部は、前記手の動きから前記乗員による前記窓の開閉についての指示を認識し、前記制御部は、前記乗員の前記手の運動方向により、前記窓の開閉動作を制御する。さらに、前記制御部により、前記乗員の手が第1の方向に回転運動したときは前記窓を開放するよう前記駆動部を作動させ、前記乗員の手が第2の方向に回転運動したときは前記窓を閉鎖するよう前記駆動部を作動させるようにしても良い。 Further, the actuated device may be a power window device of an automobile, in which case the photographing unit photographs a gesture by an occupant of the automobile, and the gesture recognition unit detects the gesture of the occupant from the occupant. The controller controls the operation of the drive unit based on the window opening/closing instruction by the occupant's gesture, and opens/closes the window. Further, the gesture may be a movement of the occupant's hand, the occupant directs an opening/closing operation of a window of the automobile by the movement of the hand, and the photographing unit causes the movement of the hand of the device user to move. The gesture recognition unit recognizes an instruction for opening and closing the window by the occupant from the movement of the hand, and the control unit opens and closes the window according to the movement direction of the hand of the occupant. Control. Further, the control unit operates the drive unit so as to open the window when the occupant's hand makes a rotational movement in the first direction, and when the occupant's hand makes a rotational movement in the second direction. The drive may be actuated to close the window.

一方、本発明による装置制御方法は、装置使用者によるスイッチ操作に基づいて作動する被作動装置における装置制御方法であって、前記装置使用者のジェスチャを撮影し、撮影された画像データを解析することにより、該ジェスチャによる前記装置使用者の指示を認識し、前記ジェスチャの認識結果に基づき、前記装置使用者の指示に従って前記被作動装置を動作させることを特徴とする。 On the other hand, the device control method according to the present invention is a device control method for an actuated device that operates based on a switch operation by the device user, and captures a gesture of the device user and analyzes the captured image data. Thus, the instruction of the device user by the gesture is recognized, and the operated device is operated according to the instruction of the device user based on the recognition result of the gesture.

本発明にあっては、装置使用者のジェスチャを撮影し、撮影された画像データを解析して、該ジェスチャによる装置使用者の指示を認識する。そして、ジェスチャの認識結果に基づき、装置使用者の指示に従って被作動装置を動作させる。これにより、装置使用者のジェスチャ(例えば、手の動きなど)により、ドアウインドなどの被作動装置のスイッチ操作をスイッチに触れることなく行うことができる。したがって、スイッチの位置や形状等が分からなくても、装置使用者の意思通りに被作動装置の操作を行うことが可能となる。 In the present invention, the gesture of the device user is photographed, the photographed image data is analyzed, and the instruction of the device user by the gesture is recognized. Then, based on the recognition result of the gesture, the operated device is operated according to the instruction of the device user. With this, a gesture of the device user (for example, movement of a hand) allows the switch operation of the operated device such as the door window to be performed without touching the switch. Therefore, even if the position and shape of the switch are not known, it is possible to operate the actuated device according to the intention of the user of the device.

前記装置制御方法において、前記ジェスチャが前記装置使用者の手の動きであっても良く、この場合、前記装置使用者は前記手の動きにより前記被作動装置の動作を指示し、前記手の動きを撮影した画像データを解析することにより、前記手の動きから前記装置使用者の指示を認識し、前記手の動きから認識された前記装置使用者の指示に基づいて、前記被作動装置を動作させる。 In the device control method, the gesture may be a movement of a hand of the device user, and in this case, the device user instructs the operation of the actuated device by the movement of the hand, and the movement of the hand. By analyzing image data of the captured image, the instruction of the device user is recognized from the movement of the hand, and the operated device is operated based on the instruction of the device user recognized from the movement of the hand. Let

また、前記画像データから、複数個の特徴点を選び出し、前記各特徴点に付随する特徴ベクトルを算出し、撮影時点を異にする複数の前記画像データの前記特徴ベクトルを比較し、前記特徴ベクトルが近似する前記特徴点を検出し、該特徴点の時間的な動きを把握し、前記特徴点の動きを該特徴点の動きベクトルとして算出し、複数の前記動きベクトルから、前記動きベクトルの時間的な変化を示す時系列データを作成し、前記時系列データを所定の判別閾値を用いて解析し、前記動きベクトル解析部の解析結果に基づいて、前記装置使用者のジェスチャによる指示を判別するようにしても良い。 In addition, a plurality of feature points are selected from the image data, feature vectors associated with the respective feature points are calculated, the feature vectors of the plurality of image data having different imaging times are compared, and the feature vector Is detected, the temporal movement of the characteristic point is grasped, the movement of the characteristic point is calculated as the movement vector of the characteristic point, and the time of the movement vector is calculated from the plurality of movement vectors. Time series data indicating a dynamic change is created, the time series data is analyzed using a predetermined determination threshold value, and an instruction by a gesture of the device user is determined based on the analysis result of the motion vector analysis unit. You may do it.

この場合、前記時系列データのそれぞれについてFFT解析を行い、前記動きベクトルの周波数ごとの振幅値を取得し、前記振幅値から、周波数の範囲と振幅の大きさについての所定の閾値に基づいて前記装置使用者のジェスチャを検出し、該ジェスチャによる前記装置使用者の指示を判別するようにしても良い。また、前記時系列データのそれぞれについてFFT解析を行い、最大振幅となる周波数の位相差に基づいて前記装置使用者のジェスチャを検出し、該ジェスチャによる前記装置使用者の指示を判別するようにしても良い。 In this case, FFT analysis is performed on each of the time-series data, the amplitude value for each frequency of the motion vector is acquired, and the amplitude value is obtained from the amplitude value based on a predetermined threshold value for the frequency range and the amplitude magnitude. The gesture of the device user may be detected, and the instruction of the device user due to the gesture may be determined. In addition, FFT analysis is performed on each of the time-series data, the gesture of the device user is detected based on the phase difference of the frequency having the maximum amplitude, and the instruction of the device user by the gesture is determined. Is also good.

さらに、前記被作動装置が自動車のパワーウインド装置であり、前記ジェスチャが前記自動車の乗員の手の動きであっても良く、この場合、前記乗員は手の動きにより前記自動車の窓の開閉動作を指示し、前記乗員の手の動きを撮影した画像データを解析することにより、前記手の動きから前記乗員の指示を認識し、前記手の動きから認識された前記乗員の指示に基づいて、前記パワーウインド装置を動作させ、前記窓の開閉を行う。 Further, the operated device may be a power window device of an automobile, and the gesture may be a movement of a hand of an occupant of the automobile. In this case, the occupant may open and close a window of the automobile by the movement of the hand. Instructing, by analyzing the image data obtained by shooting the movement of the occupant's hand, recognize the instruction of the occupant from the movement of the hand, based on the instruction of the occupant recognized from the movement of the hand, the The power window device is operated to open and close the window.

本発明の装置操作システムによれば、装置使用者によるスイッチ操作に基づいて作動する被作動装置の操作システムにおいて、装置使用者のジェスチャを撮影する撮影部と、撮影部にて撮影された画像データを解析し、該ジェスチャによる装置使用者の指示を認識するジェスチャ認識部と、ジェスチャ認識部における認識結果に基づき、装置使用者の指示に従って被作動装置の駆動部の動作を制御する制御部と、を設けたので、装置使用者のジェスチャにより、被作動装置のスイッチ操作をスイッチに触れることなく行うことができる。したがって、スイッチの位置や形状等が分からなくても、装置使用者の意思通りに被作動装置の操作を行うことが可能となる。 According to the device operation system of the present invention, in the operation system of the operated device that operates based on the switch operation by the device user, the image capturing unit that captures the gesture of the device user and the image data captured by the image capturing unit. And a gesture recognition unit that recognizes an instruction of the device user by the gesture, and a control unit that controls the operation of the drive unit of the actuated device according to the instruction of the device user, based on the recognition result in the gesture recognition unit, Since the device is provided, the switch operation of the actuated device can be performed without touching the switch by the gesture of the device user. Therefore, even if the position and shape of the switch are not known, it is possible to operate the actuated device according to the intention of the user of the device.

本発明の装置制御方法によれば、装置使用者によるスイッチ操作に基づいて作動する被作動装置における装置制御方法において、装置使用者のジェスチャを撮影し、撮影された画像データを解析することにより、該ジェスチャによる装置使用者の指示を認識し、このジェスチャの認識結果に基づき、装置使用者の指示に従って被作動装置を動作させるようにしたので、装置使用者のジェスチャにより、被作動装置のスイッチ操作をスイッチに触れることなく行うことができる。したがって、スイッチの位置や形状等が分からなくても、装置使用者の意思通りに被作動装置の操作を行うことが可能となる。 According to the device control method of the present invention, in the device control method in the operated device that operates based on the switch operation by the device user, by capturing the gesture of the device user, by analyzing the captured image data, Since the device user's instruction by the gesture is recognized and the actuated device is operated according to the device user's instruction based on the recognition result of the gesture, the device user's gesture causes a switch operation of the actuated device. Can be done without touching the switch. Therefore, even if the position and shape of the switch are not known, it is possible to operate the actuated device according to the intention of the user of the device.

本発明の実施の形態1である装置操作システムを用いたパワーウインド装置の構成を示す説明図である。It is explanatory drawing which shows the structure of the power window apparatus using the apparatus operating system which is Embodiment 1 of this invention. 本発明の実施の形態1である装置操作システムの構成を示すブロック図である。It is a block diagram which shows the structure of the apparatus operating system which is Embodiment 1 of this invention. カメラの設置位置の一例を示す説明図である。It is explanatory drawing which shows an example of the installation position of a camera. ジェスチャ認識装置の構成を示すブロック図である。It is a block diagram which shows the structure of a gesture recognition apparatus. ジェスチャ認識装置における解析処理の流れを示す説明図である。It is explanatory drawing which shows the flow of the analysis process in a gesture recognition apparatus. 図5の処理における解析データの流れを示すデータフローダイアグラムである。6 is a data flow diagram showing the flow of analysis data in the processing of FIG. 5. 特徴点の抽出処理を示す説明図である。It is explanatory drawing which shows the extraction process of a feature point. 特徴点とそのトラッキング処理に関する説明図である。It is explanatory drawing regarding a feature point and its tracking process. 動きベクトルの時系列データ(図9(b))をFFT解析した結果(同(a))の一例を示す説明図である。It is explanatory drawing which shows an example of the result (the same (a)) which carried out the FFT analysis of the time series data (FIG.9(b)) of a motion vector. 本発明の実施の形態2である装置操作システムの構成を示すブロック図である。It is a block diagram which shows the structure of the apparatus operating system which is Embodiment 2 of this invention. ジェスチャ停止認識装置の構成を示すブロック図である。It is a block diagram which shows the structure of a gesture stop recognition apparatus. ジェスチャ停止認識装置における特徴点のトラッキング処理およびその後のジェスチャ停止判定に関する説明図である。It is explanatory drawing regarding the tracking process of the feature point in a gesture stop recognition apparatus, and subsequent gesture stop determination. 図10の装置操作システムにおけるジェスチャ判定装置における解析処理の流れを示す説明図である。It is explanatory drawing which shows the flow of the analysis process in the gesture determination apparatus in the apparatus operation system of FIG. カメラの設置位置の他の一例を示す説明図である。It is explanatory drawing which shows another example of the installation position of a camera.

(実施の形態1)
以下、本発明の実施の形態を図面に基づいて詳細に説明する。図1は、本発明の実施の形態1である装置操作システムを用いたパワーウインド装置(被作動装置)の構成を示す説明図であり、本発明の方法も図1のパワーウインド装置にて実施される。図1のパワーウインド装置1は、自動車の側面に設けられたドア2の窓(ドアウインド)3を開閉するための装置であり、窓開閉用のモータ(駆動部)4によって駆動される。なお、以下の記載では、運転席側のドアウインドを例に取って説明するが、助手席側の窓や後部座席の窓にも当該システムは適用可能である。
(Embodiment 1)
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is an explanatory diagram showing the configuration of a power window device (actuated device) using the device operation system according to the first embodiment of the present invention, and the method of the present invention is also implemented by the power window device of FIG. To be done. The power window device 1 of FIG. 1 is a device for opening and closing a window (door window) 3 of a door 2 provided on a side surface of an automobile, and is driven by a motor (drive unit) 4 for opening and closing the window. In the following description, the door window on the driver's seat side will be described as an example, but the system can also be applied to windows on the passenger seat side and rear seats.

パワーウインド装置1では、ドアウインド3とモータ4の間にXアーム式のウインドレギュレータ5が配されており、モータ4を作動させると、ウインドレギュレータ5によりドアウインド3が昇降し、窓開口部6が開閉される。この場合、ドアウインド3の動作は、通常の自動車と同様に、ドアパネル7に配したパワーウインド開閉スイッチ8によって操作可能であるが、当該パワーウインド装置1では、乗員(ユーザ:装置使用者)のジェスチャ動作(手の動きなどの身体の動作)によりドアウインド3を開閉できるようになっている。ここでは、車内の乗員が車両前方方向を見たとき左側に位置するドアの場合、ユーザが、指で左周り(反時計回り)に円を描いた場合はドアウインド3が開き、右周り(時計回り)に円を描いた場合はドアウインド3が閉じるよう設定されている。 In the power window device 1, an X-arm type window regulator 5 is arranged between the door window 3 and the motor 4, and when the motor 4 is operated, the window regulator 5 moves the door window 3 up and down to open the window opening 6 Is opened and closed. In this case, the operation of the door window 3 can be operated by the power window opening/closing switch 8 arranged on the door panel 7 as in the case of a normal automobile, but in the power window device 1, the passenger (user: device user) can operate. The door window 3 can be opened and closed by a gesture motion (a motion of the body such as a motion of a hand). Here, in the case of the door located on the left side when the occupant in the vehicle is looking in the front direction of the vehicle, when the user draws a circle in the left (counterclockwise) direction with the finger, the door window 3 opens and the right ( The door window 3 is set to close when a circle is drawn in the clockwise direction.

図2は、パワーウインド装置1に使用される装置操作システム10(以下、適宜システム10と略記する)の構成を示すブロック図である。前述のように、システム10では、乗員(ここでは運転者)の手の動き(ジェスチャ)によってドアウインド3の動きをコントロールできる。そのために、当該システム10は、図2に示すように、運転者の手の動きを撮影するカメラ(撮影部)11と、カメラ11の映像を用いて運転者のジェスチャを認識・解析するジェスチャ認識装置(ジェスチャ認識部)12とを備えている。ジェスチャ認識装置12における解析結果は、窓の開閉動作に関するユーザの意思を示すユーザ操作データとして窓開閉制御装置(制御部)13に送られる。 FIG. 2 is a block diagram showing a configuration of a device operation system 10 (hereinafter, appropriately abbreviated as system 10) used in the power window device 1. As described above, in the system 10, the movement of the door window 3 can be controlled by the movement (gesture) of the occupant (here, the driver). Therefore, as shown in FIG. 2, the system 10 includes a camera (imaging unit) 11 that captures the movement of the driver's hand and a gesture recognition that recognizes and analyzes the gesture of the driver using the image of the camera 11. And a device (gesture recognition unit) 12. The analysis result of the gesture recognition device 12 is sent to the window opening/closing control device (control unit) 13 as user operation data indicating the user's intention regarding the opening/closing operation of the window.

一方、パワーウインド装置1には、従来同様、パワーウインド開閉スイッチ8(以下、スイッチ8と略記する)が設けられており、ユーザによるスイッチ操作に基づいて作動する。このスイッチ8の状態(窓開け・窓閉め)も、ユーザ操作データとして窓開閉制御装置13に送られる。窓開閉制御装置13は、ジェスチャ認識装置12あるいはスイッチ8から入力されたユーザ操作データに基づいて、モータ4を作動させ、ドアウインド3を昇降させる。 On the other hand, the power window device 1 is provided with a power window opening/closing switch 8 (hereinafter abbreviated as switch 8) as in the conventional case, and operates based on a switch operation by a user. The state of the switch 8 (open/closed window) is also sent to the window opening/closing control device 13 as user operation data. The window opening/closing control device 13 operates the motor 4 and raises/lowers the door window 3 based on the user operation data input from the gesture recognition device 12 or the switch 8.

システム10のカメラ11は、乗員の動作を常時モニタしており、乗員が窓を開閉したい旨のサインを発したときは、そのジェスチャを捉えてジェスチャ認識装置12に送出する。システム10では、カメラ11は、乗員のジェスチャを確実に把握できるように、撮影対象(ここでは乗員の手)がある場所を常時撮影可能な位置に設置され、手から300〜500mm程度離れた場所にて、概ね直径600〜800mm程度の範囲を撮影できるようになっている。 The camera 11 of the system 10 constantly monitors the operation of the occupant, and when the occupant gives a sign that the window is to be opened/closed, the camera 11 captures the gesture and sends it to the gesture recognition device 12. In the system 10, the camera 11 is installed at a position where an object to be photographed (here, the occupant's hand) can always be photographed so that the gesture of the occupant can be reliably grasped, and a place about 300 to 500 mm away from the hand. At, it is possible to take an image of a range of approximately 600 to 800 mm in diameter.

図3は、カメラの設置位置の一例を示す説明図である。図3に示すように、本実施形態では、カメラ11は、ドア2の前端部(カーオーディオのツイータ等が配される窓開口部6の前方側)に設置されており、乗員の手が存在する可能性の高い、ハンドル9とドア2との間を撮影する。また、カメラ11は、ジェスチャを認識するために必要なフレームレート(30fps〜60fps程度)にて撮影を行い、その画像データはジェスチャ認識装置12に送出される。 FIG. 3 is an explanatory diagram showing an example of the installation position of the camera. As shown in FIG. 3, in the present embodiment, the camera 11 is installed at the front end of the door 2 (on the front side of the window opening 6 where the tweeter of the car audio or the like is arranged), and the occupant's hand is present. A photograph is taken between the handlebar 9 and the door 2, which is likely to occur. Further, the camera 11 shoots at a frame rate (about 30 fps to 60 fps) necessary for recognizing a gesture, and the image data is sent to the gesture recognition device 12.

ジェスチャ認識装置12は、カメラ11からの画像データに基づいて、乗員のジェスチャを認識する。ジェスチャ認識装置12には、カメラ11からは乗員の手の画像データが逐次入力され、入力された画像からトラッキングしやすい「特徴点」と呼ばれる点が抽出される。そして、この特徴点の動きを解析することにより乗員の手の動きを判別し、その動きが意味するユーザの意思をユーザ操作データとして窓開閉制御装置13に送出する。図4は、このような認識・解析処理を行うジェスチャ認識装置12の構成を示すブロック図である。 The gesture recognition device 12 recognizes a gesture of an occupant based on the image data from the camera 11. Image data of an occupant's hand is sequentially input from the camera 11 to the gesture recognition device 12, and points called “feature points” that are easy to track are extracted from the input image. Then, the movement of the feature point is analyzed to determine the movement of the occupant's hand, and the intention of the user indicated by the movement is sent to the window opening/closing control device 13 as user operation data. FIG. 4 is a block diagram showing the configuration of the gesture recognition device 12 that performs such recognition/analysis processing.

図4に示すように、ジェスチャ認識装置12には、画像データから「特徴点」を選び出す特徴点抽出部21と、各特徴点に付随する特徴ベクトルを算出する特徴ベクトル算出部22が設けられている。また、特徴ベクトル算出部22の後段には、特徴ベクトルを比較し特徴点の動きを検出する特徴ベクトルトラッキング部23と、特徴ベクトルトラッキング部23にて検出された特徴点の動き(位置の変化)を各特徴点の動きベクトルとして算出する動きベクトル算出部24が設けられている。 As shown in FIG. 4, the gesture recognition device 12 is provided with a feature point extraction unit 21 that selects “feature points” from image data, and a feature vector calculation unit 22 that calculates a feature vector associated with each feature point. There is. Further, in the subsequent stage of the feature vector calculation unit 22, a feature vector tracking unit 23 that compares the feature vectors and detects the movement of the feature point, and a movement of the feature point (change in position) detected by the feature vector tracking unit 23. A motion vector calculation unit 24 is provided for calculating as the motion vector of each feature point.

さらに、ジェスチャ認識装置12には、動きベクトルの時間的な変化に関する時系列データを算出する動きベクトル処理部25と、動きベクトル処理部25にて得られた時系列データを所定の判別閾値を用いて解析する動きベクトル解析部26、動きベクトル解析部26の解析結果に基づいて乗員のジェスチャの意味(窓開・窓閉)を判別するジェスチャ判別部27が設けられている。なお、ジェスチャ認識装置12には、各特徴点の特徴ベクトルや動きベクトル、動きベクトルの時系列データなどを格納するRAM28と、ジェスチャ認識装置12における各処理に関するプログラムや時系列データの解析処理に用いられる判別閾値等が格納されたROM29も設けられている。 Further, the gesture recognition device 12 uses a motion vector processing unit 25 that calculates time-series data regarding a temporal change of a motion vector, and time-series data obtained by the motion vector processing unit 25 using a predetermined determination threshold. A motion vector analysis unit 26 for performing analysis according to the above, and a gesture determination unit 27 for determining the meaning (window open/window closed) of the occupant's gesture based on the analysis result of the motion vector analysis unit 26. It should be noted that the gesture recognition device 12 uses a RAM 28 that stores a feature vector and a motion vector of each feature point, time-series data of the motion vector, etc. There is also provided a ROM 29 that stores the determination threshold value and the like.

このような装置操作システム10では、次のようにしてユーザのジェスチャを把握してドアウインド3を作動させる。図5は、ジェスチャ認識装置12における解析処理の流れを示す説明図、図6は、ジェスチャ認識装置12における解析データの流れを示すデータフローダイアグラムである。図5に示すように、ジェスチャ認識装置12ではまず、カメラ11から送られて来た画像データから、特徴点抽出部21により「特徴点」Pを抽出する(ステップS1)。特徴点Pは、画像内におけるコントラスト(明暗)差に基づき、画像のエッジ部分やコーナ部分などが、特徴らしさの指標に沿って選別される。その際、特徴らしさの指標として、明暗差などについて所定の選別閾値を、図7に示すように、手の輪郭部分や指先などに特徴点Pが300〜500個程度抽出される(図7では、簡単のため代表的な点のみを示す)ように設定する。 In such a device operation system 10, the user's gesture is grasped and the door window 3 is operated as follows. FIG. 5 is an explanatory diagram showing a flow of analysis processing in the gesture recognition device 12, and FIG. 6 is a data flow diagram showing a flow of analysis data in the gesture recognition device 12. As shown in FIG. 5, in the gesture recognition device 12, first, the “feature point” P is extracted by the feature point extraction unit 21 from the image data sent from the camera 11 (step S1). The feature points P are selected based on the contrast (brightness/darkness) difference in the image such that the edge portion and the corner portion of the image are selected according to the index of the characteristic. At that time, a predetermined selection threshold for brightness difference or the like is used as an index of the feature-likeness, and about 300 to 500 feature points P are extracted at the contour portion of the hand or the fingertip as shown in FIG. 7 (in FIG. 7, , Only representative points are shown for simplicity).

特徴点抽出部21にて抽出された特徴点Pには、それぞれに固有の「特徴ベクトル」が付随しており、特徴ベクトル算出部22は各特徴点Pのデータから特徴ベクトルを算出する(ステップS2)。この場合、特徴ベクトルとは、その特徴点の特徴量をベクトルの形で表現したものであり、例えば、文献[JRM Vol.28 No.6 pp. 887-898「Autonomous Mobile Robot Navigation Using Scene Matching with Local Features」]に記載されているような、各特徴点が持つ元々の情報をできるだけ失わないようにしたベクトルである。ここでは、明→暗に変化する方向を基準方向とし、1つの特徴点を4×4の領域に分け、それぞれの領域におけるX,Y方向の明度変化の総和(Σdx,Σdy)と、変化量の絶対値の総和(Σ|dx|,Σ|dy|)をベクトル化しており、各特徴点には4×4×4=64個の特徴ベクトルが存在する。特徴ベクトル算出部22は、各特徴点の64個の特徴ベクトルを算出し、これらはRAM28に格納される(ステップS3)。 The characteristic point P extracted by the characteristic point extraction unit 21 is associated with a unique “feature vector”, and the characteristic vector calculation unit 22 calculates the characteristic vector from the data of each characteristic point P (step S2). In this case, the feature vector represents the feature quantity of the feature point in the form of a vector. For example, the document [JRM Vol.28 No.6 pp. 887-898 “Autonomous Mobile Robot Navigation Using Scene Matching with Local Features”] is a vector in which the original information of each feature point is not lost as much as possible. Here, with the direction that changes from light to dark as the reference direction, one feature point is divided into 4×4 areas, and the total sum of brightness changes in the X and Y directions (Σdx, Σdy) and the amount of change The sum of absolute values of (Σ|dx|, Σ|dy|) is vectorized, and there are 4×4×4=64 feature vectors at each feature point. The feature vector calculation unit 22 calculates 64 feature vectors of each feature point, and these are stored in the RAM 28 (step S3).

特徴ベクトルを算出しそれをRAM28に格納した後、今度は、次にカメラ11から送られて来た画像データについて、特徴点Pの抽出と特徴ベクトルの算出を行い、それをRAM28に格納する(ステップS1→S3)。このようにして撮影時点の異なる複数の画像データについて特徴ベクトルを得た後、特徴ベクトルトラッキング部23にて、前フレームの画像データ(図8(a))と、今フレームの画像データ(図8(b))を比較する。特徴ベクトルトラッキング部23は、前フレームと今フレームの各画像データから抽出された特徴点Pを相互に比較し、最も特徴ベクトルが近似している組を探索し、組み合わせる(トラッキング処理:ステップS4)。この際、前フレーム画像内の特徴点それぞれについて、それらが備える各特徴ベクトルと、今フレーム画像内の全ての特徴点の特徴ベクトルとが比較される。すなわち、図8(c)に示すように、図8(a)の点P1は、図8(b)の全ての特徴点と比較され、このとき、図8(b)の特徴点のうち特徴ベクトルが最も近い点P2が検出され、両者が組み合わされる。これにより、各特徴点Pの時間的な動き(前フレーム→今フレーム)が把握される。特徴ベクトルトラッキング部23は、このようにして時々刻々と画像データの解析を行い、特徴ベクトルのトラッキング処理を実施する。これにより、ユーザのジェスチャが逐次解析され、ジェスチャの認識精度向上が図られる。 After calculating the feature vector and storing it in the RAM 28, this time, for the image data sent from the camera 11, the feature point P is extracted and the feature vector is calculated and stored in the RAM 28 ( Steps S1→S3). After the feature vectors are obtained in this way for a plurality of image data at different time points, the feature vector tracking unit 23 performs image data for the previous frame (FIG. 8A) and image data for the current frame (FIG. 8). Compare (b)). The feature vector tracking unit 23 mutually compares the feature points P extracted from the image data of the previous frame and the feature data of the current frame, searches for a set having the closest feature vector, and combines them (tracking process: step S4). .. At this time, for each of the feature points in the previous frame image, each feature vector included in them is compared with the feature vectors of all the feature points in the current frame image. That is, as shown in FIG. 8C, the point P1 in FIG. 8A is compared with all the feature points in FIG. 8B, and at this time, the feature point among the feature points in FIG. The point P2 having the closest vector is detected, and both are combined. As a result, the temporal movement of each feature point P (previous frame→current frame) is grasped. In this way, the feature vector tracking unit 23 analyzes the image data moment by moment and performs the feature vector tracking process. Thereby, the gesture of the user is sequentially analyzed, and the recognition accuracy of the gesture is improved.

前後の画像でトラッキングが成功したときは、組み合わされた特徴点Pは、動きベクトル算出部24により、各組ごとに位置変化が算出され「動きベクトル」(動きベクトル列)が作成される(図8(d):ステップS5)。このようにして得た動きベクトルは、動きベクトル処理部25にて、統計的な処理が行われ、それらの中から、動きの小さいものや、極端に大きいものを、閾値を設けて取り除く。そして、残った動きベクトルの平均を取り、その時点の動きベクトルの代表値とし(ステップS6)、これを平均ベクトルとしてRAM28に逐次蓄積する(ステップS7)。 When the tracking succeeds in the images before and after, the position change of the combined feature point P is calculated for each set by the motion vector calculation unit 24 to create a “motion vector” (motion vector sequence) (FIG. 8(d): step S5). The motion vector thus obtained is statistically processed by the motion vector processing unit 25, and those having a small motion and those having an extremely large motion are removed by setting a threshold value. Then, the average of the remaining motion vectors is calculated and used as the representative value of the motion vector at that time (step S6), and this is successively stored in the RAM 28 as the average vector (step S7).

ステップS6の処理を逐次画像が入力されるごとに実行すると、動きベクトルの時間的な変化が分かる。そこで、動きベクトル処理部25は、RAM28に蓄積された平均ベクトルから、図8(e)に示すような動きベクトル(平均ベクトル)の時間的な変化データ(時系列データ)を作成する。その際、カメラ11が30fpsのフレームレートで撮影を行っている場合には、1秒間の平均ベクトルを集めた場合、30個の平均ベクトルによる時系列データが得られる。 When the process of step S6 is executed every time an image is sequentially input, the temporal change of the motion vector can be known. Therefore, the motion vector processing unit 25 creates temporal change data (time series data) of the motion vector (average vector) as shown in FIG. 8E from the average vector accumulated in the RAM 28. At that time, when the camera 11 is shooting at a frame rate of 30 fps, when the average vectors for 1 second are collected, time-series data of 30 average vectors is obtained.

このようにして、動きベクトルの時系列データを作成した後、動きベクトル解析部26にて、所定時間分(例えば、1秒)の時系列データ(図9(b))について周波数解析(例えば、FFT(Fast Fourier Transform:高速フーリエ変換)解析)を行う(ステップS8)。FFT解析により、図9(a)に示すような、時間とサンプル数に応じた周波数ごとの振幅値が得られる。なお、円を描くように手を動かすと、動きベクトルのX成分とY成分が、図9(b)のように、位相が90°ずれた正弦波状になり動きが判別しやすい。このため、当該システム10では、ユーザの指示に円運動のジェスチャ(手回し動作)を採用している。 After creating the time-series data of the motion vector in this way, the motion vector analysis unit 26 performs frequency analysis (eg, FFT (Fast Fourier Transform) analysis is performed (step S8). By the FFT analysis, the amplitude value for each frequency according to time and the number of samples as shown in FIG. 9A is obtained. It should be noted that when the hand is moved in a circle, the X and Y components of the motion vector become sinusoidal with the phase shifted by 90° as shown in FIG. 9B, and the motion can be easily identified. Therefore, the system 10 employs a circular motion gesture (hand-turning motion) for the user's instruction.

動きベクトル解析部26による解析の後、ジェスチャ判別部27では、その解析結果から、動きベクトルの振幅の大きさや、周波数の範囲、X成分とY成分の位相差などの各項目について、所定の閾値と比較を行い、ジェスチャ動作の意味(ユーザの意図)を判断する(ステップS9)。この場合、(1)振幅、(2)周波数の範囲、(3)位相差の各項目については、次のような判別閾値が設定されており、ジェスチャ判定はポイント制となっている。ジェスチャ判別部27は、各閾値に設定されたポイントを加算し、それが所定の基準値を超えたとき、ユーザから開・閉のサインが発せられたと判別する。これらの閾値やポイントはROM29に格納されている。 After the analysis by the motion vector analysis unit 26, the gesture determination unit 27 determines, from the analysis result, a predetermined threshold value for each item such as the magnitude of the amplitude of the motion vector, the frequency range, and the phase difference between the X component and the Y component. And the meaning of the gesture motion (user's intention) is determined (step S9). In this case, the following determination thresholds are set for the items (1) amplitude, (2) frequency range, and (3) phase difference, and the gesture determination is a point system. The gesture determination unit 27 adds the points set to the respective threshold values, and when it exceeds a predetermined reference value, determines that the user has issued an open/closed sign. These thresholds and points are stored in the ROM 29.

《判別閾値の例》
(1)振幅
・振幅の大きさ第1下限:150[pix/dt]→2pt
・振幅の大きさ第2下限:100[pix/dt]→1pt
(2)周波数範囲
・周波数の下限:0.5[Hz]
・周波数の上限:3.1[Hz]
→上限〜下限の範囲に入り、かつX成分とY成分の周波数が同値であれば2pt
→X成分とY成分の周波数が共に上限〜下限の範囲に入れば1pt
(3)位相差(X成分とY成分)
・位相差の第1範囲:60−120[deg]→2pt
・位相差の第2範囲:30−150[deg]→1pt
<<Example of discrimination threshold>>
(1) Amplitude-Magnitude of amplitude First lower limit: 150 [pix/dt]→2pt
Second magnitude lower limit of amplitude: 100 [pix/dt]→1 pt
(2) Frequency range ・Lower frequency limit: 0.5 [Hz]
・Upper limit of frequency: 3.1 [Hz]
→ 2pt if the upper and lower limits are entered and the frequencies of the X and Y components are the same
→ 1 pt if both X and Y component frequencies fall within the upper and lower limits
(3) Phase difference (X component and Y component)
First phase difference range: 60-120 [deg]→2pt
Second range of phase difference: 30-150 [deg]→1pt

(1)振幅
前記判別閾値では、振幅の大きさは、ユーザの手の動きの範囲に対応しており、手回し動作の場合、X成分とY成分共にピーク値が存在する(手をスライド動作させた場合には、スライド動作方向と異なる成分のピーク値が出にくい)。また、振幅の値は円の直径に相当する。この場合、振幅が100[pix/dt]未満の状態は、ユーザの動きが小さいことを意味しており、ノイズも多くなるため、ユーザのサインはなし、と判断する。振幅の大きさが100〜150の場合は、ユーザの手の動きはある程度大きく、円運動の可能性はあるがサインではない可能性もある。一方、150を超えた場合には、サインとしての円運動と判断できる。したがって、評価ポイントして、振幅が100〜150の場合は1pt、150を超えた場合は2ptを付与する。
(1) Amplitude In the discrimination threshold, the magnitude of the amplitude corresponds to the range of movement of the user's hand, and in the case of the hand-turning operation, there are peak values for both the X component and the Y component (when the hand is slid, If it is, the peak value of the component different from the sliding direction is hard to appear). The value of the amplitude corresponds to the diameter of the circle. In this case, the state in which the amplitude is less than 100 [pix/dt] means that the movement of the user is small, and since the noise also increases, it is determined that there is no sign of the user. When the magnitude of the amplitude is 100 to 150, the movement of the user's hand is large to some extent, and there is a possibility of circular movement, but there is also a possibility that it is not a sign. On the other hand, when it exceeds 150, it can be determined that the circular motion is a sign. Therefore, as an evaluation point, 1 pt is given when the amplitude is 100 to 150, and 2 pt is given when the amplitude exceeds 150.

(2)周波数範囲
次に、周波数範囲は、ユーザの手の動きの速さに対応しており、振幅がピーク値を示す周波数が上限以上ではサインとしては動きが早すぎ、下限以下では動きが遅すぎる。このため、上限・下限を外れた場合は、ユーザのサインである可能性が低い。これに対し、上限〜下限の範囲に入ればユーザのサインである可能性が高い。そこで、周波数が上限〜下限に入った場合は1ptを付与する。また、手回し動作の場合、理想的な円運動であれば、X成分とY成分共に同じ周波数になる可能性が高い。したがって、周波数が上限〜下限に入り、かつX成分とY成分で同値となった場合は2ptを付与する。図9(a)では、2Hz付近に振幅のピーク値があり、これは、1秒間に2回転程度の円運動のサインをユーザが発している状態を示している。
(2) Frequency range Next, the frequency range corresponds to the speed of movement of the user's hand. When the frequency at which the amplitude shows the peak value is higher than the upper limit, the sign is too fast, and when the frequency is lower than the lower limit, the hand is moving. Too late. Therefore, if the upper and lower limits are exceeded, it is unlikely that it is the user's signature. On the other hand, if it falls within the range from the upper limit to the lower limit, it is highly likely that it is the user's signature. Therefore, 1 pt is given when the frequency falls between the upper limit and the lower limit. Further, in the case of a hand-turning operation, if it is an ideal circular movement, it is highly possible that the X component and the Y component have the same frequency. Therefore, when the frequency is in the upper limit to the lower limit and the X component and the Y component have the same value, 2pt is given. In FIG. 9A, there is a peak value of amplitude near 2 Hz, which indicates a state in which the user is issuing a sign of a circular motion of about two revolutions per second.

(3)位相差
図9(b)に示したX成分とY成分の位相差は、ユーザのサインが完全な円運動であれば90度となる。このため、第1範囲ならば円運動と判断し2pt、第2範囲ならば疑いの余地が残るため1ptとし、それ以外の範囲の場合には円運動ではないと判断しポイントは付与しない。そして、ジェスチャ判別部27は、各項目のポイントを加算し、3要素をどれだけ満たしているかによって判別する。すなわち、5ptを取得した場合は、「ジェスチャあり:円運動」と判断する。一方、5ptに満たない場合は、ジェスチャがあったものの窓開閉を求めるユーザのサインではない、として「操作なし」と判断する。なお、位相差の判定に際しては、位相差算出の容易性から、最大振幅となる周波数(図9(a)では2Hz)の動きベクトルの位相差を用いることが好適である。
(3) Phase Difference The phase difference between the X component and the Y component shown in FIG. 9B is 90 degrees if the user's sine is a perfect circular motion. Therefore, if it is in the first range, it is determined to be circular motion and it is 2 pt, and if it is in the second range, there is room for doubt, so it is set to 1 pt. Then, the gesture determination unit 27 adds the points of each item and determines whether the three elements are satisfied. That is, when 5 pt is acquired, it is determined to be “with gesture: circular motion”. On the other hand, when it is less than 5 pt, it is determined that there is a gesture, but it is not the user's signature for opening and closing the window, and “no operation” is determined. When determining the phase difference, it is preferable to use the phase difference of the motion vector of the frequency having the maximum amplitude (2 Hz in FIG. 9A) from the viewpoint of ease of calculating the phase difference.

ジェスチャ判別部27は、動きベクトルの解析結果から、ユーザの手の動きを円運動と判断した場合には、さらに位相差に基づいて運動方向を判別する。そして、開・閉何れのサインであるかを見極め、ユーザ操作データとして窓開閉制御装置13に送出する。すなわち、ジェスチャ判別部27は、ユーザの手の動きを左回転(第1方向)と判断した場合には、「窓開け」のユーザ操作データを、右回転(第2方向)と判断した場合には、「窓閉め」のユーザ操作データを窓開閉制御装置13に出力する。なお、「操作なし」の場合には、スイッチ8を操作しない場合と同様に、特に信号は出力されない。 When the gesture determination unit 27 determines that the movement of the user's hand is a circular movement from the analysis result of the motion vector, the gesture determination unit 27 further determines the movement direction based on the phase difference. Then, it determines whether the sign is open or closed, and sends it to the window opening/closing control device 13 as user operation data. That is, when the gesture determination unit 27 determines that the movement of the user's hand is left rotation (first direction), the gesture determination unit 27 determines that the user operation data “open window” is right rotation (second direction). Outputs the user operation data of "window closing" to the window opening/closing control device 13. In the case of "no operation", no signal is output, as in the case where the switch 8 is not operated.

このようにして、ジェスチャ認識装置12は、カメラ11にて撮影された画像データを解析してユーザの指示を認識し、ユーザ操作データを出力する。そして、これを受けた窓開閉制御装置13は、ジェスチャ認識装置12の認識結果に基づいてモータ4を駆動する。これにより、ユーザのジェスチャ指示に沿ってドアウインド3が昇降され、窓の開放・閉鎖動作が行われる。 In this way, the gesture recognition device 12 analyzes the image data captured by the camera 11, recognizes the user's instruction, and outputs the user operation data. Then, the window opening/closing control device 13 that has received this drives the motor 4 based on the recognition result of the gesture recognition device 12. As a result, the door window 3 is moved up and down according to the user's gesture instruction, and the window opening/closing operation is performed.

以上のように、本発明の装置操作システム10では、ユーザのジェスチャ(ここでは手の動き)により、ドアウインド3の開閉を自在に行うことができる。具体的には、概ね直径15cm程度の円を描くように指を1周回すことにより、窓の開閉を行うことができる。このため、パワーウインド開閉スイッチの位置や形状等が分からなくても、スイッチに触れることなく、ユーザの意思通りに窓の開閉操作を行うことができる。したがって、レンタカーやカーシェアリングなど、メーカーや車種の異なる自動車を運転する場合でも、一定のジェスチャにて窓の開閉を行うことができ、慣れない車や暗いときでも容易に窓の開閉を行うことができる。また、例えば、助手席で食事をするなどして手が汚れている人でも、窓の開閉操作を行うことができる。 As described above, in the device operating system 10 of the present invention, the door window 3 can be freely opened and closed by the gesture of the user (hand movement in this case). Specifically, the window can be opened and closed by making one turn of the finger so as to draw a circle having a diameter of about 15 cm. Therefore, even if the position, shape, etc. of the power window opening/closing switch are not known, the window opening/closing operation can be performed according to the user's intention without touching the switch. Therefore, it is possible to open and close the window with a certain gesture even when driving cars of different manufacturers and car types such as car rental and car sharing, and it is easy to open and close the window even in an unfamiliar car or in the dark. it can. Further, for example, even a person whose hands are dirty by eating at the passenger seat can open and close the window.

さらに、例えば、手指に障害があるなど、従来の操作スイッチでは操作が困難な人でも、窓の開閉操作を行うことができる。加えて、スイッチ操作が単純かつ簡便なため、ドライバーの注意を削ぐことなく窓の開閉を行うことができ、運転時の安全性向上も図られる。なお、ユーザのジェスチャは手の動きに限定されず、例えば、頭や足、腕など、ユーザの他の部位の身体の動きに応じて機器を作動させることも可能である。その場合、手や足が不自由な人でも各種機器の操作ができるようになることから、本発明の装置操作システムは、福祉機器の操作インターフェースとしても応用可能である。 Further, for example, even a person who has a difficulty in operating a conventional operation switch, such as a hand or finger obstacle, can open and close the window. In addition, since the switch operation is simple and convenient, it is possible to open and close the window without taking the driver's attention, which improves safety during driving. It should be noted that the gesture of the user is not limited to the movement of the hand, and the device can be operated according to the movement of the body of other parts of the user such as the head, legs, and arms. In this case, since even a person with a hand or foot disability can operate various devices, the device operation system of the present invention can be applied as an operation interface of a welfare device.

(実施の形態2)
次に、本発明の実施の形態2として、ユーザが窓を開閉したいサインを発している間だけ窓の開閉を行い、ドアウインドを任意の位置で止められるようにしたシステムについて説明する。図10は、本発明の実施の形態2である装置操作システムの構成を示すブロック図である。なお、実施の形態2では、実施の形態1と同様の部分や部材、処理等については、実施の形態1と同一の番号を付しその説明は省略する。
(Embodiment 2)
Next, as a second embodiment of the present invention, a system will be described in which the window is opened and closed only while the user is issuing a sign to open and close the window, and the door window can be stopped at an arbitrary position. FIG. 10 is a block diagram showing the configuration of the device operation system according to the second embodiment of the present invention. In the second embodiment, the same parts, members, processes and the like as those in the first embodiment are designated by the same reference numerals as those in the first embodiment and the description thereof is omitted.

図10に示すように、実施の形態2の装置操作システム30(以下、適宜システム30と略記する)では、カメラ11と窓開閉制御装置13との間に、ジェスチャ認識装置12とジェスチャ停止認識装置31を備えたジェスチャ判定装置32が設けられている。図11は、ジェスチャ停止認識装置31の構成を示すブロック図であり、ジェスチャ認識装置12におけるジェスチャ判別部27(図4参照)に代えて、ジェスチャ停止動作判別部33が設けられている。なお、ジェスチャ停止認識装置31とジェスチャ認識装置12は、ジェスチャ停止動作判別部33とジェスチャ判別部27を除く部分を共用しており、ジェスチャ判定装置32では、ジェスチャ停止とジェスチャ認識は同時に処理される。 As shown in FIG. 10, in the device operation system 30 (hereinafter, appropriately abbreviated as system 30) of the second embodiment, the gesture recognition device 12 and the gesture stop recognition device are provided between the camera 11 and the window opening/closing control device 13. A gesture determination device 32 including 31 is provided. FIG. 11 is a block diagram showing the configuration of the gesture stop recognition device 31, and a gesture stop operation determination unit 33 is provided instead of the gesture determination unit 27 (see FIG. 4) in the gesture recognition device 12. It should be noted that the gesture stop recognition device 31 and the gesture recognition device 12 share a part except the gesture stop operation determination unit 33 and the gesture determination unit 27, and the gesture determination device 32 processes the gesture stop and the gesture recognition at the same time. ..

ジェスチャ停止認識装置31は、動きベクトル処理部25によって統計処理された動きベクトルを、動きベクトル解析部26とジェスチャ停止動作判別部33にて解析処理し、ユーザの開閉サインが止まっている(ユーザの手の動きが止まっている)と判別したとき、窓開閉制御装置13に対し操作停止データを出力する。窓開閉制御装置13は、ジェスチャ認識装置12から入力される操作データとジェスチャー停止認識装置31から入力される操作停止データとに基づいて窓の動作を決定し、モータ4に供給する電力を制御し、ドアウインド3を作動あるいは停止させる。 In the gesture stop recognition device 31, the motion vector statistically processed by the motion vector processing unit 25 is analyzed by the motion vector analysis unit 26 and the gesture stop operation determination unit 33, and the opening/closing sign of the user is stopped. When it is determined that the movement of the hand has stopped), the operation stop data is output to the window opening/closing control device 13. The window opening/closing control device 13 determines the operation of the window based on the operation data input from the gesture recognition device 12 and the operation stop data input from the gesture stop recognition device 31, and controls the power supplied to the motor 4. , Activate or deactivate the door window 3.

このようなシステム30では、次のようにしてジェスチャの停止が判断される。この場合、システム30においても、実施の形態1のシステム10と同様の処理により、カメラ11の画像データからユーザの手の特徴点Pを抽出してトラッキング処理を行い、動きベクトルを作成する。そして、この動きベクトルを統計処理した後、動きベクトルの絶対値総和を取り、所定の閾値と比較し、総和が閾値未満の場合は開閉サインが止まったと判断する。図12は、その際のジェスチャ停止認識装置31における特徴点とそのトラッキング処理およびその後のジェスチャ停止判定に関する説明図、図13は、ジェスチャ判定装置32における解析処理の流れを示す説明図である。 In such a system 30, the stop of the gesture is determined as follows. In this case, also in the system 30, the characteristic point P of the user's hand is extracted from the image data of the camera 11 and tracking processing is performed by the same processing as the system 10 of the first embodiment to create a motion vector. Then, after statistically processing this motion vector, the absolute value sum of the motion vectors is calculated and compared with a predetermined threshold value. If the sum total is less than the threshold value, it is determined that the opening/closing sign has stopped. FIG. 12 is an explanatory diagram relating to the feature point and its tracking process in the gesture stop recognition device 31 at that time, and a gesture stop determination after that, and FIG. 13 is an explanatory diagram showing a flow of the analysis process in the gesture determination device 32.

システム30では、ジェスチャ停止認識装置31もジェスチャ認識装置12と同様に、カメラ11から送られて来た画像データから、特徴点抽出部21により「特徴点」Pを抽出する(ステップS1)。特徴点抽出部21にて特徴点Pを抽出した後、特徴ベクトル算出部22により、各特徴点Pに固有の「特徴ベクトル」を各特徴点Pのデータから算出する(ステップS2)。算出された特徴ベクトルは、RAM28に格納される(ステップS3)。現時点の特徴ベクトルをRAM28に格納した後、次の画像データについて、特徴点Pの抽出と特徴ベクトルの算出を行い、それをRAM28に格納する(ステップS1→S3)。 In the system 30, the gesture stop recognition device 31 also extracts the “feature point” P from the image data sent from the camera 11 by the feature point extraction unit 21 similarly to the gesture recognition device 12 (step S1). After the characteristic points P are extracted by the characteristic point extracting unit 21, the characteristic vector calculating unit 22 calculates a "characteristic vector" unique to each characteristic point P from the data of each characteristic point P (step S2). The calculated feature vector is stored in the RAM 28 (step S3). After storing the current feature vector in the RAM 28, the feature point P is extracted and the feature vector is calculated for the next image data, and the extracted feature vector is stored in the RAM 28 (steps S1→S3).

撮影時点の異なる複数の画像データについて特徴ベクトルを得た後、特徴ベクトルトラッキング部23にて、前フレームの画像データ(図12(a))と、今フレームの画像データ(図12(b))を比較し、図12(c)に示すように、最も特徴ベクトルが近似している組を探索し(例えば、点P1と点P2)、組み合わせる(トラッキング処理:ステップS4)。この際、先の実施の形態1と同様に、全ての特徴点の特徴ベクトルが比較される。これにより、各特徴点Pの時間的な動き(前フレーム→今フレーム)が把握される。特徴ベクトルトラッキング部23は、このようにして時々刻々と画像データの解析を行い、特徴ベクトルのトラッキング処理を実施する。 After obtaining the feature vector for a plurality of image data at different time points, the feature vector tracking unit 23 performs the image data of the previous frame (FIG. 12A) and the image data of the current frame (FIG. 12B). 12C, as shown in FIG. 12C, a set having the closest feature vector is searched (for example, point P1 and point P2) and combined (tracking process: step S4). At this time, similar to the first embodiment, the feature vectors of all feature points are compared. As a result, the temporal movement of each feature point P (previous frame→current frame) is grasped. In this way, the feature vector tracking unit 23 analyzes the image data moment by moment and performs the feature vector tracking process.

前後の画像でトラッキングが成功したときは、組み合わされた特徴点Pは、動きベクトル算出部24により、各組ごとに位置変化が算出され「動きベクトル」(動きベクトル列)が作成される(図12(d):ステップS5)。動きベクトルは、動きベクトル処理部25にて、統計的な処理が行われ、それらの中から、動きの小さいものや、極端に大きいものを、閾値を設けて取り除く(ステップS6)。 When the tracking succeeds in the images before and after, the position change of the combined feature point P is calculated for each set by the motion vector calculation unit 24 to create a “motion vector” (motion vector sequence) (FIG. 12(d): Step S5). The motion vectors are statistically processed by the motion vector processing unit 25, and those having a small motion or those having an extremely large motion are removed by setting a threshold value (step S6).

ジェスチャ停止認識装置31では、このようにして統計処理され残った動きベクトルについて、動きベクトル解析部26にて、各ベクトルのX成分とY成分を求め、両者の総和(絶対値の和ΣV=Σ|dX|+Σ|dY|)を求める(図12(e):ステップS11)。これにより、ユーザの手の動きの大きさが数値として把握される。そして、ジェスチャ停止動作判別部33により、この総和ΣVを所定の閾値Thと比較し(図12(f):ステップS12)、総和ΣVが閾値Th未満の場合(ΣV<Th)、ユーザのジェスチャが止まっている、すなわち、ユーザの開閉サインが止まったと判断し、操作停止データを窓開閉制御装置13に送出する。窓開閉制御装置13は、操作停止データが入力されると、モータ4を停止させ、これにより、ドアウインド3の開閉動作が停止する。 In the gesture stop recognition device 31, the motion vector analysis unit 26 obtains the X component and the Y component of each of the remaining motion vectors statistically processed in this manner, and the sum of the two (sum of absolute values ΣV=Σ |dX|+Σ|dY|) is obtained (FIG. 12(e): step S11). Thereby, the magnitude of the movement of the user's hand is grasped as a numerical value. Then, the gesture stop operation determination unit 33 compares the total sum ΣV with a predetermined threshold Th (FIG. 12(f): step S12). When the total sum ΣV is less than the threshold Th (ΣV<Th), the user's gesture is It is judged that the user has stopped, that is, the user's opening/closing sign is stopped, and the operation stop data is sent to the window opening/closing control device 13. When the operation stop data is input, the window opening/closing control device 13 stops the motor 4, thereby stopping the opening/closing operation of the door window 3.

一方、ステップS12にて、総和ΣVが閾値Th以上(ΣV≧Th)の場合は、ユーザのジェスチャは止まっていないと判断し、ステップS7に進む。その場合、ステップS7以下の処理は、実施の形態1のシステム10と同様に、ジェスチャ認識装置12にて実施され、窓開閉制御装置13には操作データが送出される。 On the other hand, if the total sum ΣV is equal to or greater than the threshold Th (ΣV≧Th) in step S12, it is determined that the user's gesture has not stopped, and the process proceeds to step S7. In that case, the processing from step S7 onward is performed by the gesture recognition device 12 similarly to the system 10 of the first embodiment, and the operation data is sent to the window opening/closing control device 13.

このように、実施の形態2のシステム30では、ジェスチャ停止認識装置31により、ユーザのジェスチャが停止したことを認識できる。このため、ユーザがジェスチャを行っている間だけ窓の開閉動作を行うことができる。この点、実施の形態1のシステム10は、ジェスチャの認識結果に基づきパワーウインド装置を動作させると、窓が全開閉するまで動作するが、当該システム30では、開閉動作の途中で窓を止めることができ、窓の開閉位置の微調整も可能となる。また、窓の全開閉位置に加えて、その途中の位置であっても窓を開閉させることが可能となる。 As described above, in the system 30 according to the second embodiment, the gesture stop recognition device 31 can recognize that the gesture of the user has stopped. Therefore, the window opening/closing operation can be performed only while the user is gesturing. In this respect, the system 10 according to the first embodiment operates until the window is completely opened and closed when the power window device is operated based on the recognition result of the gesture, but in the system 30, the window is stopped during the opening and closing operation. It is also possible to make fine adjustments to the opening and closing positions of the windows. Further, in addition to the full opening/closing position of the window, it is possible to open/close the window at an intermediate position.

本発明は前記実施形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることは言うまでもない。
前述の実施形態では、予めROM29に格納した閾値によって、FFT解析後のデータを判定しているが、教師付学習のAI(Artificial Intelligence)によるニューラルネットワーク判定を行っても良い。この場合、例えば、複数人分(50人分など)の開閉ジェスチャ動作の画像データやFFT解析結果、開閉ジェスチャではない画像データやFFT解析結果をROM29に格納し、ジェスチャ判別部27にパターン学習させてジェスチャ判定を行わせる。
It is needless to say that the present invention is not limited to the above-mentioned embodiment and can be variously modified without departing from the gist thereof.
In the above-described embodiment, the data after the FFT analysis is determined by the threshold value stored in the ROM 29 in advance, but the neural network determination by AI (Artificial Intelligence) of supervised learning may be performed. In this case, for example, the image data of the opening/closing gesture operation for a plurality of people (such as 50 people), the FFT analysis result, the image data other than the opening/closing gesture and the FFT analysis result are stored in the ROM 29, and the gesture discrimination unit 27 is made to learn the pattern. To make gesture determination.

また、カメラ11の設置位置は、図3のようなドア2の前端部には限定されず、乗員のジェスチャを検知できる位置であれば、窓開口部6の下端部(図14)やドアパネル7の上縁部、アームレスト、インストルメントパネルなどに設置することも可能である。さらに、パワーウインド装置1の構成も図1のようなXアーム式のものには限定されない。 Further, the installation position of the camera 11 is not limited to the front end portion of the door 2 as shown in FIG. 3, and the lower end portion of the window opening 6 (FIG. 14) and the door panel 7 may be provided as long as the gesture of the occupant can be detected. It can also be installed on the upper edge, armrests, instrument panel, etc. Furthermore, the configuration of the power window device 1 is not limited to the X arm type as shown in FIG.

一方、ユーザのジェスチャ動作も、手回し動作ではなく、上下や左右などの往復動作としても良く、この場合もFFTを用いた解析・判別が可能である。また、手回し速度により開閉状態を変化させることも可能であり、例えば、ユーザが手を早く回しているときは全開・全閉(オート)モードとなるようにしても良い。さらに、ユーザが指し示す位置に窓を停止させる機能を付加することも可能である。加えて、ジェスチャ動作以外に、音声認識による指示を併用することも可能である。 On the other hand, the gesture motion of the user may be a reciprocating motion such as up and down or left and right instead of a hand-turning motion, and in this case, analysis/discrimination using FFT is also possible. It is also possible to change the open/closed state depending on the hand-turning speed. For example, when the user is turning the hand quickly, the full-open/full-close (auto) mode may be set. Further, it is possible to add a function of stopping the window at the position pointed by the user. In addition to the gesture operation, it is possible to use an instruction by voice recognition together.

本発明による装置操作システムは、自動車のパワーウインド装置以外にも適用可能であり、スイッチ操作に基づいて作動する被作動装置として、エアコンやカーオーディオにも適用できる。この場合、エアコンやカーオーディオのスイッチ類をモータ駆動可能な構成とし、ジェスチャにより、温度やボリュームのアップ・ダウン(例えば、右回転の手回しはアップ、左回転はダウン)などを指示するような設定も可能である。また、電動サンルーフ装置や電動スライドドア、電動リアゲート、電動リクライニング装置、ワイパ装置などを被作動装置とし、それらの操作に本発明を適用することも可能である。 The device operation system according to the present invention can be applied to not only the power window device of an automobile, but also an air conditioner or a car audio as an actuated device that operates based on a switch operation. In this case, the switches of the air conditioner and car audio can be driven by a motor, and the gesture is used to instruct up and down of temperature and volume (for example, manual rotation of right rotation is up, left rotation is down). Is also possible. Further, it is also possible to apply an electric sunroof device, an electric slide door, an electric rear gate, an electric reclining device, a wiper device, and the like to the actuated device, and apply the present invention to the operation thereof.

1 パワーウインド装置
2 ドア
3 ドアウインド
4 モータ
5 ウインドレギュレータ
6 窓開口部
7 ドアパネル
8 パワーウインド開閉スイッチ
9 ハンドル
10 装置操作システム
11 カメラ
12 ジェスチャ認識装置
13 窓開閉制御装置
21 特徴点抽出部
22 特徴ベクトル算出部
23 特徴ベクトルトラッキング部
24 動きベクトル算出部
25 動きベクトル処理部
26 動きベクトル解析部
27 ジェスチャ判別部
28 RAM
29 ROM
30 装置操作システム
31 ジェスチャ停止認識装置
32 ジェスチャ判定装置
33 ジェスチャ停止動作判別部
P 特徴点
1 power window device 2 door 3 door window 4 motor 5 window regulator 6 window opening 7 door panel 8 power window opening/closing switch 9 handle 10 device operation system 11 camera 12 gesture recognition device 13 window opening/closing control device 21 feature point extraction unit 22 feature vector Calculation unit 23 Feature vector tracking unit 24 Motion vector calculation unit 25 Motion vector processing unit 26 Motion vector analysis unit 27 Gesture determination unit 28 RAM
29 ROM
30 device operation system 31 gesture stop recognition device 32 gesture determination device 33 gesture stop operation determination unit P feature point

Claims (15)

装置使用者によるスイッチ操作に基づいて作動する被作動装置の操作システムであって、
前記被作動装置を作動させるための駆動部と、
前記装置使用者のジェスチャを撮影する撮影部と、
前記撮影部にて撮影された画像データを解析し、該ジェスチャによる前記装置使用者の指示を認識するジェスチャ認識部と、
前記ジェスチャ認識部における認識結果に基づき、前記装置使用者の指示に従って前記駆動部の動作を制御する制御部と、を有することを特徴とする装置操作システム。
An operating system for an operated device, which operates based on a switch operation by a device user,
A drive unit for operating the actuated device,
A photographing unit for photographing the gesture of the device user,
A gesture recognition unit that analyzes image data captured by the image capturing unit and recognizes an instruction of the device user due to the gesture;
A device operation system comprising: a control unit that controls the operation of the drive unit according to an instruction from the device user based on a recognition result of the gesture recognition unit.
請求項1記載の装置操作システムにおいて、
前記ジェスチャは前記装置使用者の身体の動きであり、前記装置使用者は前記身体の動きにより前記被作動装置の動作を指示し、
前記撮影部は、前記装置使用者の前記身体の動きを撮影し、
前記ジェスチャ認識部は、前記身体の動きから前記装置使用者の指示を認識し、
前記制御部は、前記装置使用者の前記身体の動きによる指示に基づいて前記駆動部の動作を制御することを特徴とする装置操作システム。
The device operating system according to claim 1,
The gesture is a movement of the device user's body, and the device user instructs movement of the actuated device by the movement of the body,
The photographing unit photographs the movement of the body of the device user,
The gesture recognition unit recognizes an instruction of the device user from the movement of the body,
The device operation system, wherein the control unit controls the operation of the drive unit based on an instruction by the body movement of the device user.
請求項1又は2記載の装置操作システムにおいて、
前記制御部は、前記ジェスチャの運動方向に基づいて、前記被作動装置の動作形態を制御することを特徴とする装置操作システム。
The device operating system according to claim 1 or 2,
The device operation system, wherein the control unit controls an operation form of the actuated device based on a movement direction of the gesture.
請求項1〜3の何れか1項に記載の装置操作システムにおいて、
前記ジェスチャ認識部は、
前記画像データから、複数個の特徴点を選び出す特徴点抽出部と、
前記各特徴点に付随する特徴ベクトルを算出する特徴ベクトル算出部と、
撮影時点を異にする複数の前記画像データの前記特徴ベクトルを比較し、前記特徴ベクトルが近似する前記特徴点を検出し、該特徴点の時間的な動きを把握する特徴ベクトルトラッキング部と、
前記特徴ベクトルトラッキング部にて把握した前記特徴点の動きを該特徴点の動きベクトルとして算出する動きベクトル算出部と、
複数の前記動きベクトルから、前記動きベクトルの時間的な変化を示す時系列データを作成する動きベクトル処理部と、
前記動きベクトル処理部にて得られた前記時系列データを所定の判別閾値を用いて解析する動きベクトル解析部と、
前記動きベクトル解析部の解析結果に基づいて、前記装置使用者のジェスチャによる指示を判別するジェスチャ判別部と、を有することを特徴とする装置操作システム。
The device operation system according to any one of claims 1 to 3,
The gesture recognition unit,
A feature point extraction unit that selects a plurality of feature points from the image data,
A feature vector calculation unit that calculates a feature vector associated with each feature point,
A feature vector tracking unit that compares the feature vectors of the plurality of image data at different image capturing times, detects the feature points that the feature vectors approximate, and grasps the temporal movement of the feature points.
A motion vector calculation unit that calculates a motion of the feature point grasped by the feature vector tracking unit as a motion vector of the feature point;
A motion vector processing unit that creates, from a plurality of the motion vectors, time-series data indicating temporal changes in the motion vectors;
A motion vector analysis unit that analyzes the time-series data obtained by the motion vector processing unit using a predetermined discrimination threshold;
A gesture determination unit that determines an instruction by a gesture of the device user based on an analysis result of the motion vector analysis unit, the device operation system.
請求項4記載の装置操作システムにおいて、
前記動きベクトル解析部は、前記時系列データのそれぞれについてFFT解析を行い、前記動きベクトルの周波数ごとの振幅値を取得し、
前記ジェスチャ判別部は、前記振幅値から、周波数の範囲と振幅の大きさについての所定の閾値に基づいて前記装置使用者のジェスチャを検出し、該ジェスチャによる前記装置使用者の指示を判別することを特徴とする装置操作システム。
The device operation system according to claim 4,
The motion vector analysis unit performs FFT analysis on each of the time-series data to obtain an amplitude value for each frequency of the motion vector,
The gesture determination unit detects a gesture of the device user from the amplitude value based on a predetermined threshold value for a frequency range and a magnitude of the amplitude, and determines an instruction of the device user by the gesture. Device operation system characterized by.
請求項4記載の装置操作システムにおいて、
前記動きベクトル解析部は、前記時系列データのそれぞれについてFFT解析を行い、
前記ジェスチャ判別部は、最大振幅となる周波数の位相差に基づいて前記装置使用者のジェスチャを検出し、該ジェスチャによる前記装置使用者の指示を判別することを特徴とする装置操作システム。
The device operation system according to claim 4,
The motion vector analysis unit performs FFT analysis on each of the time series data,
The device operation system, wherein the gesture determination unit detects a gesture of the device user based on a phase difference between frequencies having a maximum amplitude, and determines an instruction of the device user based on the gesture.
請求項1〜6の何れか1項に記載の装置操作システムにおいて、
前記被作動装置は自動車のパワーウインド装置であり、
前記撮影部は、前記自動車の乗員によるジェスチャを撮影し、
前記ジェスチャ認識部は、前記乗員のジェスチャから前記乗員からの窓の開閉についての指示を認識し、
前記制御部は、前記乗員の前記ジェスチャによる窓の開閉指示に基づいて前記駆動部の動作を制御し、前記窓の開閉を行うことを特徴とする装置操作システム。
The device operation system according to any one of claims 1 to 6,
The operated device is a power window device of an automobile,
The photographing unit photographs a gesture by an occupant of the automobile,
The gesture recognition unit recognizes an instruction from the occupant regarding opening and closing of a window from a gesture of the occupant,
The apparatus operation system, wherein the control unit controls the operation of the driving unit based on an instruction to open/close the window by the occupant's gesture to open/close the window.
請求項7記載の装置操作システムにおいて、
前記ジェスチャは前記乗員の手の動きであり、前記乗員は前記手の動きにより前記自動車の窓の開閉動作を指示し、
前記撮影部は、前記装置使用者の前記手の動きを撮影し、
前記ジェスチャ認識部は、前記手の動きから前記乗員による前記窓の開閉についての指示を認識し、
前記制御部は、前記乗員の前記手の運動方向により、前記窓の開閉動作を制御することを特徴とする装置操作システム。
The device operation system according to claim 7,
The gesture is the movement of the occupant's hand, and the occupant instructs the opening/closing operation of the window of the automobile by the movement of the hand,
The photographing unit photographs the movement of the hand of the device user,
The gesture recognition unit recognizes an instruction for opening and closing the window by the occupant from the movement of the hand,
The apparatus operation system, wherein the control unit controls the opening/closing operation of the window according to the movement direction of the hand of the occupant.
請求項8記載の装置操作システムにおいて、
前記制御部は、前記乗員の手が第1の方向に回転運動したときは前記窓を開放するよう前記駆動部を作動させ、前記乗員の手が第2の方向に回転運動したときは前記窓を閉鎖するよう前記駆動部を作動させることを特徴とする装置操作システム。
The device operation system according to claim 8,
The control unit operates the drive unit to open the window when the occupant's hand makes a rotational movement in the first direction, and the window when the occupant's hand makes a rotational movement in the second direction. A system for operating a device, characterized in that the drive is actuated to close the.
装置使用者によるスイッチ操作に基づいて作動する被作動装置の制御方法であって、
前記装置使用者のジェスチャを撮影し、
撮影された画像データを解析することにより、該ジェスチャによる前記装置使用者の指示を認識し、
前記ジェスチャの認識結果に基づき、前記装置使用者の指示に従って前記被作動装置を動作させることを特徴とする装置制御方法。
A method for controlling an actuated device that operates based on a switch operation by a device user, comprising:
Taking a picture of the gesture of the device user,
By analyzing the captured image data, the instruction of the device user by the gesture is recognized,
A device control method comprising operating the actuated device in accordance with an instruction from the device user based on the recognition result of the gesture.
請求項10記載の装置制御方法において、
前記ジェスチャは前記装置使用者の身体の動きであり、前記装置使用者は前記身体の動きにより前記被作動装置の動作を指示し、
前記身体の動きを撮影した画像データを解析することにより、前記身体の動きから前記装置使用者の指示を認識し、
前記身体の動きから認識された前記装置使用者の指示に基づいて、前記被作動装置を動作させることを特徴とする装置制御方法。
The device control method according to claim 10,
The gesture is a movement of the device user's body, and the device user instructs the operation of the actuated device by the movement of the body,
By analyzing the image data obtained by photographing the movement of the body, the instruction of the device user is recognized from the movement of the body,
A device control method comprising operating the actuated device based on an instruction from the device user recognized from the movement of the body.
請求項10又は11記載の装置制御方法において、
前記画像データから、複数個の特徴点を選び出し、
前記各特徴点に付随する特徴ベクトルを算出し、
撮影時点を異にする複数の前記画像データの前記特徴ベクトルを比較し、前記特徴ベクトルが近似する前記特徴点を検出し、該特徴点の時間的な動きを把握し、
前記特徴点の動きを該特徴点の動きベクトルとして算出し、
複数の前記動きベクトルから、前記動きベクトルの時間的な変化を示す時系列データを作成し、
前記時系列データを所定の判別閾値を用いて解析し、
前記動きベクトル解析部の解析結果に基づいて、前記装置使用者のジェスチャによる指示を判別することを特徴とする装置制御方法。
The device control method according to claim 10 or 11,
Select a plurality of feature points from the image data,
Calculating a feature vector associated with each of the feature points,
Comparing the feature vectors of the plurality of image data at different shooting times, detecting the feature points to which the feature vectors approximate, grasping the temporal movement of the feature points,
Calculating the motion of the feature point as a motion vector of the feature point,
From a plurality of the motion vectors, to create time series data showing the temporal change of the motion vector,
Analyzing the time series data using a predetermined discrimination threshold,
An apparatus control method, comprising: determining an instruction by a gesture of the apparatus user based on an analysis result of the motion vector analysis unit.
請求項12記載の装置制御方法において、
前記時系列データのそれぞれについてFFT解析を行い、前記動きベクトルの周波数ごとの振幅値を取得し、
前記振幅値から、周波数の範囲と振幅の大きさについての所定の閾値に基づいて前記装置使用者のジェスチャを検出し、該ジェスチャによる前記装置使用者の指示を判別することを特徴とする装置制御方法。
The device control method according to claim 12,
FFT analysis is performed on each of the time series data to obtain an amplitude value for each frequency of the motion vector,
From the amplitude value, a device control characterized by detecting a gesture of the device user based on a predetermined threshold value for a frequency range and a magnitude of the amplitude, and determining an instruction of the device user by the gesture. Method.
請求項12記載の装置制御方法において、
前記時系列データのそれぞれについてFFT解析を行い、
最大振幅となる周波数の位相差に基づいて前記装置使用者のジェスチャを検出し、該ジェスチャによる前記装置使用者の指示を判別することを特徴とする装置制御方法。
The device control method according to claim 12,
FFT analysis is performed on each of the time series data,
A device control method comprising detecting a gesture of the device user based on a phase difference between frequencies having the maximum amplitude, and determining an instruction of the device user due to the gesture.
請求項10〜14の何れか1項に記載の装置制御方法において、
前記被作動装置は自動車のパワーウインド装置であり、
前記ジェスチャは前記自動車の乗員の手の動きであって、前記乗員は手の動きにより前記自動車の窓の開閉動作を指示し、
前記乗員の手の動きを撮影した画像データを解析することにより、前記手の動きから前記乗員の指示を認識し、
前記手の動きから認識された前記乗員の指示に基づいて、前記パワーウインド装置を動作させ、前記窓の開閉を行うことを特徴とする装置制御方法。
The device control method according to any one of claims 10 to 14,
The operated device is a power window device of an automobile,
The gesture is a movement of a hand of an occupant of the automobile, and the occupant instructs the opening/closing operation of a window of the automobile by the movement of the hand,
By analyzing the image data of the movement of the occupant's hand, the instruction of the occupant is recognized from the movement of the hand,
A device control method comprising operating the power window device to open and close the window based on an instruction from the occupant recognized from the movement of the hand.
JP2020005275A 2019-01-23 2020-01-16 Device operation system and device control method Active JP7295046B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019008880 2019-01-23
JP2019008880 2019-01-23

Publications (2)

Publication Number Publication Date
JP2020118024A true JP2020118024A (en) 2020-08-06
JP7295046B2 JP7295046B2 (en) 2023-06-20

Family

ID=71890247

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020005275A Active JP7295046B2 (en) 2019-01-23 2020-01-16 Device operation system and device control method

Country Status (1)

Country Link
JP (1) JP7295046B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116193243A (en) * 2021-11-25 2023-05-30 荣耀终端有限公司 Shooting method and electronic equipment
EP4216563A4 (en) * 2021-11-25 2024-05-15 Honor Device Co Ltd Photographing method and electronic device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110301934A1 (en) * 2010-06-04 2011-12-08 Microsoft Corporation Machine based sign language interpreter
JP2017211884A (en) * 2016-05-26 2017-11-30 トヨタ紡織株式会社 Motion detection system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60215504T2 (en) 2002-10-07 2007-09-06 Sony France S.A. Method and apparatus for analyzing gestures of a human, e.g. for controlling a machine by gestures
JP5303355B2 (en) 2009-05-21 2013-10-02 学校法人 中央大学 Periodic gesture identification device, periodic gesture identification method, periodic gesture identification program, and recording medium
TW201636233A (en) 2015-04-14 2016-10-16 鴻海精密工業股份有限公司 Control system and control method for vehicle
JP2018206073A (en) 2017-06-05 2018-12-27 株式会社東海理化電機製作所 Remote operation system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110301934A1 (en) * 2010-06-04 2011-12-08 Microsoft Corporation Machine based sign language interpreter
JP2017211884A (en) * 2016-05-26 2017-11-30 トヨタ紡織株式会社 Motion detection system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116193243A (en) * 2021-11-25 2023-05-30 荣耀终端有限公司 Shooting method and electronic equipment
EP4210312A4 (en) * 2021-11-25 2024-03-06 Honor Device Co Ltd Photographing method and electronic device
CN116193243B (en) * 2021-11-25 2024-03-22 荣耀终端有限公司 Shooting method and electronic equipment
EP4216563A4 (en) * 2021-11-25 2024-05-15 Honor Device Co Ltd Photographing method and electronic device

Also Published As

Publication number Publication date
JP7295046B2 (en) 2023-06-20

Similar Documents

Publication Publication Date Title
US11535280B2 (en) Method and device for determining an estimate of the capability of a vehicle driver to take over control of a vehicle
CN108725357B (en) Parameter control method and system based on face recognition and cloud server
JP6030430B2 (en) Control device, vehicle and portable terminal
US7734072B2 (en) Face recognition for automatic adjustment of personalized device parameters
US9725098B2 (en) Vehicle driver identification
US20200334477A1 (en) State estimation apparatus, state estimation method, and state estimation program
JP2020118024A (en) Device operating system and device control method
KR101490908B1 (en) System and method for providing a user interface using hand shape trace recognition in a vehicle
EP3107790A1 (en) Autonomous driving system and method for same
KR101438615B1 (en) System and method for providing a user interface using 2 dimension camera in a vehicle
CN104859559B (en) The control method and device of interior environment
KR20100086262A (en) Robot and control method thereof
CN110789477B (en) Control method and device for test driving vehicle, cloud platform and vehicle-mounted intelligent equipment
US20230078074A1 (en) Methods and devices for hand-on-wheel gesture interaction for controls
CN112036468A (en) Driving operation system adjusting method, vehicle and storage medium
JP2018206073A (en) Remote operation system
CN108791119A (en) Vehicle control system and method
CN107107756B (en) Human/machine interface and method for controlling vehicle functions by detecting driver&#39;s movements and/or expressions
US20200218347A1 (en) Control system, vehicle and method for controlling multiple facilities
CN113807292A (en) Control method, device, storage medium and system for vehicle back door
CN112721565A (en) Vehicle-mounted air conditioner control method, vehicle and medium
JP2005228163A (en) Control system, and control operation determining method
US10963064B2 (en) Control device and control method
Herrmann et al. Driver/passenger discrimination for the interaction with the dual-view touch screen integrated to the automobile centre console
JP6734885B2 (en) Vehicle window control system and control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220728

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230608

R150 Certificate of patent or registration of utility model

Ref document number: 7295046

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150