JP2017211884A - Motion detection system - Google Patents

Motion detection system Download PDF

Info

Publication number
JP2017211884A
JP2017211884A JP2016105667A JP2016105667A JP2017211884A JP 2017211884 A JP2017211884 A JP 2017211884A JP 2016105667 A JP2016105667 A JP 2016105667A JP 2016105667 A JP2016105667 A JP 2016105667A JP 2017211884 A JP2017211884 A JP 2017211884A
Authority
JP
Japan
Prior art keywords
occupant
movement
motion
operation screen
motion detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016105667A
Other languages
Japanese (ja)
Inventor
朗紀 ▲高▼橋
朗紀 ▲高▼橋
Akinori Takahashi
隆一 戸次
Ryuichi Bekki
隆一 戸次
欣克 西川
Yoshikatsu Nishikawa
欣克 西川
広宣 近藤
Hironobu Kondo
広宣 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Boshoku Corp
Original Assignee
Toyota Boshoku Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Boshoku Corp filed Critical Toyota Boshoku Corp
Priority to JP2016105667A priority Critical patent/JP2017211884A/en
Publication of JP2017211884A publication Critical patent/JP2017211884A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a motion detection system that is disposed in a vehicle interior, and recognizes motions of crew members performed with respect to an operation screen for giving on-vehicle devices instructions.SOLUTION: The present motion detection system 1 is the motion detection system that detects motions of crew members to be performed to an operation screen 2 for giving an on-vehicle device 9 instructions. The motion detection system comprises: a position detection unit 4 that shoots space upward in a vertical direction of the operation screen, and detects a position of a body portion 8 of a crew member in a three-dimensional coordinate with the operation screen set as a reference; a motion detection unit 5 that creates motion information including a position of a prescribed portion of the crew member, shape thereof and movement direction thereof from information on the position obtained by the position detection unit; and a judgement unit 6 that judges an instruction of the crew member on the basis of the motion information. The judgement unit is configured to detect a motion in which the prescribed portion of the crew member stays still for a prescribed time as a start motion; and after the start motion is detected, determine the instruction of the crew member on the basis of the motion of the portion.SELECTED DRAWING: Figure 1

Description

本発明は、動き検出システムに関する。詳しくは、車室内に配設され、車載装置に指示を与えるための操作画面に対してなされる乗員の動きを認識する動き検出システムに関する。   The present invention relates to a motion detection system. More specifically, the present invention relates to a motion detection system that recognizes the motion of an occupant that is disposed in an interior of a vehicle and is operated on an operation screen for giving an instruction to an in-vehicle device.

自動車等の車両室内には、乗員用にエアコンや映像・音響装置等、各種の装置が設けられている。また、乗員がこれら車載装置を1つの操作部によって操作可能とするため、操作パネル等の入力装置が設けられている場合もある。例えば、車両の前方座席の背面等に操作パネルが設けられ、後部座席の乗員がその操作パネルをタッチ操作等することによって、エアコンの温度調整、ディスプレイの上昇・格納・チルト調整、AVコンテンツの選択やチャンネル切替え・音量調整等を可能としたものがある。このような操作パネルとして、操作スイッチ等を備えるもの、タッチパネルを備えるもの等が用いられている。しかし、こうした操作パネルにおいては、車載装置に対してどのような指示を与えるにも操作パネル面に直接触れる必要があるため、着座した使用者が安楽な姿勢のまま操作するには不便であった。   Various devices such as an air conditioner and a video / audio device are provided for passengers in a vehicle room of an automobile or the like. In addition, an input device such as an operation panel may be provided so that the occupant can operate these in-vehicle devices with one operation unit. For example, an operation panel is provided on the back of the front seat of the vehicle, etc., and an occupant in the rear seat touches the operation panel to adjust the temperature of the air conditioner, raise / store / tilt the display, and select AV content. And channel switching and volume adjustment. As such an operation panel, one provided with an operation switch or the like, one provided with a touch panel, or the like is used. However, in such an operation panel, it is necessary to directly touch the operation panel surface to give any instruction to the in-vehicle device, which is inconvenient for a seated user to operate in a comfortable posture. .

各種車載装置を非接触で操作可能とするために、使用者の手の形状等で示された情報を画像処理によって入力することができる非接触式情報入力装置が知られている。例えば、特許文献1には、撮像手段で使用者の手の形状及び距離を検出して、手の形状から操作モードを選択し、手までの距離に応じてパラメータ値の調整を行う非接触式情報入力装置が開示されている。   In order to enable various on-vehicle devices to be operated in a non-contact manner, a non-contact information input device capable of inputting information indicated by the shape of a user's hand or the like by image processing is known. For example, Patent Document 1 discloses a non-contact type in which the shape and distance of a user's hand is detected by an imaging unit, an operation mode is selected from the shape of the hand, and parameter values are adjusted according to the distance to the hand. An information input device is disclosed.

特開2005−50177号公報Japanese Patent Laid-Open No. 2005-50177

車両の乗員が安楽な着座姿勢のまま、操作パネルに触れることなくエアコンやAV装置等に対する操作をすることができれば至便である。例えば特許文献1に記載されているような非接触式情報入力装置によれば、カメラによって撮影される画像を処理することにより、手の形状や距離を検出し、各種車載装置の操作を行うことができる。また、近時では、赤外線LED及びカメラを使用し、使用者の動きを検出するために撮影した画像から掌や手指を認識することが可能な動きセンサも使用されている。このような動きセンサでは、画像処理により対象物を認識してその形状の歪みを計測したり、放射した赤外線が対象物で反射して受信されるまでの時間を計測したりして、対象物までの距離情報を得ている。また、ステレオカメラにより撮影した画像から対象物の距離情報を得るものもある。このような動きセンサを用いれば、使用者の手等の距離を含む3次元の位置情報から、車載装置の操作パネルに対して非接触でなされる乗員の指示操作を検出することができる。
しかし、自動車内の空間は狭く、乗員は着座姿勢の変更や身体の移動、飲食物や手荷物の取扱い等、車載装置に対する指示を意図しない動作を行うのが通常である。また、乗員の身体には車両の揺れや振動も加わっている。このため、各種車載装置に指示を与えるための乗員の意図的な動作を、意図しない動作と区別して認識することが困難であるという問題がある。
It would be convenient if the vehicle occupant could operate the air conditioner, the AV device, etc. without touching the operation panel while keeping the comfortable sitting posture. For example, according to the non-contact type information input device described in Patent Document 1, by processing an image photographed by a camera, the shape and distance of the hand is detected, and various on-vehicle devices are operated. Can do. Recently, a motion sensor that uses an infrared LED and a camera and can recognize a palm or a finger from a photographed image to detect a user's movement is also used. In such a motion sensor, the object is recognized by image processing and the distortion of the shape is measured, or the time until the radiated infrared ray is reflected by the object and received is measured. The distance information is obtained. In addition, there are some that obtain distance information of an object from an image taken by a stereo camera. By using such a motion sensor, it is possible to detect an occupant's instruction operation performed in a non-contact manner with respect to the operation panel of the in-vehicle device from three-dimensional position information including the distance of the user's hand or the like.
However, the space in the automobile is narrow, and the occupant normally performs an operation that does not intend to give instructions to the in-vehicle device, such as changing the sitting posture, moving the body, handling food and drinks and baggage. In addition, vehicle vibrations and vibrations are also applied to the occupant's body. For this reason, there is a problem that it is difficult to recognize the intentional movement of the occupant for giving instructions to various in-vehicle devices separately from the unintended movement.

本発明は、上記現状に鑑みてなされたものであり、車室内に配設され、車載装置に指示を与えるための操作画面に対してなされる乗員の動きを認識する動き検出システムを提供することを目的とする。   The present invention has been made in view of the above situation, and provides a motion detection system that recognizes the movement of an occupant that is disposed in a vehicle interior and that is made on an operation screen for giving instructions to an in-vehicle device. With the goal.

上記問題を解決するために、第1発明の動き検出システムは、車室内に配設され、車載装置に指示を与えるための操作画面に対してなされる乗員の動きを検出する動き検出システムであって、前記操作画面の垂直方向の上方の空間を撮影し、前記操作画面を基準とする3次元座標における乗員の身体部位の位置を検出する位置検出部と、前記位置検出部により得られた前記位置の情報から乗員の所定部位の位置、形状及び移動方向を含む動き情報を生成する動き検出部と、前記動き情報に基づいて乗員の指示を判断する判断部と、を備え、前記判断部は、乗員の前記所定部位が所定時間静止する動作を開始動作として検出し、前記開始動作が検出された後に、当該部位の動きに基づき乗員の指示を判定することを要旨とする。
第2発明は、前記第1発明において、乗員の前記所定部位は手指及び掌を含み、前記動き検出部は、撮影された手指の本数、指先の移動方向及び移動量を動き情報として生成し、前記指先の移動方向は、前記操作画面に略平行な面における左右、上下若しくは円方向、及び前記操作画面の垂直方向を含むことを要旨とする。
第3発明は、前記第1発明又は前記第2発明において、前記判断部は、乗員の前記所定部位の動きが、前記操作画面と平行方向及び垂直方向にそれぞれ所定範囲で行われた場合に前記乗員の指示を判定することを要旨とする。
第4発明は、前記第1発明乃至第3発明のいずれかにおいて、前記判断部は、乗員の手指又は掌が所定時間静止したときに前記開始動作として検出することを要旨とする。
第5発明は、前記第1発明乃至第4発明のいずれかにおいて、前記判断部は、乗員の手指の円方向の移動を検出した場合には、当該手指が略1回転移動したときに前記開始動作として検出することを要旨とする。
In order to solve the above problem, a motion detection system according to a first aspect of the present invention is a motion detection system that detects a movement of an occupant that is disposed in an interior of a vehicle and that is made on an operation screen for giving an instruction to an in-vehicle device. A position detection unit that captures a space above the operation screen in the vertical direction and detects a position of a body part of an occupant in three-dimensional coordinates with respect to the operation screen; and the position detection unit A motion detection unit that generates motion information including the position, shape, and movement direction of a predetermined part of the occupant from the position information; and a determination unit that determines an occupant instruction based on the motion information, the determination unit comprising: The gist of the present invention is to detect a movement of the predetermined part of the occupant that is stationary for a predetermined time as a start operation, and to determine an instruction of the occupant based on the movement of the part after the start movement is detected.
The second invention is the first invention, wherein the predetermined part of the occupant includes fingers and palms, and the motion detection unit generates the number of photographed fingers, the moving direction and moving amount of the fingertips as movement information, The gist of the moving direction of the fingertip includes left and right, up and down, or a circular direction on a plane substantially parallel to the operation screen, and a vertical direction of the operation screen.
According to a third aspect of the present invention, in the first aspect or the second aspect, the determination unit is configured to perform the operation when the movement of the predetermined portion of the occupant is performed in a predetermined range in a direction parallel to and perpendicular to the operation screen. The gist is to determine the direction of the passenger.
The gist of a fourth invention is that, in any one of the first to third inventions, the determination unit detects the start operation when the occupant's finger or palm is stationary for a predetermined time.
According to a fifth aspect of the present invention, in any one of the first to fourth aspects, the determination unit detects the movement of the occupant's finger in the circular direction when the finger moves approximately one turn. The gist is to detect it as an action.

本発明の動き検出システムによれば、車載装置に指示を与えるための操作画面に対してなされる乗員の動きを検出する動き検出システムであって、前記操作画面の垂直方向の上方の空間を撮影し、前記操作画面を基準とする3次元座標における乗員の身体部位の位置を検出する位置検出部と、前記位置検出部により得られた前記位置の情報から乗員の所定部位の位置、形状及び移動方向を含む動き情報を生成する動き検出部と、前記動き情報に基づいて乗員の指示を判断する判断部と、を備えるため、乗員は安楽な着座姿勢のまま、操作パネルに触れることなくエアコンやAV装置等に対する操作をすることができる。また、前記判断部は、乗員の前記所定部位が所定時間静止する動作を開始動作として検出し、前記開始動作が検出された後に、当該部位の動きに基づき乗員の指示を判定するため、乗員の一定の開始動作が認識されなければ動きを車載装置に対する指示操作と認識することがなく、指示操作を意図した乗員の動きの認識率を高めることができる。これによって、乗員の意図しない動作による誤操作を防止することができる。   According to the motion detection system of the present invention, it is a motion detection system that detects the movement of an occupant made with respect to an operation screen for giving an instruction to an in-vehicle device, and images a space above the operation screen in the vertical direction. A position detection unit that detects the position of the body part of the occupant in three-dimensional coordinates with reference to the operation screen; and the position, shape, and movement of the predetermined part of the occupant from the position information obtained by the position detection unit A motion detection unit that generates motion information including a direction and a determination unit that determines an occupant's instruction based on the motion information, so that the occupant is in an easy sitting posture without touching the operation panel, An AV device or the like can be operated. In addition, the determination unit detects an operation in which the predetermined part of the occupant is stationary for a predetermined time as a start operation, and determines the occupant's instruction based on the movement of the part after the start operation is detected. If a certain start operation is not recognized, the movement is not recognized as an instruction operation for the in-vehicle device, and the recognition rate of the occupant's movement intended for the instruction operation can be increased. Thereby, it is possible to prevent an erroneous operation due to an operation not intended by the passenger.

乗員の前記所定部位は手指及び掌を含み、前記動き検出部は、撮影された手指の本数、指先の移動方向及び移動量を動き情報として生成し、前記指先の移動方向は、前記操作画面に略平行な面における左右、上下若しくは円方向、及び前記操作画面の垂直方向を含む場合には、立てられた手指の本数により操作を区別することができ、操作画面に非接触でなされる手指の左右上下方向の移動(スワイプ操作)や円を描く移動(サークル操作)、操作画面に向けてたたくような移動(タップ操作)等を検出することができる。これにより、各動作に対応して操作画面の表示を変更したり、車載装置へ指示情報を送ったりするようにすることができる。
前記判断部は、乗員の前記所定部位の動きが、前記操作画面と平行方向及び垂直方向にそれぞれ所定範囲で行われた場合に前記乗員の指示を判定すれば、意図しない乗員の動きを指示操作と誤判定することを防止し、動きの認識率を高めることができる。
前記判断部は、乗員の手指又は掌が所定時間静止したときに前記開始動作として検出する場合には、乗員の操作する意図を明確に判定し、引き続く手指や掌の動きに基づいて操作を正しく認識することができる。
前記判断部は、乗員の手指の円方向の移動を検出した場合には、当該手指が略1回転移動したときに前記開始動作として検出すれば、1回転目のサークル操作により乗員の操作する意図を明確に判定することができ、引き続くサークル操作に基づいて操作が認識されるため、サークル操作の誤判定を確実に防止することができる。
The predetermined part of the occupant includes a finger and a palm, and the motion detection unit generates the number of photographed fingers, the moving direction and moving amount of the fingertip as movement information, and the moving direction of the fingertip is displayed on the operation screen. In the case of including the right and left, up and down or circular direction on the substantially parallel surface, and the vertical direction of the operation screen, the operation can be distinguished by the number of standing fingers, It is possible to detect a movement in the left / right / up / down direction (swipe operation), a movement to draw a circle (circle operation), a movement to tap on the operation screen (tap operation), and the like. Thereby, the display of the operation screen can be changed corresponding to each operation, or the instruction information can be sent to the in-vehicle device.
The determination unit performs an operation of instructing an unintended occupant movement by determining the occupant's instruction when movement of the predetermined part of the occupant is performed in a predetermined range in a direction parallel to and perpendicular to the operation screen. Can be prevented, and the recognition rate of motion can be increased.
The determination unit clearly determines the intention of the occupant to operate when the occupant's finger or palm is stationary for a predetermined period of time, and correctly determines the operation based on the subsequent movement of the finger or palm. Can be recognized.
When the determination unit detects the movement of the occupant's finger in the circular direction, if the movement is detected as the start operation when the finger moves approximately one turn, the intention of the occupant to operate by the circle operation of the first rotation Since the operation is recognized based on the subsequent circle operation, it is possible to reliably prevent erroneous determination of the circle operation.

本発明について、本発明による典型的な実施形態の非限定的な例を挙げ、言及された複数の図面を参照しつつ以下の詳細な記述にて更に説明するが、同様の参照符号は図面のいくつかの図を通して同様の部品を示す。
動き検出システムの構成を示すブロック図である。 所定部位を検出する所定範囲を説明するための模式図である。 動き検出システムの動作の概略を説明するためのフローチャートである。 スワイプ操作における(1)開始動作と(2)その後の動作を説明するための模式図である。 扇ぎ操作を説明するための模式図である。 サークル操作における(1)開始動作と(2)その後の動作を説明するための模式図である。 操作画面の表示例を示す模式図である。 操作画面の表示例を示す模式図である。
The present invention will be further described in the following detailed description with reference to the drawings referred to, with reference to non-limiting examples of exemplary embodiments according to the present invention. Similar parts are shown throughout the several figures.
It is a block diagram which shows the structure of a motion detection system. It is a schematic diagram for demonstrating the predetermined range which detects a predetermined part. It is a flowchart for demonstrating the outline of operation | movement of a motion detection system. It is a schematic diagram for demonstrating (1) start operation | movement and (2) subsequent operation | movement in a swipe operation. It is a schematic diagram for demonstrating fan operation. It is a schematic diagram for demonstrating (1) start operation | movement and (2) subsequent operation | movement in a circle operation. It is a schematic diagram which shows the example of a display of an operation screen. It is a schematic diagram which shows the example of a display of an operation screen.

ここで示される事項は例示的なもの及び本発明の実施形態を例示的に説明するためのものであり、本発明の原理と概念的な特徴とを最も有効に且つ難なく理解できる説明であると思われるものを提供する目的で述べたものである。この点で、本発明の根本的な理解のために必要である程度以上に本発明の構造的な詳細を示すことを意図してはおらず、図面と合わせた説明によって本発明の幾つかの形態が実際にどのように具現化されるかを当業者に明らかにするものである。   The items shown here are for illustrative purposes and exemplary embodiments of the present invention, and are the most effective and easy-to-understand explanations of the principles and conceptual features of the present invention. It is stated for the purpose of providing what seems to be. In this respect, it is not intended to illustrate the structural details of the present invention beyond what is necessary for a fundamental understanding of the present invention. It will be clear to those skilled in the art how it is actually implemented.

本実施形態に係る動き検出システム(1)は、自動車等の車両の車室内に配設され、車載装置(9)に指示を与えるための操作画面(2)に対してなされる使用者(乗員)の動きを検出する。対象とする操作画面(2)の設置場所及び乗員は問わない。例えば、乗用車において、前部座席の背面等に操作画面(2)を設け、後部座席に着座する乗員により操作可能とする場合等に好適である(図2参照)。
乗員の操作の動きを検出するため、動き検出システム(1)は、カメラ等の撮像手段(3)により操作画面(2)の垂直方向の上方の空間を撮影し、操作画面(2)を基準とする3次元座標における乗員の身体部位(8)の位置を検出する位置検出部(4)と、位置検出部(4)により得られた前記位置の情報から乗員の所定部位の位置、形状及び移動方向を含む動き情報を生成する動き検出部(5)と、前記動き情報に基づいて乗員の指示を判断する判断部(6)と、を備えている(図1参照)。
The motion detection system (1) according to the present embodiment is arranged in a passenger compartment of a vehicle such as an automobile, and is a user (occupant) made on an operation screen (2) for giving an instruction to the in-vehicle device (9). ) Motion. The installation location of the target operation screen (2) and the occupant do not matter. For example, in a passenger car, an operation screen (2) is provided on the back surface of the front seat and the like, which is suitable for enabling operation by a passenger sitting on the rear seat (see FIG. 2).
In order to detect the movement of the occupant's operation, the motion detection system (1) captures the space above the operation screen (2) in the vertical direction by the imaging means (3) such as a camera, and uses the operation screen (2) as a reference. A position detection unit (4) that detects the position of the body part (8) of the occupant in the three-dimensional coordinates, and the position, shape, and position of the predetermined part of the occupant from the position information obtained by the position detection unit (4) A motion detection unit (5) that generates motion information including a moving direction, and a determination unit (6) that determines an occupant instruction based on the motion information (see FIG. 1).

前記操作画面(2)は、1又は2以上の車載装置(9)の操作を行うための入力装置(21)の画面であり、操作画面(2)には、操作対象となる車載装置(9)の種類や作動状態、操作項目等が表示される(図7、8参照)。表示の態様や内容は特に問わず、文字、図形、画像等、任意に用いることができる。操作画面(2)の近傍には、固定的な操作を行うためのスイッチ等が備えられてもよい。また、操作画面(2)上には、操作画面(2)へのタッチ操作を確実に検出するために、タッチセンサが備えられてもよい。   The operation screen (2) is a screen of the input device (21) for operating one or more in-vehicle devices (9). The operation screen (2) includes an in-vehicle device (9) to be operated. ) Type, operating state, operation items, and the like are displayed (see FIGS. 7 and 8). The display mode and contents are not particularly limited, and characters, figures, images, and the like can be arbitrarily used. A switch or the like for performing a fixed operation may be provided in the vicinity of the operation screen (2). Further, a touch sensor may be provided on the operation screen (2) in order to reliably detect a touch operation on the operation screen (2).

前記撮像手段(3)は、操作画面(2)の垂直方向の上方の空間(7)を撮影するように配設される。撮像手段(3)の種類は問わず、例えば1又は2以上の赤外線カメラを用いることができる。また、操作を行う使用者(乗員)の手等に向けて赤外光を放射する1又は2以上のLED等発光素子を備えることができる。撮像手段(3)を設ける位置は特に限定されないが、操作画面(2)に対向する乗員の手等を撮影するために、操作画面(2)の周辺に配設することが好ましい。例えば、操作画面(2)の外周近傍にカメラ及び発光素子を配設しておくことができる。   The imaging means (3) is arranged so as to photograph the space (7) above the operation screen (2) in the vertical direction. Regardless of the type of the imaging means (3), for example, one or two or more infrared cameras can be used. Moreover, 1 or 2 or more light emitting elements, such as LED which radiate | emits infrared light toward the user's (occupant's) hand etc. who operate, etc. can be provided. The position at which the imaging means (3) is provided is not particularly limited, but it is preferably arranged around the operation screen (2) in order to photograph a passenger's hand or the like facing the operation screen (2). For example, a camera and a light emitting element can be arranged near the outer periphery of the operation screen (2).

上記空間(7)は、操作画面(2)と乗員の身体との間の空間であって、操作画面(2)に対して乗員が操作のために手等を動かす範囲を含む空間である。乗員の身体を撮影するように撮像手段(3)を操作画面(2)の周辺に設けた場合には、その視野内に上記空間が収まるようにすることができる。
前記位置検出部(4)は、撮像手段(3)によって撮影された画像を処理することによって、乗員の手等の身体部位を認識するように構成されている。そして、操作画面(2)を基準とし、3次元座標系における乗員の身体部位の位置(座標)を検出するように構成される。ここで検出する身体部位の位置は1つに限られず、複数箇所の位置を検出するように構成することができる。例えば、各指先の位置、掌の境界位置、手首の位置等が挙げられる。また、位置の情報は3次元の座標によって表される。3次元空間における位置を表すことができる限り座標系の種類は問わず、例えば、直交座標系とすることができる。以下では、操作画面(2)と平行な面において直交する軸をX軸及びY軸とし、操作画面(2)に垂直な方向をZ軸とする。操作画面(2)と身体部位とのZ軸方向の距離を検出する方法は問わず、例えば2台のステレオカメラによって撮影した画像から距離を求めることができる。位置検出部(4)は、これら検出した位置情報を、適宜(例えば、一定周期で)動き検出部(5)に送るように構成することができる。
The space (7) is a space between the operation screen (2) and the occupant's body, and includes a range in which the occupant moves his / her hand for operation with respect to the operation screen (2). When the imaging means (3) is provided around the operation screen (2) so as to photograph the occupant's body, the space can be accommodated within the field of view.
The position detection unit (4) is configured to recognize a body part such as a passenger's hand by processing an image taken by the imaging means (3). The position (coordinates) of the body part of the occupant in the three-dimensional coordinate system is detected using the operation screen (2) as a reference. The position of the body part to be detected here is not limited to one, and it can be configured to detect the positions of a plurality of places. For example, the position of each fingertip, the boundary position of the palm, the position of the wrist, and the like can be mentioned. The position information is represented by three-dimensional coordinates. As long as the position in the three-dimensional space can be expressed, the type of the coordinate system is not limited, and for example, an orthogonal coordinate system can be used. In the following, the axes perpendicular to the plane parallel to the operation screen (2) are defined as the X axis and the Y axis, and the direction perpendicular to the operation screen (2) is defined as the Z axis. Regardless of the method for detecting the distance in the Z-axis direction between the operation screen (2) and the body part, for example, the distance can be obtained from images taken by two stereo cameras. The position detection unit (4) can be configured to send the detected position information to the motion detection unit (5) as appropriate (for example, at a constant cycle).

前記動き検出部(5)は、位置検出部(4)により得られた位置の情報から乗員の所定の身体部位(8)の位置、形状及び移動方向を含む動き情報を生成するように構成される。ここで、前記所定部位は、乗員が指示操作を行うために動かす身体の部位であり、手指、掌、手首、腕、頭等の任意の部位とすることができる。これらのうち、乗員が着座した状態で容易に動かすことができる手指及び掌の一方又は両方を好例として挙げることができる。所定部位の位置とは乗員の指先、掌、手首等の位置であり、形状とは撮影された手指(伸ばされている指)の本数やその傾斜角度等とすることができる。また、移動方向とは、現在位置の一定時間前の位置からの変化方向(3次元の角度、ベクトル等)であり、動き検出部(5)は、指先の移動方向として、操作画面(2)に略平行な面(XY面)における左右、上下若しくは円方向、及び操作画面(2)の垂直(Z)方向を含むようにすることができる。その他、所定部位の移動量や速さ等を動き情報として求めることもできる。   The motion detection unit (5) is configured to generate motion information including the position, shape, and movement direction of a predetermined body part (8) of the occupant from the position information obtained by the position detection unit (4). The Here, the predetermined part is a part of the body that the occupant moves to perform an instruction operation, and may be an arbitrary part such as a finger, palm, wrist, arm, or head. Of these, one or both of a finger and a palm that can be easily moved while an occupant is seated can be cited as a good example. The position of the predetermined part is the position of the occupant's fingertip, palm, wrist, or the like, and the shape can be the number of photographed fingers (stretched fingers), the inclination angle thereof, or the like. Further, the movement direction is a change direction (three-dimensional angle, vector, etc.) from a position a predetermined time before the current position, and the motion detection unit (5) displays the operation screen (2) as the movement direction of the fingertip. Can be included in the plane (XY plane) substantially parallel to the left and right, up and down, or circular direction, and the vertical (Z) direction of the operation screen (2). In addition, the movement amount and speed of the predetermined part can be obtained as the movement information.

前記判断部(6)は、動き検出部(5)により得られた動き情報に基づいて乗員の指示を判断するように構成される。そして、判断部(6)は、乗員の前記所定部位が所定時間静止する動作を開始動作として検出し、その開始動作が検出された後に、当該部位の動きに基づき乗員の指示を判定するように構成される。指示操作を表す動きは予め定めておくことができ、例えば、指先が開始動作の位置から一定以上の距離移動される場合、操作画面(2)に略平行な面における左右(Y)方向又は上下(X)方向の移動(スワイプ操作)、円を描く移動(サークル操作)、操作画面(2)に向けて垂直(Z)方向にたたくような移動(タップ操作)等として検出するように構成することができる。また、掌が開始動作の位置から一定以上の距離、操作画面(2)に垂直(Z)方向に往復するような移動(扇ぎ操作)を検出するように構成することができる。これらに限定されず、判断部(6)は、以上のような動きの組合せや変形した動き(例えば捻るような動き)に基づいて、指示操作を判定するように構成されてもよい。   The determination unit (6) is configured to determine an occupant instruction based on the motion information obtained by the motion detection unit (5). Then, the determination unit (6) detects, as a start operation, an operation in which the predetermined part of the occupant is stationary for a predetermined time, and determines an occupant instruction based on the movement of the part after the start operation is detected. Composed. The movement representing the instruction operation can be determined in advance. For example, when the fingertip is moved a certain distance or more from the position of the start operation, the left / right (Y) direction or the up / down direction on a plane substantially parallel to the operation screen (2) It is configured to detect movement in the (X) direction (swipe operation), movement to draw a circle (circle operation), movement that taps in the vertical (Z) direction toward the operation screen (2) (tap operation), and the like. be able to. Further, it can be configured to detect a movement (fan operation) in which the palm reciprocates in the direction perpendicular (Z) to the operation screen (2) at a certain distance from the position of the start operation. Without being limited thereto, the determination unit (6) may be configured to determine an instruction operation based on the combination of movements as described above or a deformed movement (for example, a twisting movement).

そして、判断部(6)は、上記のような操作が検出された場合、その時の操作画面(2)の表示内容と対応させて、検出された操作に基づく処理を行うように構成される。例えば、操作画面(2)上に左右方向に複数のアイコン(a、b)が表示されており、左向きのスワイプ操作が検出された場合には、その時に選択されていたアイコン(b)の左側のアイコン(a)に移動させるようにすることができる(図7参照)。また、例えば操作画面(2)上にエアコンの温度設定が表示されている場合に、乗員の手指により右(左)回りサークル操作がされたと判定した場合、判断部6は、設定温度を上昇(下降)させるようにエアコンを制御することができる。
このように操作画面(2)の表示と対応させて操作に基づく処理を行うために、判断部(6)は、操作画面(2)の表示内容を取得及び変更することができるように構成される。判断部(6)により操作画面(2)の表示が制御されるように構成してもよい。
Then, when an operation as described above is detected, the determination unit (6) is configured to perform processing based on the detected operation in association with the display content of the operation screen (2) at that time. For example, when a plurality of icons (a, b) are displayed in the left-right direction on the operation screen (2) and a leftward swipe operation is detected, the left side of the icon (b) selected at that time The icon (a) can be moved (see FIG. 7). Further, for example, when the temperature setting of the air conditioner is displayed on the operation screen (2), when it is determined that the circle operation is performed clockwise (left) with the occupant's finger, the determination unit 6 increases the set temperature ( The air conditioner can be controlled to be lowered.
Thus, in order to perform processing based on the operation in association with the display of the operation screen (2), the determination unit (6) is configured to be able to acquire and change the display content of the operation screen (2). The You may comprise so that the display of the operation screen (2) may be controlled by the judgment part (6).

判断部(6)は、乗員の手指、掌等の動きが、操作画面(2)と平行方向及び垂直方向にそれぞれ所定範囲(検知空間7)で行われた場合に限り、乗員の指示操作と判定するようにすることができる。検知空間(7)の位置・大きさは、操作画面(2)の大きさや、操作画面(2)と乗員の身体との距離、撮像手段(3)及び位置検出部(4)による画像処理の分解能・速度等に応じて、適宜設定されればよい。また、カメラの付近に手が置かれる等、乗員の意図しない動きに反応しないように検知空間(7)を設定することができる。これらにより、意図しない乗員の動きを指示操作と誤判定することを防止し、動きの認識率を高めることができる。   The determination unit (6) performs the instruction operation of the occupant only when the movement of the occupant's fingers, palms, and the like is performed in a predetermined range (detection space 7) in the direction parallel to and perpendicular to the operation screen (2). Judgment can be made. The position / size of the detection space (7) depends on the size of the operation screen (2), the distance between the operation screen (2) and the occupant's body, image processing means (3), and image processing by the position detection unit (4). What is necessary is just to set suitably according to resolution, speed, etc. Further, the detection space (7) can be set so as not to react to an unintended movement of the occupant, such as a hand placed near the camera. As a result, it is possible to prevent an unintended occupant's movement from being erroneously determined as an instruction operation and to increase the movement recognition rate.

判断部(6)は、乗員の手指、掌等の所定部位(8)が所定時間静止する動作を「開始動作」として検出し、その開始動作が検出された後に、当該部位の動きに基づき乗員の指示を判定するように構成されている。前記所定時間は、乗員が意識して動きを止めていると明確に判定できる時間であればよい(例えば、100m秒〜3秒程度)。例えば、その所定時間以上、手指又は掌等の所定部位(8)の移動量が一定範囲を越えないときに静止と判断するように構成することができる。そして、その開始動作に引き続きスワイプ操作、タップ操作、扇ぎ操作等が検出された場合には、乗員の意図した操作であると判定するように構成することができる。すなわち、検知空間(7)において指差し等所定の形状により乗員の手指、掌等の動きが停止されたこと(開始動作)をトリガとして、操作の認識が開始される。   The determination unit (6) detects an operation in which a predetermined part (8) such as an occupant's finger or palm is stationary for a predetermined time as a “starting operation”, and after detecting the starting operation, the occupant is based on the movement of the part. The instruction is determined. The predetermined time may be a time that can be clearly determined that the occupant is consciously stopping the movement (for example, about 100 milliseconds to 3 seconds). For example, it can be configured to determine that it is stationary when the amount of movement of a predetermined part (8) such as a finger or palm does not exceed a certain range for a predetermined time or longer. Then, when a swipe operation, a tap operation, a fan operation, or the like is detected following the start operation, the operation can be determined to be an operation intended by the occupant. That is, the recognition of the operation is started with the movement (starting operation) of the occupant's fingers, palms, and the like stopped by a predetermined shape such as pointing in the detection space (7).

また、判断部(6)は、乗員の手指の円方向の移動を検出した場合には、当該手指が略1回転移動したときに前記開始動作として検出するように構成することができる。そして、その開始動作に引き続き2回転目のサークル操作が検出されたときには、乗員が意図して行ったサークル操作と判定するようにすることができる。
以上のように開始動作を判断することにより、乗員の操作する意図を明確に判定し、引き続く手指や掌の動きに基づいて操作を正しく認識することができる。
Further, when the movement of the occupant's fingers in the circular direction is detected, the determination unit (6) can be configured to detect the start operation when the fingers move approximately once. Then, when a circle operation for the second rotation is detected following the start operation, it can be determined that the circle operation is performed intentionally by the occupant.
By determining the start operation as described above, it is possible to clearly determine the intention of the occupant to operate, and to correctly recognize the operation based on the subsequent movement of fingers and palm.

判断部(6)は、判定した操作に基づき、各種車載装置を制御するように構成することができる。車載装置の種類や数は特に限定されず、室内照明装置、エアコン、ヒータ、送風装置、テレビ装置、オーディオ装置、ナビゲーション装置、電動ウィンドウ、電動座席等を例示することができる。これらの車載装置に対して指示する内容は車載装置によって種々選択できるように構成することができる。例えば、室内照明装置のオン・オフ、エアコン、ヒータ、送風装置等のオン・オフ、温度・風量等の設定、AV装置の音量・チャネル・選曲等、ナビゲーション装置の表示内容等である。   The determination unit (6) can be configured to control various in-vehicle devices based on the determined operation. The type and number of in-vehicle devices are not particularly limited, and examples include indoor lighting devices, air conditioners, heaters, blower devices, television devices, audio devices, navigation devices, electric windows, electric seats, and the like. The contents to be instructed to these in-vehicle devices can be configured to be selected variously by the in-vehicle devices. For example, on / off of an indoor lighting device, on / off of an air conditioner, heater, blower, etc., setting of temperature / air volume, volume of AV device / channel / music selection, display contents of navigation device, and the like.

位置検出部4、動き検出部5及び判断部6は、ハードウェア、ソフトウェアのいずれによって実現されてもよい。例えば、電子制御ユニット(ECU)上で実行されるソフトウェアとして実装することができる。撮像手段3で取得される画像を処理することにより乗員の身体部位8を認識し、その位置や動きを検出する手段等は、ECUに接続される画像処理装置として備えられてもよい。
ECU等により行われる動き検出方法は、操作画面2に対してなされる乗員の動きを検出する動き検出方法であって、操作画面2の垂直方向の上方の空間を撮影し、操作画面2を基準とする3次元座標における乗員の身体部位の位置を検出する位置検出ステップと、位置検出ステップにより得られた前記位置の情報から乗員の所定部位8の位置、形状及び移動方向を含む動き情報を生成する動き検出ステップと、前記動き情報に基づいて乗員の指示を判断する判断ステップと、を備え、判断ステップは、乗員の所定部位8が所定時間静止する動作を開始動作として検出し、前記開始動作が検出された後に、当該部位の動きに基づき乗員の指示を判定するように構成することができる。
そして、乗員の所定部位8は手指及び掌を含み、前記動き検出部ステップは、撮影された手指の本数、指先の移動方向及び移動量を動き情報として生成し、前記指先の移動方向は、操作画面2に略平行なXY面における左右、上下若しくは円方向、及び操作画面2の垂直なZ方向を含むものとすることができる。
また、前記判断ステップは、乗員の所定部位8の動きが、操作画面2と平行方向及び垂直方向にそれぞれ所定範囲で行われた場合に前記乗員の指示を判定するようにすることができる。
また、前記判断ステップは、乗員の手指又は掌が所定時間静止したときに前記開始動作として検出するようにすることができる。
また、前記判断ステップは、乗員の手指の円方向の移動を検出した場合には、当該手指が略1回転移動したときに前記開始動作として検出するようにすることができる。
The position detection unit 4, the motion detection unit 5, and the determination unit 6 may be realized by any of hardware and software. For example, it can be implemented as software executed on an electronic control unit (ECU). A means for recognizing the occupant's body part 8 by processing an image acquired by the imaging means 3 and detecting its position and movement may be provided as an image processing apparatus connected to the ECU.
The motion detection method performed by the ECU or the like is a motion detection method for detecting the movement of an occupant made with respect to the operation screen 2, and images the space above the operation screen 2 in the vertical direction. A position detection step for detecting the position of the body part of the occupant in the three-dimensional coordinates and generation of motion information including the position, shape and moving direction of the predetermined part 8 of the occupant from the position information obtained by the position detection step. And a determination step of determining an occupant instruction based on the movement information, wherein the determination step detects an operation in which the predetermined portion 8 of the occupant is stationary for a predetermined time as a start operation, and the start operation After the vehicle is detected, the occupant's instruction can be determined based on the movement of the part.
The predetermined part 8 of the occupant includes a finger and a palm, and the motion detection unit step generates the number of photographed fingers, the moving direction and moving amount of the fingertip as movement information, and the moving direction of the fingertip It can include the left, right, up, down, or circular direction on the XY plane substantially parallel to the screen 2 and the vertical Z direction of the operation screen 2.
Further, the determination step can determine the occupant's instruction when the movement of the occupant's predetermined part 8 is performed in a predetermined range in a direction parallel to and perpendicular to the operation screen 2.
Further, the determination step may be detected as the start operation when the occupant's finger or palm is stationary for a predetermined time.
Further, in the determination step, when the movement of the occupant's finger in the circular direction is detected, the movement can be detected as the start operation when the finger moves approximately one rotation.

(動き検出システムの具体的な構成及び動作)
図1に示した動き検出システム1について、より具体的な構成と動作を説明する。動き検出システム1は、車両の室内に備えられた車載装置・機器に指示を与えるための操作画面2に対してなされる乗員の動きを検出するシステムである。本例においては、図2に示すように、前後に座席が配置された乗用車の前側座席の背面部に入力装置21が配設されており、後側座席の乗員が視認できるように入力装置21上に操作画面2が設けられている。また、入力装置21には、操作画面2に向けて動かされる後席乗員の手等の身体部位8の画像を取得するために、当該部位に向けて赤外光を照射するLED及び当該部位を撮影可能な2台の赤外線カメラ3が備えられている。
(Specific configuration and operation of motion detection system)
A more specific configuration and operation of the motion detection system 1 shown in FIG. 1 will be described. The motion detection system 1 is a system that detects the motion of an occupant made on an operation screen 2 for giving an instruction to an in-vehicle device / equipment provided in a vehicle interior. In this example, as shown in FIG. 2, the input device 21 is disposed on the back surface portion of the front seat of the passenger car in which seats are arranged at the front and rear, and the input device 21 is visible so that the passenger in the rear seat can visually recognize. An operation screen 2 is provided on the top. In addition, in order to acquire an image of the body part 8 such as a hand of a rear-seat occupant moved toward the operation screen 2, the input device 21 includes an LED that irradiates infrared light toward the part and the part. Two infrared cameras 3 capable of photographing are provided.

動き検出システム1は、位置検出部4、動き検出部5及び判断部6を備えている。位置検出部4は、少なくとも操作画面2に平行なXY方向及び垂直なZ方向の一定の範囲の空間(検知空間7)において、赤外線カメラ3によって取得された画像を処理することにより乗員の所定の身体部位8を認識し、その3次元座標上の位置を算出して動き検出部5に送出する。動き検出部5及び判断部6は、検知空間7内において行われた乗員の身体部位8の動きのみを検出し、乗員の操作を判定するようにすることができる。すなわち、検知空間7から外れた動きが検出された場合には、定められた操作と判定しないようにすることができる。更に、動き検出部5及び判断部6は、動きの量や方向(角度、ベクトル)について閾値や許容範囲(上下限値)等を定め、検知空間7内において、身体部位8が検出された位置を基準として動きの量が閾値以上であり且つ許容範囲内である場合に、スワイプ操作、扇ぎ操作等の操作と判定するようにすることができる。
判断部6は、所定の操作がされたと判断したときは、当該操作に基づき、操作画面2の表示の変更、対象車載装置に対する制御を行うようにすることができる。
The motion detection system 1 includes a position detection unit 4, a motion detection unit 5, and a determination unit 6. The position detection unit 4 processes an image acquired by the infrared camera 3 in a predetermined range of space (detection space 7) in at least the XY direction parallel to the operation screen 2 and the vertical Z direction (detection space 7). The body part 8 is recognized, and the position on the three-dimensional coordinate is calculated and sent to the motion detector 5. The motion detection unit 5 and the determination unit 6 can detect only the movement of the occupant's body part 8 performed in the detection space 7 and determine the occupant's operation. That is, when a movement deviating from the detection space 7 is detected, it can be determined that the operation is not determined. Further, the motion detection unit 5 and the determination unit 6 define a threshold value, an allowable range (upper and lower limit values) and the like for the amount and direction (angle, vector) of the motion, and the position where the body part 8 is detected in the detection space 7. Can be determined as operations such as a swipe operation and a fan operation when the amount of movement is equal to or greater than a threshold value and within an allowable range.
When determining that the predetermined operation has been performed, the determination unit 6 can change the display of the operation screen 2 and control the target in-vehicle device based on the operation.

図3は、動き検出システム1の動作の概略を表している。本例では、動き検出部5は、位置検出部により検出された乗員の身体部位(手指)の位置を監視し、その手指の形状(伸ばされている指の本数等)、移動方向、移動量等を周期的に動き情報として生成する。そして、判断部6は、例えば、動き情報を一定周期(100ms)でサンプリングし、人差指が1本伸ばされている形状で、その指先の位置が一定時間(300ms)以上継続して3次元座標における一定の許容範囲内(XYZ各軸において±5mm以内)にあった場合には、開始動作がされたと判断する(ステップS10)。
判断部6は、開始動作がされたと判断した場合、引き続き動き情報を取得し(ステップS20)、所定の操作であるかどうかを監視する(ステップS22)。
FIG. 3 shows an outline of the operation of the motion detection system 1. In this example, the motion detection unit 5 monitors the position of the occupant's body part (finger) detected by the position detection unit, and the shape of the finger (the number of fingers stretched, etc.), the movement direction, and the movement amount Are periodically generated as motion information. Then, the determination unit 6 samples, for example, motion information at a constant period (100 ms), has a shape in which one index finger is stretched, and the position of the fingertip continues for a certain time (300 ms) or more in three-dimensional coordinates. If it is within a certain allowable range (within ± 5 mm for each axis of XYZ), it is determined that the start operation has been performed (step S10).
When determining that the start operation has been performed, the determination unit 6 continues to acquire motion information (step S20) and monitors whether the operation is a predetermined operation (step S22).

例えば、指が1本立てられた状態で一定時間静止されて(図4(1))開始動作がされ、一定時間内にその位置から右(又は右、上、下)方向に一定以上の距離移動された場合(図4(2))には、「右(又は右、上、下)にスワイプ」操作がされたと判定する。また、その後、逆方向に一定以上の距離移動された場合には、「タップ」操作がされたと判定することもできる。「タップ」操作は、1本の指を伸ばして静止させる開始動作の後、その指を曲げてから元に戻す動作等としてもよい。
また、例えば、指が3本以上立てられた状態で一定時間静止されて開始動作がされ、そのまま一定時間内に掌の法線ベクトル方向に一定以上の距離移動された場合(図5)には、移動した方向に「扇ぎ」操作がされたと判定する。
また、例えば、指が1本立てられて、指先が操作画面2と略平行な面において回転するように移動したとき、その回転角度(進捗度)をサンプリングし、1回転されたとき(図6(1))開始動作がされたと判定することができる。そして、一定時間内にその位置から同じ回転方向に更に1回転の移動が検出された場合(図6(2))には、その回転方向に「サークル」操作がされたと判定する。なお、スワイプ操作とサークル操作とが判別し難い場合もある。このため、例えば、指の移動を一定時間以上サンプリングして、3次元の角度の総和が所定値を超えない場合にはスワイプ操作と判定するようにすることができる。
以上のような各操作を判定するための基準(3次元における移動距離・角度の閾値、許容範囲等)は、操作毎に適宜設定されればよい。また、操作の種類や動きの判断方法は以上に限定されず、変形された動きであってもよいし、2以上の動きが組み合わされて1つの操作としてもよい。
For example, with one finger standing, it is stopped for a certain period of time (FIG. 4 (1)) and a starting operation is performed, and within a certain period of time, a certain distance or more is moved in the right (or right, up, down) direction from that position. If it is determined (FIG. 4 (2)), it is determined that the “swipe right (or right, up, down)” operation has been performed. Further, when the distance is moved a certain distance or more in the reverse direction, it can be determined that the “tap” operation has been performed. The “tap” operation may be an operation of bending a finger and then returning it to the original after a start operation of extending and resting one finger.
In addition, for example, when a finger is stopped for a certain period of time with three or more fingers standing up and started for a certain period of time, and is moved a certain distance in the normal vector direction of the palm within a certain period of time (FIG. 5) It is determined that the “fan” operation is performed in the moving direction.
Also, for example, when one finger is raised and the fingertip moves so as to rotate on a plane substantially parallel to the operation screen 2, the rotation angle (progression degree) is sampled and rotated one time (FIG. 6 ( 1) It can be determined that the start operation has been performed. Then, when a movement of one more rotation in the same rotation direction is detected from that position within a certain time (FIG. 6 (2)), it is determined that a “circle” operation has been performed in that rotation direction. In some cases, it is difficult to distinguish between a swipe operation and a circle operation. For this reason, for example, the movement of the finger can be sampled for a certain period of time, and when the total of the three-dimensional angles does not exceed a predetermined value, it can be determined that the operation is a swipe operation.
The reference for determining each operation as described above (three-dimensional movement distance / angle threshold, allowable range, etc.) may be set appropriately for each operation. Further, the type of operation and the determination method of the movement are not limited to the above, and may be a modified movement, or two or more movements may be combined into one operation.

図3に示されたステップS22において、スワイプ操作、タップ操作、扇ぎ操作、サークル操作等、所定の操作と判定された場合であっても、判断部6はそれらの操作が適正に終了したか否かを更に判定することによって誤動作を防止することができる(ステップS30)。例えば、スワイプ操作がされた後に指先が一定時間停止したら適正なスワイプ操作と判定する、複数回の扇ぎ操作がされても1回の扇ぎ操作と判定する等、判定条件は適宜設定されればよい。
そして、判断部6は、所定の操作が適正に終了した場合には、判定された操作に基づく処理を実行する(ステップS40)。
In step S22 shown in FIG. 3, even if it is determined that the operation is a predetermined operation such as a swipe operation, a tap operation, a fan operation, or a circle operation, the determination unit 6 determines whether the operation has been properly completed. A malfunction can be prevented by further determining whether or not (step S30). For example, the determination conditions are appropriately set such that if the fingertip stops for a certain period of time after the swipe operation, it is determined that the proper swipe operation is performed, and even if multiple fan operations are performed, it is determined that the fan operation is performed once. That's fine.
And judgment part 6 performs processing based on judged operation, when predetermined operation is completed appropriately (Step S40).

図7は、操作画面2にメニューが表示されている例を表している。ここで、現在アイコンaが選択されているとき、乗員の手指により右向きのスワイプ操作がされたと判定した場合、判断部6は右側のアイコンb(エアコンを示す図形)が選択された状態に操作画面2の表示を変更するようにすることができる。
次に、乗員の手指によりタップ操作がされたと判定した場合、判断部6は、図8に示すようなエアコンを操作するための画面に表示を切り替えることができる。本図では、エアコンの温度設定が選択された状態を表している。この状態において、乗員の手指により右(左)回りサークル操作がされたと判定した場合、判断部6は、エアコンの設定温度を上昇(下降)させる制御信号をエアコンに出力すると共に、操作画面2に表示されている温度を変更する処理を実行することができる。
その他、動き検出システム1は、乗員が行う各操作に任意に対応させて、操作画面2上の表示の変更、対象とする車載装置の切替え、設定項目の選択、項目毎の動作指示等を行うようにすることができる。
FIG. 7 shows an example in which a menu is displayed on the operation screen 2. Here, when it is determined that the right swipe operation is performed with the occupant's finger when the icon a is currently selected, the determination unit 6 displays the operation screen in a state where the right icon b (a graphic indicating an air conditioner) is selected. The display of 2 can be changed.
Next, when it is determined that the tap operation has been performed with the occupant's fingers, the determination unit 6 can switch the display to a screen for operating the air conditioner as illustrated in FIG. This figure shows a state in which the temperature setting of the air conditioner is selected. In this state, when it is determined that the right (left) circle operation has been performed with the occupant's fingers, the determination unit 6 outputs a control signal for increasing (decreasing) the set temperature of the air conditioner to the air conditioner and also displays the operation screen 2 A process for changing the displayed temperature can be executed.
In addition, the motion detection system 1 arbitrarily changes each operation performed by the occupant, changes the display on the operation screen 2, switches the target in-vehicle device, selects the setting item, and performs an operation instruction for each item. Can be.

本発明は上記で詳述した実施形態に限定されず、本発明の請求項に示した範囲で様々な変形又は変更が可能である。本例では乗用車を挙げて説明したが、乗用車に限らず、また車両の空間に限らず適用することができる。   The present invention is not limited to the embodiments described in detail above, and various modifications or changes can be made within the scope of the claims of the present invention. In this example, a passenger car has been described. However, the present invention is not limited to a passenger car and can be applied not only to a vehicle space.

1;動き検出システム、2;操作画面、21;入力装置、3;撮像手段、4;位置検出部、5;動き検出部、6;判断部、7;検知空間、8;身体部位、9;車載装置。   DESCRIPTION OF SYMBOLS 1; Motion detection system, 2; Operation screen, 21; Input device, 3; Imaging means, 4; Position detection part, 5: Motion detection part, 6: Judgment part, 7: Detection space, 8; In-vehicle device.

Claims (5)

車室内に配設され、車載装置に指示を与えるための操作画面に対してなされる乗員の動きを検出する動き検出システムであって、
前記操作画面の垂直方向の上方の空間を撮影し、前記操作画面を基準とする3次元座標における乗員の身体部位の位置を検出する位置検出部と、
前記位置検出部により得られた前記位置の情報から乗員の所定部位の位置、形状及び移動方向を含む動き情報を生成する動き検出部と、
前記動き情報に基づいて乗員の指示を判断する判断部と、
を備え、
前記判断部は、乗員の前記所定部位が所定時間静止する動作を開始動作として検出し、前記開始動作が検出された後に、当該部位の動きに基づき乗員の指示を判定することを特徴とする動き検出システム。
A motion detection system that detects a movement of an occupant that is disposed in an interior of a vehicle and that is performed on an operation screen for giving an instruction to an in-vehicle device.
A position detection unit that captures a space above the operation screen in the vertical direction and detects the position of the body part of the occupant in three-dimensional coordinates with respect to the operation screen;
A motion detection unit that generates motion information including the position, shape, and movement direction of a predetermined part of the occupant from the position information obtained by the position detection unit;
A determination unit that determines an instruction of an occupant based on the movement information;
With
The determination unit detects an operation in which the predetermined part of the occupant is stationary for a predetermined time as a start operation, and determines an occupant instruction based on the movement of the part after the start operation is detected. Detection system.
乗員の前記所定部位は手指及び掌を含み、
前記動き検出部は、撮影された手指の本数、指先の移動方向及び移動量を動き情報として生成し、
前記指先の移動方向は、前記操作画面に略平行な面における左右、上下若しくは円方向、及び前記操作画面の垂直方向を含む請求項1記載の動き検出システム。
The predetermined part of the occupant includes fingers and palms,
The motion detection unit generates the number of captured fingers, the moving direction and moving amount of the fingertip as motion information,
The movement detection system according to claim 1, wherein the moving direction of the fingertip includes a left-right, up-down, or circular direction on a plane substantially parallel to the operation screen, and a vertical direction of the operation screen.
前記判断部は、乗員の前記所定部位の動きが、前記操作画面と平行方向及び垂直方向にそれぞれ所定範囲で行われた場合に前記乗員の指示を判定する請求項1又は2に記載の動き検出システム。   3. The motion detection according to claim 1, wherein the determination unit determines an instruction of the occupant when movement of the predetermined portion of the occupant is performed in a predetermined range in a direction parallel to and perpendicular to the operation screen. 4. system. 前記判断部は、乗員の手指又は掌が所定時間静止したときに前記開始動作として検出する請求項1乃至3のいずれかに記載の動き検出システム。   The motion detection system according to any one of claims 1 to 3, wherein the determination unit detects the start motion when a passenger's finger or palm is stationary for a predetermined time. 前記判断部は、乗員の手指の円方向の移動を検出した場合には、当該手指が略1回転移動したときに前記開始動作として検出する請求項1乃至4のいずれかに記載の動き検出システム。   5. The motion detection system according to claim 1, wherein when the movement of the occupant's finger in the circular direction is detected, the determination unit detects the start operation when the finger moves approximately one rotation. 6. .
JP2016105667A 2016-05-26 2016-05-26 Motion detection system Pending JP2017211884A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016105667A JP2017211884A (en) 2016-05-26 2016-05-26 Motion detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016105667A JP2017211884A (en) 2016-05-26 2016-05-26 Motion detection system

Publications (1)

Publication Number Publication Date
JP2017211884A true JP2017211884A (en) 2017-11-30

Family

ID=60476100

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016105667A Pending JP2017211884A (en) 2016-05-26 2016-05-26 Motion detection system

Country Status (1)

Country Link
JP (1) JP2017211884A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019163372A1 (en) * 2018-02-20 2019-08-29 ソニー株式会社 Information processing device, information processing method, and program
JP2020117184A (en) * 2019-01-28 2020-08-06 株式会社東海理化電機製作所 Operation recognition device, computer program, and storage medium
JP2020118024A (en) * 2019-01-23 2020-08-06 株式会社ミツバ Device operating system and device control method
JP2020149152A (en) * 2019-03-11 2020-09-17 株式会社デンソーテン Control device and control method
JP2020193490A (en) * 2019-05-29 2020-12-03 トヨタ紡織株式会社 Lighting control system for vehicle
JP2021098481A (en) * 2019-12-23 2021-07-01 日本電産モビリティ株式会社 Vehicle control device
JP2021133877A (en) * 2020-02-28 2021-09-13 株式会社Subaru Vehicular occupant monitoring device
JP7052128B1 (en) 2021-07-20 2022-04-11 株式会社あかつき Information processing system, program and information processing method
JP7163526B1 (en) 2021-07-20 2022-10-31 株式会社あかつき Information processing system, program and information processing method
JP2023016047A (en) * 2021-07-20 2023-02-01 株式会社あかつき Information processing system, program, and information processing method
JP2023016046A (en) * 2022-03-30 2023-02-01 株式会社あかつき Information processing system, program, and information processing method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005056059A (en) * 2003-08-01 2005-03-03 Canon Inc Input device and method using head mounting type display equipped with image pickup part
JP2005174356A (en) * 2000-02-01 2005-06-30 Toshiba Corp Direction detection method
JP2011253468A (en) * 2010-06-03 2011-12-15 Aisin Aw Co Ltd Display device, display method and display program
JP2011253292A (en) * 2010-06-01 2011-12-15 Sony Corp Information processing system, method and program
JP2013069224A (en) * 2011-09-26 2013-04-18 Sony Corp Motion recognition apparatus, motion recognition method, operation apparatus, electronic apparatus, and program
JP2014021748A (en) * 2012-07-19 2014-02-03 Alpine Electronics Inc Operation input device and on-vehicle equipment using the same
JP2014085964A (en) * 2012-10-25 2014-05-12 Nec Personal Computers Ltd Information processing method, information processing device, and program
JP2016029532A (en) * 2014-07-25 2016-03-03 小島プレス工業株式会社 User interface

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005174356A (en) * 2000-02-01 2005-06-30 Toshiba Corp Direction detection method
JP2005056059A (en) * 2003-08-01 2005-03-03 Canon Inc Input device and method using head mounting type display equipped with image pickup part
JP2011253292A (en) * 2010-06-01 2011-12-15 Sony Corp Information processing system, method and program
JP2011253468A (en) * 2010-06-03 2011-12-15 Aisin Aw Co Ltd Display device, display method and display program
JP2013069224A (en) * 2011-09-26 2013-04-18 Sony Corp Motion recognition apparatus, motion recognition method, operation apparatus, electronic apparatus, and program
JP2014021748A (en) * 2012-07-19 2014-02-03 Alpine Electronics Inc Operation input device and on-vehicle equipment using the same
JP2014085964A (en) * 2012-10-25 2014-05-12 Nec Personal Computers Ltd Information processing method, information processing device, and program
JP2016029532A (en) * 2014-07-25 2016-03-03 小島プレス工業株式会社 User interface

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2019163372A1 (en) * 2018-02-20 2021-04-01 ソニー株式会社 Information processing equipment, information processing methods and programs
US11216179B2 (en) 2018-02-20 2022-01-04 Sony Corporation Information processing apparatus and information processing method
WO2019163372A1 (en) * 2018-02-20 2019-08-29 ソニー株式会社 Information processing device, information processing method, and program
JP2020118024A (en) * 2019-01-23 2020-08-06 株式会社ミツバ Device operating system and device control method
JP7295046B2 (en) 2019-01-23 2023-06-20 株式会社ミツバ Device operation system and device control method
JP2020117184A (en) * 2019-01-28 2020-08-06 株式会社東海理化電機製作所 Operation recognition device, computer program, and storage medium
JP2020149152A (en) * 2019-03-11 2020-09-17 株式会社デンソーテン Control device and control method
JP7198416B2 (en) 2019-05-29 2023-01-04 トヨタ紡織株式会社 Vehicle lighting system
JP2020193490A (en) * 2019-05-29 2020-12-03 トヨタ紡織株式会社 Lighting control system for vehicle
JP2021098481A (en) * 2019-12-23 2021-07-01 日本電産モビリティ株式会社 Vehicle control device
JP2021133877A (en) * 2020-02-28 2021-09-13 株式会社Subaru Vehicular occupant monitoring device
JP7163526B1 (en) 2021-07-20 2022-10-31 株式会社あかつき Information processing system, program and information processing method
WO2023002907A1 (en) * 2021-07-20 2023-01-26 株式会社あかつき Information processing system, program, and information processing method
JP2023016047A (en) * 2021-07-20 2023-02-01 株式会社あかつき Information processing system, program, and information processing method
JP2023015980A (en) * 2021-07-20 2023-02-01 株式会社あかつき Information processing system, program, and information processing method
JP2023015540A (en) * 2021-07-20 2023-02-01 株式会社あかつき Information process system, program and information processing method
JP7286857B2 (en) 2021-07-20 2023-06-05 株式会社あかつき Information processing system, program and information processing method
JP7052128B1 (en) 2021-07-20 2022-04-11 株式会社あかつき Information processing system, program and information processing method
US11908097B2 (en) 2021-07-20 2024-02-20 Akatsuki Inc. Information processing system, program, and information processing method
JP2023016046A (en) * 2022-03-30 2023-02-01 株式会社あかつき Information processing system, program, and information processing method
JP7286856B2 (en) 2022-03-30 2023-06-05 株式会社あかつき Information processing system, program and information processing method

Similar Documents

Publication Publication Date Title
JP2017211884A (en) Motion detection system
JP5261554B2 (en) Human-machine interface for vehicles based on fingertip pointing and gestures
US11124118B2 (en) Vehicular display system with user input display
KR101459441B1 (en) System and method for providing a user interface using finger start points shape recognition in a vehicle
US9102244B2 (en) Operation apparatus
US20160132126A1 (en) System for information transmission in a motor vehicle
CN101963839B (en) Operation control device and operation control method
US20140361989A1 (en) Method and Device for Operating Functions in a Vehicle Using Gestures Performed in Three-Dimensional Space, and Related Computer Program Product
KR20110076921A (en) Display and control system in a motor vehicle having user-adjustable representation of displayed objects, and method for operating such a display and control system
KR101438615B1 (en) System and method for providing a user interface using 2 dimension camera in a vehicle
JP2010184600A (en) Onboard gesture switch device
KR101459445B1 (en) System and method for providing a user interface using wrist angle in a vehicle
JP5968573B2 (en) Gesture guidance device for moving body, gesture guidance system for moving body, and gesture guidance method for moving body
US20150234536A1 (en) Input apparatus
JP6011579B2 (en) Gesture input device
JP4858206B2 (en) In-vehicle device operation support device and operation support method
JP3933139B2 (en) Command input device
US10809823B2 (en) Input system
JP2014197252A (en) Gesture operation apparatus, program thereof, and vehicle mounted with gesture operation apparatus
KR101892390B1 (en) User interface, transport means and method for recognizing a hand of a user
JP2016029532A (en) User interface
JP2015202831A (en) Seat device
CN107636567B (en) Method for operating an operating device and operating device for a motor vehicle
JP6390380B2 (en) Display operation device
JP7024702B2 (en) Gesture detection device and gesture detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200403

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200825