JP5838061B2 - Driving assistance device - Google Patents

Driving assistance device Download PDF

Info

Publication number
JP5838061B2
JP5838061B2 JP2011184975A JP2011184975A JP5838061B2 JP 5838061 B2 JP5838061 B2 JP 5838061B2 JP 2011184975 A JP2011184975 A JP 2011184975A JP 2011184975 A JP2011184975 A JP 2011184975A JP 5838061 B2 JP5838061 B2 JP 5838061B2
Authority
JP
Japan
Prior art keywords
handle
hand
movement
wheel
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011184975A
Other languages
Japanese (ja)
Other versions
JP2013045416A (en
Inventor
正憲 小崎
正憲 小崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Alpine Automotive Technology Inc
Original Assignee
Toshiba Alpine Automotive Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Alpine Automotive Technology Inc filed Critical Toshiba Alpine Automotive Technology Inc
Priority to JP2011184975A priority Critical patent/JP5838061B2/en
Publication of JP2013045416A publication Critical patent/JP2013045416A/en
Application granted granted Critical
Publication of JP5838061B2 publication Critical patent/JP5838061B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Steering Controls (AREA)
  • Position Input By Displaying (AREA)

Description

この発明の実施形態は、運転の安全性を確保できる入力インターフェースで車両内の被操作機器を操作する運転支援装置に関する。   Embodiments described herein relate generally to a driving support apparatus that operates an operated device in a vehicle with an input interface that can ensure driving safety.

従来、運転支援装置では、ハンドルの真ん中にタッチパッドを配置し、被操作機器を操作するものが知られている。この場合、一度視線をタッチパッドに向けて位置を確認する必要があるほかにハンドルから手を離す必要がある。   2. Description of the Related Art Conventionally, as a driving assistance device, a device in which a touch pad is arranged in the middle of a handle and an operated device is operated is known. In this case, it is necessary to confirm the position with the line of sight once toward the touch pad and to release the hand from the handle.

また、自動車内に配置されたプロジェクターによって表示された画像のどの部分に触れているのかを検出する入力装置が知られている。この場合、入力操作のために画像に触れる必要があり、画像に触れるために位置を確認する必要があるほかにハンドルから手を離す必要がある。   There is also known an input device that detects which part of an image displayed by a projector disposed in an automobile is touching. In this case, it is necessary to touch the image for the input operation, and in addition to confirming the position to touch the image, it is necessary to release the hand from the handle.

特開2010−117748号公報JP 2010-117748 A 特開2004−262363号公報JP 2004-262363 A

従来の技術は、入力操作するために一度視線を向けて確認する必要があるほかに、ハンドルから手を離す必要があることから安全上の問題があった。   The conventional technique has a safety problem because it is necessary to check the line of sight once for input operation and to release the hand from the handle.

この実施形態では、運転の安全性を確保することのできる入力インターフェースで被操作機器を操作可能とした運転支援装置を提供する。   In this embodiment, there is provided a driving support device that can operate an operated device with an input interface that can ensure driving safety.

実施形態によれば、ハンドルのスライド操作で被操作機器の操作を開始したかを判定する操作開始判定部と、前記操作開始判定部により開始したスライド操作を終了する操作終了判定部と、前記操作開始判定部の開始により、前記ハンドル上の手の動きおよび位置から前記ハンドル上の手の相対的な動きを計算し、前記ハンドル上の手が輪の横方向操作、輪の縦方向にねじれ操作のうち、少なくとも何れか一方の操作に基づき、前記ハンドル上の操作内容の判定を処理する操作処理部と、前記操作処理部により判定された操作内容に基づき前記被操作機器を駆動する駆動部と、を備える。 According to the embodiment, an operation start determination unit that determines whether the operation of the operated device is started by a slide operation of the handle, an operation end determination unit that ends the slide operation started by the operation start determination unit, and the operation Ri by the start of the start determination unit, the relative movement of the hand on the handle from the movement and position of the hand on the front SL handles calculated, lateral manipulation of the hand on the handle wheel, the vertical wheel An operation processing unit that processes determination of the operation content on the handle based on at least one of the twisting operations, and drives the operated device based on the operation content determined by the operation processing unit A drive unit.

運転支援装置に関する第1の実施形態について説明するための概略的なシステム構成図である。1 is a schematic system configuration diagram for explaining a first embodiment relating to a driving support device. FIG. 動作について説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement. 振動成分キャンセルの具体的なマーカ設置位置について説明するための説明図である。It is explanatory drawing for demonstrating the specific marker installation position of vibration component cancellation. 座標系とカメラと画面の位置について説明するための説明図である。It is explanatory drawing for demonstrating the position of a coordinate system, a camera, and a screen. マークの位置とハンドルの位置と向きについて説明するための説明図である。It is explanatory drawing for demonstrating the position of a mark, the position of a handle | steering-wheel, and direction. ハンドルに対するベクトル取得位置について説明するための説明図である。It is explanatory drawing for demonstrating the vector acquisition position with respect to a handle | steering-wheel. ハンドル上スライド操作について説明するための説明図である。It is explanatory drawing for demonstrating a handle top slide operation. 相対動作計算部の検出結果について説明するための説明図である。It is explanatory drawing for demonstrating the detection result of a relative motion calculation part. ハンドル円上に取り付けたマークについて説明するための説明図である。It is explanatory drawing for demonstrating the mark attached on the handle circle. ハンドル円の半径取得について説明するための説明図である。It is explanatory drawing for demonstrating the radius acquisition of a handle circle. 手のひら操作の操作例について説明するための説明図である。It is explanatory drawing for demonstrating the operation example of palm operation. ハンドルと手のひらの影について説明するための説明図である。It is explanatory drawing for demonstrating the shadow of a handle | hand and a palm. 手のひらによるハンドル移動について説明するための説明図である。It is explanatory drawing for demonstrating the handle movement by a palm. 手のひらによるハンドル移動について説明するための説明図である。It is explanatory drawing for demonstrating the handle movement by a palm. 手のひらによるハンドル移動について説明するための説明図である。It is explanatory drawing for demonstrating the handle movement by a palm. 真上方向に補正する前の状態について説明するための説明図である。It is explanatory drawing for demonstrating the state before correct | amending in a directly upward direction. 真上方向に補正した後の状態について説明するための説明図である。It is explanatory drawing for demonstrating the state after correct | amending in a directly upward direction.

以下、実施形態について、図面を参照しながら詳細に説明する。   Hereinafter, embodiments will be described in detail with reference to the drawings.

(第1の実施形態)
図1は、運転支援装置に関する第1の実施形態について説明するための概略的なシステム構成図を示す。この実施形態は、ドライバーが手をハンドル上でスライドさせることで、そのスライド動作を読み取ることにより、カーナビゲーションなどの被操作機器を、ボタンやタッチパネルを操作することなしに操作を可能とするものである。
(First embodiment)
FIG. 1 is a schematic system configuration diagram for explaining a first embodiment related to a driving support device. In this embodiment, a driver slides his / her hand on the handle and reads the sliding motion, thereby enabling operation of a device to be operated such as car navigation without operating buttons or a touch panel. is there.

図1において、運転支援装置は、ドライバー10がハンドルのスライド操作を開始したかを判定する操作開始判定部11、スライド操作を処理する操作処理部12、スライド操作に基づきウインドウの上げ下げやナビなど表示装置のカーソル位置移動やヘッドアップディスプレイの輝度調整や位置調整などを行う駆動部13、スライドによる機器操作の終了を判定する操作終了判定部14を備える。   In FIG. 1, the driving support device displays an operation start determination unit 11 that determines whether the driver 10 has started a sliding operation of the steering wheel, an operation processing unit 12 that processes the sliding operation, a window raising / lowering or a navigation display based on the sliding operation. A drive unit 13 that performs cursor position movement of the device, brightness adjustment and position adjustment of the head-up display, and an operation end determination unit 14 that determines the end of device operation by the slide are provided.

操作処理部12は、ハンドル上の手の動きを測定する手動作測定部121、ハンドルの動きを測定するハンドル位置測定部122、ハンドル上の手の動きがハンドルに対して相対的に動いていることを判断するための相対動作計算部123、どんなスライド操作をしたかを判定する操作判定部124を備える。   The operation processing unit 12 includes a hand movement measurement unit 121 that measures the movement of the hand on the handle, a handle position measurement unit 122 that measures the movement of the handle, and the movement of the hand on the handle moves relative to the handle. A relative motion calculation unit 123 for determining this, and an operation determination unit 124 for determining what slide operation has been performed.

これにより、ドライバーが被操作機器を見る必要がなく、ハンドルから手を離す必要がなく、操作量を手で感じることができるアナログ的な操作を可能とする。スライド操作が簡単であるため誤動作を防止するために、操作開始判定部11と操作終了判定部14を備える。基本的な動作を図2のフローチャートに示す。   As a result, the driver does not need to look at the device to be operated, does not need to take his hand off the handle, and allows an analog operation in which the operation amount can be felt by hand. Since the slide operation is simple, an operation start determination unit 11 and an operation end determination unit 14 are provided to prevent malfunction. The basic operation is shown in the flowchart of FIG.

<操作開始判定部11について>
操作開始判定部11では、ハンドルのスライド操作で被操作機器の操作を開始するかを判定する。例えば「○○を操作する」ということをドライバーが音声を発することにより、音声認識部21が被操作機器:○○を対象としたスライド操作の開始であることを認識する。
<Operation start determination unit 11>
The operation start determination unit 11 determines whether the operation of the operated device is started by the sliding operation of the handle. For example, when the driver utters “operating XX”, the voice recognition unit 21 recognizes that the slide operation for the operated device: XX is started.

スライド操作の開始を判定する手段としては、音声によるスライド操作開始判定の他に、ハンドルからメータ等を撮像する、例えばドライバーの前方に設置されたカメラ22により指の上げ下げやジェスチャーや口の動きを読み取ってスライド操作の開始を判定してもよい。また、操作開始をしてよいかの再確認をヘッドアップディスプレイなどの表示部23や音声案内部24によって行い、それに対してドライバーが声やジェスチャーによって再操作することにより、はじめて操作開始としてもよい。そうすることにより誤って操作してしまうのを防ぐことができる。   As a means for determining the start of the slide operation, in addition to the determination of the start of the slide operation by voice, an image of a meter or the like is taken from the handle, for example, a camera 22 installed in front of the driver is used to raise or lower a finger, gesture or mouth movement The start of the slide operation may be determined by reading. In addition, the operation may be re-confirmed by the display unit 23 such as a head-up display or the voice guidance unit 24, and the operation may be started for the first time when the driver re-operates by voice or gesture. . By doing so, it is possible to prevent erroneous operation.

<操作処理部12について>
操作処理部12は、スライド操作の開始判定があってから操作の終了判定があるまでの間、ハンドル上の手の動きを読み取り、それが被操作機器:○○を操作させる動作かを判定する。操作処理部12には、手動作測定部121、ハンドル位置測定部122、相対動作計算部123、および操作判定部124を備える。
<About the operation processing unit 12>
The operation processing unit 12 reads the movement of the hand on the handle from the start of the slide operation until the end of the operation, and determines whether the operation is to operate the operated device: XX. . The operation processing unit 12 includes a hand motion measurement unit 121, a handle position measurement unit 122, a relative motion calculation unit 123, and an operation determination unit 124.

以下、操作処理部12の各部について説明する。   Hereinafter, each unit of the operation processing unit 12 will be described.

<手動作測定部121について>
手動作測定部121においてハンドルの位置に対して直接相対的な動作を読み取る場合には、ハンドル位置測定部122と相対動作計算部123は必要としない。その方法として、ハンドル上のタッチパッド25を使用して手の動きを読み取る方法や、ハンドルの回転物やハンドルの輪の内部にカメラを取り付けて手の動きを読み取る方法がある。その場合、ハンドルの輪のすべてをタッチパッド25にしてもよいし、ハンドルの回転部やハンドルの輪の内部に複数のカメラを設置してもよい。
<About the manual motion measurement unit 121>
When the hand motion measuring unit 121 reads the relative motion directly with respect to the position of the handle, the handle position measuring unit 122 and the relative motion calculating unit 123 are not necessary. As a method, there are a method of reading the movement of the hand using the touch pad 25 on the handle, and a method of reading the movement of the hand by attaching a camera to the inside of the rotating object of the handle or the wheel of the handle. In that case, all of the wheels of the handle may be the touch pad 25, or a plurality of cameras may be installed inside the rotating portion of the handle or the wheel of the handle.

絶対的な手の動作を読み取る場合には、ハンドル位置測定部122と相対動作計算部123を必要とする。その方法として、ハンドルに向けてカメラを取り付けて手の動きを読み取る方法がある。その場合、複数のカメラをハンドルに向けて設置し、ハンドル上のどこを握っていても操作を認識できるようにしてもよい。   When reading an absolute hand motion, a handle position measurement unit 122 and a relative motion calculation unit 123 are required. As a method therefor, there is a method of reading the movement of the hand by attaching a camera to the handle. In this case, a plurality of cameras may be installed facing the handle so that the operation can be recognized no matter where the handle is held.

カメラで手の動きを読み取る方法としては、公知である勾配法やブロックマッチング等の画像処理により行う。   As a method of reading the movement of the hand with the camera, image processing such as a known gradient method or block matching is performed.

<ハンドル位置測定部122について>
ハンドル上の手の動作をハンドルに対して相対的に読み取るためには、手動作測定部121で絶対的な手の動きを測定することに加え、ハンドルの絶対的な動きを読み取る必要がある。ハンドルの動きを読み取るためには、例えばCANなどの車内LAN26による陀角情報やカメラ22によってハンドルの形状を読み取ってその動きを測定する。
<About the handle position measurement unit 122>
In order to read the movement of the hand on the handle relative to the handle, it is necessary to read the absolute movement of the handle in addition to measuring the absolute movement of the hand by the hand movement measuring unit 121. In order to read the movement of the handle, for example, the angle information by the in-vehicle LAN 26 such as CAN or the shape of the handle is read by the camera 22 and the movement is measured.

または、車体15の振動成分をキャンセルするために、ハンドルHDの回転で回転しない部分にマークを取り付け、ハンドルの回転成分をキャンセルするためにハンドルの回転する部分にマークを複数取り付け、その位置を読み取ってハンドル位置を測定してもよい。そうすることにより、車体15の振動でのカメラからの角度ずれや、ハンドルの回転角度を読み取ることができる。   Alternatively, in order to cancel the vibration component of the vehicle body 15, a mark is attached to a portion that does not rotate due to the rotation of the handle HD, and in order to cancel the rotation component of the handle, a plurality of marks are attached to the portion that rotates the handle, and the position is read. The handle position may be measured. By doing so, it is possible to read the angle deviation from the camera due to the vibration of the vehicle body 15 and the rotation angle of the handle.

具体的には振動成分をキャンセルするために、車体内に図3に示すように振動キャンセル用の固定位置を示すマークM1を、ハンドルHDの回転角度を測定するためにマークM2をそれぞれ取り付ける。以下、マークM1,M2の取り付け位置とマークM1,M2に基づき振動成分のキャンセルについて説明する。   Specifically, in order to cancel the vibration component, a mark M1 indicating a fixed position for canceling the vibration as shown in FIG. 3 and a mark M2 for measuring the rotation angle of the handle HD are respectively installed in the vehicle body. Hereinafter, cancellation of vibration components will be described based on the attachment positions of the marks M1 and M2 and the marks M1 and M2.

まず、振動成分をキャンセルするためのマークM1について説明する。図4に示すように、カメラ22の位置とハンドルHDの回転する部分より手前の動かない部分にマークM1を取り付けるか特徴点を見つけておく。公知である勾配法やブロックマッチング等の画像処理により、カメラ22に対してそのマークM1の動作を相対的に読み取る。振動でのカメラ22から見える位置ずれは、カメラ22の向く方向のみ変わりカメラ22とマークM1との相対的な位置ずれは発生しないものとして、カメラ22の角度ずれを計算する。   First, the mark M1 for canceling the vibration component will be described. As shown in FIG. 4, the mark M1 is attached to a position where the camera 22 is not moved before the position of the camera 22 and the rotating portion of the handle HD or a characteristic point is found. The motion of the mark M1 is read relative to the camera 22 by a known image processing such as a gradient method or block matching. The positional deviation seen from the camera 22 due to vibration changes only in the direction in which the camera 22 faces, and the relative positional deviation between the camera 22 and the mark M1 does not occur, and the angular deviation of the camera 22 is calculated.

図5のような取得画像位置までの焦点距離をfとして、取得画像位置でのマークM1の位置を(x1、y1、f)、振動などによりずれ位置を(x2,y2、f)とした場合、角度ずれの係数を(Rx、Ry、Rz)とし、角度ずれは微量であるため計算を一次近似した場合下記のように表される。   When the focal distance to the acquired image position as shown in FIG. 5 is f, the position of the mark M1 at the acquired image position is (x1, y1, f), and the displacement position due to vibration is (x2, y2, f). When the coefficient of angular deviation is (Rx, Ry, Rz) and the angular deviation is very small, it is expressed as follows when the calculation is linearly approximated.

x2−x1=−(x1・y1/f)・Rx+(f・f+x1・x1)・(1/f)・Ry−y1・Rz
y2−y1=−(f・f+y1・y1)・(1/f)・Rx+(x1・y1/f)・Ry+x1・Rz
上記は、マークを2点必要とするが、計算を簡単にするために画面への方向であるz軸の角度ずれは起きないとした場合次のようになり、マークを1点として計算することができる。
x2−x1 = − (x1 · y1 / f) · Rx + (f · f + x1 · x1) · (1 / f) · Ry−y1 · Rz
y2−y1 = − (f · f + y1 · y1) · (1 / f) · Rx + (x1 · y1 / f) · Ry + x1 · Rz
The above requires two marks, but in order to simplify the calculation, if the angle deviation of the z-axis, which is the direction to the screen, does not occur, the calculation is as follows. Can do.

x2−x1=−(x1・y1/f)・Rx+(f・f+x1・x1)・(1/f)・Ry
y2−y1=−(f・f+y1・y1)・(1/f)・Rx+(x1・y1/f)・Ry
以上の計算結果から振動による影響をキャンセルする。
x2−x1 = − (x1 · y1 / f) · Rx + (f · f + x1 · x1) · (1 / f) · Ry
y2−y1 = − (f · f + y1 · y1) · (1 / f) · Rx + (x1 · y1 / f) · Ry
The influence of vibration is canceled from the above calculation results.

次に、ハンドルの回転成分をキャンセルするためのマークM2について説明する。ハンドルHDの回転角度は車内LAN26から取得する方法や、カメラ22の映像から取得する方法がある。カメラ映像から取得する場合、マークM2を回転するハンドル上(握るところに限らず)に取り付けておいて公知である勾配法やブロックマッチング等により、カメラ22に対してそのマークの動作を相対的に読み取る。ハンドルHDを回転させてもマークM2が見えるようにするために、複数マークを回転するハンドル上(握るところに限らず)に取り付ける。上記の振動による影響をキャンセルさせた後のマークM2の位置を(x2,y2,f)とする。   Next, the mark M2 for canceling the rotation component of the handle will be described. There are a method of acquiring the rotation angle of the handle HD from the in-vehicle LAN 26 and a method of acquiring from the video of the camera 22. When acquiring from the camera image, the mark M2 is attached to the rotating handle (not limited to the gripping position), and the operation of the mark is made relatively to the camera 22 by a known gradient method or block matching. read. In order to make the mark M2 visible even when the handle HD is rotated, the plurality of marks are attached on the rotating handle (not limited to the gripping position). The position of the mark M2 after canceling the influence of the vibration is assumed to be (x2, y2, f).

次に、ハンドルHDの動きが画面上ではどのような動きになるかを特定するために、マークM2の位置からハンドルHDの回転量を測定する。マークM2のハンドル回転による中心位置を(Mpx,Mpy、Mpz)とし、ハンドルHDの軸の向き(ハンドル面に対して垂直方向)を(Hdx,Hdy,Hdz)とした場合、面の式は、
Hdx・(x−Mpx)+Hdy・(y−Mpy)+Hdz・(z−Mpz)=0
となり、マークのハンドル回転によりできる面上のカメラに対する位置(Ex,Ey,Ez)へのベクトルは(x2,y2,f)となるので、
Ex=x2・t
Ey=y2・t
Ez=f・t
となり、その値をマークM2のハンドル回転によりできる面の式に代入してtを導き出し、(Ex,Ey,Ez)が求まる。
Next, in order to identify how the handle HD moves on the screen, the rotation amount of the handle HD is measured from the position of the mark M2. When the center position of the mark M2 by rotation of the handle is (Mpx, Mpy, Mpz) and the axis direction of the handle HD (perpendicular to the handle surface) is (Hdx, Hdy, Hdz), the formula of the surface is
Hdx · (x−Mpx) + Hdy · (y−Mpy) + Hdz · (z−Mpz) = 0
Since the vector to the position (Ex, Ey, Ez) with respect to the camera on the surface formed by rotating the handle of the mark is (x2, y2, f),
Ex = x2 · t
Ey = y2 · t
Ez = f · t
Then, the value is substituted into the formula of the surface formed by the handle rotation of the mark M2, and t is derived to obtain (Ex, Ey, Ez).

次にハンドル円の面を、ハンドル円の中心を(0,0,0)でz=0の面に変換するために、(Ex,Ey,Ez)をハンドルの中心で引いて(x3,y3,z3)、x軸回転し(x4,y4,z4)、y軸回転させる(x5,y5,z5)。x軸回転の回転角度を、Rhx、y軸の回転角度をRhyとすると、
x3=Ex−Mpx
y3=Ey−Mpy
z3=Ez−Mpz
x4=x3
y4=y3・cos(Rhx)−z3・sin(Rhx)
z4=z3・cos(Rhx)+y3・sin(Rhx)
x5=x4・cos(Rhy)+z4・sin(Rhy)
y5=y4
z5=z4・cos(Rhy)−x4・sin(Rhy)
となり、ここでのそれぞれの回転角度は下記のとおりである。なお、ハンドル円とは、ハンドルHDの太さの大小に関係なく、ハンドルHDの中心部分で描かれる円である。
Next, in order to convert the plane of the handle circle into a plane of z = 0 with the center of the handle circle being (0, 0, 0), (Ex, Ey, Ez) is subtracted at the center of the handle (x3, y3 , Z3), x-axis rotation (x4, y4, z4), and y-axis rotation (x5, y5, z5). If the rotation angle of the x-axis rotation is Rhx and the rotation angle of the y-axis is Rhy,
x3 = Ex-Mpx
y3 = Ey-Mpy
z3 = Ez-Mpz
x4 = x3
y4 = y3.cos (Rhx) -z3.sin (Rhx)
z4 = z3 · cos (Rhx) + y3 · sin (Rhx)
x5 = x4 · cos (Rhy) + z4 · sin (Rhy)
y5 = y4
z5 = z4 · cos (Rhy) −x4 · sin (Rhy)
Thus, the respective rotation angles here are as follows. Note that the handle circle is a circle drawn at the center of the handle HD regardless of the thickness of the handle HD.

Rhx=atan(Hdy/Hdz)
Rhy=−atan(Hdx/(Hdz・cos(Rhx)+Hdy・sin(Rhx)))
次に、マークM2のz軸回転角度位置を取得し、回転していないときの角度を引いた値が、そのときのハンドルの回転角度(Rhz)となる。
Rhx = atan (Hdy / Hdz)
Rhy = −atan (Hdx / (Hdz · cos (Rhx) + Hdy · sin (Rhx)))
Next, the z-axis rotation angle position of the mark M2 is acquired, and the value obtained by subtracting the angle when the mark M2 is not rotating becomes the rotation angle (Rhz) of the handle at that time.

上記の変換によるハンドルの回転角度の取得は、予めマークの位置ごとにLook Up Tableや射影変換式を用意しておいて取得してもよい。   The rotation angle of the handle by the above conversion may be acquired by preparing a Look Up Table or a projection conversion formula for each mark position in advance.

<相対動作計算部123について>
相対動作計算部123は、手動作測定部121で取得した絶対的な手の動きを、画像上から複数のベクトルA群として手動作測定部121より検出する。そのベクトルA群をハンドル位置測定部122で取得した絶対的なハンドル位置とから、ハンドルに対する手の相対動作をベクトルH群として変換し求める。一つのベクトルHは(Hx,Hy,Hu,Hv)(=(画面上のx位置,画面上のy位置、1フレームでのx方向移動量、1フレームでのy方向移動量))の4つのパラメータからなる。
<Regarding the relative motion calculation unit 123>
The relative motion calculation unit 123 detects the absolute hand motion acquired by the manual motion measurement unit 121 from the hand motion measurement unit 121 as a plurality of vectors A from the image. From the absolute handle position obtained by the handle position measuring unit 122 for the vector A group, the relative movement of the hand with respect to the handle is converted as a vector H group. One vector H is (Hx, Hy, Hu, Hv) (= (x position on the screen, y position on the screen, x-direction movement amount in one frame, y-direction movement amount in one frame)) 4 Consists of two parameters.

画面上で取得できる手の動きベクトルは複数取得でき、その複数のベクトルを使用することになるが、変換計算は一つのベクトルのみで説明する。   Although a plurality of hand motion vectors that can be acquired on the screen can be acquired and the plurality of vectors are used, the conversion calculation will be described using only one vector.

画面上で取得した1つの絶対的な手の動きベクトルAを(Ax, Ay,Au,Av)(=(画面上のx位置、画面上のy位置、1フレームでのx方向移動量、1フレームでのy方向移動量))とし、車体の振動による影響をキャンセルしたベクトルBを(Bx,By,Bu,Bv)(=(画面上のx位置、画面上のy位置、1フレームでのx方向移動量、1フレームでのy方向移動量))とし、今の振動の回転量を(R1x,R1y,R1z)(=(x軸回転量、y軸回転量、z軸回転量))とし、1フレーム前の回転量を(R0x,R0y,R0z)とした場合、Bx,Byは、
Bx=Ax−(−(Ax・Ay/f)・R1x+(f・f+Ax・Ax)・(1/f)・R1y−Ay・R1z)
By=Ay−(−(f・f+Ay・Ay)・(1/f)・R1x+(Ax・Ay/f)・R1y+Ax・R1z)
となり、一つ前のフレームでの振動の影響をキャンセルする前の位置(Cx,Cy)は、
Cx=Ax−Au
Cy=Ay−Av
なので、一つ前のフレームでの振動の影響をキャンセルした位置(Dx,Dy)は、
Dx=Cx−(−(Cx・Cy/f)・R0x+(f・f+Cx・Cx)・(1/f)・R0y−Cy・R0z)
Dy=Cy−(−(f・f+Cy・Cy)・(1/f)・R0x+(Cx・Cy/f)・R0y+Cx・R0z)
なので(Bu,Bv)は、
Bu=Bx−Dx
Bv=By−Dy
となる。
One absolute hand motion vector A acquired on the screen is expressed as (Ax, Ay, Au, Av) (= (x position on the screen, y position on the screen, x direction movement amount in one frame, 1 (Y direction movement amount in the frame)) and the vector B canceled the influence of the vibration of the vehicle body is (Bx, By, Bu, Bv) (= (x position on the screen, y position on the screen, 1 frame) x-direction movement amount, y-direction movement amount in one frame)), and the current rotation amount of vibration (R1x, R1y, R1z) (= (x-axis rotation amount, y-axis rotation amount, z-axis rotation amount)) When the rotation amount one frame before is (R0x, R0y, R0z), Bx and By are
Bx = Ax − (− (Ax · Ay / f) · R1x + (f · f + Ax · Ax) · (1 / f) · R1y−Ay · R1z)
By = Ay − (− (f · f + Ay · Ay) · (1 / f) · R1x + (Ax · Ay / f) · R1y + Ax · R1z)
The position (Cx, Cy) before canceling the influence of vibration in the previous frame is
Cx = Ax-Au
Cy = Ay-Av
So, the position (Dx, Dy) where the influence of vibration in the previous frame was canceled is
Dx = Cx − (− (Cx · Cy / f) · R0x + (f · f + Cx · Cx) · (1 / f) · R0y−Cy · R0z)
Dy = Cy-(-(f.f + Cy.Cy). (1 / f) .R0x + (Cx.Cy/f) .R0y + Cx.R0z)
So (Bu, Bv) is
Bu = Bx-Dx
Bv = By-Dy
It becomes.

次に、ハンドルの動きが画面上ではどのような動きになるかを特定する。ハンドル回転中心位置を(Hpx,Hpy,Hpz)とし、ハンドルの軸の向き(ハンドル面に対して垂直方向)を(Hdx,Hdy,Hdz)とした場合、面の式は、
Hdx・(x−Hpx)+Hdy・(y−Hpy)+Hdz・(z−Hpz)=0
となり、車体の振動による影響をキャンセルしたベクトル(Bx,By,Bu,Bv)のハンドル面上のカメラに対する位置(Ex,Ey,Ez)へのベクトル量は、(Bx,By,f)となるので、
Ex=Bx・t
Ey=By・t
Ez=f・t
となり、その値をハンドル面の式に代入してtを導き出し、(Ex,Ey,Ez)が求まる。
Next, the movement of the handle is specified on the screen. When the handle rotation center position is (Hpx, Hpy, Hpz) and the handle axis direction (perpendicular to the handle surface) is (Hdx, Hdy, Hdz), the formula of the surface is
Hdx · (x−Hpx) + Hdy · (y−Hpy) + Hdz · (z−Hpz) = 0
Thus, the vector amount to the position (Ex, Ey, Ez) with respect to the camera on the handle surface of the vector (Bx, By, Bu, Bv) that has canceled the influence due to the vibration of the vehicle body is (Bx, By, f). So
Ex = Bx · t
Ey = By · t
Ez = f · t
Then, by substituting that value into the formula of the handle surface, t is derived, and (Ex, Ey, Ez) is obtained.

そして、ハンドル面をハンドル円の中心を(0,0,0)でz=0の面に変換するために、(Ex,Ey,Ez)をハンドルの中心で引いて(x3,y3,z3)、x軸回転し(x4,y4,z4)、y軸回転させる(x5,y5,z5)。x軸回転の回転角度をRhx,y軸の回転角度をRhyとすると、
x3=Ex−Hpx
y3=Ey−Hpy
z3=Ez−Hpz
x4=x3
y4=y3・cos(Rhx)−z3・sin(Rhx)
z4=z3・cos(Rhx)+y3・sin(Rhx)
x5=x4・cos(Rhy)+z4・sin(Rhy)
y5=y4
z5=z4・cos(Rhy)−x4・sin(Rhy)
となり、ここでのx軸およびy軸の回転角度は、下記のとおりである。
Then, in order to convert the handle surface into a plane with z = 0 at the center of the handle circle at (0, 0, 0), subtract (Ex, Ey, Ez) at the center of the handle (x3, y3, z3) The x-axis is rotated (x4, y4, z4), and the y-axis is rotated (x5, y5, z5). If the rotation angle of the x-axis rotation is Rhx and the rotation angle of the y-axis is Rhy,
x3 = Ex-Hpx
y3 = Ey-Hpy
z3 = Ez-Hpz
x4 = x3
y4 = y3.cos (Rhx) -z3.sin (Rhx)
z4 = z3 · cos (Rhx) + y3 · sin (Rhx)
x5 = x4 · cos (Rhy) + z4 · sin (Rhy)
y5 = y4
z5 = z4 · cos (Rhy) −x4 · sin (Rhy)
The rotation angles of the x-axis and the y-axis here are as follows.

Rhx=atan(Hdy/Hdz)
Rhy=−atan(Hdx/(Hdz・cos(Rhx)+Hdy・sin(Rhx)))
今のハンドルHDの回転角度をRh1zとし、1フレーム前のハンドルの回転角度をRh0zとした場合、1フレームでのハンドル回転角度Rhdzは、
Rhdz=Rh1z−Rh0z
となり、z=0の面にしておいたベクトルの座標を−Rhdz分z軸回転させて(x6,y6,z6)、1フレーム前の座標を特定する。
Rhx = atan (Hdy / Hdz)
Rhy = −atan (Hdx / (Hdz · cos (Rhx) + Hdy · sin (Rhx)))
When the current rotation angle of the handle HD is Rh1z and the rotation angle of the handle one frame before is Rh0z, the handle rotation angle Rhz in one frame is
Rhdz = Rh1z-Rh0z
Then, the coordinate of the vector set on the plane of z = 0 is rotated by z axis by −Rhdz (x6, y6, z6), and the coordinate one frame before is specified.

x6=x5・cos(−Rhdz)−y5・sin(−Rhdz)
y6=y5・cos(−Rhdz)+x5・sin(−Rhdz)
z6=z5
その値をz=0への変換の逆を行う。つまり、−Rhy分y軸回転し、−Rhx分x軸回転し、ハンドル回転中心位置(Hpx,Hpy,Hpz)を加算する。その値を(Fx,Fy,Fz)とし、ベクトルを検出した面へ展開した座標を(Gx,Gy)とすると、
Gx=f・Fx/Fz
Gy=f・Fy/Fz
となり、ハンドルの回転成分をキャンセルしたベクトルH(Hx,Hy,Hu,Hv)は、
Hx=Bx
Hy=By
Hu=Bu−(Bx−Gx)
Hv=Bv−(By−Gy)
となり、このベクトルH(Hx,Hy,Hu,Hv)を利用する。
x6 = x5.cos (-Rhdz) -y5.sin (-Rhdz)
y6 = y5.cos (-Rhdz) + x5.sin (-Rhdz)
z6 = z5
The value is converted in reverse to z = 0. That is, it rotates by y-axis by −Rhy, rotates by x-axis by −Rhx, and adds the handle rotation center position (Hpx, Hpy, Hpz). If the value is (Fx, Fy, Fz) and the coordinates developed on the surface where the vector is detected are (Gx, Gy),
Gx = f · Fx / Fz
Gy = f · Fy / Fz
The vector H (Hx, Hy, Hu, Hv) in which the rotational component of the handle is canceled is
Hx = Bx
Hy = By
Hu = Bu− (Bx−Gx)
Hv = Bv- (By-Gy)
This vector H (Hx, Hy, Hu, Hv) is used.

しかしながら、このままではまだ扱いづらい。そのため、図6(b),(c)の太線に示すように、ハンドル円を直線に伸ばして処理させる。ベクトルの頂点とそのベクトルの1フレーム前の位置をそれぞれ、上記したとおり、ハンドル面の3次位置への変換、ハンドルの中心座標減算,Rhx分x軸回転、Rhy分y軸回転した位置での半径とz軸回転角度θを取得する。そのz軸回転角度θにハンドルの回転角度の絶対量Rhzをキャンセルして、ハンドルの位置に対する手の位置とする。   However, it is still difficult to handle as it is. Therefore, as shown by the thick lines in FIGS. 6B and 6C, the handle circle is straightened and processed. As described above, the vertex of the vector and the position one frame before the vector are converted into the tertiary position of the handle surface, the center coordinate of the handle is subtracted, the Rhx portion is rotated by the x axis, and the Rhy portion is rotated by the y axis. The radius and the z-axis rotation angle θ are acquired. The absolute amount Rhz of the rotation angle of the handle is canceled at the z-axis rotation angle θ, and the position of the hand relative to the position of the handle is obtained.

そして、半径をy軸、角度をx軸として変換させる。次に、ハンドルの形が楕円だった場合には、z軸回転角度ごとにハンドルの半径ずれ分オフセットを加えて、ハンドルの形状が直線に見えるように変換し、ハンドル位置が0になるようにする。以上の変換により操作の判定をわかりやすくさせる。このときのベクトルIを(Ix,Iy,Iu,Iv)とすると、それぞれの意味は下記のようになり、このベクトルを操作判定部124に送り、操作を判定させる。   Then, the radius is converted as the y axis and the angle as the x axis. Next, if the shape of the handle is an ellipse, an offset corresponding to the radius deviation of the handle is added at each z-axis rotation angle to convert the handle shape to look straight, so that the handle position becomes zero. To do. The above conversion makes the operation determination easy to understand. Assuming that the vector I at this time is (Ix, Iy, Iu, Iv), the meanings thereof are as follows, and this vector is sent to the operation determination unit 124 to determine the operation.

Ix:ハンドルの輪の方向(輪の中心に対しての角度)の位置
Iy:ハンドルの輪の中心に対しての方向の位置(0はハンドルの輪の位置)
Iu:ハンドルの輪の方向(輪の中心に対しての角度)の移動量
Iv:ハンドルの輪の中心に対しての方向の移動量
上記の変換は、予め元の画像位置x,yに対して半径とz軸回転角度のLook Up Tableを用意しておきベクトルを線形補間などで展開して、ハンドルの回転角度分シフトさせて、ハンドルの形が楕円だった場合にはオフセットを加えて変換させてもよい。
Ix: Position of handle wheel direction (angle with respect to the center of the wheel) Iy: Position of handle wheel direction with respect to the center of the wheel (0 is the position of the wheel of the handle)
Iu: Amount of movement in the direction of the wheel of the handle (angle with respect to the center of the wheel) Iv: Amount of movement in the direction of the handle in the direction of the center of the wheel Prepare a Look Up Table of radius and z-axis rotation angle, expand the vector by linear interpolation, etc., shift it by the rotation angle of the handle, and convert it by adding an offset if the handle shape is an ellipse You may let them.

また、z軸回転角度ごとにハンドルの形が楕円だった場合を考慮したLook Up Tableを用意して、画像をそのLook Up Tableで展開し、その画像からベクトルを検出させてもよい。その場合、元画像から振動成分をキャンセルした位置からLook Up Tableで展開させる。   Alternatively, a Look Up Table may be prepared in consideration of the case where the handle has an elliptical shape for each z-axis rotation angle, an image may be developed with the Look Up Table, and a vector may be detected from the image. In that case, it develops with Look Up Table from the position where the vibration component was canceled from the original image.

<操作判定部124について>
操作判定部124では、相対動作計算部123からベクトルIを複数もらうことになるが、そのベクトルI群からスライド操作の内容を判断して、それに応じた被操作機器へのアナログ的な操作量、方向、もしくは操作指令コードを出力する。この出力は音声などで指定した被操作機器によって特定となる。
<About Operation Determination Unit 124>
In the operation determination unit 124, a plurality of vectors I are obtained from the relative motion calculation unit 123. The content of the slide operation is determined from the vector I group, and an analog operation amount to the operated device according to the content, Outputs the direction or operation command code. This output is specified by the operated device specified by voice or the like.

図7に示すように、表示部23上の縦方向へのアナログ移動操作指令と横方向へのアナログ移動操作指令を行う場合について説明する。表示部23の縦の操作を自動二輪車のアクセルのようにハンドルをねじる方向7a、表示部23の横の操作をハンドルの輪のある方向に動かす方向7bとする。そうした場合、相対動作計算部123でのベクトルI群の検出結果は、図8のようになる。   As shown in FIG. 7, a case where an analog movement operation command in the vertical direction and an analog movement operation command in the horizontal direction on the display unit 23 are performed will be described. The vertical operation of the display unit 23 is a direction 7a in which the handle is twisted like an accelerator of a motorcycle, and the horizontal operation of the display unit 23 is a direction 7b in which the handle 23 is moved in the direction of the wheel of the handle. In such a case, the detection result of the vector I group in the relative motion calculation unit 123 is as shown in FIG.

まずハンドル上の手のある位置を特定する。ハンドルの輪の楕円がy=0の直線に展開されているので、輪の太さ分の領域(y=0付近)にある程度の大きさのベクトルが多数存在していれば、そのxの範囲a1<x<a2でベクトルの分布を測定する。そうすることにより、ハンドル上の操作のベクトルとそうでないベクトルとの切り分けを行う。また、色情報により手の色と特定してもよい。   First, specify the position of the hand on the handle. Since the ellipse of the wheel of the handle is expanded into a straight line with y = 0, if there are many vectors of a certain size in the region corresponding to the thickness of the wheel (near y = 0), the range of x The vector distribution is measured with a1 <x <a2. By doing so, the operation vector on the handle is separated from the non-operation vector. Moreover, you may identify with the color of a hand by color information.

縦の操作は、同じy位置Iyとなるもの同士が同じy方向の移動量Ivとなっており、ハンドルの位置(y=0)で一番大きく、上下(y≠0)で小さい状態になり、操作の移動量はハンドル位置(y=0)でのy方向のベクトル量で計算する。例えばハンドルの輪の付近の範囲をRange1(−b1<y<b1)、ハンドルの輪の外側の範囲をRange2(b1<y<b2)、ハンドルの輪の中側の範囲をRange3(−b2<y<−b1)とする。まずベクトルの大きさIvがほぼ0となるベクトルは除去する。そして残った個数が少ない場合はスライド操作ではないと判定する。そしてRange1にあるベクトルのIvの平均J1vを求める。Range1のIvの分散(例えば平均からのずれ量(|Iv−J1v|)がある閾値より大きい個数を全体の個数で割った割合)が大きい場合、ばらついているためスライド操作ではないと判定する。同様にRange2の平均J2vと分散を計算し、分散が大きい場合は、ばらついているためスライド操作ではないと判定する。   In the vertical operation, those at the same y position Iy have the same movement amount Iv in the y direction, which is the largest at the position of the handle (y = 0) and small at the top and bottom (y ≠ 0). The movement amount of the operation is calculated by the vector amount in the y direction at the handle position (y = 0). For example, the range near the wheel of the steering wheel is Range1 (-b1 <y <b1), the range outside the wheel of the steering wheel is Range2 (b1 <y <b2), and the range inside the wheel of the steering wheel is Range3 (-b2 < Let y <−b1). First, vectors whose vector magnitude Iv is almost zero are removed. If the remaining number is small, it is determined that the slide operation is not performed. Then, an average J1v of Iv of vectors in Range1 is obtained. If the variance of Iv in Range 1 (for example, a ratio obtained by dividing the number of deviations from the average (| Iv−J1v |) greater than a certain threshold value by the total number) is large, it is determined that the operation is not a slide operation because of variation. Similarly, the average J2v and variance of Range2 are calculated, and if the variance is large, it is determined that the operation is not a slide operation because of variation.

同様にRange3の平均J3vと分散を計算し、分散が大きい場合は、ばらついているためスライド操作ではないと判定する。次に、3つの平均(J1vとJ2vとJ3v)が同じ極性ではない場合はスライド操作ではないと判定する。   Similarly, the average J3v and the variance of Range3 are calculated. If the variance is large, it is determined that the operation is not a slide operation because the variation is present. Next, when the three averages (J1v, J2v, and J3v) are not the same polarity, it is determined that the slide operation is not performed.

次に、Range1での大きさ(|J1v|)が他の範囲での大きさ(|J2v|と|J3v|)に対する割合が、ある範囲で大きくなっている場合((c1<|J1v|/|J2v|<c2)かつ(c1<|J1v|/|J3v|<c2)、ただしc1,c2は1以上)に、スライド操作とする。そして縦操作の移動量はJ1vにある係数をかけた値で計算する。   Next, when the ratio of the size (| J1v |) in Range1 to the size (| J2v | and | J3v |) in other ranges is large in a certain range ((c1 <| J1v | / | J2v | <c2) and (c1 <| J1v | / | J3v | <c2), where c1 and c2 are 1 or more). The movement amount of the vertical operation is calculated by a value obtained by multiplying J1v by a certain coefficient.

横の操作は、手のある位置にあるすべてのベクトルがほぼ同じx方向の移動量Iuとなっており、操作の移動量はハンドル位置(y=0)でのx方向のベクトル量で計算する。例えば、まずベクトルの大きさIuがほぼ0となるベクトルは除去する。そして残った個数が少ない場合はスライド操作ではないと判定する。そしてRange1にあるベクトルのIuの平均J1uを求める。Range1のIuの分散(例えば平均からのずれ量(|Iu−J1u|)がある閾値より大きい個数を全体の個数で割った割合)が大きい場合、ばらついているためスライド操作ではないと判定する。同様にRange2の平均J2uと分散を計算し、分散が大きい場合は、ばらついているためスライド操作ではないと判定する。同様にRange3の平均J3uと分散を計算し、分散が大きい場合は、ばらついているためスライド操作ではないと判定する。   In the horizontal operation, all the vectors at the position where the hand is located have almost the same movement amount Iu in the x direction, and the movement amount of the operation is calculated by the vector amount in the x direction at the handle position (y = 0). . For example, first, a vector whose vector size Iu is almost zero is removed. If the remaining number is small, it is determined that the slide operation is not performed. Then, an average J1u of Iu of vectors in Range1 is obtained. When the dispersion of Iu in Range 1 (for example, a ratio obtained by dividing the number of deviations from the average (| Iu−J1u |) larger than a certain threshold value by the total number) is large, it is determined that the operation is not a slide operation because of variation. Similarly, the average J2u and variance of Range2 are calculated, and if the variance is large, it is determined that the operation is not a slide operation because of variation. Similarly, the average J3u and the variance of Range3 are calculated. If the variance is large, it is determined that the operation is not a slide operation because the variation is present.

次に、3つの平均J1uとJ2uとJ3uが同じ極性ではない場合は、スライド操作ではないと判定する。次に、Range1での大きさ|J1u|が他の範囲での大きさ|J2u|と|J3u|に対する割合がある範囲に収まっている場合、((d1<|J1u|/|J2u|<d2)かつ(d1<|J1u|/|J3u|<d2)、ただしd1は1以下,d2は1以上)に、スライド操作とする。そして横操作の移動量はJ1uにある係数をかけた値で計算する。カメラはドライバーに対して逆向きとしている場合には、横操作は左右逆方向となる。   Next, when the three averages J1u, J2u, and J3u are not of the same polarity, it is determined that the operation is not a slide operation. Next, when the size | J1u | in the range 1 is within a certain range with respect to the sizes | J2u | and | J3u | in the other ranges, ((d1 <| J1u | / | J2u | <d2 ) And (d1 <| J1u | / | J3u | <d2), where d1 is 1 or less and d2 is 1 or more. The movement amount of the lateral operation is calculated by a value obtained by multiplying J1u by a certain coefficient. When the camera is in the reverse direction with respect to the driver, the horizontal operation is in the opposite direction.

ここでの操作をアナログ的な移動量や方向とした場合、縦操作と横操作を合わせたのが移動量、方向となる。たとえば操作の移動量、方向が表示部23上のカーソルの移動量、方向に変換される。   When the operation here is an analog movement amount and direction, the movement amount and direction are a combination of the vertical operation and the horizontal operation. For example, the movement amount and direction of the operation are converted into the movement amount and direction of the cursor on the display unit 23.

ここでの操作を操作指令とした場合には、1フレーム間の移動量ではなく複数フレームでの累計移動量が指定した閾値を超えた場合に操作指令とする。たとえば縦操作の累計移動量が指定した閾値を超えた場合に、表示部23上の表示を違う画像に切り替える。   In the case where the operation here is an operation command, the operation command is used when the cumulative movement amount in a plurality of frames exceeds the specified threshold value instead of the movement amount between one frame. For example, when the cumulative amount of vertical operation exceeds a specified threshold, the display on the display unit 23 is switched to a different image.

操作範囲が不足する場合には、一度手を離して位置を戻し、再び掴んで操作させる。手をハンドルから離しているときは操作していないことにすることで、スライドを限りなく行うことができる。   If the operation range is insufficient, release the hand once to return the position, and grasp again to operate. By not operating when the hand is away from the handle, sliding can be performed indefinitely.

この実施形態のいろいろな操作方法例を(1)〜(12)に示し説明する。   Various operation method examples of this embodiment will be described with reference to (1) to (12).

(1)アナログ操作だけではなく、縦方向操作を上下にすばやく行いYes(決定、選択)判定、横方向操作を左右にすばやく行いNo(キャンセル)判定としてもよい。
(2)ハンドル上で手がべたついて滑らない場合を想定した場合、手の肉が変形する分だけの小さなねじれと輪の方向の動きとなる。その場合(すべる場合でも)では、最初の手の位置を基準として、基準位置からの手のずれ量により、操作の移動速度として操作してもよい。また、横方向は握った手の手首をねじる動作で決めてもよい。また、上下や左右のように手の肉の変形とそれを戻す動作を一連の動作とし、最初に移動させた方向を操作移動方向としてもよい。
(3)ハンドルを強く握ったとき(ベクトルの大きさがどれも小さく、向きがばらばら(手の中心方向)で、移動後すぐにもとの位置に戻る(移動終了時の画像と移動開始時の画像でのベクトルが出ない))に決定とし、手首をねじった時(ある程度大きいベクトルが多く、向きがばらばら(手の中心に回転方向)で、移動後すぐにもとの位置に戻る)、または手首をねじるのを左右素早く行う、または、手を軽く開いたとき(ある程度大きいベクトルが多く、向きがばらばら(手の中心から離れる方向)で、移動後すぐにもとの位置に戻る)でキャンセルとしてもよい。
(4)ハンドルを親指側で強く握った場合決定とし、小指側で強く握った場合キャンセルとしてもよい。また、強く握った指ごとに操作を変えてもよい。
(5)両手を使い、それぞれの手が上下逆の場合は回転操作とし、それぞれの手を近づける場合は縮小操作とし、それぞれの手を遠ざける場合は拡大操作として、操作を拡張させてもよい。
(6)指を上げて操作し、上げる指によって操作対象を変更してもよい。また、指を上げたときに操作対象が何であるか音声で知らせてもよい。その場合、片方の手で指を上げて操作対象、もう一方の手でアナログ操作としてもよい。
(7)左と右の手で違う操作系としてもよい。
(8)片方の手の位置を基準とした相対距離での操作としてもよい。
(9)右手で上下と左右、左手で奥行きとねじれ方向(奥行き方向の軸の回転)や時間方向など、左右の手を使用して3次元や4次元操作としてもよい。
(10)ハンドルをつかんだ手の位置もしくは、操作開始したときの手の位置を基準として、そこからの相対距離によって操作される移動の速度を変更してもよい。
(11)ハンドル上の決められた位置を最初につかむことにより、操作系を変えてもよい。
(12)手の大きさを検出してその大きさによって、カーソルや移動したかの閾値や移動量の正規化をさせてもよい。そうすることにより、人によっての操作間隔のずれが軽減される。
(1) Not only an analog operation but also a vertical operation can be quickly performed up and down to make a Yes (decision, selection) determination, and a horizontal operation can be quickly performed to the left and right to make a No (cancel) determination.
(2) When it is assumed that the hand is sticky and does not slip on the handle, the twisting and movement in the direction of the ring are as small as the flesh of the hand is deformed. In that case (even when sliding), the movement speed of the operation may be operated based on the displacement amount of the hand from the reference position with the position of the first hand as a reference. Further, the lateral direction may be determined by the action of twisting the wrist of the gripped hand. Alternatively, the movement of the hand and the movement of returning it, such as up and down and left and right, may be a series of operations, and the direction of movement first may be the operation movement direction.
(3) When the handle is squeezed strongly (the size of the vector is small, the orientation is different (the direction of the center of the hand), and immediately returns to the original position after movement (image at the end of movement and at the start of movement) (The vector in the image of) does not come out)), and when the wrist is twisted (there are many vectors that are somewhat large, the orientation is scattered (the direction of rotation around the center of the hand), and immediately returns to its original position after movement) , Or when you twist your wrist quickly or when you open your hand lightly (there are many vectors that are somewhat large and their orientation is different (the direction away from the center of the hand) and immediately return to their original position after movement) You can cancel it.
(4) The determination may be made when the handle is strongly gripped on the thumb side, and may be canceled if the handle is strongly gripped on the little finger side. In addition, the operation may be changed for each finger that is strongly grasped.
(5) Using both hands, the operation may be extended as a rotation operation when each hand is upside down, a reduction operation when each hand is brought closer, and an enlargement operation when each hand is moved away.
(6) The operation target may be changed with the finger raised and operated. In addition, when the finger is raised, what the operation target is may be notified by voice. In this case, the operation target may be raised by raising the finger with one hand, and the analog operation may be performed with the other hand.
(7) Different operating systems may be used for the left and right hands.
(8) It is good also as operation by the relative distance on the basis of the position of one hand.
(9) Up and down and left and right with the right hand, and depth and twist directions (rotation of the axis in the depth direction) and time direction with the left hand, etc., the left and right hands may be used for three-dimensional and four-dimensional operations.
(10) With the position of the hand holding the handle or the position of the hand when the operation is started as a reference, the speed of movement operated by the relative distance from the position may be changed.
(11) The operating system may be changed by first grasping a predetermined position on the handle.
(12) The size of the hand may be detected, and the threshold of the cursor or movement or the amount of movement may be normalized according to the size of the hand. By doing so, the shift of the operation interval by a person is reduced.

<駆動部13について>
駆動部13は、操作される装置である。例えば、操作した場合、車内LAN26経由でウインドウの上げ下げや、ナビなど表示装置のカーソル位置移動や、ヘッドアップディスプレイの輝度調整や位置調整などを行う。
<About Drive Unit 13>
The drive unit 13 is a device to be operated. For example, when operated, the window is raised and lowered via the in-vehicle LAN 26, the cursor position of a display device such as a navigation is moved, the brightness adjustment and the position adjustment of the head-up display are performed.

操作したかどうかをドライバーに知らせるために、音声で案内させてもよい。例えば、アナログ操作では、決められた移動量に対して音を1回鳴らし、その量の数倍の移動をした場合には現在どの状態かを音声で案内すればよい。例えば、車内温度を操作した場合、1度ごとに「ポン」という音を鳴らし、5度分解能になったときに「15度です」というように音声で案内する。また、操作する方向(温度を上げるか下げるか)によって案内する音の音質を変更してもよい。また、操作したかどうかだけであれば音声で操作したことを知らせればよい。   In order to inform the driver of whether or not the operation has been performed, voice guidance may be provided. For example, in an analog operation, a sound is generated once for a predetermined amount of movement, and when the movement is several times that amount, the current state may be guided by voice. For example, when the in-vehicle temperature is operated, a sound of “pong” is sounded every time, and when the resolution is 5 degrees, guidance is made by voice such as “15 degrees”. Further, the sound quality of the guided sound may be changed depending on the operating direction (whether the temperature is raised or lowered). Moreover, what is necessary is just to alert | report that it operated by the voice, if it was only operated.

操作される装置は他に、音楽のボリュームや、選曲リスト、ナビの操作や、ワイパー速度やウインドウ開閉などの車内環境や、スマートフォンなどの持込機器でもよい。また、インターネット経由で家や会社などの車外の操作を行ってもよい。また、車両に取り付けられたカメラの表示の切り替えやその俯瞰画像の視点の切り替えなど運転状況により異なる状態をドライバーが操作してもよい。   The device to be operated may be a volume of music, a music selection list, navigation operation, an in-car environment such as a wiper speed and window opening / closing, or a portable device such as a smartphone. Moreover, you may perform operation outside vehicles, such as a house and a company, via the internet. Further, the driver may operate different states depending on the driving situation such as switching of the display of the camera attached to the vehicle and switching of the viewpoint of the overhead image.

<キャリブレーションについて>
上記の動作を実現するためには、ハンドルHD上のマークM2の回転中心位置(Mpx,Mpy,Mpz)とハンドルHDが回転していないときの角度(Rhz)、ハンドル面の垂直方向(Hdx,Hdy,Hdz)、ハンドル面の回転中心位置(Hpx,Hpy,Hpz)、ハンドルHDの角度ごとの半径がわかっている必要がある。そのためそれぞれの位置を取得するために、最初にキャリブレーションする必要がある。カメラ22の取り付け位置や角度、マークまでの距離やハンドルの位置や向きを実測してもよいが、ここでは簡単にキャリブレーションする方法を説明する。
<About calibration>
In order to realize the above operation, the rotation center position (Mpx, Mpy, Mpz) of the mark M2 on the handle HD and the angle (Rhz) when the handle HD is not rotated, the vertical direction (Hdx, Hdy, Hdz), the rotation center position (Hpx, Hpy, Hpz) of the handle surface, and the radius for each angle of the handle HD must be known. Therefore, in order to acquire each position, it is necessary to calibrate first. Although the mounting position and angle of the camera 22, the distance to the mark, the position and orientation of the handle may be actually measured, a method of simple calibration will be described here.

まず、図9および図3に示すように、マークM3をハンドルHD上に取り付け、ハンドルHDが回転していない状態でそのマークM3の取り付け位置を取得する。ハンドルHDが回転していない(陀角がない)状態は目視して判断してもよいが、車内LAN26をしようとして回転していないと判断してもよい。その位置を基準として、ハンドルHDを回転させてマークM3の取り付け位置を複数取得する。画像上のマークM3の取り付け位置を(M3x,M3y,f)、3次元空間上の位置を(Hmx,Hmy,Hmz)とすると、
Hmx=M3x・t
Hmy=M3y・t
Hmz=f・t
x3=Hmx−Hpx
y3=Hmy−Hpy
z3=Hmz−Hpz
x4=x3
y4=y3・cos(Rhx)−z3・sin(Rhx)
z4=z3・cos(Rhx)+y3・sin(Rhx)
x5=x4・cos(Rhy)+z4・sin(Rhy)
y5=y4
z5=z4・cos(Rhy)−x4・sin(Rhy)
となる。ここでのそれぞれの回転角度は、下記のとおりである。
First, as shown in FIGS. 9 and 3, the mark M3 is attached on the handle HD, and the attachment position of the mark M3 is acquired in a state where the handle HD is not rotated. The state in which the handle HD is not rotated (there is no depression angle) may be determined by visual observation, but may be determined that the vehicle HD is not rotated in order to make the in-vehicle LAN 26. Using the position as a reference, the handle HD is rotated to obtain a plurality of attachment positions of the mark M3. If the attachment position of the mark M3 on the image is (M3x, M3y, f), and the position on the three-dimensional space is (Hmx, Hmy, Hmz),
Hmx = M3x · t
Hmy = M3y · t
Hmz = f · t
x3 = Hmx−Hpx
y3 = Hmy-Hpy
z3 = Hmz-Hpz
x4 = x3
y4 = y3.cos (Rhx) -z3.sin (Rhx)
z4 = z3 · cos (Rhx) + y3 · sin (Rhx)
x5 = x4 · cos (Rhy) + z4 · sin (Rhy)
y5 = y4
z5 = z4 · cos (Rhy) −x4 · sin (Rhy)
It becomes. Each rotation angle here is as follows.

Rhx=atan(Hdy/Hdz)
Rhy=−atan(Hdx/(Hdz・cos(Rhx)+Hdy・sin(Rhx)))
Sqrt()を、√(ルート)演算とすると、
cos(Rhx)=Hdz/sqrt(Hdy・Hdy+Hdz・Hdz)
sin(Rhx)=Hdy/sqrt(Hdy・Hdy+Hdz・Hdz)
代入すると、
Rhy=-atan(Hdx/sqrt(Hdy・Hdy+Hdz・Hdz))
cos(Rhy)= sqrt(Hdy・Hdy+Hdz・Hdz)/sqrt(Hdx・Hdx+Hdy・Hdy+Hdz・Hdz)
sin(Rhy)=−Hdx/sqrt(Hdx・Hdx+Hdy・Hdy+Hdz・Hdz)
となる。ハンドル上の点であるので下記の条件が満たされる。
Rhx = atan (Hdy / Hdz)
Rhy = −atan (Hdx / (Hdz · cos (Rhx) + Hdy · sin (Rhx)))
If Sqrt () is a √ (root) operation,
cos (Rhx) = Hdz / sqrt (Hdy · Hdy + Hdz · Hdz)
sin (Rhx) = Hdy / sqrt (Hdy · Hdy + Hdz · Hdz)
Substituting
Rhy = −atan (Hdx / sqrt (Hdy · Hdy + Hdz · Hdz))
cos (Rhy) = sqrt (Hdy · Hdy + Hdz · Hdz) / sqrt (Hdx · Hdx + Hdy · Hdy + Hdz · Hdz)
sin (Rhy) = − Hdx / sqrt (Hdx · Hdx + Hdy · Hdy + Hdz · Hdz)
It becomes. Since it is a point on the handle, the following conditions are satisfied.

z5=0
r・r=x5・x5+y5・y5(r(半径)は一定)
Hdx・(Hmx−Hpx)+Hdy・(Hmy−Hpy)+Hdz・(Hmz−Hpz)=0(tを計算する)
画像上から見える物体の大きさは相対的であるため、ハンドルHD上のマークM3の回転の半径rやハンドル面の回転中心のz座標Hpzを定数(例えば1)として計算し、条件にあうハンドル面の垂直方向(Hdx,Hdy,Hdz)、ハンドル面の回転中心位置(Hpx,Hpy,Hpz)を導き出す。
z5 = 0
r.r = x5.x5 + y5.y5 (r (radius) is constant)
Hdx · (Hmx−Hpx) + Hdy · (Hmy−Hpy) + Hdz · (Hmz−Hpz) = 0 (calculate t)
Since the size of the object seen from the image is relative, the radius r of the rotation of the mark M3 on the handle HD and the z coordinate Hpz of the rotation center of the handle surface are calculated as constants (for example, 1), and the handle that satisfies the condition is calculated. The vertical direction (Hdx, Hdy, Hdz) of the surface and the rotation center position (Hpx, Hpy, Hpz) of the handle surface are derived.

次に、図10のように、ハンドルを回転していない状態(a)で、ハンドル面をz=0、ハンドル面の回転中心を(0,0,0)とした変換位置での、x=0,z=0の直線上のハンドル円上に近い2点P1,P2を選び、画像上での位置Q1,Q2に変換する。この画像上の2点が作る直線上のハンドルの位置を読み取ることにより、ハンドル位置をキャンセルさせることができるようになる。ハンドル位置を読み取る方法として例えば、まず、ハンドルHDとは違う色、例えば緑などのシート101をカメラ22から見てハンドルHDの裏側になるように配置する。なお、シート101を配置しなくても判断できる場合は、特に必要としない。   Next, as shown in FIG. 10, in a state where the handle is not rotated (a), x = at the conversion position where the handle surface is z = 0 and the rotation center of the handle surface is (0, 0, 0). Two points P1 and P2 close to the handle circle on the straight line of 0 and z = 0 are selected and converted to positions Q1 and Q2 on the image. By reading the position of the handle on the straight line formed by the two points on the image, the handle position can be canceled. As a method of reading the handle position, for example, first, a sheet 101 of a color different from that of the handle HD, such as green, is arranged so as to be behind the handle HD when viewed from the camera 22. Note that this is not particularly necessary when it is possible to determine without arranging the sheet 101.

そして、ハンドルHDが回転していない状態で、ハンドル円上のマークM3の角度θ0を導き出す。次に、画面上の直線Q1,Q2上にあるハンドルHDの輪の内外位置Q3,Q4を読み取り、真ん中の位置Q5を計算する。その位置をz=0の面になるように変換したときの位置P5がハンドルの半径y5となりそのときの角度がθ=0となる。ハンドルの輪の形が真円ではない場合は、次からはハンドルの輪の外側と直線の交点のみ読み取って、ハンドルが回転していない状態で取得したハンドルの輪の外側と中心の距離分だけずらした位置をハンドルの輪の中心とする。そうする理由は、ハンドルの輪からハンドル回転中心へ向かうハンドルの輪を支える部分がある場合、境界を見つけられないためである。そして、z=0の面になるように変換P6してハンドルの半径y5と、ハンドル円上のマークの角度θ1をハンドルが回転していない状態で取得した角度θ0でキャンセルした角度をθとする。それを複数プロットし半径の曲線を作り出す。   Then, the angle θ0 of the mark M3 on the handle circle is derived while the handle HD is not rotating. Next, the inner and outer positions Q3 and Q4 of the wheel of the handle HD on the straight lines Q1 and Q2 on the screen are read, and the middle position Q5 is calculated. The position P5 when the position is converted to the plane of z = 0 becomes the radius y5 of the handle, and the angle at that time becomes θ = 0. If the shape of the handle ring is not a perfect circle, only the intersection between the outside and the straight line of the handle ring is read from the next, and only the distance between the outside and the center of the handle ring acquired when the handle is not rotated The shifted position is used as the center of the handle wheel. The reason for doing so is that the boundary cannot be found when there is a portion that supports the wheel of the handle heading from the wheel of the handle toward the handle rotation center. Then, transformation P6 is performed so that the surface becomes z = 0, and the handle angle y5 and the angle θ1 of the mark on the handle circle canceled by the angle θ0 acquired when the handle is not rotated are set to θ. . Plot multiple of them to create a radius curve.

次に、ハンドルの回転物上のマークM2の回転中心位置(Mpx,Mpy,Mpz)とハンドルが回転していないときの角度(Rhz)もハンドル円上のマークM3を導き出した計算と同様の計算で導き出す。   Next, the rotation center position (Mpx, Mpy, Mpz) of the mark M2 on the rotating object of the handle and the angle (Rhz) when the handle is not rotated are also the same calculations as those for deriving the mark M3 on the handle circle. Derived by.

以上の方法により必要なパラメータを最初に取得しておく。ハンドル円上のマークM3は、ドライバーが触るハンドル円上に設置したため、キャリブレーションが終了したら取り外す。   The necessary parameters are obtained first by the above method. Since the mark M3 on the handle circle is placed on the handle circle touched by the driver, the mark M3 is removed when the calibration is completed.

<操作終了判定部14について>
操作終了判定部14によるスライド操作終了の判定は、たとえば、ドライバーが「操作終了」と発したことを音声認識部21が認識することにより行う。
<About the operation completion determination unit 14>
The determination of the end of the slide operation by the operation end determination unit 14 is performed, for example, when the voice recognition unit 21 recognizes that the driver has issued “end of operation”.

操作終了を判定する手段は、音声認識部21による音声認識の他に、カメラ22やタッチパッド25により操作する側の手ではない方の手がハンドルから離れたと判定された場合や、車内LAN26によりブレーキを踏んだ場合や、アクセルの踏み込み具合を変えた場合や、急にハンドルを回した場合や、大きくハンドルを回した場合や、全く違うジェスチャーや、全く違う声を発した場合にも、操作終了の判定としてもよい。   In addition to the voice recognition by the voice recognition unit 21, the means for determining the end of the operation is determined when it is determined that the hand that is not the hand operated by the camera 22 or the touch pad 25 has moved away from the handle, or by the in-vehicle LAN 26. Even when the brake is depressed, the accelerator is depressed, the handle is suddenly turned, the handle is turned a lot, the gesture is completely different, or the voice is completely different It may be determined to end.

さらに、操作時間を設けてその時間が過ぎたら自動的に操作終了判定としてもよい。また、表示部23などにカーソルを表示させて操作する場合は、目線をある時間以上進行方向から離して表示部23を見ていたときは危険であるため強制的に操作終了としてもよい。また、被操作機器とも進行方向とも関係ないところに目線を移した場合にも、操作終了としてもよい。また、特定の手の指を上げているときのみ操作開始とし、指が下がったら操作終了としてもよい。また、車両が静止しているときのみ操作を許した場合、車両が動いた場合やブレーキを踏まなくなった場合に操作終了としてもよい。また、目を見開いたり、口を大きく開けたり、びっくりした表情など表情を変化した場合にも、操作終了としてもよい。   Further, an operation time may be provided, and the operation end determination may be automatically made when the time has passed. Further, when the operation is performed with the cursor displayed on the display unit 23 or the like, the operation may be forcibly terminated because it is dangerous to look at the display unit 23 while keeping the eye line away from the traveling direction for a certain period of time. Further, the operation may be ended when the line of sight is moved to a place that is not related to the operated device and the traveling direction. The operation may be started only when a finger of a specific hand is raised, and the operation may be ended when the finger is lowered. Further, the operation may be ended when the operation is permitted only when the vehicle is stationary, when the vehicle moves, or when the brake is not stepped on. Further, the operation may be ended when the eyes are widened, the mouth is opened wide, or the expression such as a surprised expression is changed.

このように、ハンドルHD上で位置も特定されないので目線を外す必要がなく、また、ハンドルHDから手を離さないため安全である。ハンドルHDを握っている位置で操作可能であるため、最小限の手の動きで操作可能である。また、2次元のアナログ操作を可能としているため、操作の自由度があるといえる。停止中にも操作するものに手を伸ばす必要がなく、楽に操作することができる。   Thus, since the position is not specified on the handle HD, it is not necessary to remove the line of sight, and it is safe because the hand is not released from the handle HD. Since it can be operated at a position where the handle HD is gripped, it can be operated with a minimum of hand movement. Further, since two-dimensional analog operation is possible, it can be said that there is a degree of freedom of operation. There is no need to reach for anything that is to be operated even when stopped.

この実施形態では、ハンドルから手を離さず、視線を車外から離すことなく安全に運転しながら操作することができる。また、操作量を手で感じることができる。また、操作開始と終了を指定することにより誤動作を防止することができる。   In this embodiment, it is possible to operate while safely driving without releasing the hand from the handle and keeping the line of sight away from the outside of the vehicle. In addition, the operation amount can be felt by hand. Also, malfunctions can be prevented by designating the start and end of the operation.

(第2の実施形態)
図11〜図17は、それぞれ駐車支援装置に関する第2の実施形態を示す。第1の実施形態では、ハンドルを握った状態の操作であったが、この実施形態ではハンドルを握らず指を広げて手のひらで操作する、というものである。
(Second Embodiment)
FIGS. 11-17 shows 2nd Embodiment regarding a parking assistance apparatus, respectively. In the first embodiment, the operation is performed in a state where the handle is held. In this embodiment, the operation is performed using the palm of the hand by spreading the finger without holding the handle.

手のひらをハンドルの輪の外側や内側に接しさせた場合、図11の破線円(a)に示すように手を奥や手前に動かす奥行き操作と、ハンドルの輪の方向に移動させる横操作が可能である。また、手のひらの中心に対して手のひらを回転させる方向のねじれ操作も可能となる。   When the palm is in contact with the outside or inside of the wheel of the handle, a depth operation to move the hand to the back or to the front as shown by the dashed circle (a) in FIG. 11 and a side operation to move in the direction of the wheel of the handle are possible. It is. Further, a twisting operation in the direction of rotating the palm with respect to the center of the palm is also possible.

図11の破線円(b)に示すように、手のひらをハンドルの手前側に接しさせた場合、手を上下に動かす縦操作と、手を左右に動かす横操作が可能である。また、手のひらの中心に対して手のひらを回転させる方向のねじれ操作も可能となる。   As shown by a broken line circle (b) in FIG. 11, when the palm is brought into contact with the front side of the handle, a vertical operation for moving the hand up and down and a horizontal operation for moving the hand left and right are possible. Further, a twisting operation in the direction of rotating the palm with respect to the center of the palm is also possible.

このように、この実施形態では手のひらのみをハンドルに接することにより、より直感的に操作することを可能とさせるものであり、手のひらをハンドルに接させるという条件を入れることにより、安全な運転を維持することができる。以下第1の実施形態とは異なる部分について説明する。   As described above, in this embodiment, it is possible to operate more intuitively by touching only the palm of the hand to the handle, and by maintaining the condition that the palm of the hand touches the handle, safe driving can be maintained. can do. Hereinafter, a different part from 1st Embodiment is demonstrated.

<相対動作計算部123について>
この実施形態での相対動作計算部123では、ハンドル面の回転中心を(0,0,0)として、ハンドル面をz=0とした状態の手の動きを利用する。そのときハンドル円は、ハンドルを1フレームでの回転分回転させておく。
<Regarding the relative motion calculation unit 123>
In the relative motion calculation unit 123 in this embodiment, the rotation center of the handle surface is set to (0, 0, 0), and the hand motion with the handle surface set to z = 0 is used. At that time, the handle circle rotates the handle by the amount of rotation in one frame.

<操作判定部124について>
この実施形態での操作判定部124では、まず手がハンドルと接しているかの判定は、図12に示すように、ハンドルHDそのものをタッチパッドにするか、もしくはカメラ22でハンドルHDの輪と手の外側か内側の境界12a,12bで、手側の境界がある程度暗くなるかで判定する。
<About Operation Determination Unit 124>
In the operation determination unit 124 in this embodiment, first, whether the hand is in contact with the handle is determined by using the handle HD itself as a touch pad as shown in FIG. It is determined whether the hand side boundary becomes dark to some extent at the outer or inner boundaries 12a and 12b.

手がハンドルから離れている場合、手側の境界で暗くなることは無いためである。影を捕らえられやすいように、カメラの位置をずらすか、カメラを複数取り付けてもよい。また、ライトを取り付けてもよい。影を取得する場合には、第1の実施形態で記載したように、ハンドルの輪の曲線を真横に変換してから取得してもよいし、元画像でのハンドルの位置で取得してもよい。   This is because when the hand is away from the handle, it does not darken at the border on the hand side. The position of the camera may be shifted or a plurality of cameras may be attached so that the shadow can be easily captured. A light may be attached. When acquiring the shadow, as described in the first embodiment, it may be acquired after converting the curve of the wheel of the handle to the side, or may be acquired at the position of the handle in the original image. Good.

手のひらをハンドルの輪の外側に接地させた場合には、図13〜図15に示すように、得られたベクトルが図13のようにハンドルの輪の中心付近から外に向かう方向で外ほど大きい場合には、手を奥に移動させたと判定する。逆に、得られたベクトルが図14に示すように外側からハンドルの輪の中心付近に向かう方向で外ほど大きい場合には手を手前に移動させたと判定する。   When the palm is grounded to the outside of the wheel of the handle, as shown in FIGS. 13 to 15, the obtained vector is larger outward in the direction from the center of the wheel of the handle to the outside as shown in FIG. In this case, it is determined that the hand has been moved to the back. On the contrary, when the obtained vector is larger in the direction from the outside toward the vicinity of the center of the wheel of the handle as shown in FIG. 14, it is determined that the hand is moved forward.

図15のように奥行き方向の移動のみの場合には、車の進行方向を基準とした操作方向の場合、カメラ画像上での自車の真後ろ方向をz=0の面に変換した位置での収束点(FOEWx,FOEWy)になり(ハンドルの回転角度によって位置がずれる)、ハンドルの輪の面を基準とした操作方向の場合には、収束点は(FOEHx,FOEHy)となる。自車の真後ろの収束点(FOEWx,FOEWy)は、カメラから自車の真後ろ方向へのベクトルを(VCx,VCy,VCz)とし、画面上の収束点を(VCfx,VCfy,f)とすると、
VCfx=f・VCx/VCz
VCfy=f・VCy/VCz
となる。上記の画面上の収束点を第1の実施形態のように、ハンドル面の回転中心を(0,0,0)として、ハンドル面をz=0とし、ハンドルを1フレームでの回転分回転させる。そのときのx座標とy座標が(FOEWx,FOEWy)となる。
In the case of only the movement in the depth direction as shown in FIG. 15, in the case of the operation direction based on the traveling direction of the car, at the position where the right rear direction of the own vehicle on the camera image is converted to the plane of z = 0. In the case of the operation direction with reference to the wheel surface of the handle, the convergence point is (FOEHx, FOEHy). When the convergence point (FOEWx, FOEWy) directly behind the host vehicle is a vector (VCx, VCy, VCz) from the camera in the direction behind the host vehicle, and the convergence point on the screen is (VCfx, VCfy, f),
VCfx = f · VCx / VCz
VCfy = f · VCy / VCz
It becomes. As in the first embodiment, the convergence point on the screen is set to (0, 0, 0) as the rotation center of the handle surface, the handle surface is set to z = 0, and the handle is rotated by the amount of rotation in one frame. . The x and y coordinates at that time are (FOEWx, FOEWy).

また、ハンドルの輪の面を基準とした垂直方向の収束点(FOEHx,FOEHy)は、ハンドルの面の垂直方向のベクトルが(Hdx,Hdy,Hdz)であるため、画面上の収束点(VHfx,VHfy,f)とすると、
VHfx=f・Hdx/Hdz
VHfy=f・Hdy/Hdz
となる。上記の画面上の収束点を第1の実施形態のように、ハンドル面の回転中心を(0,0,0)として、ハンドル面をz=0とし、ハンドルを1フレームでの回転分回転させる。そのときのx座標とy座標が(FOEHx,FOEHy)となる。
The vertical convergence point (FOEHx, FOEHy) with respect to the wheel surface of the handle is the convergence point (VHfx) on the screen because the vertical vector of the handle surface is (Hdx, Hdy, Hdz). , VHfy, f)
VHfx = f · Hdx / Hdz
VHfy = f · Hdy / Hdz
It becomes. As in the first embodiment, the convergence point on the screen is set to (0, 0, 0) as the rotation center of the handle surface, the handle surface is set to z = 0, and the handle is rotated by the amount of rotation in one frame. . The x coordinate and y coordinate at that time are (FOEHx, FOEHy).

次に、操作方向を導き出す。奥行き方向以外に縦や横方向の移動も同時に操作した場合収束点がずれる。そのためまず下記の計算式を使用し最小2乗解などで、画面に対しての操作方向(Tx,Ty,Tz)を導き出す。得られるベクトルI群の1つを(Ix,Iy,Iu,Iv)(=(画面上のx位置、画面上のy位置、1フレームでのx方向移動量、1フレームでのy方向移動量))とすると、
Hf・Tx−Ix・Tz=Iu・Hf
Hf・Ty−Iy・Tz=Iv・Hf
Hf=sqrt(Hpx・Hpx+Hpy・Hpy+Hpz・Hpz) (Hfはハンドルの輪の中心までの距離)
このとき分散が大きい場合は操作とはしない。
Next, the operation direction is derived. If the vertical and horizontal movements are operated simultaneously in addition to the depth direction, the convergence point is shifted. Therefore, first, the operation direction (Tx, Ty, Tz) with respect to the screen is derived by the least squares solution using the following calculation formula. One of the obtained vector I groups is (Ix, Iy, Iu, Iv) (= (x position on the screen, y position on the screen, x direction movement amount in one frame, y direction movement amount in one frame) ))
Hf · Tx−Ix · Tz = Iu · Hf
Hf · Ty−Iy · Tz = Iv · Hf
Hf = sqrt (Hpx · Hpx + Hpy · Hpy + Hpz · Hpz) (Hf is the distance to the center of the wheel ring)
If the variance is large at this time, the operation is not performed.

得られた操作方向(Tx,Ty,Tz)は、車の進行方向を基準とした操作方向の場合、自車の真後ろ方向の収束点分、操作方向を回転させる必要がある。回転後の操作方向を(TAx,TAy,TAz)とすると
x3=Tx
y3=Ty
z3=Tz
x4=x3
y4=y3・cos(Rfx)−z3・sin(Rfx)
z4=z3・cos(Rfx)+y3・sin(Rfx)
TAx=x4・cos(Rfy)+z4・sin(Rfy)
TAy=y4
TAz=z4・cos(Rfy)−x4・sin(Rfy)
ここでのそれぞれの回転角度は下記のとおりである。
When the obtained operation direction (Tx, Ty, Tz) is an operation direction based on the traveling direction of the vehicle, it is necessary to rotate the operation direction by a convergence point in the direction directly behind the vehicle. If the operation direction after rotation is (TAx, TAy, TAz), x3 = Tx
y3 = Ty
z3 = Tz
x4 = x3
y4 = y3 · cos (Rfx) −z3 · sin (Rfx)
z4 = z3 · cos (Rfx) + y3 · sin (Rfx)
TAx = x4 · cos (Rfy) + z4 · sin (Rfy)
TAy = y4
TAz = z4 · cos (Rfy) −x4 · sin (Rfy)
The respective rotation angles here are as follows.

Rfx=atan(FOEWy/Hf)
Rfy=−atan(FOEWx/(Hf・cos(Rfx)+FOEWy・sin(Rfx)))
ハンドルの輪の面を基準とした操作方向の場合は、(FOEWx,FOEWy)が(FOEHx,FOEHy)に置き換えた計算とすればよい。回転後の操作方向(TAx,TAy,TAz)はカメラからの向きであるため、カメラはドライバーに対して逆向きとしている場合には(−TAx,TAy,−TAz)となる。
Rfx = atan (FOEWy / Hf)
Rfy = −atan (FOEWx / (Hf · cos (Rfx) + FOEWy · sin (Rfx)))
In the case of the operation direction based on the wheel surface of the handle, the calculation may be performed by replacing (FOEWx, FOEWy) with (FOEHx, FOEHy). Since the operation direction (TAx, TAy, TAz) after the rotation is the direction from the camera, it becomes (−TAx, TAy, −TAz) when the camera is in the reverse direction with respect to the driver.

横方向は地面に対して水平方向とする場合には、図16に示すように、地面に対して垂直方向を上方向となるように操作方向をz軸回転させる。地面に対して垂直方向は、カメラ画像上のハンドルの輪の回転中心から真上の位置を、ハンドルの輪の平面上の回転しない部分もしくはハンドルの輪の平面上の回転させていないときに取得しておいた部分を1点選んでおき、その頂点をz=0の面になるように変換したときのその点の方向である。   When the horizontal direction is the horizontal direction with respect to the ground, as shown in FIG. 16, the operation direction is rotated by the z axis so that the vertical direction is the upward direction with respect to the ground. The vertical direction to the ground is obtained when the position directly above the rotation center of the wheel of the handle on the camera image is not rotated on the plane of the wheel of the handle or when it is not rotated on the plane of the wheel of the handle. This is the direction of the point when one point is selected and the vertex is converted so that it becomes a plane of z = 0.

また、輪のある方向の移動を横方向とする場合には、図17に示すように、ベクトル群の中心位置を読み取ってその位置に対しての輪のある方向分、操作方向を回転させる。   In addition, when the movement in a direction with a ring is set to the horizontal direction, as shown in FIG.

また、ハンドルの輪をz=0の面とはせずに取得した画面上で、操作方向を計算してもよい。特にカメラの位置がハンドルの中心からハンドルの面に対して垂直方向に無い場合や、ハンドル面に対してカメラが近すぎる場合に有効となる。その場合、車の進行方向を基準とした操作方向の場合には、(FOEWx,FOEWy,Hf)を画面上の収束点(VCfx,VCfy,f)に置き換えて計算すればよい。また、ハンドルの輪の面を基準とした操作方向の場合には、(FOEWx,FOEWy,Hf)を画面上の収束点(VHfx,VHfy,f)に置き換えて計算すればよい。   Further, the operation direction may be calculated on the screen obtained without making the wheel of the handle a surface with z = 0. This is particularly effective when the camera position is not perpendicular to the handle surface from the center of the handle or when the camera is too close to the handle surface. In this case, in the case of the operation direction based on the traveling direction of the vehicle, the calculation may be performed by replacing (FOEWx, FOEWy, Hf) with the convergence point (VCfx, VCfy, f) on the screen. In the case of the operation direction based on the wheel surface of the handle, the calculation may be performed by replacing (FOEWx, FOEWy, Hf) with the convergence point (VHfx, VHfy, f) on the screen.

この実施形態のいろいろな操作方法例を(1)〜(4)に示し説明する。
(1)ハンドルの輪の周りのベクトルが時間の経過につれ大きくなり、ハンドルの輪と手の境界に影ができてとまった場合、ハンドルをたたいたと判別し、Yes判定させてもよい。
(2)ハンドルの輪の外側ほどベクトルが大きく向きは輪の中心方向で、輪の付近ではベクトルが小さい場合、手のひらを中心に手の平を倒したと判別し、Yes判定させてもよい。
(3)ハンドルの輪を横方向に横切るベクトルが時間的に連続していて、一度ハンドルの輪と手の境界に影ができて、その影が無くなる場合、ハンドルの輪を払う動作と判別し、No(キャンセル)判定としてもよい。
(4)ハンドルの輪の一部分を中心にベクトルが回転方向に分布している場合、手のひらを中心に手をねじらせていると判別し、No(キャンセル)判定としてもよい。
Various operation method examples of this embodiment will be described with reference to (1) to (4).
(1) When the vector around the wheel of the handle becomes larger with time and a shadow is formed on the boundary between the wheel of the handle and the hand, it may be determined that the handle has been hit and Yes may be determined.
(2) If the vector is larger toward the outer side of the wheel of the handle and the direction is the center of the wheel, and the vector is smaller in the vicinity of the wheel, it may be determined that the palm is tilted around the palm and Yes may be determined.
(3) If the vector that crosses the wheel of the handle in the horizontal direction is continuous in time and a shadow is once formed at the boundary between the wheel of the handle and the hand, and the shadow disappears, it is determined that the handle wheel is moved. , No (cancel) determination may be made.
(4) When the vector is distributed in the rotation direction around a part of the wheel of the handle, it may be judged that the hand is twisted around the palm and No (cancel) judgment may be made.

<拡張形態について>
第1、第2の実施形態において考えられる拡張形態の例を下記の(1)〜(16)に示し説明する。
(1)ハンドルの回転部分にカメラを設置して、操作を取得してもよい。その場合、振動を吸収するためにハンドルの回転部分にマークを設置して、振動分を吸収する。また、ハンドルの回転部分ではない固定された部分にマークを取り付け、ハンドルの回転角度を取得する。そうすることにより操作取得範囲は狭くなるが、操作を精度良く取得することができ、計算量が削減される。その場合、カメラが回転部に設置されるため、計算上、ハンドルの回転部分ではない固定部に取り付けられたマークを回転部分として計算させる。
(2)検出したベクトルを回転や移動計算させたが、取得したマークの位置で振動と回転をキャンセルした後に画像を変換させて、変換した画像よりベクトルを検出させてもよい。
(3)回転や移動計算は射影変換なので、予め4点を変換させて下記の射影変換式を作成しておき、その変換式によって変換させてもよい。
x=(A・x+B・y+C)/(G・x+H・y+1)
y=(D・x+E・y+F)/(G・x+H・y+1)
(4)手の位置を検出しやすいように遠赤外線を使用してもよい。また、可視光カメラの赤成分のみを使用してもよい。
(5)ハンドルの輪の部分をすべて見られるようにするために、カメラを複数の場所に取り付け、それに伴いマークも取り付け処理してもよい。そうすることにより、ハンドル上であればどこでも操作が可能となる。
(6)手袋や指輪など特徴的なマークを手に取り付けて、検出精度を上げてもよい。
(7)爪先や、指の付け根、指隙間の溝、指の関節位置、指のしわなどを読み取ることにより、より正確に手の動きを検出してもよい。
(8)ハンドルの特定箇所のみ(ハンドルの真上や真横など)操作できるようにしてもよい。そうすることにより、より操作したか運転したかの区別をすることができる。
(9)ハンドルの輪の中にカメラを取り付けて、ハンドルを透明にして操作を取得してもよい。
(10)1フレーム間の操作で判断せず、時間的な連続性やそのばらつきによって操作と判定してもよい。
(11)スマートフォンなどのカメラや音声認識や処理性能を使用して処理してもよい。
(12)自車が停止中のときに限定して使用するのであれば、振動成分を吸収する処理や、そのとき使用するマークをキャリブレーションの後に取り除いてもよい。また、ハンドルの回転も行われていないとして、ハンドルの回転角度をキャンセルする処理も省いてもよい。その場合、振動を吸収しないので、ハンドルの輪が真正面、つまり中心が(0,0,0)で、ハンドル面がz=0となるように変換するLook Up Tableを作成しておき、画像を変換し、その画像よりベクトルを取得してもよい。また、ハンドルの形が真円であれば、ハンドルの回転角度を取得する処理や、その時使用するマークをキャリブレーションの後に取り除いてもよい。その場合、ハンドルの回転角度は必要としないので、Look Up Tableを最初からハンドルの輪を線に伸ばした状態にしておいて画像を変換し、その画像よりベクトルを取得してもよい。
(13)計算を軽くするためにマークを確認して振動成分を吸収する処理が行われない時限定としてもよい。また、マークを確認してハンドルの回転角度が回転中でない時、つまり相対移動量を計算しなくていい時に限定としてもよい。
(14)運転中の眠気防止や気分転換のために、ハンドルを人や動物に見立てて、記載した一連の操作をすることにより、そのハンドルの反応を楽しんでもよい。例えばハンドルを人の肩と見立てて、ハンドルを強く握る動作をすることにより、ハンドルが「気持ちいい」などの気持ちよさそうなリアクションをさせる。他に、ハンドル子供を回転車に乗せていると見立てて、左右の手で上下逆の動きなどでひねる操作をし、子供の喜ぶ声でリアクションさせる。また、ハンドルを握った手の手首をねじる動作でガラガラを鳴らし子供をあやしてもよい。そのとき、あやし続けなければ泣かせてもよい。他に、ハンドルを猫などの動物と見立てて、ハンドルをさする操作をすることにより、猫などが気持ちよさそうに鳴くようなリアクションをさせる。
(15)自転車やバイクのグリップに使用してもよい。
(16)パソコンやゲームのマウスやタッチパッドの代わりの操作系として使用してもよい。その場合、握るための棒をキーボードの下などに収納しておいて、使用するときのみ飛び出す使用としてもよい。その場合、棒は横向きでもよいし縦向きでもよい。
<About expansion mode>
Examples of expansion modes conceivable in the first and second embodiments will be described in the following (1) to (16).
(1) A camera may be installed on the rotating part of the handle to obtain an operation. In that case, in order to absorb the vibration, a mark is placed on the rotating part of the handle to absorb the vibration. Also, a mark is attached to a fixed portion that is not a rotating portion of the handle, and the rotation angle of the handle is acquired. By doing so, the operation acquisition range becomes narrow, but the operation can be acquired with high accuracy, and the amount of calculation is reduced. In this case, since the camera is installed on the rotating part, the mark attached to the fixed part that is not the rotating part of the handle is calculated as the rotating part.
(2) The detected vector is rotated or moved, but the image may be converted after canceling vibration and rotation at the acquired mark position, and the vector may be detected from the converted image.
(3) Since rotation and movement calculations are projective transformations, the following projection transformation formulas may be created by converting four points in advance, and the transformation formulas may be used for the transformation.
x = (A.x + B.y + C) / (G.x + H.y + 1)
y = (D.x + E.y + F) / (G.x + H.y + 1)
(4) Far infrared rays may be used so that the position of the hand can be easily detected. Further, only the red component of the visible light camera may be used.
(5) In order to be able to see all the wheel portions of the handle, the camera may be attached to a plurality of places, and the mark may be attached accordingly. By doing so, the operation can be performed anywhere on the handle.
(6) A characteristic mark such as a glove or a ring may be attached to the hand to increase detection accuracy.
(7) The movement of the hand may be detected more accurately by reading the tip of the toe, the base of the finger, the groove of the finger gap, the joint position of the finger, the wrinkle of the finger, and the like.
(8) Only a specific part of the handle (such as directly above or next to the handle) may be operated. By doing so, it can be distinguished whether it operated more or drove.
(9) A camera may be attached in the wheel of the handle, and the operation may be acquired by making the handle transparent.
(10) The operation may be determined based on temporal continuity and its variation without being determined by an operation between one frame.
(11) Processing may be performed using a camera such as a smartphone, voice recognition, or processing performance.
(12) If it is used only when the host vehicle is stopped, the process of absorbing the vibration component and the mark used at that time may be removed after calibration. Further, it is also possible to omit processing for canceling the rotation angle of the handle, assuming that the handle is not rotated. In that case, vibration is not absorbed, so a Look Up Table is created to convert the handle wheel so that it is directly in front, that is, the center is (0, 0, 0) and the handle surface is z = 0. A vector may be obtained from the image after conversion. If the shape of the handle is a perfect circle, the processing for obtaining the rotation angle of the handle and the mark used at that time may be removed after calibration. In that case, since the rotation angle of the handle is not required, the image may be converted with the Look Up Table extended from the beginning with the handle wheel extended to a line, and the vector may be obtained from the image.
(13) It may be time-limited when the process of confirming the mark and absorbing the vibration component is not performed in order to reduce the calculation. Further, it may be limited when the rotation angle of the handle is not rotating after confirming the mark, that is, when it is not necessary to calculate the relative movement amount.
(14) In order to prevent drowsiness or change mood during driving, the steering wheel may be regarded as a person or an animal, and the response of the steering wheel may be enjoyed by performing the described series of operations. For example, when the handle is regarded as a person's shoulder and the handle is moved firmly, a reaction that seems to be pleasant such as “feeling good” is made. In addition, it is assumed that the handle child is on the rotating car, and the left and right hands are twisted by moving them upside down, causing the child to react with a joyful voice. Alternatively, the child may be scolded with a rattling sound by twisting the wrist of the hand holding the handle. At that time, you may cry if you don't keep on ceasing. In addition, by making the handle look like an animal such as a cat and performing an operation of pointing the handle, a reaction that makes the cat or the like sound pleasantly is made.
(15) It may be used for bicycle or motorcycle grips.
(16) It may be used as an operation system instead of a personal computer or a game mouse or touchpad. In that case, it is good also as the use which pops out only when using it, storing the stick for grasping under the keyboard etc. In that case, the bar may be horizontal or vertical.

この実施形態では、簡単な手の動きでアナログ操作が可能となり、安全である。また、すぐにハンドルを握れるため安全である。ねじれ方向が加わりより多次元な操作が可能となる。   In this embodiment, analog operation is possible with a simple hand movement, which is safe. In addition, it is safe because the handle can be gripped immediately. The twist direction is added and more multi-dimensional operation becomes possible.

いくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、組み合わせ、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although several embodiments have been described, these embodiments have been presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, combinations, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

11 操作開始判定部
12 操作処理部
121 手動作測定部
122 ハンドル位置測定部
123 相対動作計算部
124 操作判定部
13 駆動部
14 操作終了判定部
21 音声認識部
22 カメラ
23 表示部
24 音声案内部
25 タッチパッド
26 社内LAN
M1〜M3 マーク
HD ハンドル
11 Operation start determination unit 12 Operation processing unit 121 Manual motion measurement unit 122 Handle position measurement unit 123 Relative motion calculation unit 124 Operation determination unit 13 Drive unit 14 Operation end determination unit 21 Voice recognition unit 22 Camera 23 Display unit 24 Voice guide unit 25 Touchpad 26 in-house LAN
M1-M3 Mark HD handle

Claims (7)

ハンドルのスライド操作で被操作機器の操作を開始したかを判定する操作開始判定部と、
前記操作開始判定部により開始したスライド操作を終了する操作終了判定部と、
前記操作開始判定部の開始により、前記ハンドル上の手の動きおよび位置から前記ハンドル上の手の相対的な動きを計算し、前記ハンドル上の手が輪の横方向操作、輪の縦方向ねじれ操作のうち、少なくとも何れか一つの操作に基づき、前記ハンドル上の操作内容の判定を処理する操作処理部と、
前記操作処理部により判定された操作内容に基づき前記被操作機器を駆動する駆動部と、を備える運転支援装置。
An operation start determination unit that determines whether the operation of the operated device is started by the sliding operation of the handle;
An operation end determination unit for ending the slide operation started by the operation start determination unit;
Wherein Ri by the start of the operation start judgment part, the relative movement of the hand from the movement and position of the hand on the front Symbol handle on the handle to calculate the hand on the handle lateral manipulation of wheels, wheels An operation processing unit that processes determination of the operation content on the handle based on at least one of the longitudinal twisting operations ;
And a driving unit that drives the operated device based on the operation content determined by the operation processing unit.
前記操作処理部は、前記ハンドル上を押し当てた手のひらで、横方向操作、縦方向操作、奥行き方向操作、ねじれ操作のうち、少なくとも何れか一つの操作が行われたかを判定した、請求項1記載の運転支援装置。 The operation processing unit determines whether at least one of a horizontal operation, a vertical operation, a depth operation, and a twist operation has been performed with a palm pressed against the handle. The driving assistance apparatus as described . 非回転部に固定されたカメラは、前記ハンドル周辺の被回転部の形状や取り付けたマークにより、振動による前記カメラの向きを測定し、振動をキャンセルするまたは、振動したときには操作しないと判定する操作処理部を備えた、請求項1または2記載の運転支援装置。 The camera fixed to the non-rotating part measures the direction of the camera due to vibration based on the shape of the rotated part around the handle and the attached mark, and cancels the vibration or determines that the camera is not operated when it vibrates The driving support apparatus according to claim 1, further comprising a processing unit. 非回転部に固定されたカメラは、前記ハンドルの形状や該ハンドル上に取り付けたマークにより、陀角によるハンドルの回転の動きを測定し、前記ハンドルの回転をキャンセルするまたは、前記ハンドルが回転したときは操作しないと判定する操作処理部を備えた、請求項1または2記載の運転支援装置。 The camera fixed to the non-rotating part measures the rotation movement of the handle due to the depression angle according to the shape of the handle and the mark attached on the handle, cancels the rotation of the handle, or the handle rotates. The driving support device according to claim 1, further comprising an operation processing unit that determines that no operation is performed. 前記操作処理部は、前記ハンドルの半径と角度の次元にベクトル変換し、前記ハンドルの半径分オフセットを加えてハンドルの形状を直線に見えるように変換した、請求項1または2記載の運転支援装置。 The driving support device according to claim 1, wherein the operation processing unit performs vector conversion into a dimension of a radius and an angle of the steering wheel, and adds an offset corresponding to the radius of the steering wheel to convert the steering wheel shape into a straight line. . 前記操作処理部は、左右の手で違う操作判定をするようにした、請求項1または2記載の運転支援装置。 The driving support device according to claim 1, wherein the operation processing unit makes a different operation determination with left and right hands. さらに前記操作処理は、前記ハンドル上の握り具合により、前記被操作機器を異なる内容の駆動を可能とした、請求項1記載の運転支援装置。 Furthermore, the said operation process part can drive the said to-be-operated apparatus different content according to the grip state on the said handle | steering-wheel .
JP2011184975A 2011-08-26 2011-08-26 Driving assistance device Active JP5838061B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011184975A JP5838061B2 (en) 2011-08-26 2011-08-26 Driving assistance device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011184975A JP5838061B2 (en) 2011-08-26 2011-08-26 Driving assistance device

Publications (2)

Publication Number Publication Date
JP2013045416A JP2013045416A (en) 2013-03-04
JP5838061B2 true JP5838061B2 (en) 2015-12-24

Family

ID=48009244

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011184975A Active JP5838061B2 (en) 2011-08-26 2011-08-26 Driving assistance device

Country Status (1)

Country Link
JP (1) JP5838061B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6424749B2 (en) * 2015-06-17 2018-11-21 株式会社Soken INFORMATION PROCESSING APPARATUS FOR VEHICLE, INFORMATION PROCESSING SYSTEM FOR VEHICLE, AND INFORMATION PROCESSING PROGRAM FOR VEHICLE
US11507194B2 (en) * 2020-12-02 2022-11-22 Huawei Technologies Co., Ltd. Methods and devices for hand-on-wheel gesture interaction for controls

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003131785A (en) * 2001-10-22 2003-05-09 Toshiba Corp Interface device, operation control method and program product
JP3900122B2 (en) * 2003-07-30 2007-04-04 日産自動車株式会社 Non-contact information input device
JP3941786B2 (en) * 2004-03-03 2007-07-04 日産自動車株式会社 Vehicle operation input device and method
DE102007042963A1 (en) * 2007-09-10 2009-03-12 Steinbichler Optotechnik Gmbh Method and device for the three-dimensional digitization of objects
JP2009090687A (en) * 2007-10-03 2009-04-30 Tokai Rika Co Ltd Vehicular steering device
JP2010117748A (en) * 2008-11-11 2010-05-27 Panasonic Corp Input device and input method
JP5005758B2 (en) * 2009-12-25 2012-08-22 株式会社ホンダアクセス In-vehicle device operating device in automobile

Also Published As

Publication number Publication date
JP2013045416A (en) 2013-03-04

Similar Documents

Publication Publication Date Title
JP4351599B2 (en) Input device
JP5572761B2 (en) Vehicle control device
US10261595B1 (en) High resolution tracking and response to hand gestures through three dimensions
KR102408359B1 (en) Electronic device and method for controlling using the electronic device
JP2018150043A (en) System for information transmission in motor vehicle
CN110647237A (en) Gesture-based content sharing in an artificial reality environment
US20150032331A1 (en) System and Method for Controlling a Vehicle User Interface Based on Gesture Angle
JP6233248B2 (en) Gripping state determination device, gripping state determination method, input device, input acquisition method
EP2741171A1 (en) Method, human-machine interface and vehicle
JP6341343B2 (en) Information processing system, information processing apparatus, control method, and program
JP3933139B2 (en) Command input device
JP5023953B2 (en) In-vehicle display control device, in-vehicle display control method, and in-vehicle display control program
JP2016167219A (en) Method and program for displaying user interface on head-mounted display
JP5838061B2 (en) Driving assistance device
CN105373230A (en) Gesture recognition method and device of on-board unit
JP6424749B2 (en) INFORMATION PROCESSING APPARATUS FOR VEHICLE, INFORMATION PROCESSING SYSTEM FOR VEHICLE, AND INFORMATION PROCESSING PROGRAM FOR VEHICLE
WO2018116565A1 (en) Information display device for vehicle and information display program for vehicle
JP5136948B2 (en) Vehicle control device
JP6167932B2 (en) Input device and input acquisition method
US20210001914A1 (en) Vehicle input device
KR20150056322A (en) Apparatus for controlling menu of head-up display and method thereof
US10537811B2 (en) Motor vehicle simulation system for simulating a virtual environment with a virtual motor vehicle and method for simulating a virtual environment
JP5005585B2 (en) Operating device and method
JP2017228216A (en) Information processing apparatus, control method therefor, program, and storage medium
WO2023032383A1 (en) Operation detection device, information processing system, and operation detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140619

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151020

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151109

R150 Certificate of patent or registration of utility model

Ref document number: 5838061

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250