JP2010117917A - Motion detection apparatus and operation system - Google Patents

Motion detection apparatus and operation system Download PDF

Info

Publication number
JP2010117917A
JP2010117917A JP2008291119A JP2008291119A JP2010117917A JP 2010117917 A JP2010117917 A JP 2010117917A JP 2008291119 A JP2008291119 A JP 2008291119A JP 2008291119 A JP2008291119 A JP 2008291119A JP 2010117917 A JP2010117917 A JP 2010117917A
Authority
JP
Japan
Prior art keywords
user
screen
image
motion detection
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008291119A
Other languages
Japanese (ja)
Inventor
Hideji Kuramoto
秀治 倉本
Satohiko Watabe
聡彦 渡部
Hitoshi Kumon
仁 久門
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Toyota InfoTechnology Center Co Ltd
Original Assignee
Toyota Motor Corp
Toyota InfoTechnology Center Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp, Toyota InfoTechnology Center Co Ltd filed Critical Toyota Motor Corp
Priority to JP2008291119A priority Critical patent/JP2010117917A/en
Publication of JP2010117917A publication Critical patent/JP2010117917A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a motion detection apparatus, which allows a user to perform remote operation, in an operation system configured so that operation is performed in reference to a screen projected by a laser project, without turning away from the screen or leaning forward. <P>SOLUTION: The motion detection apparatus includes a screen and a laser projector which projects image on the screen by use of laser light. The user moves the hand so as to interrupt the optical path of the laser light to make a shadow of the hand on the screen. A motion detection part takes an image of the screen by a camera and detects a motion of the user based on the shadow of the hand obtained from the image to confirm an instruction content. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、レーザー光を用いて画像を投影する投影部を備えた動作検出装置、およびそれを用いた操作システムに関する。   The present invention relates to a motion detection device including a projection unit that projects an image using laser light, and an operation system using the motion detection device.

従来、車載のカーナビゲーション装置を操作する際には、接触型および遠隔型の2種類の操作方法がある。接触型の例としては、ダッシュボードに配置されたボタンを操作したり、タッチパネル式の画面に直接触れたりする方法がある。しかし、これらの方法で運転者が操作する場合、運転席から身を乗り出したり、手を遠くに伸ばしたりする必要があり不便である。   Conventionally, when operating an on-vehicle car navigation device, there are two types of operation methods, a contact type and a remote type. Examples of the contact type include a method of operating a button arranged on the dashboard or directly touching a touch panel screen. However, when the driver operates with these methods, it is inconvenient because it is necessary to get out of the driver's seat or extend his hand far away.

遠隔型の例としては、リモコンを使用して指示を与える方法がある。しかし、リモコンを見ないと操作ができないため、画面と手元のリモコンを見比べながら操作を行うことになり時間がかかる。この対策として特開2007−083834号公報(特許文献1)では、ミラーの反射を利用して操作部の像を前方に投影することで、前方を向いてタッチパネルを操作することを可能にした。しかし、この方法ではユーザが手を出す方向とユーザが見るべき画面の方向が異なるため、直観的な操作ができるとは言い難い。   As an example of the remote type, there is a method of giving an instruction using a remote controller. However, since the operation cannot be performed without looking at the remote control, the operation is performed while comparing the screen with the remote control at hand, which takes time. As a countermeasure against this problem, Japanese Patent Application Laid-Open No. 2007-083834 (Patent Document 1) makes it possible to operate the touch panel facing forward by projecting the image of the operation unit forward using the reflection of the mirror. However, in this method, since the direction in which the user puts his hand and the direction of the screen to be viewed by the user are different, it is difficult to say that an intuitive operation can be performed.

一方、カーナビゲーション装置に限らず、ユーザが画面を見ながら遠隔操作を行うためのディスプレイシステムとして、特開平8−095707号公報(特許文献2)に記載の方法がある。この方法では、赤外光等を投影してユーザが持つ棒の位置を検出し、その位置情報に基づいてユーザの操作内容を認識している。しかし、この方法では光の回折現象により棒の位置を正確に特定するのが困難であった。
特開2007−083834号公報 特開平8−095707号公報
On the other hand, there is a method described in Japanese Patent Application Laid-Open No. H08-095707 (Patent Document 2) as a display system for a user to perform a remote operation while looking at a screen, not limited to a car navigation device. In this method, infrared light or the like is projected to detect the position of the stick held by the user, and the user's operation content is recognized based on the position information. However, in this method, it is difficult to accurately specify the position of the rod due to the light diffraction phenomenon.
Japanese Patent Laid-Open No. 2007-083834 JP-A-8-095707

本発明は上記実情に鑑みてなされたものであって、その目的とするところは、ユーザが画面を見ながら直観的に遠隔操作を行うことを可能とする技術を提供することである。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a technique that enables a user to intuitively perform a remote operation while looking at a screen.

上記目的を達成するために本発明では、以下の構成の動作検出装置を採用する。すなわち、スクリーンと、レーザー光を用いてスクリーンに画像を投影する投影部と、スクリーンを撮影するスクリーン撮影手段を有する撮影部と、ユーザの動作を検出する動作検出部とを備え、動作検出部はレーザー光の光路が遮られた遮断領域の位置情報に基づいてユーザの動作を検出することを特徴とする動作検出装置である。   In order to achieve the above object, the present invention employs an operation detection apparatus having the following configuration. That is, a screen, a projection unit that projects an image onto the screen using laser light, a photographing unit having a screen photographing unit that photographs the screen, and an operation detection unit that detects a user's operation, An operation detection device that detects a user's operation based on position information of a blocking area where an optical path of a laser beam is blocked.

本発明は、操作内容を指示するためにユーザが行う動作を検出する方法として、スクリーンに映った遮断領域(影)の位置情報を利用するものである。すなわち、投影部がスクリーンにレーザー光で画像を投影している時に、ユーザはその光路を遮る位置に手などを置く。これにより、スクリーン上にレーザー光が遮られた影が生じる。そこでスクリーン撮影手段(カメラ等)はスクリーンを撮影し、スクリーン撮影画像を取得する。動作検出部は、スクリーン撮影画像中の影の位置情報に基づいてユーザの動作を検出する。   The present invention uses position information of a blocking area (shadow) displayed on a screen as a method of detecting an operation performed by a user in order to instruct an operation content. That is, when the projection unit projects an image on the screen with laser light, the user places a hand or the like at a position that blocks the optical path. Thereby, the shadow which the laser beam was interrupted on a screen arises. Therefore, the screen photographing means (camera or the like) photographs the screen and acquires a screen photographed image. The motion detection unit detects the user's motion based on the position information of the shadow in the screen shot image.

このように構成された本発明によれば、ユーザはスクリーンに映った影を見ながら、直観的に装置を遠隔操作することができる。またユーザは画面に直に接触する必要が無いこ
とから、身を乗り出したり手を遠くに伸ばしたりすることなく快適な操作ができる。さらに、レーザー光を用いることにより、レーザー光の直進性に基づいて回折のないくっきりした影を取得できる。
According to the present invention configured as described above, the user can intuitively remotely operate the apparatus while looking at the shadow reflected on the screen. In addition, since the user does not need to touch the screen directly, the user can perform a comfortable operation without leaning out or extending his hand. Furthermore, by using the laser beam, a clear shadow without diffraction can be acquired based on the straightness of the laser beam.

なお、動作検出部は、ある一時点での影の位置情報だけではなく、位置情報の経時的な変化に基づいて動作を検出しても良い。これにより、ユーザはより詳細に操作内容を指示することが可能となる。   Note that the motion detection unit may detect the motion based not only on the position information of the shadow at a certain temporary point but also with time. As a result, the user can instruct operation details in more detail.

本発明の実施においては、撮影部にユーザ撮影手段を設けることができる。これはレーザー光の光路を投影部の側から撮影し、ユーザ撮影画像を取得するものである。ここで、ユーザの手などの身体がレーザー光を遮っていれば、ユーザの手には画像の一部が投影されているはずである。そこで動作検出部は、ユーザ撮影画像中からユーザの手に映った画像を認識し、それに基づいてユーザの動作を検出する。   In the embodiment of the present invention, user photographing means can be provided in the photographing unit. In this method, the optical path of laser light is photographed from the projection unit side, and a user-captured image is acquired. Here, if a body such as the user's hand blocks the laser beam, a part of the image should be projected on the user's hand. Therefore, the motion detection unit recognizes an image reflected in the user's hand from the user-captured images, and detects the user's motion based on the recognized image.

さらに本発明の実施においては、撮影部に三次元撮影手段を設けることができる。これはスクリーンの近傍を撮影して三次元撮影画像を取得するものである。動作検出部は三次元撮影画像中のユーザの手の動きを3次元的に分析し、ユーザの動作を検出する。   Furthermore, in the implementation of the present invention, a three-dimensional photographing unit can be provided in the photographing unit. This is to obtain a three-dimensional photographed image by photographing the vicinity of the screen. The motion detection unit three-dimensionally analyzes the movement of the user's hand in the three-dimensional captured image and detects the user's motion.

このように、ユーザ撮影手段または三次元撮影手段を追加して構成された本発明によれば、ユーザの手に映った画像またはユーザの手の動きに基づいてユーザの動作を検出することが可能になり、スクリーンに映った影に基づく方法と合わせることによって検出精度を向上させることができる。   As described above, according to the present invention configured by adding the user photographing means or the three-dimensional photographing means, it is possible to detect the user's action based on the image reflected in the user's hand or the movement of the user's hand. Thus, the detection accuracy can be improved by combining with the method based on the shadow reflected on the screen.

本発明の実施においては、投影する画像に所定の明度を持つ領域である基準マーカを少なくとも1つ設けることができる。ここで、スクリーンに外乱光の映り込みがあった場合、スクリーン上での明度のコントラストが低くなり、影の位置情報に基づいてユーザの動作を検出できない事態が起こり得る。このとき動作検出部は、撮影部が撮影したスクリーンの画像中の基準マーカの明度と投影時の明度とを比較することにより、外乱光の影響がどの程度かを推測することができる。   In the implementation of the present invention, it is possible to provide at least one reference marker which is an area having a predetermined brightness in the projected image. Here, when disturbance light is reflected on the screen, the brightness contrast on the screen becomes low, and a situation in which the user's action cannot be detected based on the shadow position information may occur. At this time, the motion detection unit can estimate the extent of the influence of disturbance light by comparing the brightness of the reference marker in the screen image captured by the imaging unit with the brightness at the time of projection.

このように構成された本発明によれば、動作検出部がユーザの動作を検出できない場合に、その原因が外乱光の影響かどうかを判断し、もし外乱光の影響であれば画像投影時の明度を増大させ、影を際立たせるという対応が取れるようになる。   According to the present invention configured as described above, when the motion detection unit cannot detect the user's motion, it is determined whether or not the cause is the influence of disturbance light. Increases brightness and makes shadows stand out.

本発明は、動作検出装置と、該動作検出装置が検出したユーザの動作に基づいて処理を実行する情報処理部とを備える操作システムとして実現することができる。さらに、該操作装置を車両に搭載して使用することができる。   The present invention can be realized as an operation system including a motion detection device and an information processing unit that executes processing based on a user motion detected by the motion detection device. Furthermore, the operating device can be used in a vehicle.

本発明に係る動作検出装置または操作システムによれば、ユーザが画面を見ながら直観的に遠隔操作を行うことが可能となる。   According to the motion detection device or the operation system according to the present invention, the user can intuitively perform remote operation while looking at the screen.

以下に図面を参照して、この発明の好適な実施の形態を例示的に詳しく説明する。以下の実施形態においては、動作検出装置とカーナビゲーション装置が搭載された車両で、ユーザである運転者が動作を行い、装置を操作する例について記述する。   Exemplary embodiments of the present invention will be described in detail below with reference to the drawings. In the following embodiments, an example will be described in which a driver who is a user performs an operation and operates the device in a vehicle equipped with a motion detection device and a car navigation device.

<実施形態1>
本実施形態では、スクリーン上の遮断領域(影)の位置情報を利用してユーザの動作を検出する方法について説明する。すなわち、レーザープロジェクタがスクリーンにレーザ
ー光で画像を投影している時に、ユーザが手などでそのレーザー光を遮る。これによりスクリーン上に生じた影に基づいてユーザの動作を検出し、ユーザの意図した操作内容を認識する方法である。
<Embodiment 1>
In the present embodiment, a method for detecting a user's action using position information of a blocking area (shadow) on the screen will be described. That is, when the laser projector projects an image with a laser beam on the screen, the user blocks the laser beam with a hand or the like. This is a method of detecting the operation of the user based on the shadow generated on the screen and recognizing the operation content intended by the user.

(操作システムの構成)
図1に示したブロック図を参照しつつ、本実施形態の操作システムの構成を説明する。レーザープロジェクタ1は、画像作成部6が作成した画像をレーザー光により投影するものであり、本発明における投影部に当たる。スクリーン2は、レーザープロジェクタ1から投影された画像を表示する領域である。
(Operation system configuration)
The configuration of the operation system according to the present embodiment will be described with reference to the block diagram shown in FIG. The laser projector 1 projects the image created by the image creation unit 6 with laser light, and corresponds to the projection unit in the present invention. The screen 2 is an area for displaying an image projected from the laser projector 1.

なお、本実施形態においては、ユーザが運転席に座って操作することを前提としており、レーザープロジェクタ1は運転席の左後方に、スクリーン2は運転席の左前方のダッシュボードに、それぞれ設置されている。スクリーン2は通常、ユーザから視認できる程度の面積を持つ白色の平面領域からなるが、必ずしもこれに限定される必要はない。例えばダッシュボード自体に画像を投影しても良く、色も白色以外でも良い。   In the present embodiment, it is assumed that the user sits and operates in the driver's seat, the laser projector 1 is installed on the left rear of the driver's seat, and the screen 2 is installed on the dashboard on the left front of the driver's seat. ing. The screen 2 is usually composed of a white planar area having an area that can be visually recognized by the user, but is not necessarily limited thereto. For example, an image may be projected on the dashboard itself, and the color may be other than white.

図示したように、ユーザがレーザー光を手で遮ることによって、スクリーン2の上に影(本発明における遮断領域)が生じる。スクリーン撮影用カメラ3は、スクリーン2を撮影してスクリーン撮影画像を取得するものであり、本発明におけるスクリーン撮影手段に当たる。スクリーン撮影用カメラ3を設置する位置としては、レーザープロジェクタ1から一定の角度を置き、ユーザの手がスクリーン撮影画像に映り込まないようにすることが好ましい。   As shown in the figure, when the user blocks the laser beam by hand, a shadow (blocking area in the present invention) is generated on the screen 2. The screen photographing camera 3 photographs the screen 2 and acquires a screen photographed image, and corresponds to the screen photographing means in the present invention. The screen camera 3 is preferably installed at a certain angle from the laser projector 1 so that the user's hand does not appear in the screen shot image.

動作検出部4は、スクリーン撮影画像に基づいてユーザの動作を検出するものであり、影検出部41、パターン記憶部42、パターン比較部43、及び経時解析部44を含む。影検出部41はスクリーン撮影画像中の明度のコントラストを認識し、レーザー光が遮られた影の領域を検出する。その際、レーザープロジェクタ1が投影した画像を参照して、スクリーン撮影画像中のコントラストが影によるものか、元々の投影画像にコントラストがあるためかを判別し、影検出の精度を向上させることもできる。パターン記憶部42は記憶装置であり、手の形状とユーザの動作を認識するための画像パターンのデータを保存している。データの種類としては、検出した影が手の形状であるかどうかを判断するためのものと、手の形状がどのような指示かを認識するためのものがある。   The motion detection unit 4 detects a user's motion based on the screen shot image, and includes a shadow detection unit 41, a pattern storage unit 42, a pattern comparison unit 43, and a temporal analysis unit 44. The shadow detection unit 41 recognizes the brightness contrast in the screen shot image, and detects a shadow area blocked by the laser beam. At that time, referring to the image projected by the laser projector 1, it is determined whether the contrast in the screen shot image is due to a shadow or the original projected image has a contrast, and the accuracy of shadow detection may be improved. it can. The pattern storage unit 42 is a storage device, and stores image pattern data for recognizing the hand shape and the user's action. There are two types of data: one for determining whether the detected shadow is a hand shape, and the other for recognizing what kind of instruction the hand shape is.

パターン比較部43は、影検出部41が検出した領域をパターン記憶部42が保存する画像パターンとマッチングすることにより、スクリーン撮影画像に含まれる手の影の形状を認識する。このときパターン比較部43は、まず影検出部41が影だと判断した領域が手の影かどうかを判断し、もし手であれば、ユーザの指示がどのような内容であるかを認識する。経時解析部44は、この手の影の形状を経時的に解析することによりユーザの動作を検出する。動作検出部4は、このユーザの動作を情報処理部5に送信する。なお、動作検出部4は専用の回路によって構成されても良く、CPUを利用して機能するプログラムとして実現することもできる。   The pattern comparison unit 43 recognizes the shape of the hand shadow included in the screen shot image by matching the area detected by the shadow detection unit 41 with the image pattern stored in the pattern storage unit 42. At this time, the pattern comparison unit 43 first determines whether or not the region that the shadow detection unit 41 determines to be a shadow is a hand shadow, and if it is a hand, recognizes what the user instruction is. . The temporal analysis unit 44 detects the user's action by analyzing the shape of the hand shadow over time. The motion detection unit 4 transmits the user motion to the information processing unit 5. Note that the operation detection unit 4 may be configured by a dedicated circuit, or may be realized as a program that functions using a CPU.

情報処理部5は、動作検出部4が検出したユーザの動作に基づいて、ユーザの要求する操作を認識し、画像作成部6やその他の機器を制御する。画像作成部6はユーザに提示する画像を作成し、レーザープロジェクタ1に送信する。   The information processing unit 5 recognizes an operation requested by the user based on the user's motion detected by the motion detection unit 4 and controls the image creating unit 6 and other devices. The image creating unit 6 creates an image to be presented to the user and transmits it to the laser projector 1.

(処理フロー)
以下、図2のフローチャートを参照しつつ、スクリーン上の地図からユーザが目的地を選択し、ナビゲーションを開始する際の処理フローについて説明する。必要に応じて図4(a)〜(c)に示したスクリーン撮影画像の遷移図を参照する。具体的には、まず、レ
ーザープロジェクタがスクリーンに向けて画像を投影し、地図を表示する。続いてユーザ(運転者)がレーザー光を手で遮ってスクリーンに影を作り、影の指先部分で目的地の建物「ABC会館」を選択する。続いて、カメラがスクリーンを撮影する。動作検出部は影の位置情報に基づいてユーザの動作を検出し、ユーザの指示内容を認識する。カーナビゲーション装置は指示内容に従って目的地を設定し、案内を開始する。
(Processing flow)
Hereinafter, a processing flow when the user selects a destination from a map on the screen and starts navigation will be described with reference to the flowchart of FIG. The screen shot image transition diagrams shown in FIGS. 4A to 4C are referred to as necessary. Specifically, first, a laser projector projects an image onto a screen and displays a map. Subsequently, the user (driver) shades the laser beam with his hand to make a shadow on the screen, and selects the destination building “ABC Kaikan” at the fingertip portion of the shadow. Subsequently, the camera shoots the screen. The motion detection unit detects the user's motion based on the shadow position information and recognizes the user's instruction content. The car navigation device sets the destination according to the instruction content and starts guidance.

なお、本実施形態においてユーザがスクリーン上のオブジェクトを選択する際は、影の指先をそのオブジェクトの上に置いて1秒間保持するものとする。オブジェクトとしては例えば、地図上の建物や、画面上のボタンなどが対象となり得る。   In this embodiment, when the user selects an object on the screen, a shadow fingertip is placed on the object and held for one second. As the object, for example, a building on a map or a button on a screen can be a target.

ステップS201では、レーザープロジェクタ1がスクリーン2に向けて地図の画像を投影し、図4(a)に示したように、ユーザに対して目的地の選択を要求するメッセージを出して入力を待つ。ユーザは地図を見て目的地である「ABC会館」を発見すると、手を動かしてレーザー光の光路を遮り、指先の影が「ABC会館」を示すようにする。この状態を図4(b)に示す。   In step S201, the laser projector 1 projects a map image toward the screen 2, and, as shown in FIG. 4A, issues a message requesting the user to select a destination and waits for input. When the user finds the destination “ABC Hall” by looking at the map, the user moves his hand to block the optical path of the laser beam so that the shadow of the fingertip indicates “ABC Hall”. This state is shown in FIG.

ステップS202では、スクリーン撮影用カメラ3がスクリーン2を撮影し、スクリーン撮影画像を取得する。ステップS203では、スクリーン撮影画像に基づいて動作検出部4がユーザの動作の検出を試み、ユーザからの指示があったかどうか判断する。このステップについては後ほど詳細に述べる。   In step S202, the screen photographing camera 3 photographs the screen 2 and obtains a screen photographed image. In step S203, the motion detection unit 4 attempts to detect the user's motion based on the screen shot image, and determines whether there is an instruction from the user. This step will be described in detail later.

ユーザからの指示が無かった場合(ステップS204=N)、ユーザからの入力待ちを継続し、所定の間隔を置いて再度ユーザの動作を検出しようと試みる。一方、ユーザからの指示があった場合(ステップS204=Y)、ステップS205に進む。目的地として「ABC会館」を設定し、図4(c)のようにメッセージ出力する。以上で目的地の選択は終わり、ナビゲーションを開始する。   When there is no instruction from the user (step S204 = N), the input waiting from the user is continued and an attempt is made to detect the user's operation again at a predetermined interval. On the other hand, if there is an instruction from the user (step S204 = Y), the process proceeds to step S205. “ABC Kaikan” is set as the destination, and a message is output as shown in FIG. This completes the selection of the destination and starts navigation.

(ユーザの動作検出の処理フロー)
図3のフローチャートを参照しつつ、動作検出部が指先の影の位置情報に基づいてユーザの動作を検出する処理を説明する。
(Processing flow for user motion detection)
With reference to the flowchart of FIG. 3, processing in which the motion detection unit detects the user's motion based on the position information of the fingertip shadow will be described.

ステップS301では、影検出部41はスクリーン撮影画像から影と判断される領域を探す。その際には例えば、明度のコントラストに基づいて周囲より明度の低い領域を検出する方法によることができる。続いてパターン比較部43は、影の形状とパターン記憶部42が保存する画像パターンとのマッチングにより、指先の影が含まれるかを判断する。指先の影が無かった場合(ステップS301=N)、ステップS304に進み、メモリに「指示なし」をセットして処理を終了する。一方、指先の影があった場合(ステップS301=Y)、ステップS302に進み、指先が選択しているオブジェクトである「ABC会館」を特定する。   In step S301, the shadow detection unit 41 searches for an area determined to be a shadow from the screen shot image. In this case, for example, it is possible to use a method of detecting a region having a lightness lower than that of the surroundings based on the brightness contrast. Subsequently, the pattern comparison unit 43 determines whether the shadow of the fingertip is included by matching the shape of the shadow with the image pattern stored in the pattern storage unit 42. When there is no shadow of the fingertip (step S301 = N), the process proceeds to step S304, “no instruction” is set in the memory, and the process is terminated. On the other hand, if there is a shadow of the fingertip (step S301 = Y), the process proceeds to step S302, and “ABC Hall”, which is the object selected by the fingertip, is specified.

ステップS303では、経時解析部44は指先によるオブジェクト選択が1秒間持続したかどうかを判断する。持続しない場合(ステップS303=N)、ユーザによる選択動作ではなく単なる移動途中等であると判断してステップS304に進む。一方1秒間持続した場合(ステップS303=Y)、ユーザが目的地を選択したと判断してステップS305に進む。ステップS305ではメモリに「指示あり」をセットして終了する。   In step S303, the temporal analysis unit 44 determines whether the object selection by the fingertip has continued for 1 second. If it does not continue (step S303 = N), it is determined that it is not a selection operation by the user but is simply moving, and the process proceeds to step S304. On the other hand, when it continues for 1 second (step S303 = Y), it judges that the user selected the destination and progresses to step S305. In step S305, “instructed” is set in the memory, and the process ends.

なお、本実施形態では地図上のオブジェクト選択方法として、オブジェクト上に指先の影を置いて1秒間保持することとしたが、実際はこれに限定されるものではない。例えばもっと短い時間で選択したとみなすこともできる。   In this embodiment, as a method for selecting an object on the map, the shadow of the fingertip is placed on the object and held for one second. However, the method is not limited to this. For example, it can be considered that the selection is made in a shorter time.

本実施形態の動作検出装置によれば、ユーザがカーナビゲーション装置を操作する際に手の影を用いて遠隔操作することができるので、スクリーンに表示された地図を見ながら直観的に遠隔操作することが可能になる。また、ユーザは画面に直に接触しなくても良いため、身を乗り出したり手を遠くに伸ばしたりする必要が無い。また、レーザープロジェクタを使用することにより、投影部とスクリーンの距離にかかわらず回折現象が起きないので、操作システムを車内に配置する際の自由度が向上する。   According to the motion detection device of the present embodiment, when the user operates the car navigation device, it can be remotely operated using the shadow of the hand, so that the user can intuitively perform the remote operation while viewing the map displayed on the screen. It becomes possible. Also, since the user does not have to touch the screen directly, there is no need to lean out or extend his hand. In addition, by using a laser projector, a diffraction phenomenon does not occur regardless of the distance between the projection unit and the screen, so that the degree of freedom in arranging the operation system in the vehicle is improved.

<実施形態2>
本実施形態では、実施形態1で述べたスクリーン撮影画像中の指先の影に加えて、ユーザの手に投影された映像を利用してユーザの動作を検出する方法について説明する。
<Embodiment 2>
In the present embodiment, a method for detecting a user's action using an image projected on the user's hand in addition to the shadow of the fingertip in the screen shot image described in the first embodiment will be described.

(操作システムの構成)
以下、図5に示したブロック図を参照しつつ、本実施形態の操作システムの構成を説明する。なお、実施形態1と同じブロックには同一の番号を付し、説明を省略する。
(Operation system configuration)
Hereinafter, the configuration of the operation system of this embodiment will be described with reference to the block diagram shown in FIG. In addition, the same number is attached | subjected to the same block as Embodiment 1, and description is abbreviate | omitted.

ユーザ撮影用カメラ7は、ユーザがレーザー光を手で遮ってスクリーンに影を生じさせるときに、手に投影されている画像を取得するためのカメラであり、本発明におけるユーザ撮影手段に当たる。そのために、ユーザ撮影用カメラ7はスクリーン2に向かってレーザープロジェクタ1と同じ方向に設置されている。以下、ユーザ撮影用カメラ7が撮影する画像をユーザ撮影画像と記述する。   The user photographing camera 7 is a camera for acquiring an image projected on the hand when the user blocks the laser beam with the hand to cause a shadow on the screen, and corresponds to the user photographing means in the present invention. Therefore, the user photographing camera 7 is installed in the same direction as the laser projector 1 toward the screen 2. Hereinafter, an image photographed by the user photographing camera 7 is described as a user photographed image.

(処理フロー)
以下、図6のフローチャート、図8(a)の投影画像、及び図8(b)のスクリーン撮影画像を参照しつつ、本実施形態の処理フローを説明する。
(Processing flow)
Hereinafter, the processing flow of this embodiment will be described with reference to the flowchart of FIG. 6, the projected image of FIG. 8A, and the screen shot image of FIG. 8B.

ここでは、投影画像を縦横2×2の4つの領域に区分し、ユーザがその中から1つを選択する際の処理について述べる。具体的には、まず、レーザープロジェクタがスクリーンに向けて画像を投影する。続いてユーザが手を伸ばして、指先の影によって4つの領域のうち1つを選択する。このときレーザー光が手で遮られることによりスクリーンに影が生じるが、同時にユーザの手には遮られた部分のレーザー光が投影されている。そこで、ユーザ撮影用カメラ7による撮影画像からユーザの手に投影された画像を取得し、元の投影画像と比較することにより指先がどの位置にあるかを認識する。これによりユーザの動作を検出し、どの領域を選択したかを判断する。   Here, a process when the projection image is divided into four areas of 2 × 2 in the vertical and horizontal directions and the user selects one of them will be described. Specifically, first, a laser projector projects an image onto a screen. Subsequently, the user extends his / her hand and selects one of the four areas by the shadow of the fingertip. At this time, the laser beam is blocked by the hand, so that a shadow is generated on the screen. At the same time, the blocked laser beam is projected onto the user's hand. Therefore, an image projected on the user's hand is acquired from the image captured by the user imaging camera 7, and the position of the fingertip is recognized by comparing with an original projection image. As a result, the user's action is detected and it is determined which area has been selected.

ステップS601では、画像作成部8が作成した画像をレーザープロジェクション1がスクリーン2の上に投影する。この画像は図8(a)に示すように、スクリーンを4つの領域に区切るものである。   In step S <b> 601, the laser projection 1 projects the image created by the image creation unit 8 onto the screen 2. In this image, as shown in FIG. 8A, the screen is divided into four areas.

ステップS602では、スクリーン撮影用カメラ3がスクリーン2を撮影してスクリーン撮影画像を取得する。また、ユーザ撮影用カメラ7がレーザー光の光路をレーザープロジェクション1と同じ側から撮影してユーザ撮影画像を取得する。   In step S602, the screen shooting camera 3 captures the screen 2 and obtains a screen shot image. Further, the user photographing camera 7 photographs the optical path of the laser light from the same side as the laser projection 1 to obtain a user photographed image.

ステップS603では、動作検出部4がスクリーン撮影画像からユーザの動作検出を試みる。検出は実施形態1と同様に図3のフローチャートに沿って実行される。その結果、図8(b)に示したように明瞭な影があり、ユーザの動作を検出できた場合(ステップS604=Y)、ステップS607に進み、ユーザが指示した領域を選択する。一方、外乱光の影響などにより明瞭な影が検出できず、ユーザからの指示が確認できなかった場合(ステップS604=N)、ステップS605に進む。   In step S603, the motion detection unit 4 tries to detect the user's motion from the screen shot image. The detection is executed according to the flowchart of FIG. 3 as in the first embodiment. As a result, when there is a clear shadow as shown in FIG. 8B and the user's action can be detected (step S604 = Y), the process proceeds to step S607, and the area designated by the user is selected. On the other hand, when a clear shadow cannot be detected due to the influence of ambient light or the like, and the instruction from the user cannot be confirmed (step S604 = N), the process proceeds to step S605.

ステップS605では、動作検出部4がユーザ撮影画像からユーザの動作検出を試み、
「指示あり」、「指示なし」のいずれかを返す。このステップについては後ほど詳細に述べる。ユーザ指示ありの場合(ステップS606=Y)、ステップS607に進み、選択処理を終了する。一方、ユーザ指示なしの場合(ステップS606=N)、ユーザの選択待機状態になり、所定の間隔をおいて再度ユーザの動作を検出する。
In step S605, the motion detection unit 4 tries to detect the user's motion from the user-captured image,
Returns “Instructed” or “Not Instructed”. This step will be described in detail later. If there is a user instruction (step S606 = Y), the process proceeds to step S607, and the selection process is terminated. On the other hand, when there is no user instruction (step S606 = N), the user enters a selection waiting state, and the user's operation is detected again at a predetermined interval.

(ユーザ撮影画像からユーザの動作を検出する処理フロー)
図7のフローチャート、及び図8(c)に示したユーザ撮影画像を参照しつつ、動作検出部がユーザの動作を検出する処理を説明する。
(Processing flow for detecting user actions from user-captured images)
With reference to the flowchart in FIG. 7 and the user-captured image shown in FIG.

まずパターン比較部43はユーザ撮影画像を解析し、パターン記憶部42が保存しているパターンとのマッチング等によって手の形状の発見を試みる。手の形状を発見できなかった場合(ステップS701=N)、ステップS705に進み、メモリに「指示なし」をセットして処理を終了する。一方、図8(c)に示したように手の形状を発見した場合(ステップS701=Y)、ステップS702に進み、手に映った画像を取得する。続いてステップS703において手に映っている画像を分析し、画像作成部6から受信した元の投影画像とも比較し、指先が選択している領域(この場合画面の左上)を特定する。   First, the pattern comparison unit 43 analyzes the user-captured image and tries to find the shape of the hand by matching with a pattern stored in the pattern storage unit 42. If the hand shape cannot be found (step S701 = N), the process proceeds to step S705, “no instruction” is set in the memory, and the process ends. On the other hand, when the hand shape is found as shown in FIG. 8C (step S701 = Y), the process proceeds to step S702, and an image reflected in the hand is acquired. Subsequently, in step S703, the image shown in the hand is analyzed and compared with the original projection image received from the image creating unit 6, and the region selected by the fingertip (in this case, the upper left of the screen) is specified.

ステップS704では、ユーザ撮影画像を継続して観察し、指先による選択が1秒間持続したがどうかを判断する。持続しない場合(ステップS704=N)、ユーザによる選択ではなく単なる動作の途中だと判断し、ステップS705に進み、メモリに「指示なし」をセットして処理を終了する。一方、1秒間選択が持続した場合(ステップS704=Y)、ステップS706に進み、「指示あり」をセットして終了する。   In step S704, the user-captured image is continuously observed to determine whether selection by the fingertip has continued for 1 second. If it does not continue (step S704 = N), it is determined that it is not a selection by the user but is merely in the middle of an operation, and the process proceeds to step S705, where “no instruction” is set in the memory and the process is terminated. On the other hand, if the selection continues for 1 second (step S704 = Y), the process proceeds to step S706, where “instructed” is set and the process ends.

本実施形態の動作検出装置によれば、スクリーン撮影画像において影が鮮明でない場合であっても、手に映った画像に基づいてユーザの動作を検出することが可能となり、検出の精度を向上させることができる。   According to the motion detection device of the present embodiment, even when the shadow is not clear in the screen shot image, it is possible to detect the user's motion based on the image reflected in the hand, and improve the detection accuracy. be able to.

なお、本実施形態ではスクリーン撮影画像で影を検出できなかった時のみユーザ撮影画像を分析しているが、実際はこれに限定されるものではない。例えば、常にユーザ撮影画像の分析を行い、スクリーン撮影画像と併用することで検出精度を向上させることもできる。   In the present embodiment, the user-captured image is analyzed only when the shadow is not detected in the screen-captured image, but the present invention is not limited to this. For example, it is possible to improve the detection accuracy by always analyzing the user-captured image and using it together with the screen-captured image.

<実施形態3>
本実施形態は、ユーザの動作を検出するために、実施形態1で述べた指先の影に加えて、ユーザの手の動きをカメラで取得する構成をとる。その際、ユーザの手の形状や動きを三次元的に分析する点が特徴となる。以下、実施形態2との相違点について説明する。
<Embodiment 3>
In this embodiment, in order to detect the user's movement, in addition to the fingertip shadow described in the first embodiment, the user's hand movement is acquired by the camera. In that case, the feature is that the shape and movement of the user's hand are three-dimensionally analyzed. Hereinafter, differences from the second embodiment will be described.

(操作システムの構成)
本実施形態の動作検出装置は、スクリーンの近傍領域を撮影する三次元撮影用カメラを備え、同領域でのユーザの手の動きを撮影して三次元撮影画像を取得する。このカメラは本発明における三次元撮影手段に当たる。動作検出部は三次元撮影画像に基づいてユーザの手の動きを三次元的に分析し、ユーザの動作を検出する。
(Operation system configuration)
The motion detection apparatus according to the present embodiment includes a three-dimensional imaging camera that images a region near the screen, and acquires a three-dimensional captured image by capturing the movement of the user's hand in the region. This camera corresponds to the three-dimensional imaging means in the present invention. The motion detection unit three-dimensionally analyzes the movement of the user's hand based on the three-dimensional captured image, and detects the user's motion.

このような三次元撮影用カメラとして、例えば光の反射を利用して分析を行うカメラが利用できる。すなわち、カメラからスクリーン近傍領域に振動する光を出し、ユーザの手に当たって反射してくる際の位相のずれを計測する装置である。この場合ユーザの体やレーザー光に邪魔されず撮影できるように、三次元撮影カメラをスクリーン側に設置することが好ましい。また、三次元撮影用カメラとしてステレオカメラを用いて立体映像を取得することもできる。   As such a three-dimensional imaging camera, for example, a camera that performs analysis using light reflection can be used. That is, this is a device that emits oscillating light from the camera to the area near the screen and measures the phase shift when the light hits the user's hand and is reflected. In this case, it is preferable to install a three-dimensional imaging camera on the screen side so that the user's body and laser light can capture the image. In addition, a stereoscopic video can be acquired using a stereo camera as a three-dimensional imaging camera.

(処理フロー)
本実施形態の処理フローはほぼ実施形態2と同様であり、実施形態2でユーザ撮影画像に基づいてユーザの動作を検出していたところを、三次元撮影画像に基づいて行う点が異なる。
(Processing flow)
The processing flow of the present embodiment is almost the same as that of the second embodiment, except that the user's action detected based on the user-captured image in the second embodiment is performed based on the three-dimensional captured image.

本実施形態の動作検出装置によれば、スクリーン撮影画像における影や、ユーザ撮影画像における手に映った画像が不鮮明な場合であっても、ユーザの手の動きに基づいてユーザの動作を検出することが可能となり、検出の精度を向上させることができる。また、三次元撮影用カメラは3次元的な手の動きを取得するので、動きのある操作を認識する際に特に有効である。また、三次元撮影画像を利用するのは、スクリーン撮影画像またはユーザ撮影画像からユーザの動作を検出できなかった場合に限らない。両者と同時に利用して、検出の精度を高めることもできる。   According to the motion detection device of the present embodiment, even when the shadow in the screen shot image or the image in the hand shot in the user shot image is unclear, the user motion is detected based on the movement of the user's hand. Therefore, the detection accuracy can be improved. In addition, since the three-dimensional imaging camera acquires a three-dimensional hand movement, it is particularly effective when recognizing a movement operation. The use of the three-dimensional captured image is not limited to the case where the user's action cannot be detected from the screen captured image or the user captured image. By using both simultaneously, the detection accuracy can be improved.

<実施形態4>
本実施形態は、スクリーンに外乱光が入り込んで画面全体の明度が高くなり、コントラストが低下している場面に有効な方法である。
<Embodiment 4>
This embodiment is an effective method for a scene in which ambient light enters the screen, the brightness of the entire screen increases, and the contrast decreases.

このような場合スクリーン上の手の影を認識するのが困難であるため、コントラストを向上させる必要がある。そのために、まず投影画像の中に基準マーカという所定の明度を持つ領域を設置した上で投影を行う。そして元の投影画像とスクリーン撮影画像の明度を比較することにより外乱光の影響を推定する。もし外乱光の影響が大きければ、投影画像の明度を増大してコントラストを向上させ、影の検出を試みる。   In such a case, since it is difficult to recognize the shadow of the hand on the screen, it is necessary to improve the contrast. For this purpose, first, an area having a predetermined brightness called a reference marker is set in the projection image, and projection is performed. Then, the influence of ambient light is estimated by comparing the brightness of the original projected image and the screen shot image. If the influence of disturbance light is large, the brightness of the projected image is increased to improve the contrast, and the shadow detection is attempted.

(操作システムの構成)
図9に示したブロック図を参照しつつ、本実施形態の操作システムの構成を説明する。構成要素自体は実施形態1と同じである。画像作成部6は、画像の右上と左下の2か所に基準マーカ8を設ける。レーザープロジェクタ1が投影する画像にかかわらず、基準マーカ8の部分は一定の明度になるよう出力する。
(Operation system configuration)
The configuration of the operation system according to the present embodiment will be described with reference to the block diagram shown in FIG. The components themselves are the same as in the first embodiment. The image creation unit 6 provides reference markers 8 at two locations on the upper right and lower left of the image. Regardless of the image projected by the laser projector 1, the reference marker 8 is output so as to have a constant brightness.

(処理フロー)
図10のフローチャートを参照しつつ処理フローを説明する。実施形態1と同様に、ユーザが地図から目的地を選択し、カーナビゲーション装置にナビゲーションを開始させる場合を例にとって説明を行う。
(Processing flow)
The processing flow will be described with reference to the flowchart of FIG. As in the first embodiment, a case where the user selects a destination from a map and causes the car navigation device to start navigation will be described as an example.

ステップS1001では、レーザープロジェクタ1がスクリーン2に向けて地図の画像を投影し、ユーザによる目的地選択を待つ。ステップS1002では、スクリーン撮影用カメラ3がスクリーン2を撮影し、スクリーン撮影画像として動作検出部4に送信する。ステップS1003では、動作検出部が図3のフローに従って手の影からユーザの動作の検出を試みる。ユーザからの指示が検出できた場合(ステップS1004=Y)、ステップS1007に進み、目的地を設定してナビゲーションを開始する。なお、ここまでの処理は実施形態1と同じであり、ユーザの動作を検出できなかった場合(ステップS1004=N)の動作が本実施形態の特徴となる。   In step S1001, the laser projector 1 projects a map image toward the screen 2, and waits for a user to select a destination. In step S <b> 1002, the screen shooting camera 3 captures the screen 2 and transmits the screen captured image to the operation detection unit 4. In step S1003, the motion detection unit attempts to detect the user's motion from the shadow of the hand according to the flow of FIG. If an instruction from the user can be detected (step S1004 = Y), the process proceeds to step S1007, where the destination is set and navigation is started. Note that the processing up to this point is the same as that of the first embodiment, and the operation when the user's operation cannot be detected (step S1004 = N) is a feature of this embodiment.

すなわち、まだ明度増大を行っていない場合(ステップS1005=N)、外乱光推定および次回投影時の明度決定を行う。このステップについては後ほど詳細に述べる。続いて再度ステップS1001に進み、先ほど決定した明度で画像投影する。これにより明度が高くなるため、スクリーン撮影画像中のコントラストが向上して、ステップS1003において手の影に基づくユーザの動作を検出することができる。   That is, when the brightness is not yet increased (step S1005 = N), disturbance light estimation and brightness determination at the next projection are performed. This step will be described in detail later. Subsequently, the process proceeds to step S1001 again, and the image is projected with the brightness determined earlier. As a result, the brightness increases, so that the contrast in the screen shot image is improved, and the user's action based on the shadow of the hand can be detected in step S1003.

一方、明度増大が済んでいる場合(ステップS1005=Y)、影が検出できないのは
外乱光の影響とは無関係で、レーザー光が遮断されておらずスクリーン上に影自体が存在しないためだと考えられる。そのため動作検出部はユーザからの入力待ちを継続し、所定の間隔をおいて再度ユーザの動作検出を試みる。
On the other hand, when the brightness has been increased (step S1005 = Y), the reason why the shadow cannot be detected is that the laser light is not cut off and the shadow itself does not exist on the screen, regardless of the influence of disturbance light. Conceivable. Therefore, the operation detection unit continues to wait for input from the user, and tries to detect the user's operation again at a predetermined interval.

(外乱光推定と投影明度決定)
図11のフローチャートを参照しつつ、外乱光推定および次回投影時の明度決定方法を説明する。
(Disturbance light estimation and projection brightness determination)
With reference to the flowchart of FIG. 11, the ambient light estimation and brightness determination method at the next projection will be described.

動作検出部4は、ステップS1101でスクリーン撮影画像中の基準マーカの明度を検知し、ステップS1102で投影時の基準マーカの明度と比較する。ここで、もしも外乱光の影響によりコントラストが低下して手の影が検出できないとすれば、スクリーン撮影画像における基準マーカの明度は投影時より高くなっているはずである。そこで、ステップS1103では、スクリーン撮影画像の基準マーカ明度が基準値以上、例えば投影時の2倍を超えているかを判断する。基準値を超えている場合(S1103=Y)、外乱光の影響が大きいと判断してステップS1004に進み、次回に投影時の明度を高くする。   The motion detection unit 4 detects the brightness of the reference marker in the screen shot image in step S1101 and compares it with the brightness of the reference marker at the time of projection in step S1102. Here, if the contrast is lowered due to the influence of ambient light and the shadow of the hand cannot be detected, the brightness of the reference marker in the screen shot image should be higher than that at the time of projection. Therefore, in step S1103, it is determined whether the reference marker brightness of the screen shot image is greater than or equal to a reference value, for example, more than twice that at the time of projection. If the reference value is exceeded (S1103 = Y), it is determined that the influence of disturbance light is large, and the process proceeds to step S1004 to increase the brightness at the next projection.

一方、S1103=Nの場合、外乱光の影響はさして大きくないと判断されるため、次回投影時の明度は変更しない。   On the other hand, in the case of S1103 = N, it is determined that the influence of disturbance light is not so great, so the brightness at the next projection is not changed.

本実施形態の動作検出装置によれば、スクリーン撮影画像から手の影を検出できない時に、基準マーカの明度に基づいて外乱光の影響を推測し、次回投影時の明度を決定し、影を検出可能とすることができる。   According to the motion detection device of this embodiment, when a hand shadow cannot be detected from a screen shot image, the influence of ambient light is estimated based on the brightness of the reference marker, the brightness at the next projection is determined, and the shadow is detected. Can be possible.

なお、本実施形態では基準マーカを2か所としているが、画面サイズや投影距離など周囲の状況に応じて基準マーカの個数やサイズなどを適宜変更しても良い。また、明度の増大を1回だけ行うことにしているが、複数回にわたって増大しても良い。さらに、明度の増大量を決定する際に、外乱光の影響が大きければそれに応じて明度増大量を大きくすることも可能である。   In this embodiment, there are two reference markers. However, the number and size of the reference markers may be changed as appropriate according to the surrounding conditions such as the screen size and the projection distance. Further, although the brightness is increased only once, it may be increased a plurality of times. Furthermore, when determining the amount of increase in brightness, if the influence of ambient light is large, the amount of increase in brightness can be increased accordingly.

<ユーザの動作が異なる変形例>
上記の各実施形態では、ユーザの動作として、スクリーン上のオブジェクトに指先の影を1秒間置くことにより対象を選択する方法を取り上げた。しかし、ユーザの動作はオブジェクトの選択に限られるものではなく、様々な場面で定義できる。以下、その例を記述する。
<Modifications with different user actions>
In each of the above-described embodiments, the method of selecting a target by placing a shadow of a fingertip on an object on a screen for one second has been taken up as a user action. However, the user's action is not limited to selecting an object, but can be defined in various situations. Examples are described below.

(ドラッグ&ドロップの動作)
ここでは、画面上のオブジェクトをドラッグ&ドロップするユーザの動作を検出するケースについて記述する。この動作を適用できる例として、ユーザが画面に表示された地図の縮尺を変更する場合がある。すなわち、ユーザは地図の縮尺を表すスクロールバー上でポインタをドラッグ&ドロップして所望の縮尺を選択する。
(Drag and drop operation)
Here, a case where a user's action of dragging and dropping an object on the screen is detected will be described. As an example to which this operation can be applied, there is a case where the user changes the scale of the map displayed on the screen. That is, the user selects a desired scale by dragging and dropping the pointer on the scroll bar representing the scale of the map.

図12(a)〜(c)はこの変形例でのスクリーン撮影画像の遷移を示す図である。図12(a)を例として画面構成について説明する。画面の上部は地図であり、道路や建物(XYZビル)等が表示されている。画面の下部は地図の縮尺を示しており、スクロールバー121とポインタ122が表示されている。ポインタ122がスクロールバー121上の右寄りにあれば広い範囲が表示され、左寄りにあれば狭い範囲が詳細に表示される。縮尺を変更したい場合、ユーザは、まず指先の影でポインタ122をタッチし、希望の縮尺を示す位置までスクロールバー上を移動させてから、指先の影をスクロールバー121付近から遠ざける。   FIGS. 12A to 12C are diagrams showing transition of screen shot images in this modification. The screen configuration will be described with reference to FIG. The upper part of the screen is a map on which roads, buildings (XYZ buildings), and the like are displayed. The lower part of the screen shows the scale of the map, and a scroll bar 121 and a pointer 122 are displayed. If the pointer 122 is on the right side of the scroll bar 121, a wide range is displayed, and if the pointer 122 is on the left side, a narrow range is displayed in detail. When the user wants to change the scale, the user first touches the pointer 122 with the shadow of the fingertip, moves the scroll bar to a position indicating the desired scale, and then moves the shadow of the fingertip away from the vicinity of the scroll bar 121.

図13にこの例でのフローチャートを示す。ステップS1301で、まずレーザープロジェクション1がスクリーン2に地図を表示する。続いてステップS1302では、定期的に上述した実施形態いずれかの方法による指先の影の検出を試み、ユーザによる操作を待つ。   FIG. 13 shows a flowchart in this example. In step S1301, first, the laser projection 1 displays a map on the screen 2. Subsequently, in step S1302, the detection of the shadow of the fingertip is periodically attempted by the method of any of the above-described embodiments, and an operation by the user is awaited.

図12(a)に示すように、ユーザが指先の影でポインタ122にタッチした場合(ステップS1302=Y)、スクロール操作が始まったと考えられる。このときユーザは図12(b)に示すように、ポインタ122をスクロールバー121上でスライドし、希望の縮尺を指定する。続いてステップS1303では、指先の影がポインタ122から離れたかどうかを定期的に判断する。指先の影がポインタから離れた場合(ステップS1303=Y)、ポインタの位置が変更されたかどうかを判断する。ポインタ位置が変更されていれば(ステップS1304=Y)、図12(c)に示すように地図の縮尺を変更して処理を終了する。一方、ポインタ位置の変更が無ければ(ステップS1304=N)、縮尺を変更せずに処理を終了する。   As shown in FIG. 12A, when the user touches the pointer 122 with the shadow of the fingertip (step S1302 = Y), it is considered that the scroll operation has started. At this time, as shown in FIG. 12B, the user slides the pointer 122 on the scroll bar 121 and designates a desired scale. Subsequently, in step S1303, it is periodically determined whether or not the shadow of the fingertip has moved away from the pointer 122. When the shadow of the fingertip has moved away from the pointer (step S1303 = Y), it is determined whether or not the position of the pointer has been changed. If the pointer position has been changed (step S1304 = Y), the scale of the map is changed as shown in FIG. On the other hand, if the pointer position is not changed (step S1304 = N), the process is terminated without changing the scale.

(手の影を画面上で動かす動作)
ここでは、手の影を画面上で動かすユーザの動作を検出するケースについて記述する。この動作を適用できる例として、ユーザが画面に表示された地図をスクロールしたい場合がある。ここでは、ユーザは画面上で手を右から左に動かす動作をすることで地図を左にスクロールさせる。
(Move the hand shadow on the screen)
Here, a case where a user's motion of moving a hand shadow on the screen is detected will be described. As an example to which this operation can be applied, there is a case where the user wants to scroll a map displayed on the screen. Here, the user scrolls the map to the left by moving the hand from the right to the left on the screen.

画面上に地図が表示されている時に、図14(a)に示すように、ユーザは指を伸ばした手でレーザー光を遮って、影が画面上に投影されるようにする。続いて、画面をスクロールしたい方向に手を払う動作をする。この例では、ユーザが手の影を左上方向に動かすことによって、図14(b)に示すように、地図も左上にスクロールされる。   When a map is displayed on the screen, as shown in FIG. 14A, the user blocks the laser beam with a hand with his / her finger extended so that a shadow is projected on the screen. Next, the user moves his hand in the direction of scrolling the screen. In this example, when the user moves the shadow of the hand in the upper left direction, the map is also scrolled to the upper left as shown in FIG.

(手を特定の形状にする動作)
ここでは、特定の手の形状と操作内容が対応付けられている時に、手をその形状にするユーザの動作を検出するケースについて記述する。
(Operation to make the hand a specific shape)
Here, a case will be described in which when a specific hand shape is associated with an operation content, a user's action for making the hand a shape is detected.

図15(a)には、カーナビゲーション装置やカーオーディオの音量アップ、エアコンの温度上昇など、何らかの数値を上昇させるケースで利用できる手の形状を示す。ユーザは、図示したように手を握って親指だけを上に向け、手を振ることにより動作検出装置に操作内容を伝える。   FIG. 15A shows the shape of a hand that can be used in cases where some numerical value is increased, such as increasing the volume of a car navigation device or car audio, or increasing the temperature of an air conditioner. As shown in the figure, the user conveys the operation content to the motion detection device by holding his hand, turning his thumb up, and shaking his hand.

図15(b)には、ユーザが了承を与える際の手の形状を示す。例えば図示したように「よろしいですか?」と承認を求めるダイアログが表示された時に、ユーザは親指と人差し指で輪を作って了承の意図を伝える。   FIG. 15B shows the shape of the hand when the user gives consent. For example, as shown in the figure, when a dialog requesting approval is displayed as “Are you sure?”, The user creates a ring with the thumb and index finger to convey the intention of approval.

(本発明の適用範囲)
以上の実施形態では車両に搭載されたカーナビゲーション装置について述べたが、実際はこれに限定されるものではない。例えばエアコンやオーディオなど、ユーザの指示に応じて機能を発揮するような各種の装置についても使用できる。
(Applicability of the present invention)
Although the car navigation device mounted on the vehicle has been described in the above embodiment, the present invention is not limited to this. For example, it can also be used for various devices such as an air conditioner and an audio device that perform functions according to user instructions.

また、動作検出装置および操作システムは車両に搭載されるとは限らず、例えば家屋に設置して家電機器などに適用することも可能である。   In addition, the motion detection device and the operation system are not necessarily mounted on a vehicle, and can be installed in a house and applied to home appliances, for example.

実施形態1の操作システムの構成を示すブロック図。FIG. 2 is a block diagram illustrating a configuration of an operation system according to the first embodiment. 実施形態1の処理のフローチャート。5 is a flowchart of processing according to the first embodiment. 影に基づいてユーザの動作を検出する処理のフローチャート。The flowchart of the process which detects a user's operation | movement based on a shadow. 実施形態1のスクリーン撮影画像の遷移を示す図。FIG. 4 is a diagram illustrating transition of a screen shot image according to the first embodiment. 実施形態2の操作システムの構成を示すブロック図。FIG. 4 is a block diagram illustrating a configuration of an operation system according to a second embodiment. 実施形態2の処理のフローチャート。10 is a flowchart of processing according to the second embodiment. 手に映った画像に基づいてユーザの動作を検出する処理のフローチャート。The flowchart of the process which detects a user's operation | movement based on the image shown in the hand. 実施形態2の処理を説明する画像。9 is an image for explaining processing of the second embodiment. 実施形態4の操作システムの構成を示すブロック図。FIG. 9 is a block diagram illustrating a configuration of an operation system according to a fourth embodiment. 実施形態4の処理のフローチャート。10 is a flowchart of processing according to the fourth embodiment. 実施形態4の次回投影明度決定処理のフローチャート。10 is a flowchart of a next projection brightness determination process according to the fourth embodiment. 地図の縮尺を変更するユーザの動作を示す図。The figure which shows the operation | movement of the user who changes the scale of a map. 地図の縮尺を変更するユーザの動作を示すフローチャート。The flowchart which shows a user's operation | movement which changes the reduced scale of a map. 地図をスクロールするユーザの動作を示す図。The figure which shows the operation | movement of the user who scrolls a map. 特定の手の形状と対応付けられた操作内容を示す図。The figure which shows the operation content matched with the shape of a specific hand.

符号の説明Explanation of symbols

1 レーザープロジェクタ
2 スクリーン
3 スクリーン撮影用カメラ
4 動作検出部
6 画像作成部
7 ユーザ撮影用カメラ
8 基準マーカ
DESCRIPTION OF SYMBOLS 1 Laser projector 2 Screen 3 Camera for screen photography 4 Motion detection part 6 Image preparation part 7 Camera for user photography 8 Reference marker

Claims (7)

所定の領域を撮影し、撮影した動画像からユーザの動作を検出する動作検出装置であって、
スクリーンと、
レーザー光を用いて前記スクリーンに画像を投影する投影部と、
前記スクリーンを撮影してスクリーン撮影画像を取得するスクリーン撮影手段を有する撮影部と、
前記スクリーン撮影画像においてレーザー光が遮られた領域である遮断領域の位置情報に基づいてユーザの動作を検出する動作検出部と
を備えることを特徴とする動作検出装置。
A motion detection device that captures a predetermined area and detects a user's motion from the captured moving image,
Screen,
A projection unit that projects an image on the screen using laser light;
A photographing unit having a screen photographing unit for photographing the screen and obtaining a screen photographed image;
An operation detection apparatus comprising: an operation detection unit configured to detect a user's operation based on position information of a blocking area that is an area where laser light is blocked in the screen shot image.
前記動作検出部は、前記遮断領域の位置情報の経時的な変化に基づいてユーザの動作を検出する
ことを特徴とする請求項1に記載の動作検出装置。
The motion detection apparatus according to claim 1, wherein the motion detection unit detects a user's motion based on a change with time of position information of the blocking area.
前記撮影部は、レーザー光の光路を前記投影部の側から撮影してユーザ撮影画像を取得するユーザ撮影手段を有し、
前記動作検出部は、前記ユーザ撮影画像中にユーザの身体がレーザー光の光路を遮った部分があれば、ユーザの身体に投影された画像を検出し、その画像にも基づいてユーザの動作を検出する
ことを特徴とする請求項1または2に記載の動作検出装置。
The photographing unit has a user photographing unit that obtains a user-captured image by photographing an optical path of laser light from the projection unit side,
The motion detection unit detects an image projected on the user's body if there is a portion of the user's captured image where the user's body blocks the optical path of the laser beam, and performs the user's motion based on the image. The motion detection device according to claim 1, wherein the motion detection device is detected.
前記撮影部は、前記スクリーンの近傍におけるユーザの手の動きを撮影して三次元撮影画像を取得する三次元撮影手段を有し、
前記動作検出部は、前記三次元撮影画像にも基づいてユーザの動作を検出する
ことを特徴とする請求項1〜3のいずれか1項に記載の動作検出装置。
The photographing unit includes a three-dimensional photographing unit that obtains a three-dimensional photographed image by photographing the movement of the user's hand in the vicinity of the screen,
The motion detection apparatus according to claim 1, wherein the motion detection unit detects a user motion based also on the three-dimensional captured image.
前記投影部が投影する画像には、前記投影部によって、所定の明度を持つ領域である基準マーカが少なくとも1つ設けられており、
前記動作検出部が前記遮断領域の存在を認識できなかった場合、前記動作検出部は、前記スクリーン撮影画像中での基準マーカの明度を投影時の基準マーカの明度と比較し、前記スクリーン撮影画像において画像全体の明度が所定の値よりも低いと判断した場合、画像全体の明度を高くして投影を行う
ことを特徴とする請求項1〜4のいずれか1項に記載の動作検出装置。
The image projected by the projection unit is provided with at least one reference marker that is a region having a predetermined brightness by the projection unit,
When the motion detection unit cannot recognize the presence of the blocking area, the motion detection unit compares the brightness of the reference marker in the screen shot image with the brightness of the reference marker at the time of projection, and the screen shot image 5. The motion detection device according to claim 1, wherein, when it is determined that the brightness of the entire image is lower than a predetermined value, the brightness of the entire image is increased to perform projection.
請求項1〜5のいずれか1項に記載の動作検出装置と、
前記動作検出装置によって検出されたユーザの動作に応じた処理を実行する情報処理部と
を備えることを特徴とする操作システム。
The motion detection device according to any one of claims 1 to 5,
An operation system comprising: an information processing unit that executes a process according to a user action detected by the action detection device.
前記操作システムは車両に搭載されており、
前記情報処理部はカーナビゲーション装置の制御を行う
ことを特徴とする請求項6に記載の操作システム。
The operation system is mounted on a vehicle,
The operation system according to claim 6, wherein the information processing unit controls a car navigation device.
JP2008291119A 2008-11-13 2008-11-13 Motion detection apparatus and operation system Withdrawn JP2010117917A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008291119A JP2010117917A (en) 2008-11-13 2008-11-13 Motion detection apparatus and operation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008291119A JP2010117917A (en) 2008-11-13 2008-11-13 Motion detection apparatus and operation system

Publications (1)

Publication Number Publication Date
JP2010117917A true JP2010117917A (en) 2010-05-27

Family

ID=42305550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008291119A Withdrawn JP2010117917A (en) 2008-11-13 2008-11-13 Motion detection apparatus and operation system

Country Status (1)

Country Link
JP (1) JP2010117917A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010179700A (en) * 2009-02-03 2010-08-19 Toyota Infotechnology Center Co Ltd Image display apparatus, motion detection apparatus, and operating system
KR101200009B1 (en) * 2011-01-25 2012-11-12 연세대학교 산학협력단 Presentation system for providing control function using user's hand gesture and method thereof
KR101327052B1 (en) 2012-10-16 2013-11-08 이화여자대학교 산학협력단 Method for comparing shadow image and terminal thereof
KR101334585B1 (en) 2012-05-29 2013-12-05 주식회사 브이터치 Remote control apparatus and method for virtual touch using displaying information of projector
KR101434173B1 (en) * 2012-11-02 2014-09-23 (주) 코콤 Apparatus for virtual user interface of wall pad and method thereof
JP2015087159A (en) * 2013-10-29 2015-05-07 トヨタ車体株式会社 On-vehicle navigation system
JP2015125670A (en) * 2013-12-27 2015-07-06 日立マクセル株式会社 Image projector
WO2018207235A1 (en) * 2017-05-08 2018-11-15 株式会社ネットアプリ Input/output system, screen set, input/output method, and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010179700A (en) * 2009-02-03 2010-08-19 Toyota Infotechnology Center Co Ltd Image display apparatus, motion detection apparatus, and operating system
KR101200009B1 (en) * 2011-01-25 2012-11-12 연세대학교 산학협력단 Presentation system for providing control function using user's hand gesture and method thereof
KR101334585B1 (en) 2012-05-29 2013-12-05 주식회사 브이터치 Remote control apparatus and method for virtual touch using displaying information of projector
KR101327052B1 (en) 2012-10-16 2013-11-08 이화여자대학교 산학협력단 Method for comparing shadow image and terminal thereof
KR101434173B1 (en) * 2012-11-02 2014-09-23 (주) 코콤 Apparatus for virtual user interface of wall pad and method thereof
JP2015087159A (en) * 2013-10-29 2015-05-07 トヨタ車体株式会社 On-vehicle navigation system
JP2015125670A (en) * 2013-12-27 2015-07-06 日立マクセル株式会社 Image projector
WO2018207235A1 (en) * 2017-05-08 2018-11-15 株式会社ネットアプリ Input/output system, screen set, input/output method, and program

Similar Documents

Publication Publication Date Title
US11470377B2 (en) Display apparatus and remote operation control apparatus
US9400562B2 (en) Image projection device, image projection system, and control method
JP4897939B2 (en) Gesture recognition device and gesture recognition method
JP2010117917A (en) Motion detection apparatus and operation system
US10203594B2 (en) Projector
CN105229582B (en) Gesture detection based on proximity sensor and image sensor
WO2009116285A1 (en) Operation input device for vehicle
JP5638896B2 (en) Display control program, display control device, display control system, and display control method
JP5732218B2 (en) Display control program, display control device, display control system, and display control method
JP5691802B2 (en) Projection system, projection apparatus, projection method, and control program
JP5077774B2 (en) Vehicle operation input device
JP2010122879A (en) Terminal device, display control method, and display control program
US9529422B2 (en) Image display and photographing system, photographing device, display device, image display and photographing method, and computer-readable storage medium for computer program
US20120019460A1 (en) Input method and input apparatus
JP5553546B2 (en) Image projection apparatus and control method thereof
JP5257779B2 (en) Display method, display device, and operation input device
KR20180097917A (en) Electronic apparatus and method for controlling thereof
JP2016038621A (en) Space input system
CN107924272B (en) Information processing apparatus, information processing method, and program
JP2023053972A (en) Display control device, display control method and display control program
WO2014181587A1 (en) Portable terminal device
US20150042621A1 (en) Method and apparatus for controlling 3d object
JP6696357B2 (en) Pointer control system and pointer control program
JP2018063521A (en) Display control system and display control program
JP5773036B2 (en) Projection system, projection apparatus, projection method, and control program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120207