JP2016018448A - Input device and its control method and control program, and input system - Google Patents
Input device and its control method and control program, and input system Download PDFInfo
- Publication number
- JP2016018448A JP2016018448A JP2014141653A JP2014141653A JP2016018448A JP 2016018448 A JP2016018448 A JP 2016018448A JP 2014141653 A JP2014141653 A JP 2014141653A JP 2014141653 A JP2014141653 A JP 2014141653A JP 2016018448 A JP2016018448 A JP 2016018448A
- Authority
- JP
- Japan
- Prior art keywords
- face
- inclination
- input
- user
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、ユーザからの入力を受け付け、該入力に基づく入力情報を情報処理装置に送信する入力装置およびその制御方法、制御プログラム、並びに入力システムに関する。 The present invention relates to an input device that receives input from a user and transmits input information based on the input to an information processing device, a control method therefor, a control program, and an input system.
従来のテレビジョン(TV)受信機、ゲーム機などの外部装置を操作するリモートコントローラ(リモコン)には、英数字のボタン、矢印ボタンなどの各種ボタンが基台に設けられている。該各種ボタンをユーザが操作することにより、上記TV受信機、上記ゲーム機に接続されたディスプレイなどの表示装置の表示が制御される。 A conventional remote controller (remote controller) for operating an external device such as a television (TV) receiver or a game machine is provided with various buttons such as alphanumeric buttons and arrow buttons on a base. When the user operates the various buttons, display of a display device such as a display connected to the TV receiver or the game machine is controlled.
近年、加速度センサなどのモーションセンサを備えたリモコン(以下「モーション型リモコン」と称する。)が市販されている。例えば、特許文献1に記載のゲームシステムでは、コントローラに加速度センサが設けられ、該加速度センサにより上記コントローラの傾きが検知され、検知された傾きにより、表示装置の画面上のオブジェクトを回転させている。このように、モーション型リモコンを利用することにより、直感的な操作が可能となり、表示装置の表示制御が容易となる。 In recent years, remote controllers equipped with motion sensors such as acceleration sensors (hereinafter referred to as “motion type remote controllers”) are commercially available. For example, in the game system described in Patent Document 1, an acceleration sensor is provided in the controller, the inclination of the controller is detected by the acceleration sensor, and an object on the screen of the display device is rotated by the detected inclination. . In this way, by using the motion type remote controller, an intuitive operation is possible, and display control of the display device is facilitated.
ユーザが上記モーション型リモコンの把持形態を変更すれば、該リモコンの向きが変化して、上記モーションセンサの検出値が変化する場合がある。この場合、上記ユーザが上記リモコンを同じように操作しても、該リモコンの把持形態が異なれば、表示装置における表示制御(操作結果)が異なることになる。そこで、従来は、上記リモコンの把持形態を予め規定していた。 If the user changes the grip type of the motion type remote controller, the direction of the remote controller may change, and the detection value of the motion sensor may change. In this case, even if the user operates the remote controller in the same manner, the display control (operation result) on the display device will be different if the gripping form of the remote controller is different. Therefore, conventionally, the grip form of the remote controller has been defined in advance.
また、ユーザは、両目により空間を認識する。従って、上記ユーザの顔の基準線の例としては、上記両目の間を通る顔の正中線、両目の配列方向を示す直線(以下、「目のアライメント」と称する。)、目のアライメントに略平行な直線である、両耳の配列方向を示す直線(以下、「耳のアライメント」と称する。)が挙げられる。ここで、顔の正中線とは、顔を左右に等分する縦の線をいう。 Further, the user recognizes the space with both eyes. Accordingly, examples of the reference line of the user's face include a median line of the face passing between the eyes, a straight line indicating the arrangement direction of the eyes (hereinafter referred to as “eye alignment”), and eye alignment. A straight line indicating the arrangement direction of both ears, which is a parallel straight line (hereinafter referred to as “ear alignment”). Here, the midline of the face refers to a vertical line that equally divides the face left and right.
一方、表示装置は、通常、画面における隣接する2辺の一方が鉛直線に沿い、他方が水平線に沿うように配置される。従って、上記表示装置の基準線の例としては、鉛直線および水平線が挙げられる。上記ユーザの基準線に対する操作が、上記画面の基準線に対する操作結果となる。 On the other hand, the display device is usually arranged so that one of two adjacent sides on the screen is along a vertical line and the other is along a horizontal line. Accordingly, examples of the reference line of the display device include a vertical line and a horizontal line. The operation on the reference line of the user is the operation result on the reference line of the screen.
このとき、ユーザが姿勢を変更すれば、ユーザの基準線(例えば顔の正中線)が変化して、画面の基準線(例えば鉛直線)から傾斜する場合がある。この場合、ユーザが予想する画面の操作結果が、実際の画面の操作結果から傾斜することになる。そこで、従来は、上記ユーザの姿勢を予め規定していた。 At this time, if the user changes his / her posture, the user's reference line (for example, the midline of the face) may change and tilt from the reference line (for example, the vertical line) on the screen. In this case, the operation result of the screen expected by the user is inclined from the actual operation result of the screen. Therefore, conventionally, the posture of the user has been defined in advance.
本発明は、上記の問題点に鑑みてなされたものであり、その目的は、入力装置の向きおよびユーザの姿勢に依存することなく、同じ操作で同じ入力情報を作成できる入力装置などを提供することにある。 The present invention has been made in view of the above problems, and an object thereof is to provide an input device that can create the same input information by the same operation without depending on the orientation of the input device and the posture of the user. There is.
本発明の一態様に係る入力装置は、ユーザからの入力を受け付け、該入力に基づく入力情報を情報処理装置に送信する入力装置であって、上記の課題を解決するために、撮影を行う撮影部と、前記撮影による撮影画像に含まれる前記ユーザの顔画像に対し顔認識を行って、自装置に対する前記顔の基準線の傾きである顔傾きを検知する顔傾き検知手段と、ユーザによる自装置の操作の動きである操作動きを検知する操作動き検知手段と、該操作動き検知手段が検知した操作動きを、前記顔傾き検知手段が検知した顔傾きを用いて、前記顔の基準線に対する操作動きに回転変換する回転変換手段と、該回転変換手段が回転変換した操作動きに基づく前記入力情報を作成する入力情報作成手段と、を備えることを特徴としている。 An input apparatus according to an aspect of the present invention is an input apparatus that receives input from a user and transmits input information based on the input to an information processing apparatus, and performs imaging to solve the above-described problem. A face inclination detecting means for performing face recognition on the face image of the user included in the photographed image obtained by the photographing and detecting a face inclination that is an inclination of the reference line of the face with respect to the own device, An operation movement detecting means for detecting an operation movement that is an operation movement of the apparatus, and an operation movement detected by the operation movement detecting means with respect to the reference line of the face by using the face inclination detected by the face inclination detecting means. It is characterized by comprising rotation conversion means for rotationally converting to an operation motion, and input information creating means for creating the input information based on the operation motion rotationally converted by the rotation conversion means.
また、本発明の別の態様に係る表示システムは、ユーザからの入力を受け付ける入力装置と、該入力に基づく入力情報を前記入力装置から受信する情報処理装置とを備える入力システムであって、上記課題を解決するために、鉛直線に対する前記ユーザの顔の基準線の傾きである顔傾きを検知する顔傾き検知手段と、前記加速度センサの検出結果から前記鉛直線に対する前記入力装置の傾きである装置傾きを検知する装置傾き検知手段と、ユーザによる前記入力装置の操作動きを検知する操作動き検知手段と、該操作動き検知手段が検知した操作動きを、前記顔傾き検知手段および前記装置傾き検知手段がそれぞれ検知した顔傾きおよび装置傾きを用いて、前記顔の基準線に対する操作動きに回転変換する回転変換手段と、を備え、前記情報処理装置は、前記回転変換手段が回転変換した操作動きを、自装置の基準線に対する操作動きとして、該操作動きに基づき処理を行うことを特徴としている。 A display system according to another aspect of the present invention is an input system including an input device that receives an input from a user, and an information processing device that receives input information based on the input from the input device. In order to solve the problem, the inclination of the input device relative to the vertical line from the detection result of the acceleration sensor and the face inclination detection means for detecting the face inclination which is the inclination of the reference line of the user's face with respect to the vertical line An apparatus inclination detecting means for detecting an apparatus inclination, an operation movement detecting means for detecting an operation movement of the input device by a user, and an operation movement detected by the operation movement detecting means, the face inclination detecting means and the apparatus inclination detecting Rotation conversion means for rotating and converting the operation motion relative to the reference line of the face using the face inclination and the device inclination detected by the means, respectively, Management device, an operation movement which the rotation conversion unit has rotational transformation as the operation movement relative to the reference line of the apparatus is characterized by performing processing based on the manipulation motion.
また、本発明の別の態様に係る入力装置の制御方法は、ユーザからの入力を受け付け、該入力に基づく入力情報を情報処理装置に送信する入力装置の制御方法であって、上記課題を解決するために、撮影部による撮影画像に含まれる前記ユーザの顔画像に対し顔認識を行って、自装置に対する前記顔の基準線の傾きである顔傾きを検知する顔傾き検知ステップと、ユーザによる自装置の操作の動きである操作動きを検知する操作動き検知ステップと、該操作動き検知ステップにて検知された操作動きを、前記顔傾き検知ステップにて検知された顔傾きを用いて、前記顔の基準線に対する操作動きに回転変換する回転変換ステップと、該回転変換ステップにて回転変換された操作動きに基づく前記入力情報を作成する入力情報作成ステップと、を含むことを特徴としている。 An input device control method according to another aspect of the present invention is a control method for an input device that receives input from a user and transmits input information based on the input to an information processing device. In order to do so, a face inclination detection step of performing face recognition on the face image of the user included in the photographed image by the photographing unit and detecting a face inclination which is an inclination of the reference line of the face with respect to the own device; An operation movement detection step for detecting an operation movement that is an operation movement of the device itself, and an operation movement detected in the operation movement detection step, using the face inclination detected in the face inclination detection step, A rotation conversion step for rotationally converting the operation motion relative to the reference line of the face; an input information creation step for creating the input information based on the operation motion rotationally converted in the rotation conversion step; It is characterized in that it comprises.
本発明の一態様によれば、入力装置の向きおよびユーザの姿勢に依存することなく、同じ操作で同じ入力情報を作成できるという効果を奏する。 According to one aspect of the present invention, there is an effect that the same input information can be created by the same operation without depending on the orientation of the input device and the posture of the user.
以下、本発明の実施の形態について詳細に説明する。なお、説明の便宜上、各実施形態に示した部材と同一の機能を有する部材については、同一の符号を付記し、適宜その説明を省略する。 Hereinafter, embodiments of the present invention will be described in detail. For convenience of explanation, members having the same functions as those shown in the embodiments are denoted by the same reference numerals, and description thereof is omitted as appropriate.
〔実施形態1〕
まず、本発明の一実施形態について図1〜図4を参照して説明する。
Embodiment 1
First, an embodiment of the present invention will be described with reference to FIGS.
(入力システムの概要)
図2は、本実施形態に係る入力システムの概要を示す図である。図示のように、本実施形態の入力システム1は、表示装置(情報処理装置)10と携帯端末(入力装置)20とを備える構成である。なお、以下では、個々の携帯端末を示す場合には、携帯端末20a、携帯端末20b、などと記載し、携帯端末を総称する場合には携帯端末20と記載する。また、個々のユーザを示す場合には、ユーザUa、ユーザUb、などと記載し、ユーザを総称する場合にはユーザUと記載する。なお、その他も同様である。
(Overview of input system)
FIG. 2 is a diagram showing an overview of the input system according to the present embodiment. As shown in the figure, the input system 1 of the present embodiment is configured to include a display device (information processing device) 10 and a portable terminal (input device) 20. In the following, when each mobile terminal is shown, it is described as a
表示装置10は、放送局、インターネット、録画装置などの外部装置からコンテンツを受信し、受信したコンテンツを画面11に表示するものである。表示装置10の例としては、TV受信機が挙げられる。
The
携帯端末20は、ユーザUが携帯可能な通信端末である。携帯端末20の例としては、携帯電話機、スマートフォン、タブレット型端末、PDA(Personal Digital Assistant)、ノート型PC(Personal Computer)、PHS(Personal Handyphone System)端末などが挙げられる。本実施形態では、携帯端末20は、ユーザUの操作に基づき、表示装置10を遠隔操作するリモコンとして機能する。
The
図3は、図2に示される表示装置10(画面11)、携帯端末20、およびユーザUのローカル座標系を示している。図3の(a)に示すように、表示装置10のローカル座標系では、水平方向をxd軸に、垂直方向(鉛直方向の逆向き)をyd軸に、前後方向をzd軸にそれぞれとっている。また、同図の(b)に示すように、携帯端末20のローカル座標系では、短手方向をxt軸に、長手方向をyt軸に、前後方向をzt軸にそれぞれとっている。そして、同図の(c)に示すように、ユーザUのローカル座標系では、目のアライメントの方向をxf軸に、正中線MLの方向をyf軸に、前後方向をzf軸にそれぞれとっている。なお、本実施形態では、説明の便宜上、zd軸、zt軸、およびzf軸は方向が同じとする。
FIG. 3 shows the local coordinate system of the display device 10 (screen 11), the
本実施形態では、携帯端末20は、携帯端末20の3軸方向(xt、yt、zt)の加速度を検出する加速度センサ30(図1を参照)を備えている。携帯端末20は、加速度センサ30を用いて、携帯端末20に働く重力の方向(鉛直方向)と、携帯端末20の3軸方向の移動量(動き、移動ベクトル)とを検知する。そして、携帯端末20は、検知した鉛直方向を用いて、表示装置10の垂直方向(yd軸)に対する携帯端末20の長手方向(yt軸)の傾き(以下「端末傾き」と称する。)θ1を検知する。
In the present embodiment, the
また、携帯端末20には、図3に示すように、撮影を行って、撮影画像を作成する撮影部24(図1・図3を参照)が、表示部26の画面の側に設けられている。また、携帯端末20は、作成した撮影画像に対し顔認識を行って、撮影画像に含まれるユーザUの顔の正中線MLを検知する。なお、上記顔認識の処理には公知のものを利用できるので、その説明を省略する。
Further, as shown in FIG. 3, the
また、携帯端末20は、検知した正中線MLを用いて、携帯端末20の長手方向(yt軸)に対するユーザUの正中線MLの方向(yf軸)の傾き(以下、「顔傾き」と称する。)θ2を検知する。なお、携帯端末20は、検知した正中線MLおよび上記鉛直方向を用いて、表示装置10の垂直方向(yd軸)に対するユーザUの正中線MLの方向(yf軸)の傾きθ2’を検知してもよい。
In addition, the
ここで、或る直線に対する別の直線の傾きθの算出方法について説明する。上記或る直線の傾きを示す単位ベクトルをベクトルa=(a1,a2)とし、上記別の直線の傾きを示す単位ベクトルをベクトルb=(b1,b2)とすると、上記傾きθ(0≦θ≦180°)は次式(1)で求めることができる。 Here, a method of calculating the inclination θ of another straight line with respect to a certain straight line will be described. When the unit vector indicating the slope of the certain straight line is vector a = (a1, a2) and the unit vector indicating the slope of the other straight line is vector b = (b1, b2), the slope θ (0 ≦ θ ≦ 180 °) can be obtained by the following equation (1).
そして、携帯端末20は、回転変換した、正中線MLに対する自装置の移動ベクトルを、表示装置10の垂直方向(yd軸)に対する移動ベクトルとし、該移動ベクトルに従って表示装置10の画面11上のオブジェクトAを移動するように指示する。これにより、ユーザUにとって同じ動きで、同じ指示を行うことができる。なお、オブジェクトAの例としては、カーソル、アバターなどが挙げられる。
Then, the
なお、携帯端末20は、作成した撮影画像からユーザUの顔の画像を認識できなかった場合、或いは、検知した顔傾きθ2=0である場合には、検知した自装置の移動ベクトルmを、検知した装置傾きθ1を用いて、表示装置10の垂直方向(yd軸)に対する移動ベクトルに回転変換する。そして、携帯端末20は、回転変換した、表示装置10の垂直方向(yd軸)に対する自装置の移動ベクトルに従って表示装置10の画面11上のオブジェクトAを移動するように指示する。これにより、携帯端末20の傾きに依存しない指示を行うことができる。
When the
本実施形態による動作例について説明する。図2にて移動ベクトルmで示されるように、ユーザUは、携帯端末20を正中線MLに平行な方向に移動操作していると仮定する。
An operation example according to the present embodiment will be described. As shown by the movement vector m in FIG. 2, it is assumed that the user U is moving the
左側のユーザUaは、直立した状態であり、携帯端末20aを表示装置10の垂直方向(yd軸)に把持している。この場合、携帯端末20aの長手方向(yt軸)とユーザUaの正中線(yf軸)とが、表示装置10の垂直方向(yd軸)と一致している。すなわち、端末傾きθ1=0°であり、顔傾きθ2=0°である。
The user Ua on the left side is in an upright state, holding the
従って、上記の回転変換は不要であるので、携帯端末20aは、検知した自装置の移動ベクトルmに従って表示装置10の画面11上のオブジェクトAを移動するように指示する。これにより、表示装置10の画面11上のオブジェクトAは、垂直方向(yd軸)に平行な方向に移動する。
Therefore, since the rotation conversion described above is unnecessary, the
一方、中央のユーザUbは、斜め横になった状態であり、携帯端末20bを表示装置10の垂直方向(yd軸)から45°傾けた状態で把持している。さらに、携帯端末20bは、ユーザUbの顔から離間しているため、作成した撮影画像にはユーザUbの顔の画像が含まれていないとする。この場合、端末傾きθ1=45°であり、顔傾きθ2は検知されない。
On the other hand, the user Ub at the center is in a state of being inclined sideways and holding the mobile terminal 20b in a state inclined by 45 ° from the vertical direction (yd axis) of the
従って、携帯端末20bは、検知した自装置の移動ベクトルmを、端末傾きθ1=45°だけ回転させて、表示装置10の垂直方向(yd軸)に対する移動ベクトルに変換し、変換した移動ベクトルに従って表示装置10の画面11上のオブジェクトAを移動するように指示する。これにより、表示装置10の画面11上のオブジェクトAは、垂直方向(yd軸)に平行な方向に移動する。
Accordingly, the portable terminal 20b rotates the detected movement vector m of the own apparatus by rotating the terminal inclination θ1 = 45 ° into a movement vector with respect to the vertical direction (yd axis) of the
一方、右側のユーザUcは、横になった状態であり、顔が表示装置10の垂直方向(yd軸)から30°傾いており、かつ、携帯端末20cを表示装置10の垂直方向(yd軸)から45°傾けて把持している。ユーザUcの顔平面と携帯端末20cの画面平面が平行であると仮定すると、端末傾きθ1=45°であり、顔傾きθ2=45°−30°=15°となる。
On the other hand, the user Uc on the right side is in a lying state, the face is inclined by 30 ° from the vertical direction (yd axis) of the
従って、携帯端末20cは、検知した自装置の移動ベクトルmを、顔傾きθ2=15°だけ回転させて、ユーザUcの正中線(yf軸)に対する移動ベクトルに変換する。変換された移動ベクトルは、上記仮定のように、正中線(yf軸)に平行な方向となる。次に、携帯端末20は、変換した移動ベクトルを、表示装置10垂直方向(yd軸)に対する移動ベクトルとし、該移動ベクトルに従って表示装置10の画面11上のオブジェクトAを移動するように指示する。当該移動ベクトルは、表示装置10垂直方向(yd軸)に平行な方向であるので、表示装置10の画面11上のオブジェクトAは、垂直方向(yd軸)に平行な方向に移動する。
Accordingly, the
(入力システムの詳細)
図1は、入力システム1の概略構成を示すブロック図である。図示のように、表示装置10は、コンテンツ受信部12、コンテンツ解析部13、通信部14、表示制御部15、および表示部16を備える構成である。
(Details of input system)
FIG. 1 is a block diagram showing a schematic configuration of the input system 1. As illustrated, the
外部装置からの1または複数のコンテンツは、コンテンツ受信部12にて受信され、コンテンツ解析部13にて解析され、該解析結果に基づき、表示部16に表示するように表示制御部15にて制御される。また、携帯端末20からの操作データは、通信部14にて受信され、受信された操作データに基づき、上記コンテンツの位置を変更した上で当該コンテンツを表示部16に表示するように表示制御部15にて制御される。このように、本実施形態における表示装置10は、公知のものと同様である。
One or more contents from the external device are received by the
一方、携帯端末20は、制御部21、記憶部22、モーションセンサ23、撮影部24、入力部25、表示部26、および通信部27を備える構成である。
On the other hand, the
制御部21は、携帯端末20内の各種構成を統括的に制御するものであり、CPU(Central Processing Unit)などのプロセッサを備える構成である。記憶部22は、各種のデータおよびプログラムを記憶するものであり、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリなどの記憶素子を備える構成である。なお、制御部21の詳細については後述する。
The
モーションセンサ23は、携帯端末20の動きを検出するものである。モーションセンサ23は、検出データを制御部21に送信する。本実施形態では、モーションセンサ23は、上述の加速度センサ30を備えている。なお、モーションセンサ23は、携帯端末20の3軸方向の角速度を検出するジャイロセンサを備えてもよいし、地磁気を検出する地磁気センサを備えてもよい。上記ジャイロセンサにより、携帯端末20の3軸方向の回転量(回転ベクトル)を検出することができ、上記地磁気センサにより、携帯端末20の方位を検出することができる。
The
撮影部24は、上述のように、被写体の撮影を行って、静止画および動画といった撮影画像を作成するものであり、例えば、レンズなどの光学系と、外部から上記光学系を介しての光を電気信号に変換する撮像素子とを備えている。該撮像素子の例としては、CCD(Charge Coupled Device)、CMOS(Complementary Metal-oxide Semiconductor)イメージセンサなどが挙げられる。撮影部24は、作成した撮影画像のデータを制御部21に送信する。なお、上記撮影画像は、カラー画像でもよいし、白黒画像でもよいし、赤外線画像でもよい。また、撮影部24は、ユーザの顔に自動的に焦点が合うように、オートフォーカス機構を有することが望ましい。
As described above, the photographing
入力部25は、携帯端末20の表面に設けられた操作ボタンなどの入力デバイスをユーザが操作することにより、入力データを作成して制御部21に送信するものである。入力デバイスの例としては、ボタンスイッチの他にタッチパネルなどが挙げられる。
The
表示部26は、制御部21から画像データを受信し、受信した画像データに基づいて表示画面に画像を表示するものである。具体的には、表示部26は、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、EL(Electroluminescence)ディスプレイ、電子ペーパなどの表示素子と、受信した画像データに基づいて表示素子を駆動するドライバ回路とを備える構成である。
The
通信部27は、制御部21から受信したデータを無線送信に適した形式に変換し、変換した無線信号を、アンテナ(図示せず)を介して外部に送信すると共に、外部から上記アンテナを介して受信した無線信号を元の形式に変換し、変換したデータを制御部21に送信するものである。具体的には、通信部27では、データの変復調処理、RF処理などが行われる。
The
本実施形態では、通信部27は、無線LAN、ブルートゥース(登録商標)などにより、表示装置10と近距離無線通信を行うものであるが、これに限定されるものではない。例えば、通信部27は、携帯電話回線およびインターネットを介して表示装置10と無線通信を行ってもよいし、赤外線を利用して表示装置10と無線通信を行ってもよい。また、通信部27は、ケーブルなどを利用して表示装置10と有線通信を行ってもよい。
In the present embodiment, the
次に、携帯端末20における制御部21および記憶部22の詳細について説明する。図1に示すように、制御部21は、端末傾き検知部(装置傾き検知手段)31、顔傾き検知部(顔傾き検知手段)32、動き検知部(操作動き検知手段)33、回転変換部(回転変換手段)34、および操作データ作成部(入力情報作成手段)35を備える構成である。
Next, details of the
端末傾き検知部31は、加速度センサ30からの検出データに基づいて、上述の端末傾きθ1を検知するものである。端末傾き検知部31は、検知した端末傾きθ1を回転変換部34に送信する。
The terminal
顔傾き検知部32は、撮影部24からの撮影画像のデータを用いて、顔認識を行い、上述の顔傾きθ2を検知するものである。顔傾き検知部32は、検知した顔傾きθ2を回転変換部34に送信する。このとき、上記顔認識ができなかった場合、顔傾き検知部32は、その旨を回転変換部34に通知する。
The face
動き検知部33は、モーションセンサ23からの検出データに基づいて、自端末の動きを、ユーザによる自端末の操作の動きとして検知するものである。動き検知部33は、検知した動きを示す動きベクトルを回転変換部34に送信する。
Based on the detection data from the
回転変換部34は、動き検知部33からの動きベクトルを、上述の条件に基づき、端末傾き検知部31からの端末傾きθ1、または、顔傾き検知部32からの顔傾きθ2を用いて回転変換するものである。回転変換部34は、回転変換された動きベクトルを操作データ作成部35に送信する。
The
操作データ作成部35は、回転変換部34からの動きベクトルを含む操作データを作成するものである。操作データ作成部35は、作成した操作データを、通信部27を介して表示装置10に送信する。これにより、表示装置10では、上記操作データに基づいて表示が制御される。
The operation
(携帯端末の処理)
次に、上記構成の携帯端末20における処理(制御方法)について説明する。図4は、該処理の流れを示すフローチャートである。図示のように、まず、顔傾き検知部32は、撮影部24からの撮影画像のデータを用いて顔認識を行い(S10)、ユーザUの顔を認識できた場合には(S11にてYES)、上記撮影画像から顔傾きθ2を検知する(S12、顔傾き検知ステップ)。
(Handling of mobile device)
Next, processing (control method) in the
このとき、ユーザUの顔を認識できなかった場合(S11にてNO)、或いは、顔傾きθ2=0である場合には(S13にてYES)、端末傾き検知部31は、加速度センサ30からの検出データに基づいて、端末傾きθ1を検知する(S14)。次に、動き検知部33は、モーションセンサ23からの検出データに基づいて、自端末の動きベクトルmを検知する(S15、操作動き検知ステップ)。
At this time, if the face of user U cannot be recognized (NO in S11), or if face tilt θ2 = 0 (YES in S13), terminal
次に、回転変換部34は、動き検知部33が検知した動きベクトルmを、端末傾き検知部31が検知した端末傾きθ1を用いて回転変換する(S16、回転変換ステップ)。そして、操作データ作成部35は、回転変換部34が回転変換した動きベクトルを含む操作データを作成して、表示装置10に送信する(S17、入力情報作成ステップ)。その後、処理動作を終了する。
Next, the
一方、顔傾きθ2=0ではない場合には(S13にてNO)、動き検知部33は、モーションセンサ23からの検出データに基づいて、自端末の動きベクトルmを検知する(S18、操作動き検知ステップ)。次に、回転変換部34は、動き検知部33が検知した動きベクトルmを、顔傾き検知部32が検知した顔傾きθ2を用いて回転変換し(S19、回転変換ステップ)、そして、回転変換部34は、回転変換した動きベクトルを、垂直方向の動きベクトルとして、操作データ作成部35は、当該動きベクトルを含む操作データを作成して、表示装置10に送信する(S20、入力情報作成ステップ)。その後、処理動作を終了する。
On the other hand, when the face inclination θ2 is not 0 (NO in S13), the
(付記事項)
本実施形態では、携帯端末20から表示装置10にデータを送信しているが、表示装置10から携帯端末20にデータを送信する必要は無い。従って、携帯端末20の通信部27は、データを送信する送信部のみでもよく、表示装置10の通信部14は、データを受信する受信部のみでもよい。
(Additional notes)
In the present embodiment, data is transmitted from the
また、端末傾き検知部31が検知した端末傾きθ1と、顔傾き検知部32が検知した顔傾きθ2とを記憶部22に記憶しておき、記憶された端末傾きθ1および顔傾きθ2を回転変換部34が利用してもよい。
Further, the terminal inclination θ1 detected by the terminal
また、撮影部24は、表示部26の画面の反対側に設けられていてもよい。この場合、撮影部24が設けられている側、すなわち、表示部26の画面の反対側がユーザと対向するように、ユーザは、携帯端末20を把持すればよい。このとき、表示部26の画面におけるタッチパネルの操作は、親指以外の指で行えばよい。
Further, the photographing
また、本実施形態では、ユーザの顔の正中線ML(図3の(c)のyf軸)を、上記顔の基準線とし、表示装置10の垂直方向(図3の(a)のyd軸)が示す直線、すなわち鉛直線を表示装置10の基準線としているが、これに限定されない。例えば、上記顔の基準線として、目のアライメント(同図の(c)のxf軸)を使用してもよいし、目のアライメントに略平行な耳のアライメントを使用してもよい。この場合、表示装置10の基準線は、表示装置10の水平方向(図3の(a)のxd軸)が示す直線、すなわち水平線となる。
In the present embodiment, the midline ML (yf axis in FIG. 3C) of the user's face is used as the reference line of the face, and the
しかしながら、上記鉛直線の方向は、重力の方向であり、一意に決まるが、上記水平線の方向は、重力に垂直な方向であり、一意には決まらない。従って、上記顔の基準線としては、上記目のアライメントおよび上記耳のアライメントよりも、上記顔の正中線MLの方が好ましい。この場合、ユーザにとって同じ動きで、同じ指示を確実に行うことができる。 However, although the direction of the vertical line is the direction of gravity and is uniquely determined, the direction of the horizontal line is a direction perpendicular to gravity and is not uniquely determined. Therefore, the face midline ML is more preferable as the face reference line than the eye alignment and the ear alignment. In this case, the same instruction can be reliably performed with the same movement for the user.
(変形例1)
また、ユーザUの顔の向きを種々に変更して撮影を行い、作成した撮影画像に含まれる顔画像の特徴データを、顔傾きθ2に対応付けて、記憶部22予め記憶しておいてもよい。この特徴データを利用することにより、顔傾きθ2を迅速に導出することができる。
(Modification 1)
In addition, the user U may perform shooting while changing the orientation of the face in various ways, and the feature data of the face image included in the created captured image may be stored in advance in association with the face inclination θ2. Good. By using this feature data, the face inclination θ2 can be quickly derived.
(変形例2)
また、携帯端末20をユーザUの顔に近づけると、撮影画像における顔画像が大きくなる一方、携帯端末20をユーザUの顔から遠ざけると、撮影画像における顔画像が小さくなる。そこで、上記顔画像の大きさに応じて、画面11上のオブジェクトAを拡縮して表示するように操作してもよい。これにより、携帯端末20をユーザUに近づけたり遠ざけたりすることにより、画面11上のオブジェクトAの大きさを操作することができる。
(Modification 2)
Further, when the
(変形例3)
また、ユーザUにとっては、携帯端末20を同じように動かしても、携帯端末20とユーザUの顔との距離が近い場合には、携帯端末20が大きく動いて見える一方、当該距離が遠い場合には、携帯端末20が小さく動いて見える。そこで、上記顔画像の大きさに比例して、動き検知部33から回転変換部34に送信される動きベクトルの長さの倍率を変更してもよい。すなわち、携帯端末20とユーザUの顔との距離が近い場合、上記顔画像が大きいので、上記動きベクトルを長くする一方、当該距離が遠い場合、上記顔画像が小さいので、上記動きベクトルを短くする。
(Modification 3)
For the user U, even if the
これにより、携帯端末20を同じように動かしても、携帯端末20とユーザUの顔との距離が近い場合には、オブジェクトAが大きく動く一方、当該距離が遠い場合には、オブジェクトAが小さく動くことになる。従って、ユーザUが見た携帯端末20の動きに対応するように、オブジェクトAを動かすことができるので、ユーザUはオブジェクトAを直感的に遠隔操作することができる。
Accordingly, even if the
なお、本変形例の場合、上記顔画像の大きさに比例して上記動きベクトルの長さの倍率を連続的に変更しているが、離散的に変更してもよい。例えば、上記顔画像の大きさが所定値以下の場合には、上記倍率を低くする一方、上記顔画像の大きさが所定値よりも大きいの場合には、上記倍率を高くする。このように、上記倍率を2段階に変化させてもよい。また、上記所定値を複数個設定することにより、上記倍率を多段階に変化させてもよい。 In this modification, the magnification of the length of the motion vector is continuously changed in proportion to the size of the face image, but may be changed discretely. For example, when the size of the face image is less than or equal to a predetermined value, the magnification is decreased. On the other hand, when the size of the face image is larger than a predetermined value, the magnification is increased. Thus, the magnification may be changed in two steps. The magnification may be changed in multiple stages by setting a plurality of the predetermined values.
(変形例4)
また、上記実施形態では、動き検知部33は、モーションセンサ23を用いて検知した携帯端末20自体の動きを、ユーザによる携帯端末20の操作の動きとしているが、これに限定されるものではない。例えば、入力部25におけるタッチパネルを用いて検知したユーザのフリップ操作(フリック操作)のように、入力部25におけるユーザの操作の動きを、ユーザによる携帯端末20の操作の動きとしてもよい。この場合、動き検知部33は、モーションセンサ23を利用する必要がなくなる。
(Modification 4)
Moreover, in the said embodiment, although the
(変形例5)
ところで、ユーザは、通常、少なくとも1分間程度は姿勢を維持すると考えられる。上記姿勢が維持されると、上記ユーザの顔と、該顔の付近または周囲に位置する物体との幾何学的位置関係が維持されるので、当該顔の正中線と当該物体の基準線との幾何学的位置関係も維持されると考えられる。また、上記撮影画像には、上記顔の画像以外にも、上記物体の画像が含まれている可能性が高いと考えられる。すなわち、上記顔以外にも、上記物体が被写体となる可能性が高いと考えられる。
(Modification 5)
By the way, it is considered that the user usually maintains the posture for at least about one minute. If the posture is maintained, the geometric positional relationship between the user's face and an object located near or around the face is maintained, so that the midline of the face and the reference line of the object It is considered that the geometric positional relationship is also maintained. In addition to the face image, it is highly likely that the captured image includes the object image. That is, it is considered that there is a high possibility that the object becomes a subject other than the face.
なお、ユーザの顔の付近または周囲に位置する物体の例としては、家具、壁に貼付された壁紙、上記ユーザが着ている服などが挙げられる。上記家具の基準線の例としては、鉛直線、水平線などが挙げられ、上記壁紙の基準線の例としては、当該壁紙の模様の方向を示す直線などが挙げられ、かつ、上記服の基準線の例としては、当該服の模様の方向を示す直線などが挙げられる。 Note that examples of objects located near or around the user's face include furniture, wallpaper affixed to a wall, clothes worn by the user, and the like. Examples of the furniture reference line include vertical lines, horizontal lines, etc., and examples of the wallpaper reference line include straight lines indicating the direction of the wallpaper pattern, and the clothes reference line. As an example, there is a straight line indicating the direction of the pattern of the clothes.
そこで、上記撮影画像からユーザUの顔を認識できなかった場合(図4のS11にてNO)、加速度センサ30からの検出データに基づいて、端末傾きθ1を検知する代わりに(S14)、下記のように、顔傾きθ2を推定してもよい。 Therefore, when the face of the user U cannot be recognized from the captured image (NO in S11 of FIG. 4), instead of detecting the terminal inclination θ1 based on the detection data from the acceleration sensor 30 (S14), the following As described above, the face inclination θ2 may be estimated.
すなわち、上記撮影画像からユーザUの顔を認識できた場合には(S11にてYES)、当該撮影画像から顔傾きθ2を検知すると共に(S12)、上記撮影画像に含まれる上記顔以外の被写体の画像に対し画像認識を行って、自装置に対する上記被写体の基準線の傾きである被写体傾きを検知する。そして、上記撮影画像からユーザUの顔を認識できなかった場合(S11にてNO)、上記被写体傾きを検知し、検知した被写体傾きと、以前にユーザUの顔を認識できた場合に検知した顔傾きθ2および被写体傾きとを用いて、現在の顔傾きθ2を推定する。なお、顔傾きθ2を推定するために利用される被写体(上記物体)は、1つでもよいし、複数でもよい。 That is, if the user U's face can be recognized from the captured image (YES in S11), the face inclination θ2 is detected from the captured image (S12), and subjects other than the face included in the captured image are detected. Image recognition is performed on the image of the subject, and a subject inclination which is an inclination of the reference line of the subject with respect to the apparatus is detected. If the user U's face cannot be recognized from the captured image (NO in S11), the subject tilt is detected, and the detected subject tilt and the user U's face have been detected previously. The current face inclination θ2 is estimated using the face inclination θ2 and the subject inclination. Note that the subject (the object) used for estimating the face inclination θ2 may be one or plural.
ところで、近似の携帯端末20では、表示部26の画面の側に撮影部24(インカメラ)が設けられると共に、その反対側に撮影部24(アウトカメラ)が設けられているものが多い。このような携帯端末20では、インカメラにてユーザUの顔が撮影されると、アウトカメラでユーザUの周囲が撮影される。そこで、インカメラをユーザUの顔の認識に利用する一方、アウトカメラを上記顔以外の物体の認識に利用してもよい。このように、撮影部24が複数個設けられている場合、顔の認識に利用される撮影部24と、上記顔以外の物体の認識に利用される撮影部24とは、同じでもよいし、異なってもよい。
By the way, many of the approximate
〔実施形態2〕
本発明の別の実施形態について、図5を参照して説明する。図5は、本実施形態に係る入力システム1における携帯端末20の概要を示す斜視図である。
[Embodiment 2]
Another embodiment of the present invention will be described with reference to FIG. FIG. 5 is a perspective view showing an outline of the
図5に示すように、本実施形態の携帯端末20は、図3の(b)に示す携帯端末20に比べて、撮影部24が複数個設けられている点が異なり、その他の構成は同様である。複数の撮影部24がそれぞれ作成した複数の撮影画像を利用することにより、顔傾き検知部32は、ユーザUの顔の3次元データを作成することができる。従って、ユーザUの顔の正中線MLを検出する精度を向上することができ、顔傾きθ2を検知する精度を向上することができる。
As shown in FIG. 5, the
〔実施形態3〕
本発明のさらに別の実施形態について、図6を参照して説明する。図6は、本実施形態に係る入力システム1の概略構成を示すブロック図である。図6に示すように、本実施形態の入力システム1は、図1に示す入力システム1に比べて、表示装置10にて、ユーザの顔の撮影を行い、撮影画像に基づいて顔傾きを検知し、回転変換を行う点が異なる。
[Embodiment 3]
Still another embodiment of the present invention will be described with reference to FIG. FIG. 6 is a block diagram illustrating a schematic configuration of the input system 1 according to the present embodiment. As illustrated in FIG. 6, the input system 1 according to the present embodiment captures a user's face with the
具体的には、本実施形態の入力システム1は、図1に示す入力システム1に比べて、携帯端末20の撮影部24、顔傾き検知部32、回転変換部34、および操作データ作成部35に代えて、撮影部40、顔傾き検知部41、回転変換部42、およびオブジェクト操作部43が表示装置10にそれぞれ設けられている点が異なり、その他の構成は同様である。このため、端末傾き検知部31が検知した端末傾きθ1と、動き検知部33が検知した動きベクトルとは、通信部27を介して、表示装置10に送信される。なお、撮影部40および回転変換部42は、図1に示す撮影部24および回転変換部34と同様であるので、その説明を省略する。
Specifically, the input system 1 according to the present embodiment has an
本実施形態の顔傾き検知部41は、図1に示す顔傾き検知部32に比べて、表示装置10の垂直方向(yd軸)に対するユーザUの正中線MLの方向(yf軸)の顔傾きθ2’を検知することになる。そこで、顔傾き検知部41は、端末傾き検知部31からの端末傾きθ1を用いて、顔傾きθ2’を、携帯端末20の長手方向(yt軸)に対するユーザUの正中線MLの方向(yf軸)の顔傾きθ2に変換する。
Compared with the face
オブジェクト操作部43は、回転変換部42からの動きベクトルに基づいて、画面11上のオブジェクトAを操作するように表示部16を制御するものである。
The
このように、顔傾きの検知および回転変換は、表示装置10にて行うこともできる。
As described above, the detection of the face inclination and the rotation conversion can be performed by the
〔実施形態4〕
本発明の他の実施形態について、図7を参照して説明する。図7は、本実施形態に係る入力システム1の概略構成を示すブロック図である。図7に示すように、本実施形態の入力システム1は、図1に示す入力システム1に比べて、メガネ型端末50が新たに設けられている点と、携帯端末20にて顔傾き検知部32に代えて、顔傾き変換部51が設けられている点とが異なり、その他の構成は同様である。
[Embodiment 4]
Another embodiment of the present invention will be described with reference to FIG. FIG. 7 is a block diagram illustrating a schematic configuration of the input system 1 according to the present embodiment. As shown in FIG. 7, the input system 1 according to the present embodiment is different from the input system 1 shown in FIG. Instead of 32, a face
メガネ型端末50は、ユーザUの顔に装着されるものであり、携帯端末20と同様の機能を有している。このため、メガネ型端末50は、鉛直方向に対する自装置の傾きを検知することができる。この傾きは、鉛直方向に対するユーザUの顔の傾きに該当し、表示装置10の垂直方向(yd軸)に対するユーザUの正中線MLの方向(yf軸)の顔傾きθ2’に変換することができる。従って、メガネ型端末50は、上記顔傾きθ2’を携帯端末20に送信する。
The glasses-
顔傾き変換部51は、端末傾き検知部31からの端末傾きθ1を用いて、メガネ型端末50からの顔傾きθ2’を、携帯端末20の長手方向(yt軸)に対するユーザUの正中線MLの方向(yf軸)の顔傾きθ2に変換するものである。顔傾き変換部51は、変換した顔傾きθ2を回転変換部34に送信する。
The face
本実施形態の場合、撮影部24および顔認識処理が不要となる。
In the case of this embodiment, the
〔ソフトウェアによる実現例〕
表示装置10および携帯端末20の制御ブロック(特に表示制御部15および制御部21)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
[Example of software implementation]
The control blocks (particularly the
後者の場合、表示装置10および携帯端末20は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
In the latter case, the
(付記事項)
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
(Additional notes)
The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention. Furthermore, a new technical feature can be formed by combining the technical means disclosed in each embodiment.
例えば、上記実施形態では、携帯端末20が、ユーザからの操作(入力)を受け付けているが、任意の入力装置に適用可能である。また、携帯端末20が表示装置10に指示しているが、該指示を処理する任意の情報処理装置に適用可能である。
For example, in the above-described embodiment, the
〔まとめ〕
本発明の態様1に係る入力装置(携帯端末20)は、ユーザからの入力を受け付け、該入力に基づく入力情報を情報処理装置(表示装置10)に送信する入力装置であって、撮影を行う撮影部(24)と、前記撮影による撮影画像に含まれる前記ユーザの顔画像に対し顔認識を行って、自装置に対する前記顔の基準線の傾きである顔傾きを検知する顔傾き検知手段(顔傾き検知部32)と、ユーザによる自装置の操作の動きである操作動きを検知する操作動き検知手段(動き検知部33)と、該操作動き検知手段が検知した操作動きを、前記顔傾き検知手段が検知した顔傾きを用いて、前記顔の基準線に対する操作動きに回転変換する回転変換手段(回転変換部34)と、該回転変換手段が回転変換した操作動きに基づく前記入力情報を作成する入力情報作成手段(操作データ作成部35)と、を備えている。
[Summary]
An input device (portable terminal 20) according to aspect 1 of the present invention is an input device that receives input from a user and transmits input information based on the input to an information processing device (display device 10), and performs shooting. A face tilt detection unit (24) for performing face recognition on the face image of the user included in the shot image taken by the shooting and detecting a face tilt that is a tilt of the reference line of the face with respect to the own device; A face inclination detection unit 32), an operation movement detection unit (movement detection unit 33) for detecting an operation movement which is a movement of the user's own device by the user, and an operation movement detected by the operation movement detection unit. Using the face inclination detected by the detection means, rotation conversion means (rotation conversion section 34) for rotating and converting the operation movement relative to the reference line of the face, and the input information based on the operation movement rotated by the rotation conversion means. Create That the input information generating means and (operation data generation unit 35), and a.
上記の構成によれば、撮影部が撮影した撮影画像に含まれるユーザの顔画像に対し顔認識を行って、自装置に対する顔の基準線の傾きである顔傾きが検知される。次に、ユーザによる自装置の操作の動きである操作動きが検知され、検知された操作動きが、上記顔傾きを用いて、上記顔の基準線に対する操作動きに回転変換される。これにより、回転変換された操作動きは、入力装置の傾きに依存しなくなる。また、当該操作動きは、上記顔の基準線に対する動きであるので、ユーザの姿勢に依存しない。 According to the above configuration, face recognition is performed on the face image of the user included in the photographed image photographed by the photographing unit, and the face inclination that is the inclination of the reference line of the face with respect to the own apparatus is detected. Next, an operation movement, which is a movement of the user's own device, is detected, and the detected operation movement is rotationally converted into an operation movement with respect to the face reference line using the face inclination. As a result, the rotation-converted operation movement does not depend on the tilt of the input device. Further, since the operation movement is movement with respect to the reference line of the face, it does not depend on the posture of the user.
そして、回転変換された、上記顔の基準線に対する操作動きに基づく入力情報を作成して情報処理装置に送信する。これにより、ユーザにとって同じ動きで、同じ入力情報を作成することができる。 Then, the input information based on the operation movement with respect to the reference line of the face that has been rotationally converted is created and transmitted to the information processing apparatus. As a result, the same input information can be created with the same movement for the user.
なお、上記顔の基準線としては、上記顔の正中線、上記顔における目のアライメント、上記顔における耳のアライメント、などが挙げられる。また、上記顔の基準線に対する操作動きを、装置の基準線(鉛直線、水平線など)に対する動きとして入力情報を作成することが好ましい。この場合、例えば、ユーザの顔の正中線に対する動きを、表示装置の画面に表示された物体の鉛直線に対する動きとして反映することができ、また、ユーザの目のアライメントに対する動きを、上記物体の水平線に対する動きとして反映することができる。その結果、ユーザの直感的な遠隔操作が可能となる。 Examples of the face reference line include the face midline, eye alignment in the face, and ear alignment in the face. Further, it is preferable that the input information is created with the operation movement with respect to the reference line of the face as the movement with respect to the reference line (vertical line, horizontal line, etc.) of the apparatus. In this case, for example, the movement of the user's face with respect to the midline can be reflected as the movement of the object displayed on the screen of the display device with respect to the vertical line, and the movement of the user's eyes with respect to the alignment of the object can be reflected. It can be reflected as movement relative to the horizon. As a result, the user can perform an intuitive remote operation.
また、上記操作動きには、移動および回転が含まれる。また、上記操作動きは、自装置に設けたモーションセンサ(23)が検出した自装置自体の動きでもよいし、自装置に設けたタッチパネル上での動きでもよい。 Further, the operation movement includes movement and rotation. The operation movement may be the movement of the own apparatus detected by the motion sensor (23) provided in the own apparatus, or may be a movement on a touch panel provided in the own apparatus.
ところで、ユーザが直立すると、上記顔の正中線の方向は、鉛直線の方向となる一方、上記目のアライメントおよび上記耳のアライメントの方向は、水平線の方向となる。このことから、上記顔の正中線は、鉛直線に対応する基準線である一方、上記目のアライメントおよび上記耳のアライメントは、水平線に対応する基準線であると言える。そして、上記鉛直線の方向は、重力の方向であり、一意に決まるが、上記水平線の方向は、重力に垂直な方向であり、一意には決まらない。 By the way, when the user stands upright, the direction of the median line of the face becomes the direction of the vertical line, while the direction of the alignment of the eyes and the alignment of the ears becomes the direction of the horizontal line. From this, it can be said that the midline of the face is a reference line corresponding to a vertical line, while the eye alignment and the ear alignment are reference lines corresponding to a horizontal line. The direction of the vertical line is the direction of gravity and is uniquely determined, but the direction of the horizontal line is a direction perpendicular to gravity and is not uniquely determined.
そこで、本発明の態様2に係る入力装置は、上記態様1において、前記顔の基準線は前記顔の正中線であることが好ましい。上記の構成によれば、同じ操作で同じ入力情報を確実に作成することができる。 Therefore, in the input device according to aspect 2 of the present invention, in the aspect 1, it is preferable that the reference line of the face is a median line of the face. According to said structure, the same input information can be produced reliably by the same operation.
本発明の態様3に係る入力装置は、上記態様1または2において、複数の前記撮影部を異なる位置に備えてもよい。上記の構成によれば、複数の上記撮影部がそれぞれ作成した複数の撮影画像を利用することにより、上記顔傾き検知手段は、上記ユーザの顔の3次元データを作成することができる。従って、上記ユーザの顔の基準線を検出する精度を向上することができ、上記顔傾きを検知する精度を向上することができる。 The input device according to aspect 3 of the present invention may include a plurality of the imaging units at different positions in the above aspect 1 or 2. According to said structure, the said face inclination detection means can produce the three-dimensional data of the said user's face by utilizing the some picked-up image which each some said imaging | photography part produced. Therefore, the accuracy of detecting the reference line of the user's face can be improved, and the accuracy of detecting the face inclination can be improved.
本発明の態様4に係る入力装置は、上記態様1から3において、自装置の動きを検出するモーションセンサをさらに備えており、前記操作動き検知手段は、前記モーションセンサが検出した自装置の動きを、前記操作動きとして検知してもよい。 The input device according to aspect 4 of the present invention further includes a motion sensor that detects the movement of the own apparatus in the above-described aspects 1 to 3, and the operation movement detecting means is a movement of the own apparatus detected by the motion sensor. May be detected as the operation movement.
本発明の態様5に係る入力装置は、上記態様4において、前記モーションセンサは、自装置の加速度を検出する加速度センサ(30)を備えており、前記加速度センサの検出結果から、鉛直線に対する自装置の傾きである装置傾きを検知する装置傾き検知手段(端末傾き検知部31)をさらに備えており、前記顔傾き検知手段が前記顔認識を行うことができなかった場合、前記回転変換手段は、前記操作動き検知手段が検知した操作動きを、前記装置傾き検知手段が検知した装置傾きを用いて、前記鉛直線に対する操作動きに回転変換してもよい。上記の構成によれば、入力装置の傾きに依存しない入力情報を作成することができる。 In the input device according to aspect 5 of the present invention, in the above aspect 4, the motion sensor includes an acceleration sensor (30) for detecting the acceleration of the own device. The apparatus further includes device inclination detection means (terminal inclination detection unit 31) for detecting an apparatus inclination that is an inclination of the apparatus, and when the face inclination detection means cannot perform the face recognition, the rotation conversion means The operation movement detected by the operation movement detection unit may be rotationally converted into an operation movement with respect to the vertical line using the apparatus inclination detected by the apparatus inclination detection unit. According to said structure, the input information which does not depend on the inclination of an input device can be produced.
本発明の態様6に係る入力装置は、上記態様1から4において、前記顔傾き検知手段は、前記撮影画像に含まれる前記顔以外の被写体の画像に対し画像認識を行って、自装置に対する前記被写体の基準線の傾きである被写体傾きを検知しており、前記顔認識を行うことができなかった場合、今回検知した前記被写体傾きと、以前に前記顔認識を行うことができた場合に検知した前記顔傾きおよび前記被写体傾きとから、今回の前記顔傾きを推定してもよい。 In an input device according to aspect 6 of the present invention, in the above aspects 1 to 4, the face inclination detection unit performs image recognition on an image of a subject other than the face included in the captured image, and Detected when the subject inclination, which is the inclination of the reference line of the subject, is detected and the face recognition cannot be performed, and when the subject inclination detected this time and the face recognition can be performed previously. The current face inclination may be estimated from the face inclination and the subject inclination.
ここで、上記ユーザの顔以外の被写体の例としては、家具、壁に貼付された壁紙、上記ユーザが着ている服などが挙げられる。上記家具の基準線の例としては、鉛直線、水平線などが挙げられる。また、上記壁紙の基準線の例としては、当該壁紙の模様の方向を示す直線などが挙げられる。そして、上記服の基準線の例としては、当該服の模様の方向を示す直線などが挙げられる。 Here, examples of subjects other than the user's face include furniture, wallpaper affixed to a wall, clothes worn by the user, and the like. Examples of the reference line for the furniture include a vertical line and a horizontal line. Examples of the wallpaper reference line include a straight line indicating the direction of the wallpaper pattern. Examples of the clothes reference line include a straight line indicating the direction of the clothes pattern.
通常、ユーザは、少なくとも1分間程度は姿勢を維持すると考えられる。上記姿勢が維持されると、上記ユーザの顔と上記被写体との幾何学的位置関係が維持されるので、当該ユーザの顔の基準線と当該被写体の基準線との幾何学的位置関係も維持されると考えられる。 Usually, it is considered that the user maintains the posture for at least about one minute. If the posture is maintained, the geometric positional relationship between the user's face and the subject is maintained, so the geometric positional relationship between the reference line of the user's face and the reference line of the subject is also maintained. It is thought that it is done.
従って、上記の構成によれば、上記顔傾きを検知した時に上記被写体傾きを検知しておけば、上記顔認識を行うことができないことにより上記顔傾きを検知できない場合でも、上記被写体傾きを検知し、検知した被写体傾きと、以前に検知した顔傾きおよび被写体傾きと用いて、現在の顔傾きを推定することができる。なお、該顔傾きを推定するために利用される上記被写体は、1つでもよいし、複数でもよい。 Therefore, according to the above configuration, if the subject tilt is detected when the face tilt is detected, the subject tilt is detected even if the face tilt cannot be detected because the face recognition cannot be performed. The current face inclination can be estimated by using the detected subject inclination and the previously detected face inclination and subject inclination. Note that the subject used for estimating the face inclination may be one or plural.
本発明の態様7に係る入力装置は、上記態様1から6において、複数の前記顔画像の情報を前記顔傾きに対応付けた対応情報を記憶する記憶部(22)をさらに備えており、前記顔傾き検知手段は、前記対応情報を参照して、前記ユーザの顔画像に類似する顔画像に対応する前記顔傾きを取得してもよい。
The input device according to
上記の構成によれば、上記顔画像に対し顔認識を行って上記顔の基準線を特定する処理を省略できるので、上記顔傾きを迅速に取得することができる。なお、記憶部に記憶される顔画像は、同じユーザのものであってもよいし、平均的な人間のものであってもよい。また、上記態様3の場合、複数の上記撮影部を利用することにより、上記対応情報を迅速に作成することができる。 According to said structure, since the process which performs face recognition with respect to the said face image and specifies the reference line of the said face can be abbreviate | omitted, the said face inclination can be acquired rapidly. The face images stored in the storage unit may be those of the same user or may be those of an average person. Moreover, in the case of the said aspect 3, the said corresponding | compatible information can be rapidly produced by utilizing several said imaging | photography part.
本発明の態様8に係る入力システム(表示システム1)は、ユーザからの入力を受け付ける入力装置と、該入力に基づく入力情報を前記入力装置から受信する情報処理装置とを備える入力システムであって、鉛直線に対する前記ユーザの顔の基準線の傾きである顔傾きを検知する顔傾き検知手段(顔傾き検知部41、メガネ型端末50)と、前記鉛直線に対する前記入力装置の傾きである装置傾きを検知する装置傾き検知手段と、ユーザによる前記入力装置の操作動きを検知する操作動き検知手段と、該操作動き検知手段が検知した操作動きを、前記顔傾き検知手段および前記装置傾き検知手段がそれぞれ検知した顔傾きおよび装置傾きを用いて、前記顔の基準線に対する操作動きに回転変換する回転変換手段(回転変換部42)と、を備え、前記情報処理装置は、前記回転変換手段が回転変換した操作動きを、自装置の基準線に対する操作動きとして、該操作動きに基づき処理を行っている。
An input system (display system 1) according to an aspect 8 of the present invention is an input system including an input device that receives an input from a user and an information processing device that receives input information based on the input from the input device. A face inclination detecting means (face
上記の構成によれば、鉛直線に対するユーザの顔の基準線の傾きを検知する。この検知を行うには、情報処理装置、表示装置など、鉛直線を基準線とする装置に設けられた撮影部からの撮影画像を利用すればよい。或いは、上記ユーザの顔に装着され、加速度センサを備えた携帯型装置であれば、上記検知を行うことができる。 According to said structure, the inclination of the reference line of a user's face with respect to a perpendicular line is detected. In order to perform this detection, a photographed image from a photographing unit provided in a device having a vertical line as a reference line, such as an information processing device or a display device, may be used. Alternatively, the detection can be performed by a portable device attached to the user's face and provided with an acceleration sensor.
また、鉛直線に対する入力装置の傾きである装置傾きが検知される。この検知を行うには、上記入力装置に設けられた加速度センサの検出結果を利用すればよい。或いは、上記情報処理装置に設けられた撮影部が撮影した、上記入力装置を含む撮影画像を利用すればよい。 In addition, a device tilt that is the tilt of the input device with respect to the vertical line is detected. In order to perform this detection, the detection result of the acceleration sensor provided in the input device may be used. Or what is necessary is just to utilize the picked-up image containing the said input device image | photographed by the imaging | photography part provided in the said information processing apparatus.
次に、検知された操作動きが、上記顔傾きおよび上記装置傾きを用いて、上記顔の基準線に対する操作動きに回転変換される。これにより、回転変換された操作動きは、入力装置の傾きに依存しなくなる。また、当該操作動きは、上記顔の基準線に対する動きであるので、ユーザの姿勢に依存しない。 Next, the detected operation motion is rotationally converted into an operation motion with respect to the reference line of the face using the face tilt and the device tilt. As a result, the rotation-converted operation movement does not depend on the tilt of the input device. Further, since the operation movement is movement with respect to the reference line of the face, it does not depend on the posture of the user.
そして、回転変換された、上記顔の基準線に対する操作動きを、基準線に対する動きとして、情報処理装置が当該動きに基づき処理を行う。これにより、ユーザにとって同じ動きで、情報処理装置に対し同じ指示を行うことができる。 Then, the information processing apparatus performs processing based on the movement of the face with respect to the reference line, which has been rotationally converted, as movement with respect to the reference line. Thus, the same instruction can be given to the information processing apparatus with the same movement for the user.
なお、上記各手段は、上記入力装置が備えてもよいし、上記情報処理装置が備えてもよい。上記入力装置が備える場合、上記情報処理装置は、新たな機能を追加する必要がないので、既存のものを利用することができる。さらに、上記各手段は、上記表示システムに含まれる、上記入力装置および上記情報処理装置以外の装置が備えていてもよい。 In addition, each said means may be provided in the said input device, and the said information processing apparatus may be provided. When the input device is provided, the information processing device does not need to add a new function, and thus can use an existing one. Furthermore, each means may be included in a device other than the input device and the information processing device included in the display system.
本発明の態様9に係る入力装置の制御方法は、ユーザからの入力を受け付け、該入力に基づく入力情報を情報処理装置に送信する入力装置の制御方法であって、撮影部による撮影画像に含まれる前記ユーザの顔画像に対し顔認識を行って、自装置に対する前記顔の基準線の傾きである顔傾きを検知する顔傾き検知ステップ(S12)と、ユーザによる自装置の操作の動きである操作動きを検知する操作動き検知ステップ(S15・S18)と、該操作動き検知ステップにて検知された操作動きを、前記顔傾き検知ステップにて検知された顔傾きを用いて、前記顔の基準線に対する操作動きに回転変換する回転変換ステップ(S16・S19)と、該回転変換ステップにて回転変換された操作動きに基づく前記入力情報を作成する入力情報作成ステップ(S17・S20)と、を含んでいる。この場合、上記態様1と同様の効果を奏する。 An input device control method according to an aspect 9 of the present invention is a control method for an input device that receives input from a user and transmits input information based on the input to an information processing device, and is included in a photographed image by a photographing unit. A face inclination detection step (S12) of performing face recognition on the user's face image to detect a face inclination which is an inclination of the reference line of the face with respect to the own apparatus, and a user's operation of the own apparatus. An operation movement detection step (S15 / S18) for detecting an operation movement, and the operation movement detected in the operation movement detection step is used as a reference for the face using the face inclination detected in the face inclination detection step. Rotation conversion step (S16 / S19) for rotationally converting the operation motion to the line, and input information creation for creating the input information based on the operation motion rotationally converted in the rotation conversion step And step (S17 · S20), contains. In this case, the same effects as those of the first aspect are obtained.
本発明の各態様に係る入力装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記入力装置が備える各手段として動作させることにより上記入力装置をコンピュータにて実現させる入力装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。 The input device according to each aspect of the present invention may be realized by a computer. In this case, the input device is realized by the computer by causing the computer to operate as each unit included in the input device. A control program and a computer-readable recording medium on which the control program is recorded also fall within the scope of the present invention.
本発明は、撮影画像から顔傾きが検知され、該顔傾きを用いて、ユーザによる自装置の操作の動きである操作動きが、上記顔の基準線に対する操作動きに回転変換され、回転変換された操作動きに基づく入力情報が作成されることにより、入力装置の向きおよびユーザの姿勢に依存することなく、同じ操作で同じ入力情報を作成できるので、任意の入力装置に適用することができる。 In the present invention, a face inclination is detected from a captured image, and using the face inclination, an operation movement, which is a movement of the user's own apparatus, is rotationally converted into an operation movement with respect to the reference line of the face, and the rotation is converted. Since the input information based on the operation motion is created, the same input information can be created by the same operation without depending on the direction of the input device and the posture of the user, so that it can be applied to any input device.
1 入力システム
10 表示装置(情報処理装置)
11 画面
12 コンテンツ受信部
13 コンテンツ解析部
14 通信部
15 表示制御部
16 表示部
20 携帯端末(入力装置)
21 制御部
22 記憶部
23 モーションセンサ
24 撮影部
25 入力部
26 表示部
27 通信部
30 加速度センサ
31 端末傾き検知部(装置傾き検知手段)
32 顔傾き検知部(顔傾き検知手段)
33 動き検知部(操作動き検知手段)
34 回転変換部(回転変換手段)
35 操作データ作成部(入力情報作成手段)
40 撮影部
41 顔傾き検知部
42 回転変換部
43 オブジェクト操作部
50 メガネ型端末
51 顔傾き変換部
1
11
21
32 Face tilt detection unit (face tilt detection means)
33 Motion detection unit (operation motion detection means)
34 Rotation conversion unit (rotation conversion means)
35 Operation data creation unit (input information creation means)
40 photographing
Claims (10)
撮影を行う撮影部と、
前記撮影による撮影画像に含まれる前記ユーザの顔画像に対し顔認識を行って、自装置に対する前記顔の基準線の傾きである顔傾きを検知する顔傾き検知手段と、
ユーザによる自装置の操作の動きである操作動きを検知する操作動き検知手段と、
該操作動き検知手段が検知した操作動きを、前記顔傾き検知手段が検知した顔傾きを用いて、前記顔の基準線に対する操作動きに回転変換する回転変換手段と、
該回転変換手段が回転変換した操作動きに基づく前記入力情報を作成する入力情報作成手段と、を備えることを特徴とする入力装置。 An input device that receives input from a user and transmits input information based on the input to an information processing device,
A shooting unit for shooting;
A face inclination detecting means for performing face recognition on the face image of the user included in the photographed image by the photographing and detecting a face inclination which is an inclination of the reference line of the face with respect to the own device;
An operation movement detecting means for detecting an operation movement that is a movement of the user's own device;
Rotation conversion means for rotating and converting the operation movement detected by the operation movement detection means into an operation movement with respect to a reference line of the face using the face inclination detected by the face inclination detection means;
An input device comprising: input information creating means for creating the input information based on the operation movement rotationally converted by the rotation converting means.
前記操作動き検知手段は、前記モーションセンサが検出した自装置の動きを、前記操作動きとして検知することを特徴とする請求項1から3までの何れか1項に記載の入力装置。 It further includes a motion sensor that detects the movement of its own device,
The input device according to any one of claims 1 to 3, wherein the operation motion detection unit detects the motion of the device detected by the motion sensor as the operation motion.
前記加速度センサの検出結果から、鉛直線に対する自装置の傾きである装置傾きを検知する装置傾き検知手段をさらに備えており、
前記顔傾き検知手段が前記顔認識を行うことができなかった場合、前記回転変換手段は、前記操作動き検知手段が検知した操作動きを、前記装置傾き検知手段が検知した装置傾きを用いて、前記鉛直線に対する操作動きに回転変換することを特徴とする請求項4に記載の入力装置。 The motion sensor includes an acceleration sensor that detects the acceleration of the device itself,
From the detection result of the acceleration sensor, further comprising a device inclination detecting means for detecting a device inclination that is the inclination of the device relative to the vertical line,
When the face inclination detection unit cannot perform the face recognition, the rotation conversion unit uses the device inclination detected by the device inclination detection unit to detect the operation movement detected by the operation movement detection unit. The input device according to claim 4, wherein the input device is rotationally converted into an operation motion with respect to the vertical line.
前記撮影画像に含まれる前記顔以外の被写体の画像に対し画像認識を行って、自装置に対する前記被写体の基準線の傾きである被写体傾きを検知しており、
前記顔認識を行うことができなかった場合、今回検知した前記被写体傾きと、以前に前記顔認識を行うことができた場合に検知した前記顔傾きおよび前記被写体傾きとから、今回の前記顔傾きを推定することを特徴とする請求項1から4までの何れか1項に記載の入力装置。 The face inclination detecting means is
Image recognition is performed on an image of a subject other than the face included in the photographed image, and a subject tilt that is a tilt of a reference line of the subject with respect to the own device is detected;
When the face recognition cannot be performed, the current inclination of the subject is determined from the subject inclination detected this time and the face inclination and the subject inclination detected when the face recognition has been performed previously. The input device according to claim 1, wherein the input device is estimated.
前記顔傾き検知手段は、前記対応情報を参照して、前記ユーザの顔画像に類似する顔画像に対応する前記顔傾きを取得することを特徴とする請求項1から6までの何れか1項に記載の入力装置。 A storage unit for storing correspondence information in which information on a plurality of face images is associated with the face inclination;
The face inclination detection unit acquires the face inclination corresponding to a face image similar to the face image of the user with reference to the correspondence information. The input device described in 1.
鉛直線に対する前記ユーザの顔の基準線の傾きである顔傾きを検知する顔傾き検知手段と、
前記鉛直線に対する前記入力装置の傾きである装置傾きを検知する装置傾き検知手段と、
ユーザによる前記入力装置の操作動きを検知する操作動き検知手段と、
該操作動き検知手段が検知した操作動きを、前記顔傾き検知手段および前記装置傾き検知手段がそれぞれ検知した顔傾きおよび装置傾きを用いて、前記顔の基準線に対する操作動きに回転変換する回転変換手段と、を備え、
前記情報処理装置は、前記回転変換手段が回転変換した操作動きを、自装置の基準線に対する操作動きとして、該操作動きに基づき処理を行うことを特徴とする入力システム。 An input system comprising: an input device that receives input from a user; and an information processing device that receives input information based on the input from the input device,
Face inclination detecting means for detecting a face inclination which is an inclination of a reference line of the user's face with respect to a vertical line;
An apparatus inclination detecting means for detecting an apparatus inclination which is an inclination of the input apparatus with respect to the vertical line;
An operation movement detecting means for detecting an operation movement of the input device by a user;
Rotation conversion that rotationally converts the operation movement detected by the operation movement detection means into an operation movement with respect to the reference line of the face, using the face inclination and the apparatus inclination detected by the face inclination detection means and the apparatus inclination detection means, respectively. Means, and
The information processing apparatus performs processing based on the operation movement as the operation movement with respect to the reference line of the own apparatus as the operation movement rotated and converted by the rotation conversion unit.
撮影部による撮影画像に含まれる前記ユーザの顔画像に対し顔認識を行って、自装置に対する前記顔の基準線の傾きである顔傾きを検知する顔傾き検知ステップと、
ユーザによる自装置の操作の動きである操作動きを検知する操作動き検知ステップと、
該操作動き検知ステップにて検知された操作動きを、前記顔傾き検知ステップにて検知された顔傾きを用いて、前記顔の基準線に対する操作動きに回転変換する回転変換ステップと、
該回転変換ステップにて回転変換された操作動きに基づく前記入力情報を作成する入力情報作成ステップと、を含むことを特徴とする入力装置の制御方法。 An input device control method for receiving input from a user and transmitting input information based on the input to an information processing device,
A face inclination detection step of performing face recognition on the face image of the user included in the photographed image by the photographing unit and detecting a face inclination which is an inclination of the reference line of the face with respect to the own device;
An operation motion detection step for detecting an operation motion that is a motion of the operation of the device by the user;
A rotation conversion step of rotating and converting the operation movement detected in the operation movement detection step into an operation movement with respect to the reference line of the face using the face inclination detected in the face inclination detection step;
And an input information creating step for creating the input information based on the operation motion rotationally converted in the rotation converting step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014141653A JP2016018448A (en) | 2014-07-09 | 2014-07-09 | Input device and its control method and control program, and input system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014141653A JP2016018448A (en) | 2014-07-09 | 2014-07-09 | Input device and its control method and control program, and input system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016018448A true JP2016018448A (en) | 2016-02-01 |
Family
ID=55233613
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014141653A Pending JP2016018448A (en) | 2014-07-09 | 2014-07-09 | Input device and its control method and control program, and input system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016018448A (en) |
-
2014
- 2014-07-09 JP JP2014141653A patent/JP2016018448A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11606482B2 (en) | Methods for camera movement compensation | |
CN111034181B (en) | Image capturing apparatus, image display system, and operation method | |
CN108734736B (en) | Camera posture tracking method, device, equipment and storage medium | |
US10999480B2 (en) | Methods for camera movement compensation | |
KR101751347B1 (en) | Mobile terminal and method of controlling the same | |
TWI539810B (en) | Panoramic scene capturing and browsing mobile device, system and method | |
JP6058978B2 (en) | Image processing apparatus, image processing method, photographing apparatus, and computer program | |
US9392165B2 (en) | Array camera, mobile terminal, and methods for operating the same | |
US9412190B2 (en) | Image display system, image display apparatus, image display method, and non-transitory storage medium encoded with computer readable program | |
JP2013258614A (en) | Image generation device and image generation method | |
KR102240639B1 (en) | Glass type terminal and control method thereof | |
US20220124240A1 (en) | Target tracking method and system, readable storage medium, and mobile platform | |
KR20110133698A (en) | Method and apparatus for operating camera function in portable terminal | |
KR101773116B1 (en) | Image photographing apparatus and method thereof | |
CN109166150B (en) | Pose acquisition method and device storage medium | |
US20140292636A1 (en) | Head-Worn Infrared-Based Mobile User-Interface | |
WO2018066705A1 (en) | Smartphone | |
US9406136B2 (en) | Information processing device, information processing method and storage medium for identifying communication counterpart based on image including person | |
US9438805B2 (en) | Terminal device and image capturing method | |
EP3520071B1 (en) | Consistent spherical photo and video orientation correction | |
JP7155242B2 (en) | Personal digital assistant | |
JP2016018448A (en) | Input device and its control method and control program, and input system | |
KR102614026B1 (en) | Electronic device having a plurality of lens and controlling method thereof | |
WO2017168622A1 (en) | Captured image sharing system, captured image sharing method, and program | |
KR20160149945A (en) | Mobile terminal |