JP2016018448A - Input device and its control method and control program, and input system - Google Patents

Input device and its control method and control program, and input system Download PDF

Info

Publication number
JP2016018448A
JP2016018448A JP2014141653A JP2014141653A JP2016018448A JP 2016018448 A JP2016018448 A JP 2016018448A JP 2014141653 A JP2014141653 A JP 2014141653A JP 2014141653 A JP2014141653 A JP 2014141653A JP 2016018448 A JP2016018448 A JP 2016018448A
Authority
JP
Japan
Prior art keywords
face
inclination
input
user
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014141653A
Other languages
Japanese (ja)
Inventor
嬋斌 倪
Chan Bin Ni
嬋斌 倪
毅 金子
Takeshi Kaneko
毅 金子
正宏 塩井
Masahiro Shioi
正宏 塩井
久雄 熊井
Hisao Kumai
久雄 熊井
敦稔 〆野
敦稔 〆野
Atsutoshi Simeno
伊藤 典男
Norio Ito
典男 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2014141653A priority Critical patent/JP2016018448A/en
Publication of JP2016018448A publication Critical patent/JP2016018448A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate the same input information by the same operation without depending upon a direction of a portable terminal and a posture of a user.SOLUTION: A portable terminal (20) includes a face tilt detection part (32) which performs face recognition on a face image of a user in a photographed image by a photography part (24) and detects a tilt of a midline of a face to the terminal; a terminal movement detection part (31) which detects a movement of the terminal from a detection result of a motion sensor (23); a rotation conversion part (34) which performs rotation conversion of the detected movement of the terminal to a movement of the terminal about the midline of the face using the detected tilt; and an operation data generation part (35) which generates operation data based upon the rotation-converted movement.SELECTED DRAWING: Figure 1

Description

本発明は、ユーザからの入力を受け付け、該入力に基づく入力情報を情報処理装置に送信する入力装置およびその制御方法、制御プログラム、並びに入力システムに関する。   The present invention relates to an input device that receives input from a user and transmits input information based on the input to an information processing device, a control method therefor, a control program, and an input system.

従来のテレビジョン(TV)受信機、ゲーム機などの外部装置を操作するリモートコントローラ(リモコン)には、英数字のボタン、矢印ボタンなどの各種ボタンが基台に設けられている。該各種ボタンをユーザが操作することにより、上記TV受信機、上記ゲーム機に接続されたディスプレイなどの表示装置の表示が制御される。   A conventional remote controller (remote controller) for operating an external device such as a television (TV) receiver or a game machine is provided with various buttons such as alphanumeric buttons and arrow buttons on a base. When the user operates the various buttons, display of a display device such as a display connected to the TV receiver or the game machine is controlled.

近年、加速度センサなどのモーションセンサを備えたリモコン(以下「モーション型リモコン」と称する。)が市販されている。例えば、特許文献1に記載のゲームシステムでは、コントローラに加速度センサが設けられ、該加速度センサにより上記コントローラの傾きが検知され、検知された傾きにより、表示装置の画面上のオブジェクトを回転させている。このように、モーション型リモコンを利用することにより、直感的な操作が可能となり、表示装置の表示制御が容易となる。   In recent years, remote controllers equipped with motion sensors such as acceleration sensors (hereinafter referred to as “motion type remote controllers”) are commercially available. For example, in the game system described in Patent Document 1, an acceleration sensor is provided in the controller, the inclination of the controller is detected by the acceleration sensor, and an object on the screen of the display device is rotated by the detected inclination. . In this way, by using the motion type remote controller, an intuitive operation is possible, and display control of the display device is facilitated.

特開2007−075213号公報(2007年03月29日公開)JP 2007-075213 (March 29, 2007)

ユーザが上記モーション型リモコンの把持形態を変更すれば、該リモコンの向きが変化して、上記モーションセンサの検出値が変化する場合がある。この場合、上記ユーザが上記リモコンを同じように操作しても、該リモコンの把持形態が異なれば、表示装置における表示制御(操作結果)が異なることになる。そこで、従来は、上記リモコンの把持形態を予め規定していた。   If the user changes the grip type of the motion type remote controller, the direction of the remote controller may change, and the detection value of the motion sensor may change. In this case, even if the user operates the remote controller in the same manner, the display control (operation result) on the display device will be different if the gripping form of the remote controller is different. Therefore, conventionally, the grip form of the remote controller has been defined in advance.

また、ユーザは、両目により空間を認識する。従って、上記ユーザの顔の基準線の例としては、上記両目の間を通る顔の正中線、両目の配列方向を示す直線(以下、「目のアライメント」と称する。)、目のアライメントに略平行な直線である、両耳の配列方向を示す直線(以下、「耳のアライメント」と称する。)が挙げられる。ここで、顔の正中線とは、顔を左右に等分する縦の線をいう。   Further, the user recognizes the space with both eyes. Accordingly, examples of the reference line of the user's face include a median line of the face passing between the eyes, a straight line indicating the arrangement direction of the eyes (hereinafter referred to as “eye alignment”), and eye alignment. A straight line indicating the arrangement direction of both ears, which is a parallel straight line (hereinafter referred to as “ear alignment”). Here, the midline of the face refers to a vertical line that equally divides the face left and right.

一方、表示装置は、通常、画面における隣接する2辺の一方が鉛直線に沿い、他方が水平線に沿うように配置される。従って、上記表示装置の基準線の例としては、鉛直線および水平線が挙げられる。上記ユーザの基準線に対する操作が、上記画面の基準線に対する操作結果となる。   On the other hand, the display device is usually arranged so that one of two adjacent sides on the screen is along a vertical line and the other is along a horizontal line. Accordingly, examples of the reference line of the display device include a vertical line and a horizontal line. The operation on the reference line of the user is the operation result on the reference line of the screen.

このとき、ユーザが姿勢を変更すれば、ユーザの基準線(例えば顔の正中線)が変化して、画面の基準線(例えば鉛直線)から傾斜する場合がある。この場合、ユーザが予想する画面の操作結果が、実際の画面の操作結果から傾斜することになる。そこで、従来は、上記ユーザの姿勢を予め規定していた。   At this time, if the user changes his / her posture, the user's reference line (for example, the midline of the face) may change and tilt from the reference line (for example, the vertical line) on the screen. In this case, the operation result of the screen expected by the user is inclined from the actual operation result of the screen. Therefore, conventionally, the posture of the user has been defined in advance.

本発明は、上記の問題点に鑑みてなされたものであり、その目的は、入力装置の向きおよびユーザの姿勢に依存することなく、同じ操作で同じ入力情報を作成できる入力装置などを提供することにある。   The present invention has been made in view of the above problems, and an object thereof is to provide an input device that can create the same input information by the same operation without depending on the orientation of the input device and the posture of the user. There is.

本発明の一態様に係る入力装置は、ユーザからの入力を受け付け、該入力に基づく入力情報を情報処理装置に送信する入力装置であって、上記の課題を解決するために、撮影を行う撮影部と、前記撮影による撮影画像に含まれる前記ユーザの顔画像に対し顔認識を行って、自装置に対する前記顔の基準線の傾きである顔傾きを検知する顔傾き検知手段と、ユーザによる自装置の操作の動きである操作動きを検知する操作動き検知手段と、該操作動き検知手段が検知した操作動きを、前記顔傾き検知手段が検知した顔傾きを用いて、前記顔の基準線に対する操作動きに回転変換する回転変換手段と、該回転変換手段が回転変換した操作動きに基づく前記入力情報を作成する入力情報作成手段と、を備えることを特徴としている。   An input apparatus according to an aspect of the present invention is an input apparatus that receives input from a user and transmits input information based on the input to an information processing apparatus, and performs imaging to solve the above-described problem. A face inclination detecting means for performing face recognition on the face image of the user included in the photographed image obtained by the photographing and detecting a face inclination that is an inclination of the reference line of the face with respect to the own device, An operation movement detecting means for detecting an operation movement that is an operation movement of the apparatus, and an operation movement detected by the operation movement detecting means with respect to the reference line of the face by using the face inclination detected by the face inclination detecting means. It is characterized by comprising rotation conversion means for rotationally converting to an operation motion, and input information creating means for creating the input information based on the operation motion rotationally converted by the rotation conversion means.

また、本発明の別の態様に係る表示システムは、ユーザからの入力を受け付ける入力装置と、該入力に基づく入力情報を前記入力装置から受信する情報処理装置とを備える入力システムであって、上記課題を解決するために、鉛直線に対する前記ユーザの顔の基準線の傾きである顔傾きを検知する顔傾き検知手段と、前記加速度センサの検出結果から前記鉛直線に対する前記入力装置の傾きである装置傾きを検知する装置傾き検知手段と、ユーザによる前記入力装置の操作動きを検知する操作動き検知手段と、該操作動き検知手段が検知した操作動きを、前記顔傾き検知手段および前記装置傾き検知手段がそれぞれ検知した顔傾きおよび装置傾きを用いて、前記顔の基準線に対する操作動きに回転変換する回転変換手段と、を備え、前記情報処理装置は、前記回転変換手段が回転変換した操作動きを、自装置の基準線に対する操作動きとして、該操作動きに基づき処理を行うことを特徴としている。   A display system according to another aspect of the present invention is an input system including an input device that receives an input from a user, and an information processing device that receives input information based on the input from the input device. In order to solve the problem, the inclination of the input device relative to the vertical line from the detection result of the acceleration sensor and the face inclination detection means for detecting the face inclination which is the inclination of the reference line of the user's face with respect to the vertical line An apparatus inclination detecting means for detecting an apparatus inclination, an operation movement detecting means for detecting an operation movement of the input device by a user, and an operation movement detected by the operation movement detecting means, the face inclination detecting means and the apparatus inclination detecting Rotation conversion means for rotating and converting the operation motion relative to the reference line of the face using the face inclination and the device inclination detected by the means, respectively, Management device, an operation movement which the rotation conversion unit has rotational transformation as the operation movement relative to the reference line of the apparatus is characterized by performing processing based on the manipulation motion.

また、本発明の別の態様に係る入力装置の制御方法は、ユーザからの入力を受け付け、該入力に基づく入力情報を情報処理装置に送信する入力装置の制御方法であって、上記課題を解決するために、撮影部による撮影画像に含まれる前記ユーザの顔画像に対し顔認識を行って、自装置に対する前記顔の基準線の傾きである顔傾きを検知する顔傾き検知ステップと、ユーザによる自装置の操作の動きである操作動きを検知する操作動き検知ステップと、該操作動き検知ステップにて検知された操作動きを、前記顔傾き検知ステップにて検知された顔傾きを用いて、前記顔の基準線に対する操作動きに回転変換する回転変換ステップと、該回転変換ステップにて回転変換された操作動きに基づく前記入力情報を作成する入力情報作成ステップと、を含むことを特徴としている。   An input device control method according to another aspect of the present invention is a control method for an input device that receives input from a user and transmits input information based on the input to an information processing device. In order to do so, a face inclination detection step of performing face recognition on the face image of the user included in the photographed image by the photographing unit and detecting a face inclination which is an inclination of the reference line of the face with respect to the own device; An operation movement detection step for detecting an operation movement that is an operation movement of the device itself, and an operation movement detected in the operation movement detection step, using the face inclination detected in the face inclination detection step, A rotation conversion step for rotationally converting the operation motion relative to the reference line of the face; an input information creation step for creating the input information based on the operation motion rotationally converted in the rotation conversion step; It is characterized in that it comprises.

本発明の一態様によれば、入力装置の向きおよびユーザの姿勢に依存することなく、同じ操作で同じ入力情報を作成できるという効果を奏する。   According to one aspect of the present invention, there is an effect that the same input information can be created by the same operation without depending on the orientation of the input device and the posture of the user.

本発明の一実施形態に係る入力システムの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the input system which concerns on one Embodiment of this invention. 上記入力システムの概要を示す図である。It is a figure which shows the outline | summary of the said input system. 上記入力システムにおける表示装置、携帯端末、およびユーザのローカル座標系を示す図である。It is a figure which shows the display apparatus, portable terminal, and user's local coordinate system in the said input system. 上記携帯端末における処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process in the said portable terminal. 本発明の別の実施形態に係る入力システムにおける携帯端末の概要を示す斜視図である。It is a perspective view which shows the outline | summary of the portable terminal in the input system which concerns on another embodiment of this invention. 本発明のさらに別の実施形態に係る入力システムの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the input system which concerns on another embodiment of this invention. 本発明の他の実施形態に係る入力システムの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the input system which concerns on other embodiment of this invention.

以下、本発明の実施の形態について詳細に説明する。なお、説明の便宜上、各実施形態に示した部材と同一の機能を有する部材については、同一の符号を付記し、適宜その説明を省略する。   Hereinafter, embodiments of the present invention will be described in detail. For convenience of explanation, members having the same functions as those shown in the embodiments are denoted by the same reference numerals, and description thereof is omitted as appropriate.

〔実施形態1〕
まず、本発明の一実施形態について図1〜図4を参照して説明する。
Embodiment 1
First, an embodiment of the present invention will be described with reference to FIGS.

(入力システムの概要)
図2は、本実施形態に係る入力システムの概要を示す図である。図示のように、本実施形態の入力システム1は、表示装置(情報処理装置)10と携帯端末(入力装置)20とを備える構成である。なお、以下では、個々の携帯端末を示す場合には、携帯端末20a、携帯端末20b、などと記載し、携帯端末を総称する場合には携帯端末20と記載する。また、個々のユーザを示す場合には、ユーザUa、ユーザUb、などと記載し、ユーザを総称する場合にはユーザUと記載する。なお、その他も同様である。
(Overview of input system)
FIG. 2 is a diagram showing an overview of the input system according to the present embodiment. As shown in the figure, the input system 1 of the present embodiment is configured to include a display device (information processing device) 10 and a portable terminal (input device) 20. In the following, when each mobile terminal is shown, it is described as a mobile terminal 20a, a mobile terminal 20b, etc., and when the mobile terminals are collectively referred to as a mobile terminal 20. Moreover, when showing an individual user, it describes as user Ua, user Ub, etc., and when referring to a user generically, it describes as user U. The same applies to other cases.

表示装置10は、放送局、インターネット、録画装置などの外部装置からコンテンツを受信し、受信したコンテンツを画面11に表示するものである。表示装置10の例としては、TV受信機が挙げられる。   The display device 10 receives content from an external device such as a broadcasting station, the Internet, or a recording device, and displays the received content on the screen 11. An example of the display device 10 is a TV receiver.

携帯端末20は、ユーザUが携帯可能な通信端末である。携帯端末20の例としては、携帯電話機、スマートフォン、タブレット型端末、PDA(Personal Digital Assistant)、ノート型PC(Personal Computer)、PHS(Personal Handyphone System)端末などが挙げられる。本実施形態では、携帯端末20は、ユーザUの操作に基づき、表示装置10を遠隔操作するリモコンとして機能する。   The portable terminal 20 is a communication terminal that can be carried by the user U. Examples of the mobile terminal 20 include a mobile phone, a smartphone, a tablet terminal, a PDA (Personal Digital Assistant), a notebook PC (Personal Computer), and a PHS (Personal Handyphone System) terminal. In the present embodiment, the mobile terminal 20 functions as a remote control for remotely operating the display device 10 based on the operation of the user U.

図3は、図2に示される表示装置10(画面11)、携帯端末20、およびユーザUのローカル座標系を示している。図3の(a)に示すように、表示装置10のローカル座標系では、水平方向をxd軸に、垂直方向(鉛直方向の逆向き)をyd軸に、前後方向をzd軸にそれぞれとっている。また、同図の(b)に示すように、携帯端末20のローカル座標系では、短手方向をxt軸に、長手方向をyt軸に、前後方向をzt軸にそれぞれとっている。そして、同図の(c)に示すように、ユーザUのローカル座標系では、目のアライメントの方向をxf軸に、正中線MLの方向をyf軸に、前後方向をzf軸にそれぞれとっている。なお、本実施形態では、説明の便宜上、zd軸、zt軸、およびzf軸は方向が同じとする。   FIG. 3 shows the local coordinate system of the display device 10 (screen 11), the mobile terminal 20, and the user U shown in FIG. As shown in FIG. 3A, in the local coordinate system of the display device 10, the horizontal direction is taken as the xd axis, the vertical direction (opposite to the vertical direction) is taken as the yd axis, and the front-rear direction is taken as the zd axis. Yes. In the local coordinate system of the portable terminal 20, as shown in (b) of the figure, the short side direction is taken as the xt axis, the long side direction is taken as the yt axis, and the longitudinal direction is taken as the zt axis. In the local coordinate system of the user U, the eye alignment direction is taken as the xf axis, the direction of the midline ML as the yf axis, and the front-rear direction as the zf axis, as shown in FIG. Yes. In this embodiment, for convenience of explanation, it is assumed that the zd axis, the zt axis, and the zf axis have the same direction.

本実施形態では、携帯端末20は、携帯端末20の3軸方向(xt、yt、zt)の加速度を検出する加速度センサ30(図1を参照)を備えている。携帯端末20は、加速度センサ30を用いて、携帯端末20に働く重力の方向(鉛直方向)と、携帯端末20の3軸方向の移動量(動き、移動ベクトル)とを検知する。そして、携帯端末20は、検知した鉛直方向を用いて、表示装置10の垂直方向(yd軸)に対する携帯端末20の長手方向(yt軸)の傾き(以下「端末傾き」と称する。)θ1を検知する。   In the present embodiment, the mobile terminal 20 includes an acceleration sensor 30 (see FIG. 1) that detects acceleration in the triaxial directions (xt, yt, zt) of the mobile terminal 20. The mobile terminal 20 uses the acceleration sensor 30 to detect the direction of gravity acting on the mobile terminal 20 (vertical direction) and the amount of movement (movement, movement vector) of the mobile terminal 20 in three axes. Then, the portable terminal 20 uses the detected vertical direction to set the inclination (hereinafter referred to as “terminal inclination”) θ1 of the longitudinal direction (yt axis) of the portable terminal 20 with respect to the vertical direction (yd axis) of the display device 10. Detect.

また、携帯端末20には、図3に示すように、撮影を行って、撮影画像を作成する撮影部24(図1・図3を参照)が、表示部26の画面の側に設けられている。また、携帯端末20は、作成した撮影画像に対し顔認識を行って、撮影画像に含まれるユーザUの顔の正中線MLを検知する。なお、上記顔認識の処理には公知のものを利用できるので、その説明を省略する。   Further, as shown in FIG. 3, the mobile terminal 20 is provided with a photographing unit 24 (see FIGS. 1 and 3) that performs photographing and creates a photographed image on the screen side of the display unit 26. Yes. In addition, the mobile terminal 20 performs face recognition on the created captured image, and detects the median line ML of the face of the user U included in the captured image. In addition, since a well-known thing can be utilized for the process of the said face recognition, the description is abbreviate | omitted.

また、携帯端末20は、検知した正中線MLを用いて、携帯端末20の長手方向(yt軸)に対するユーザUの正中線MLの方向(yf軸)の傾き(以下、「顔傾き」と称する。)θ2を検知する。なお、携帯端末20は、検知した正中線MLおよび上記鉛直方向を用いて、表示装置10の垂直方向(yd軸)に対するユーザUの正中線MLの方向(yf軸)の傾きθ2’を検知してもよい。   In addition, the mobile terminal 20 uses the detected midline ML to tilt the user U's midline ML direction (yf axis) with respect to the longitudinal direction (yt axis) of the mobile terminal 20 (hereinafter referred to as “face tilt”). .) Detect θ2. The mobile terminal 20 detects the inclination θ2 ′ of the direction (yf axis) of the midline ML of the user U with respect to the vertical direction (yd axis) of the display device 10 using the detected midline ML and the vertical direction. May be.

ここで、或る直線に対する別の直線の傾きθの算出方法について説明する。上記或る直線の傾きを示す単位ベクトルをベクトルa=(a1,a2)とし、上記別の直線の傾きを示す単位ベクトルをベクトルb=(b1,b2)とすると、上記傾きθ(0≦θ≦180°)は次式(1)で求めることができる。   Here, a method of calculating the inclination θ of another straight line with respect to a certain straight line will be described. When the unit vector indicating the slope of the certain straight line is vector a = (a1, a2) and the unit vector indicating the slope of the other straight line is vector b = (b1, b2), the slope θ (0 ≦ θ ≦ 180 °) can be obtained by the following equation (1).

Figure 2016018448
次に、携帯端末20は、検知した自装置の移動ベクトルmを、検知した顔傾きθ2を用いて、正中線MLに対する自装置の移動ベクトルに回転変換する。これにより、回転変換された移動ベクトルは、携帯端末20の傾きに依存しなくなる。また、当該動きは、上記顔の正中線MLに対する携帯端末20の動きであるので、ユーザの姿勢に依存しない。
Figure 2016018448
Next, the mobile terminal 20 rotationally converts the detected movement vector m of the own apparatus into a movement vector of the own apparatus with respect to the midline ML using the detected face inclination θ2. Thereby, the rotation-converted movement vector does not depend on the inclination of the mobile terminal 20. Moreover, since the said movement is a movement of the portable terminal 20 with respect to the said face midline ML, it does not depend on a user's attitude | position.

そして、携帯端末20は、回転変換した、正中線MLに対する自装置の移動ベクトルを、表示装置10の垂直方向(yd軸)に対する移動ベクトルとし、該移動ベクトルに従って表示装置10の画面11上のオブジェクトAを移動するように指示する。これにより、ユーザUにとって同じ動きで、同じ指示を行うことができる。なお、オブジェクトAの例としては、カーソル、アバターなどが挙げられる。   Then, the mobile terminal 20 sets the rotation vector of the own device with respect to the median line ML, which has been rotationally converted, as a movement vector with respect to the vertical direction (yd axis) of the display device 10, and the object on the screen 11 of the display device 10 according to the movement vector. Instruct A to move. Thereby, the same instruction can be performed with the same movement for the user U. Note that examples of the object A include a cursor and an avatar.

なお、携帯端末20は、作成した撮影画像からユーザUの顔の画像を認識できなかった場合、或いは、検知した顔傾きθ2=0である場合には、検知した自装置の移動ベクトルmを、検知した装置傾きθ1を用いて、表示装置10の垂直方向(yd軸)に対する移動ベクトルに回転変換する。そして、携帯端末20は、回転変換した、表示装置10の垂直方向(yd軸)に対する自装置の移動ベクトルに従って表示装置10の画面11上のオブジェクトAを移動するように指示する。これにより、携帯端末20の傾きに依存しない指示を行うことができる。   When the mobile terminal 20 cannot recognize the image of the face of the user U from the created captured image, or when the detected face inclination θ2 = 0, the mobile device 20 detects the detected movement vector m of its own device, Using the detected device inclination θ1, it is rotationally converted into a movement vector with respect to the vertical direction (yd axis) of the display device 10. Then, the portable terminal 20 instructs to move the object A on the screen 11 of the display device 10 according to the movement vector of the own device with respect to the vertical direction (yd axis) of the display device 10 that has been rotationally converted. Thereby, an instruction independent of the inclination of the mobile terminal 20 can be performed.

本実施形態による動作例について説明する。図2にて移動ベクトルmで示されるように、ユーザUは、携帯端末20を正中線MLに平行な方向に移動操作していると仮定する。   An operation example according to the present embodiment will be described. As shown by the movement vector m in FIG. 2, it is assumed that the user U is moving the mobile terminal 20 in a direction parallel to the median line ML.

左側のユーザUaは、直立した状態であり、携帯端末20aを表示装置10の垂直方向(yd軸)に把持している。この場合、携帯端末20aの長手方向(yt軸)とユーザUaの正中線(yf軸)とが、表示装置10の垂直方向(yd軸)と一致している。すなわち、端末傾きθ1=0°であり、顔傾きθ2=0°である。   The user Ua on the left side is in an upright state, holding the mobile terminal 20a in the vertical direction (yd axis) of the display device 10. In this case, the longitudinal direction (yt axis) of the mobile terminal 20a and the median line (yf axis) of the user Ua coincide with the vertical direction (yd axis) of the display device 10. That is, the terminal inclination θ1 = 0 ° and the face inclination θ2 = 0 °.

従って、上記の回転変換は不要であるので、携帯端末20aは、検知した自装置の移動ベクトルmに従って表示装置10の画面11上のオブジェクトAを移動するように指示する。これにより、表示装置10の画面11上のオブジェクトAは、垂直方向(yd軸)に平行な方向に移動する。   Therefore, since the rotation conversion described above is unnecessary, the mobile terminal 20a instructs to move the object A on the screen 11 of the display device 10 according to the detected movement vector m of the own device. As a result, the object A on the screen 11 of the display device 10 moves in a direction parallel to the vertical direction (yd axis).

一方、中央のユーザUbは、斜め横になった状態であり、携帯端末20bを表示装置10の垂直方向(yd軸)から45°傾けた状態で把持している。さらに、携帯端末20bは、ユーザUbの顔から離間しているため、作成した撮影画像にはユーザUbの顔の画像が含まれていないとする。この場合、端末傾きθ1=45°であり、顔傾きθ2は検知されない。   On the other hand, the user Ub at the center is in a state of being inclined sideways and holding the mobile terminal 20b in a state inclined by 45 ° from the vertical direction (yd axis) of the display device 10. Furthermore, since the mobile terminal 20b is separated from the face of the user Ub, it is assumed that the created captured image does not include the face image of the user Ub. In this case, the terminal inclination θ1 = 45 °, and the face inclination θ2 is not detected.

従って、携帯端末20bは、検知した自装置の移動ベクトルmを、端末傾きθ1=45°だけ回転させて、表示装置10の垂直方向(yd軸)に対する移動ベクトルに変換し、変換した移動ベクトルに従って表示装置10の画面11上のオブジェクトAを移動するように指示する。これにより、表示装置10の画面11上のオブジェクトAは、垂直方向(yd軸)に平行な方向に移動する。   Accordingly, the portable terminal 20b rotates the detected movement vector m of the own apparatus by rotating the terminal inclination θ1 = 45 ° into a movement vector with respect to the vertical direction (yd axis) of the display device 10, and according to the converted movement vector. An instruction is given to move the object A on the screen 11 of the display device 10. As a result, the object A on the screen 11 of the display device 10 moves in a direction parallel to the vertical direction (yd axis).

一方、右側のユーザUcは、横になった状態であり、顔が表示装置10の垂直方向(yd軸)から30°傾いており、かつ、携帯端末20cを表示装置10の垂直方向(yd軸)から45°傾けて把持している。ユーザUcの顔平面と携帯端末20cの画面平面が平行であると仮定すると、端末傾きθ1=45°であり、顔傾きθ2=45°−30°=15°となる。   On the other hand, the user Uc on the right side is in a lying state, the face is inclined by 30 ° from the vertical direction (yd axis) of the display device 10, and the mobile terminal 20c is placed in the vertical direction (yd axis) of the display device 10. ) And tilted by 45 °. Assuming that the face plane of the user Uc and the screen plane of the mobile terminal 20c are parallel, the terminal inclination θ1 = 45 ° and the face inclination θ2 = 45 ° -30 ° = 15 °.

従って、携帯端末20cは、検知した自装置の移動ベクトルmを、顔傾きθ2=15°だけ回転させて、ユーザUcの正中線(yf軸)に対する移動ベクトルに変換する。変換された移動ベクトルは、上記仮定のように、正中線(yf軸)に平行な方向となる。次に、携帯端末20は、変換した移動ベクトルを、表示装置10垂直方向(yd軸)に対する移動ベクトルとし、該移動ベクトルに従って表示装置10の画面11上のオブジェクトAを移動するように指示する。当該移動ベクトルは、表示装置10垂直方向(yd軸)に平行な方向であるので、表示装置10の画面11上のオブジェクトAは、垂直方向(yd軸)に平行な方向に移動する。   Accordingly, the mobile terminal 20c rotates the detected movement vector m of the own device by a face inclination θ2 = 15 ° and converts it into a movement vector with respect to the midline (yf axis) of the user Uc. The converted movement vector is in a direction parallel to the midline (yf axis) as in the above assumption. Next, the mobile terminal 20 uses the converted movement vector as a movement vector with respect to the vertical direction (yd axis) of the display device 10 and instructs the object A on the screen 11 of the display device 10 to move according to the movement vector. Since the movement vector is a direction parallel to the vertical direction (yd axis) of the display device 10, the object A on the screen 11 of the display device 10 moves in a direction parallel to the vertical direction (yd axis).

(入力システムの詳細)
図1は、入力システム1の概略構成を示すブロック図である。図示のように、表示装置10は、コンテンツ受信部12、コンテンツ解析部13、通信部14、表示制御部15、および表示部16を備える構成である。
(Details of input system)
FIG. 1 is a block diagram showing a schematic configuration of the input system 1. As illustrated, the display device 10 includes a content receiving unit 12, a content analysis unit 13, a communication unit 14, a display control unit 15, and a display unit 16.

外部装置からの1または複数のコンテンツは、コンテンツ受信部12にて受信され、コンテンツ解析部13にて解析され、該解析結果に基づき、表示部16に表示するように表示制御部15にて制御される。また、携帯端末20からの操作データは、通信部14にて受信され、受信された操作データに基づき、上記コンテンツの位置を変更した上で当該コンテンツを表示部16に表示するように表示制御部15にて制御される。このように、本実施形態における表示装置10は、公知のものと同様である。   One or more contents from the external device are received by the content receiving unit 12, analyzed by the content analysis unit 13, and controlled by the display control unit 15 so as to be displayed on the display unit 16 based on the analysis result. Is done. In addition, the operation data from the mobile terminal 20 is received by the communication unit 14, and the display control unit is configured to display the content on the display unit 16 after changing the position of the content based on the received operation data. 15 is controlled. Thus, the display device 10 in the present embodiment is the same as a known device.

一方、携帯端末20は、制御部21、記憶部22、モーションセンサ23、撮影部24、入力部25、表示部26、および通信部27を備える構成である。   On the other hand, the mobile terminal 20 includes a control unit 21, a storage unit 22, a motion sensor 23, a photographing unit 24, an input unit 25, a display unit 26, and a communication unit 27.

制御部21は、携帯端末20内の各種構成を統括的に制御するものであり、CPU(Central Processing Unit)などのプロセッサを備える構成である。記憶部22は、各種のデータおよびプログラムを記憶するものであり、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリなどの記憶素子を備える構成である。なお、制御部21の詳細については後述する。   The control unit 21 comprehensively controls various components in the mobile terminal 20 and includes a processor such as a CPU (Central Processing Unit). The storage unit 22 stores various data and programs, and includes a storage element such as a random access memory (RAM), a read only memory (ROM), and a flash memory. Details of the control unit 21 will be described later.

モーションセンサ23は、携帯端末20の動きを検出するものである。モーションセンサ23は、検出データを制御部21に送信する。本実施形態では、モーションセンサ23は、上述の加速度センサ30を備えている。なお、モーションセンサ23は、携帯端末20の3軸方向の角速度を検出するジャイロセンサを備えてもよいし、地磁気を検出する地磁気センサを備えてもよい。上記ジャイロセンサにより、携帯端末20の3軸方向の回転量(回転ベクトル)を検出することができ、上記地磁気センサにより、携帯端末20の方位を検出することができる。   The motion sensor 23 detects the movement of the mobile terminal 20. The motion sensor 23 transmits detection data to the control unit 21. In the present embodiment, the motion sensor 23 includes the acceleration sensor 30 described above. The motion sensor 23 may include a gyro sensor that detects an angular velocity in the triaxial direction of the mobile terminal 20 or may include a geomagnetic sensor that detects geomagnetism. The gyro sensor can detect the amount of rotation (rotation vector) in the three-axis direction of the mobile terminal 20, and the geomagnetic sensor can detect the orientation of the mobile terminal 20.

撮影部24は、上述のように、被写体の撮影を行って、静止画および動画といった撮影画像を作成するものであり、例えば、レンズなどの光学系と、外部から上記光学系を介しての光を電気信号に変換する撮像素子とを備えている。該撮像素子の例としては、CCD(Charge Coupled Device)、CMOS(Complementary Metal-oxide Semiconductor)イメージセンサなどが挙げられる。撮影部24は、作成した撮影画像のデータを制御部21に送信する。なお、上記撮影画像は、カラー画像でもよいし、白黒画像でもよいし、赤外線画像でもよい。また、撮影部24は、ユーザの顔に自動的に焦点が合うように、オートフォーカス機構を有することが望ましい。   As described above, the photographing unit 24 shoots a subject and creates a photographed image such as a still image and a moving image. For example, an optical system such as a lens and light from the outside via the optical system are used. And an image sensor for converting the signal into an electric signal. Examples of the image pickup device include a charge coupled device (CCD), a complementary metal-oxide semiconductor (CMOS) image sensor, and the like. The imaging unit 24 transmits the created captured image data to the control unit 21. The photographed image may be a color image, a black and white image, or an infrared image. The photographing unit 24 preferably has an autofocus mechanism so that the user's face is automatically focused.

入力部25は、携帯端末20の表面に設けられた操作ボタンなどの入力デバイスをユーザが操作することにより、入力データを作成して制御部21に送信するものである。入力デバイスの例としては、ボタンスイッチの他にタッチパネルなどが挙げられる。   The input unit 25 creates input data and transmits it to the control unit 21 when a user operates an input device such as an operation button provided on the surface of the mobile terminal 20. Examples of input devices include a touch panel in addition to button switches.

表示部26は、制御部21から画像データを受信し、受信した画像データに基づいて表示画面に画像を表示するものである。具体的には、表示部26は、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、EL(Electroluminescence)ディスプレイ、電子ペーパなどの表示素子と、受信した画像データに基づいて表示素子を駆動するドライバ回路とを備える構成である。   The display unit 26 receives image data from the control unit 21 and displays an image on the display screen based on the received image data. Specifically, the display unit 26 drives a display element based on a display element such as an LCD (Liquid Crystal Display), a PDP (Plasma Display Panel), an EL (Electroluminescence) display, and electronic paper, and received image data. And a driver circuit.

通信部27は、制御部21から受信したデータを無線送信に適した形式に変換し、変換した無線信号を、アンテナ(図示せず)を介して外部に送信すると共に、外部から上記アンテナを介して受信した無線信号を元の形式に変換し、変換したデータを制御部21に送信するものである。具体的には、通信部27では、データの変復調処理、RF処理などが行われる。   The communication unit 27 converts the data received from the control unit 21 into a format suitable for wireless transmission, transmits the converted wireless signal to the outside via an antenna (not shown), and from the outside via the antenna. The received radio signal is converted into the original format, and the converted data is transmitted to the control unit 21. Specifically, the communication unit 27 performs data modulation / demodulation processing, RF processing, and the like.

本実施形態では、通信部27は、無線LAN、ブルートゥース(登録商標)などにより、表示装置10と近距離無線通信を行うものであるが、これに限定されるものではない。例えば、通信部27は、携帯電話回線およびインターネットを介して表示装置10と無線通信を行ってもよいし、赤外線を利用して表示装置10と無線通信を行ってもよい。また、通信部27は、ケーブルなどを利用して表示装置10と有線通信を行ってもよい。   In the present embodiment, the communication unit 27 performs short-range wireless communication with the display device 10 by wireless LAN, Bluetooth (registered trademark), or the like, but is not limited thereto. For example, the communication unit 27 may perform wireless communication with the display device 10 via a mobile phone line and the Internet, or may perform wireless communication with the display device 10 using infrared rays. The communication unit 27 may perform wired communication with the display device 10 using a cable or the like.

次に、携帯端末20における制御部21および記憶部22の詳細について説明する。図1に示すように、制御部21は、端末傾き検知部(装置傾き検知手段)31、顔傾き検知部(顔傾き検知手段)32、動き検知部(操作動き検知手段)33、回転変換部(回転変換手段)34、および操作データ作成部(入力情報作成手段)35を備える構成である。   Next, details of the control unit 21 and the storage unit 22 in the mobile terminal 20 will be described. As illustrated in FIG. 1, the control unit 21 includes a terminal tilt detection unit (device tilt detection unit) 31, a face tilt detection unit (face tilt detection unit) 32, a motion detection unit (operation motion detection unit) 33, and a rotation conversion unit. (Rotation conversion means) 34 and an operation data creation unit (input information creation means) 35 are provided.

端末傾き検知部31は、加速度センサ30からの検出データに基づいて、上述の端末傾きθ1を検知するものである。端末傾き検知部31は、検知した端末傾きθ1を回転変換部34に送信する。   The terminal tilt detection unit 31 detects the terminal tilt θ1 described above based on the detection data from the acceleration sensor 30. The terminal tilt detection unit 31 transmits the detected terminal tilt θ1 to the rotation conversion unit 34.

顔傾き検知部32は、撮影部24からの撮影画像のデータを用いて、顔認識を行い、上述の顔傾きθ2を検知するものである。顔傾き検知部32は、検知した顔傾きθ2を回転変換部34に送信する。このとき、上記顔認識ができなかった場合、顔傾き検知部32は、その旨を回転変換部34に通知する。   The face inclination detection unit 32 performs face recognition using data of the captured image from the imaging unit 24 and detects the above-described face inclination θ2. The face inclination detection unit 32 transmits the detected face inclination θ2 to the rotation conversion unit 34. At this time, when the face recognition cannot be performed, the face inclination detection unit 32 notifies the rotation conversion unit 34 to that effect.

動き検知部33は、モーションセンサ23からの検出データに基づいて、自端末の動きを、ユーザによる自端末の操作の動きとして検知するものである。動き検知部33は、検知した動きを示す動きベクトルを回転変換部34に送信する。   Based on the detection data from the motion sensor 23, the motion detection unit 33 detects the movement of the own terminal as the movement of the operation of the own terminal by the user. The motion detection unit 33 transmits a motion vector indicating the detected motion to the rotation conversion unit 34.

回転変換部34は、動き検知部33からの動きベクトルを、上述の条件に基づき、端末傾き検知部31からの端末傾きθ1、または、顔傾き検知部32からの顔傾きθ2を用いて回転変換するものである。回転変換部34は、回転変換された動きベクトルを操作データ作成部35に送信する。   The rotation conversion unit 34 converts the motion vector from the motion detection unit 33 using the terminal inclination θ1 from the terminal inclination detection unit 31 or the face inclination θ2 from the face inclination detection unit 32 based on the above-described conditions. To do. The rotation conversion unit 34 transmits the rotation-converted motion vector to the operation data creation unit 35.

操作データ作成部35は、回転変換部34からの動きベクトルを含む操作データを作成するものである。操作データ作成部35は、作成した操作データを、通信部27を介して表示装置10に送信する。これにより、表示装置10では、上記操作データに基づいて表示が制御される。   The operation data creation unit 35 creates operation data including a motion vector from the rotation conversion unit 34. The operation data creation unit 35 transmits the created operation data to the display device 10 via the communication unit 27. Thereby, in the display apparatus 10, a display is controlled based on the said operation data.

(携帯端末の処理)
次に、上記構成の携帯端末20における処理(制御方法)について説明する。図4は、該処理の流れを示すフローチャートである。図示のように、まず、顔傾き検知部32は、撮影部24からの撮影画像のデータを用いて顔認識を行い(S10)、ユーザUの顔を認識できた場合には(S11にてYES)、上記撮影画像から顔傾きθ2を検知する(S12、顔傾き検知ステップ)。
(Handling of mobile device)
Next, processing (control method) in the mobile terminal 20 having the above-described configuration will be described. FIG. 4 is a flowchart showing the flow of the processing. As shown in the figure, first, the face inclination detection unit 32 performs face recognition using the data of the captured image from the imaging unit 24 (S10), and if the face of the user U can be recognized (YES in S11). ), The face inclination θ2 is detected from the photographed image (S12, face inclination detection step).

このとき、ユーザUの顔を認識できなかった場合(S11にてNO)、或いは、顔傾きθ2=0である場合には(S13にてYES)、端末傾き検知部31は、加速度センサ30からの検出データに基づいて、端末傾きθ1を検知する(S14)。次に、動き検知部33は、モーションセンサ23からの検出データに基づいて、自端末の動きベクトルmを検知する(S15、操作動き検知ステップ)。   At this time, if the face of user U cannot be recognized (NO in S11), or if face tilt θ2 = 0 (YES in S13), terminal tilt detection unit 31 starts from acceleration sensor 30. The terminal inclination θ1 is detected based on the detected data (S14). Next, the motion detection unit 33 detects the motion vector m of the terminal itself based on the detection data from the motion sensor 23 (S15, operation motion detection step).

次に、回転変換部34は、動き検知部33が検知した動きベクトルmを、端末傾き検知部31が検知した端末傾きθ1を用いて回転変換する(S16、回転変換ステップ)。そして、操作データ作成部35は、回転変換部34が回転変換した動きベクトルを含む操作データを作成して、表示装置10に送信する(S17、入力情報作成ステップ)。その後、処理動作を終了する。   Next, the rotation conversion unit 34 converts the rotation of the motion vector m detected by the motion detection unit 33 using the terminal inclination θ1 detected by the terminal inclination detection unit 31 (S16, rotation conversion step). Then, the operation data creation unit 35 creates operation data including the motion vector rotationally converted by the rotation conversion unit 34, and transmits the operation data to the display device 10 (S17, input information creation step). Thereafter, the processing operation is terminated.

一方、顔傾きθ2=0ではない場合には(S13にてNO)、動き検知部33は、モーションセンサ23からの検出データに基づいて、自端末の動きベクトルmを検知する(S18、操作動き検知ステップ)。次に、回転変換部34は、動き検知部33が検知した動きベクトルmを、顔傾き検知部32が検知した顔傾きθ2を用いて回転変換し(S19、回転変換ステップ)、そして、回転変換部34は、回転変換した動きベクトルを、垂直方向の動きベクトルとして、操作データ作成部35は、当該動きベクトルを含む操作データを作成して、表示装置10に送信する(S20、入力情報作成ステップ)。その後、処理動作を終了する。   On the other hand, when the face inclination θ2 is not 0 (NO in S13), the motion detection unit 33 detects the motion vector m of the terminal itself based on the detection data from the motion sensor 23 (S18, operation motion). Detection step). Next, the rotation conversion unit 34 performs rotation conversion on the motion vector m detected by the motion detection unit 33 using the face inclination θ2 detected by the face inclination detection unit 32 (S19, rotation conversion step), and rotation conversion The unit 34 uses the rotation-converted motion vector as a vertical motion vector, and the operation data creation unit 35 creates operation data including the motion vector and transmits it to the display device 10 (S20, input information creation step). ). Thereafter, the processing operation is terminated.

(付記事項)
本実施形態では、携帯端末20から表示装置10にデータを送信しているが、表示装置10から携帯端末20にデータを送信する必要は無い。従って、携帯端末20の通信部27は、データを送信する送信部のみでもよく、表示装置10の通信部14は、データを受信する受信部のみでもよい。
(Additional notes)
In the present embodiment, data is transmitted from the mobile terminal 20 to the display device 10, but it is not necessary to transmit data from the display device 10 to the mobile terminal 20. Accordingly, the communication unit 27 of the mobile terminal 20 may be only a transmission unit that transmits data, and the communication unit 14 of the display device 10 may be only a reception unit that receives data.

また、端末傾き検知部31が検知した端末傾きθ1と、顔傾き検知部32が検知した顔傾きθ2とを記憶部22に記憶しておき、記憶された端末傾きθ1および顔傾きθ2を回転変換部34が利用してもよい。   Further, the terminal inclination θ1 detected by the terminal inclination detection unit 31 and the face inclination θ2 detected by the face inclination detection unit 32 are stored in the storage unit 22, and the stored terminal inclination θ1 and face inclination θ2 are rotationally converted. The unit 34 may use it.

また、撮影部24は、表示部26の画面の反対側に設けられていてもよい。この場合、撮影部24が設けられている側、すなわち、表示部26の画面の反対側がユーザと対向するように、ユーザは、携帯端末20を把持すればよい。このとき、表示部26の画面におけるタッチパネルの操作は、親指以外の指で行えばよい。   Further, the photographing unit 24 may be provided on the opposite side of the screen of the display unit 26. In this case, the user may hold the mobile terminal 20 so that the side on which the photographing unit 24 is provided, that is, the opposite side of the screen of the display unit 26 faces the user. At this time, the operation of the touch panel on the screen of the display unit 26 may be performed with a finger other than the thumb.

また、本実施形態では、ユーザの顔の正中線ML(図3の(c)のyf軸)を、上記顔の基準線とし、表示装置10の垂直方向(図3の(a)のyd軸)が示す直線、すなわち鉛直線を表示装置10の基準線としているが、これに限定されない。例えば、上記顔の基準線として、目のアライメント(同図の(c)のxf軸)を使用してもよいし、目のアライメントに略平行な耳のアライメントを使用してもよい。この場合、表示装置10の基準線は、表示装置10の水平方向(図3の(a)のxd軸)が示す直線、すなわち水平線となる。   In the present embodiment, the midline ML (yf axis in FIG. 3C) of the user's face is used as the reference line of the face, and the display device 10 is in the vertical direction (yd axis in FIG. 3A). ), That is, a vertical line is used as the reference line of the display device 10, but is not limited thereto. For example, as the face reference line, eye alignment (the xf axis in (c) of the figure) may be used, or ear alignment substantially parallel to the eye alignment may be used. In this case, the reference line of the display device 10 is a straight line indicated by the horizontal direction of the display device 10 (xd axis in FIG. 3A), that is, a horizontal line.

しかしながら、上記鉛直線の方向は、重力の方向であり、一意に決まるが、上記水平線の方向は、重力に垂直な方向であり、一意には決まらない。従って、上記顔の基準線としては、上記目のアライメントおよび上記耳のアライメントよりも、上記顔の正中線MLの方が好ましい。この場合、ユーザにとって同じ動きで、同じ指示を確実に行うことができる。   However, although the direction of the vertical line is the direction of gravity and is uniquely determined, the direction of the horizontal line is a direction perpendicular to gravity and is not uniquely determined. Therefore, the face midline ML is more preferable as the face reference line than the eye alignment and the ear alignment. In this case, the same instruction can be reliably performed with the same movement for the user.

(変形例1)
また、ユーザUの顔の向きを種々に変更して撮影を行い、作成した撮影画像に含まれる顔画像の特徴データを、顔傾きθ2に対応付けて、記憶部22予め記憶しておいてもよい。この特徴データを利用することにより、顔傾きθ2を迅速に導出することができる。
(Modification 1)
In addition, the user U may perform shooting while changing the orientation of the face in various ways, and the feature data of the face image included in the created captured image may be stored in advance in association with the face inclination θ2. Good. By using this feature data, the face inclination θ2 can be quickly derived.

(変形例2)
また、携帯端末20をユーザUの顔に近づけると、撮影画像における顔画像が大きくなる一方、携帯端末20をユーザUの顔から遠ざけると、撮影画像における顔画像が小さくなる。そこで、上記顔画像の大きさに応じて、画面11上のオブジェクトAを拡縮して表示するように操作してもよい。これにより、携帯端末20をユーザUに近づけたり遠ざけたりすることにより、画面11上のオブジェクトAの大きさを操作することができる。
(Modification 2)
Further, when the mobile terminal 20 is brought closer to the face of the user U, the face image in the captured image becomes larger, while when the mobile terminal 20 is moved away from the user U's face, the face image in the captured image becomes smaller. Therefore, an operation may be performed so that the object A on the screen 11 is enlarged and reduced according to the size of the face image. Accordingly, the size of the object A on the screen 11 can be manipulated by moving the mobile terminal 20 closer to or away from the user U.

(変形例3)
また、ユーザUにとっては、携帯端末20を同じように動かしても、携帯端末20とユーザUの顔との距離が近い場合には、携帯端末20が大きく動いて見える一方、当該距離が遠い場合には、携帯端末20が小さく動いて見える。そこで、上記顔画像の大きさに比例して、動き検知部33から回転変換部34に送信される動きベクトルの長さの倍率を変更してもよい。すなわち、携帯端末20とユーザUの顔との距離が近い場合、上記顔画像が大きいので、上記動きベクトルを長くする一方、当該距離が遠い場合、上記顔画像が小さいので、上記動きベクトルを短くする。
(Modification 3)
For the user U, even if the mobile terminal 20 is moved in the same manner, if the distance between the mobile terminal 20 and the face of the user U is short, the mobile terminal 20 appears to move greatly, while the distance is long The mobile terminal 20 appears to move small. Accordingly, the magnification of the length of the motion vector transmitted from the motion detection unit 33 to the rotation conversion unit 34 may be changed in proportion to the size of the face image. That is, when the distance between the mobile terminal 20 and the face of the user U is close, the face image is large, so the motion vector is lengthened. On the other hand, when the distance is far, the face image is small, so the motion vector is shortened. To do.

これにより、携帯端末20を同じように動かしても、携帯端末20とユーザUの顔との距離が近い場合には、オブジェクトAが大きく動く一方、当該距離が遠い場合には、オブジェクトAが小さく動くことになる。従って、ユーザUが見た携帯端末20の動きに対応するように、オブジェクトAを動かすことができるので、ユーザUはオブジェクトAを直感的に遠隔操作することができる。   Accordingly, even if the mobile terminal 20 is moved in the same manner, the object A moves greatly when the distance between the mobile terminal 20 and the face of the user U is short, while the object A becomes small when the distance is long. It will move. Therefore, since the object A can be moved so as to correspond to the movement of the mobile terminal 20 as seen by the user U, the user U can remotely operate the object A intuitively.

なお、本変形例の場合、上記顔画像の大きさに比例して上記動きベクトルの長さの倍率を連続的に変更しているが、離散的に変更してもよい。例えば、上記顔画像の大きさが所定値以下の場合には、上記倍率を低くする一方、上記顔画像の大きさが所定値よりも大きいの場合には、上記倍率を高くする。このように、上記倍率を2段階に変化させてもよい。また、上記所定値を複数個設定することにより、上記倍率を多段階に変化させてもよい。   In this modification, the magnification of the length of the motion vector is continuously changed in proportion to the size of the face image, but may be changed discretely. For example, when the size of the face image is less than or equal to a predetermined value, the magnification is decreased. On the other hand, when the size of the face image is larger than a predetermined value, the magnification is increased. Thus, the magnification may be changed in two steps. The magnification may be changed in multiple stages by setting a plurality of the predetermined values.

(変形例4)
また、上記実施形態では、動き検知部33は、モーションセンサ23を用いて検知した携帯端末20自体の動きを、ユーザによる携帯端末20の操作の動きとしているが、これに限定されるものではない。例えば、入力部25におけるタッチパネルを用いて検知したユーザのフリップ操作(フリック操作)のように、入力部25におけるユーザの操作の動きを、ユーザによる携帯端末20の操作の動きとしてもよい。この場合、動き検知部33は、モーションセンサ23を利用する必要がなくなる。
(Modification 4)
Moreover, in the said embodiment, although the motion detection part 33 makes the motion of the portable terminal 20 itself detected using the motion sensor 23 the movement of the operation of the portable terminal 20 by a user, it is not limited to this. . For example, the movement of the user's operation at the input unit 25, such as the user's flip operation (flick operation) detected using the touch panel at the input unit 25, may be the movement of the operation of the mobile terminal 20 by the user. In this case, the motion detection unit 33 does not need to use the motion sensor 23.

(変形例5)
ところで、ユーザは、通常、少なくとも1分間程度は姿勢を維持すると考えられる。上記姿勢が維持されると、上記ユーザの顔と、該顔の付近または周囲に位置する物体との幾何学的位置関係が維持されるので、当該顔の正中線と当該物体の基準線との幾何学的位置関係も維持されると考えられる。また、上記撮影画像には、上記顔の画像以外にも、上記物体の画像が含まれている可能性が高いと考えられる。すなわち、上記顔以外にも、上記物体が被写体となる可能性が高いと考えられる。
(Modification 5)
By the way, it is considered that the user usually maintains the posture for at least about one minute. If the posture is maintained, the geometric positional relationship between the user's face and an object located near or around the face is maintained, so that the midline of the face and the reference line of the object It is considered that the geometric positional relationship is also maintained. In addition to the face image, it is highly likely that the captured image includes the object image. That is, it is considered that there is a high possibility that the object becomes a subject other than the face.

なお、ユーザの顔の付近または周囲に位置する物体の例としては、家具、壁に貼付された壁紙、上記ユーザが着ている服などが挙げられる。上記家具の基準線の例としては、鉛直線、水平線などが挙げられ、上記壁紙の基準線の例としては、当該壁紙の模様の方向を示す直線などが挙げられ、かつ、上記服の基準線の例としては、当該服の模様の方向を示す直線などが挙げられる。   Note that examples of objects located near or around the user's face include furniture, wallpaper affixed to a wall, clothes worn by the user, and the like. Examples of the furniture reference line include vertical lines, horizontal lines, etc., and examples of the wallpaper reference line include straight lines indicating the direction of the wallpaper pattern, and the clothes reference line. As an example, there is a straight line indicating the direction of the pattern of the clothes.

そこで、上記撮影画像からユーザUの顔を認識できなかった場合(図4のS11にてNO)、加速度センサ30からの検出データに基づいて、端末傾きθ1を検知する代わりに(S14)、下記のように、顔傾きθ2を推定してもよい。   Therefore, when the face of the user U cannot be recognized from the captured image (NO in S11 of FIG. 4), instead of detecting the terminal inclination θ1 based on the detection data from the acceleration sensor 30 (S14), the following As described above, the face inclination θ2 may be estimated.

すなわち、上記撮影画像からユーザUの顔を認識できた場合には(S11にてYES)、当該撮影画像から顔傾きθ2を検知すると共に(S12)、上記撮影画像に含まれる上記顔以外の被写体の画像に対し画像認識を行って、自装置に対する上記被写体の基準線の傾きである被写体傾きを検知する。そして、上記撮影画像からユーザUの顔を認識できなかった場合(S11にてNO)、上記被写体傾きを検知し、検知した被写体傾きと、以前にユーザUの顔を認識できた場合に検知した顔傾きθ2および被写体傾きとを用いて、現在の顔傾きθ2を推定する。なお、顔傾きθ2を推定するために利用される被写体(上記物体)は、1つでもよいし、複数でもよい。   That is, if the user U's face can be recognized from the captured image (YES in S11), the face inclination θ2 is detected from the captured image (S12), and subjects other than the face included in the captured image are detected. Image recognition is performed on the image of the subject, and a subject inclination which is an inclination of the reference line of the subject with respect to the apparatus is detected. If the user U's face cannot be recognized from the captured image (NO in S11), the subject tilt is detected, and the detected subject tilt and the user U's face have been detected previously. The current face inclination θ2 is estimated using the face inclination θ2 and the subject inclination. Note that the subject (the object) used for estimating the face inclination θ2 may be one or plural.

ところで、近似の携帯端末20では、表示部26の画面の側に撮影部24(インカメラ)が設けられると共に、その反対側に撮影部24(アウトカメラ)が設けられているものが多い。このような携帯端末20では、インカメラにてユーザUの顔が撮影されると、アウトカメラでユーザUの周囲が撮影される。そこで、インカメラをユーザUの顔の認識に利用する一方、アウトカメラを上記顔以外の物体の認識に利用してもよい。このように、撮影部24が複数個設けられている場合、顔の認識に利用される撮影部24と、上記顔以外の物体の認識に利用される撮影部24とは、同じでもよいし、異なってもよい。   By the way, many of the approximate portable terminals 20 are provided with the photographing unit 24 (in camera) on the screen side of the display unit 26 and the photographing unit 24 (out camera) on the opposite side. In such a portable terminal 20, when the face of the user U is photographed by the in-camera, the surroundings of the user U are photographed by the out-camera. Therefore, the in-camera may be used for recognizing the face of the user U, while the out-camera may be used for recognizing an object other than the face. Thus, when a plurality of photographing units 24 are provided, the photographing unit 24 used for face recognition and the photographing unit 24 used for recognition of an object other than the face may be the same, May be different.

〔実施形態2〕
本発明の別の実施形態について、図5を参照して説明する。図5は、本実施形態に係る入力システム1における携帯端末20の概要を示す斜視図である。
[Embodiment 2]
Another embodiment of the present invention will be described with reference to FIG. FIG. 5 is a perspective view showing an outline of the mobile terminal 20 in the input system 1 according to the present embodiment.

図5に示すように、本実施形態の携帯端末20は、図3の(b)に示す携帯端末20に比べて、撮影部24が複数個設けられている点が異なり、その他の構成は同様である。複数の撮影部24がそれぞれ作成した複数の撮影画像を利用することにより、顔傾き検知部32は、ユーザUの顔の3次元データを作成することができる。従って、ユーザUの顔の正中線MLを検出する精度を向上することができ、顔傾きθ2を検知する精度を向上することができる。   As shown in FIG. 5, the portable terminal 20 of the present embodiment is different from the portable terminal 20 shown in FIG. 3B in that a plurality of photographing units 24 are provided, and the other configurations are the same. It is. By using the plurality of captured images respectively created by the plurality of photographing units 24, the face inclination detecting unit 32 can create three-dimensional data of the face of the user U. Therefore, the accuracy of detecting the midline ML of the face of the user U can be improved, and the accuracy of detecting the face inclination θ2 can be improved.

〔実施形態3〕
本発明のさらに別の実施形態について、図6を参照して説明する。図6は、本実施形態に係る入力システム1の概略構成を示すブロック図である。図6に示すように、本実施形態の入力システム1は、図1に示す入力システム1に比べて、表示装置10にて、ユーザの顔の撮影を行い、撮影画像に基づいて顔傾きを検知し、回転変換を行う点が異なる。
[Embodiment 3]
Still another embodiment of the present invention will be described with reference to FIG. FIG. 6 is a block diagram illustrating a schematic configuration of the input system 1 according to the present embodiment. As illustrated in FIG. 6, the input system 1 according to the present embodiment captures a user's face with the display device 10 and detects a face inclination based on the captured image, as compared with the input system 1 illustrated in FIG. 1. However, it is different in that rotation conversion is performed.

具体的には、本実施形態の入力システム1は、図1に示す入力システム1に比べて、携帯端末20の撮影部24、顔傾き検知部32、回転変換部34、および操作データ作成部35に代えて、撮影部40、顔傾き検知部41、回転変換部42、およびオブジェクト操作部43が表示装置10にそれぞれ設けられている点が異なり、その他の構成は同様である。このため、端末傾き検知部31が検知した端末傾きθ1と、動き検知部33が検知した動きベクトルとは、通信部27を介して、表示装置10に送信される。なお、撮影部40および回転変換部42は、図1に示す撮影部24および回転変換部34と同様であるので、その説明を省略する。   Specifically, the input system 1 according to the present embodiment has an imaging unit 24, a face tilt detection unit 32, a rotation conversion unit 34, and an operation data creation unit 35 of the mobile terminal 20, as compared with the input system 1 shown in FIG. Instead, the imaging unit 40, the face inclination detection unit 41, the rotation conversion unit 42, and the object operation unit 43 are provided in the display device 10, and the other configurations are the same. For this reason, the terminal inclination θ 1 detected by the terminal inclination detection unit 31 and the motion vector detected by the motion detection unit 33 are transmitted to the display device 10 via the communication unit 27. The imaging unit 40 and the rotation conversion unit 42 are the same as the imaging unit 24 and the rotation conversion unit 34 shown in FIG.

本実施形態の顔傾き検知部41は、図1に示す顔傾き検知部32に比べて、表示装置10の垂直方向(yd軸)に対するユーザUの正中線MLの方向(yf軸)の顔傾きθ2’を検知することになる。そこで、顔傾き検知部41は、端末傾き検知部31からの端末傾きθ1を用いて、顔傾きθ2’を、携帯端末20の長手方向(yt軸)に対するユーザUの正中線MLの方向(yf軸)の顔傾きθ2に変換する。   Compared with the face inclination detection unit 32 shown in FIG. 1, the face inclination detection unit 41 of the present embodiment is a face inclination in the direction of the user's U midline ML (yf axis) with respect to the vertical direction (yd axis) of the display device 10. θ2 'is detected. Therefore, the face inclination detection unit 41 uses the terminal inclination θ1 from the terminal inclination detection unit 31 to change the face inclination θ2 ′ to the direction of the midline ML (yf) of the user U with respect to the longitudinal direction (yt axis) of the mobile terminal 20. Axis) face inclination θ2.

オブジェクト操作部43は、回転変換部42からの動きベクトルに基づいて、画面11上のオブジェクトAを操作するように表示部16を制御するものである。   The object operation unit 43 controls the display unit 16 to operate the object A on the screen 11 based on the motion vector from the rotation conversion unit 42.

このように、顔傾きの検知および回転変換は、表示装置10にて行うこともできる。   As described above, the detection of the face inclination and the rotation conversion can be performed by the display device 10.

〔実施形態4〕
本発明の他の実施形態について、図7を参照して説明する。図7は、本実施形態に係る入力システム1の概略構成を示すブロック図である。図7に示すように、本実施形態の入力システム1は、図1に示す入力システム1に比べて、メガネ型端末50が新たに設けられている点と、携帯端末20にて顔傾き検知部32に代えて、顔傾き変換部51が設けられている点とが異なり、その他の構成は同様である。
[Embodiment 4]
Another embodiment of the present invention will be described with reference to FIG. FIG. 7 is a block diagram illustrating a schematic configuration of the input system 1 according to the present embodiment. As shown in FIG. 7, the input system 1 according to the present embodiment is different from the input system 1 shown in FIG. Instead of 32, a face inclination conversion unit 51 is provided, and other configurations are the same.

メガネ型端末50は、ユーザUの顔に装着されるものであり、携帯端末20と同様の機能を有している。このため、メガネ型端末50は、鉛直方向に対する自装置の傾きを検知することができる。この傾きは、鉛直方向に対するユーザUの顔の傾きに該当し、表示装置10の垂直方向(yd軸)に対するユーザUの正中線MLの方向(yf軸)の顔傾きθ2’に変換することができる。従って、メガネ型端末50は、上記顔傾きθ2’を携帯端末20に送信する。   The glasses-type terminal 50 is worn on the face of the user U and has the same function as the portable terminal 20. For this reason, the glasses-type terminal 50 can detect the inclination of the own device with respect to the vertical direction. This inclination corresponds to the inclination of the face of the user U with respect to the vertical direction, and may be converted into a face inclination θ2 ′ in the direction of the midline ML (yf axis) of the user U with respect to the vertical direction (yd axis) of the display device 10. it can. Accordingly, the glasses-type terminal 50 transmits the face inclination θ2 ′ to the mobile terminal 20.

顔傾き変換部51は、端末傾き検知部31からの端末傾きθ1を用いて、メガネ型端末50からの顔傾きθ2’を、携帯端末20の長手方向(yt軸)に対するユーザUの正中線MLの方向(yf軸)の顔傾きθ2に変換するものである。顔傾き変換部51は、変換した顔傾きθ2を回転変換部34に送信する。   The face inclination conversion unit 51 uses the terminal inclination θ1 from the terminal inclination detection unit 31 to change the face inclination θ2 ′ from the glasses-type terminal 50 to the midline ML of the user U with respect to the longitudinal direction (yt axis) of the mobile terminal 20. Is converted into a face inclination θ2 in the direction (yf axis). The face inclination conversion unit 51 transmits the converted face inclination θ2 to the rotation conversion unit 34.

本実施形態の場合、撮影部24および顔認識処理が不要となる。   In the case of this embodiment, the imaging unit 24 and face recognition processing are not necessary.

〔ソフトウェアによる実現例〕
表示装置10および携帯端末20の制御ブロック(特に表示制御部15および制御部21)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
[Example of software implementation]
The control blocks (particularly the display control unit 15 and the control unit 21) of the display device 10 and the portable terminal 20 may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or a CPU ( It may be realized by software using a Central Processing Unit.

後者の場合、表示装置10および携帯端末20は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。   In the latter case, the display device 10 and the portable terminal 20 include a CPU that executes instructions of a program that is software that implements each function, and a ROM (Read that records the above-described program and various data so that the computer (or CPU) can read them. Only Memory) or a storage device (these are referred to as “recording media”), a RAM (Random Access Memory) for expanding the program, and the like. And the objective of this invention is achieved when a computer (or CPU) reads the said program from the said recording medium and runs it. As the recording medium, a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. The program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program. The present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.

(付記事項)
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
(Additional notes)
The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention. Furthermore, a new technical feature can be formed by combining the technical means disclosed in each embodiment.

例えば、上記実施形態では、携帯端末20が、ユーザからの操作(入力)を受け付けているが、任意の入力装置に適用可能である。また、携帯端末20が表示装置10に指示しているが、該指示を処理する任意の情報処理装置に適用可能である。   For example, in the above-described embodiment, the mobile terminal 20 accepts an operation (input) from the user, but can be applied to any input device. Moreover, although the portable terminal 20 has instruct | indicated the display apparatus 10, it is applicable to the arbitrary information processing apparatuses which process this instruction | indication.

〔まとめ〕
本発明の態様1に係る入力装置(携帯端末20)は、ユーザからの入力を受け付け、該入力に基づく入力情報を情報処理装置(表示装置10)に送信する入力装置であって、撮影を行う撮影部(24)と、前記撮影による撮影画像に含まれる前記ユーザの顔画像に対し顔認識を行って、自装置に対する前記顔の基準線の傾きである顔傾きを検知する顔傾き検知手段(顔傾き検知部32)と、ユーザによる自装置の操作の動きである操作動きを検知する操作動き検知手段(動き検知部33)と、該操作動き検知手段が検知した操作動きを、前記顔傾き検知手段が検知した顔傾きを用いて、前記顔の基準線に対する操作動きに回転変換する回転変換手段(回転変換部34)と、該回転変換手段が回転変換した操作動きに基づく前記入力情報を作成する入力情報作成手段(操作データ作成部35)と、を備えている。
[Summary]
An input device (portable terminal 20) according to aspect 1 of the present invention is an input device that receives input from a user and transmits input information based on the input to an information processing device (display device 10), and performs shooting. A face tilt detection unit (24) for performing face recognition on the face image of the user included in the shot image taken by the shooting and detecting a face tilt that is a tilt of the reference line of the face with respect to the own device; A face inclination detection unit 32), an operation movement detection unit (movement detection unit 33) for detecting an operation movement which is a movement of the user's own device by the user, and an operation movement detected by the operation movement detection unit. Using the face inclination detected by the detection means, rotation conversion means (rotation conversion section 34) for rotating and converting the operation movement relative to the reference line of the face, and the input information based on the operation movement rotated by the rotation conversion means. Create That the input information generating means and (operation data generation unit 35), and a.

上記の構成によれば、撮影部が撮影した撮影画像に含まれるユーザの顔画像に対し顔認識を行って、自装置に対する顔の基準線の傾きである顔傾きが検知される。次に、ユーザによる自装置の操作の動きである操作動きが検知され、検知された操作動きが、上記顔傾きを用いて、上記顔の基準線に対する操作動きに回転変換される。これにより、回転変換された操作動きは、入力装置の傾きに依存しなくなる。また、当該操作動きは、上記顔の基準線に対する動きであるので、ユーザの姿勢に依存しない。   According to the above configuration, face recognition is performed on the face image of the user included in the photographed image photographed by the photographing unit, and the face inclination that is the inclination of the reference line of the face with respect to the own apparatus is detected. Next, an operation movement, which is a movement of the user's own device, is detected, and the detected operation movement is rotationally converted into an operation movement with respect to the face reference line using the face inclination. As a result, the rotation-converted operation movement does not depend on the tilt of the input device. Further, since the operation movement is movement with respect to the reference line of the face, it does not depend on the posture of the user.

そして、回転変換された、上記顔の基準線に対する操作動きに基づく入力情報を作成して情報処理装置に送信する。これにより、ユーザにとって同じ動きで、同じ入力情報を作成することができる。   Then, the input information based on the operation movement with respect to the reference line of the face that has been rotationally converted is created and transmitted to the information processing apparatus. As a result, the same input information can be created with the same movement for the user.

なお、上記顔の基準線としては、上記顔の正中線、上記顔における目のアライメント、上記顔における耳のアライメント、などが挙げられる。また、上記顔の基準線に対する操作動きを、装置の基準線(鉛直線、水平線など)に対する動きとして入力情報を作成することが好ましい。この場合、例えば、ユーザの顔の正中線に対する動きを、表示装置の画面に表示された物体の鉛直線に対する動きとして反映することができ、また、ユーザの目のアライメントに対する動きを、上記物体の水平線に対する動きとして反映することができる。その結果、ユーザの直感的な遠隔操作が可能となる。   Examples of the face reference line include the face midline, eye alignment in the face, and ear alignment in the face. Further, it is preferable that the input information is created with the operation movement with respect to the reference line of the face as the movement with respect to the reference line (vertical line, horizontal line, etc.) of the apparatus. In this case, for example, the movement of the user's face with respect to the midline can be reflected as the movement of the object displayed on the screen of the display device with respect to the vertical line, and the movement of the user's eyes with respect to the alignment of the object can be reflected. It can be reflected as movement relative to the horizon. As a result, the user can perform an intuitive remote operation.

また、上記操作動きには、移動および回転が含まれる。また、上記操作動きは、自装置に設けたモーションセンサ(23)が検出した自装置自体の動きでもよいし、自装置に設けたタッチパネル上での動きでもよい。   Further, the operation movement includes movement and rotation. The operation movement may be the movement of the own apparatus detected by the motion sensor (23) provided in the own apparatus, or may be a movement on a touch panel provided in the own apparatus.

ところで、ユーザが直立すると、上記顔の正中線の方向は、鉛直線の方向となる一方、上記目のアライメントおよび上記耳のアライメントの方向は、水平線の方向となる。このことから、上記顔の正中線は、鉛直線に対応する基準線である一方、上記目のアライメントおよび上記耳のアライメントは、水平線に対応する基準線であると言える。そして、上記鉛直線の方向は、重力の方向であり、一意に決まるが、上記水平線の方向は、重力に垂直な方向であり、一意には決まらない。   By the way, when the user stands upright, the direction of the median line of the face becomes the direction of the vertical line, while the direction of the alignment of the eyes and the alignment of the ears becomes the direction of the horizontal line. From this, it can be said that the midline of the face is a reference line corresponding to a vertical line, while the eye alignment and the ear alignment are reference lines corresponding to a horizontal line. The direction of the vertical line is the direction of gravity and is uniquely determined, but the direction of the horizontal line is a direction perpendicular to gravity and is not uniquely determined.

そこで、本発明の態様2に係る入力装置は、上記態様1において、前記顔の基準線は前記顔の正中線であることが好ましい。上記の構成によれば、同じ操作で同じ入力情報を確実に作成することができる。   Therefore, in the input device according to aspect 2 of the present invention, in the aspect 1, it is preferable that the reference line of the face is a median line of the face. According to said structure, the same input information can be produced reliably by the same operation.

本発明の態様3に係る入力装置は、上記態様1または2において、複数の前記撮影部を異なる位置に備えてもよい。上記の構成によれば、複数の上記撮影部がそれぞれ作成した複数の撮影画像を利用することにより、上記顔傾き検知手段は、上記ユーザの顔の3次元データを作成することができる。従って、上記ユーザの顔の基準線を検出する精度を向上することができ、上記顔傾きを検知する精度を向上することができる。   The input device according to aspect 3 of the present invention may include a plurality of the imaging units at different positions in the above aspect 1 or 2. According to said structure, the said face inclination detection means can produce the three-dimensional data of the said user's face by utilizing the some picked-up image which each some said imaging | photography part produced. Therefore, the accuracy of detecting the reference line of the user's face can be improved, and the accuracy of detecting the face inclination can be improved.

本発明の態様4に係る入力装置は、上記態様1から3において、自装置の動きを検出するモーションセンサをさらに備えており、前記操作動き検知手段は、前記モーションセンサが検出した自装置の動きを、前記操作動きとして検知してもよい。   The input device according to aspect 4 of the present invention further includes a motion sensor that detects the movement of the own apparatus in the above-described aspects 1 to 3, and the operation movement detecting means is a movement of the own apparatus detected by the motion sensor. May be detected as the operation movement.

本発明の態様5に係る入力装置は、上記態様4において、前記モーションセンサは、自装置の加速度を検出する加速度センサ(30)を備えており、前記加速度センサの検出結果から、鉛直線に対する自装置の傾きである装置傾きを検知する装置傾き検知手段(端末傾き検知部31)をさらに備えており、前記顔傾き検知手段が前記顔認識を行うことができなかった場合、前記回転変換手段は、前記操作動き検知手段が検知した操作動きを、前記装置傾き検知手段が検知した装置傾きを用いて、前記鉛直線に対する操作動きに回転変換してもよい。上記の構成によれば、入力装置の傾きに依存しない入力情報を作成することができる。   In the input device according to aspect 5 of the present invention, in the above aspect 4, the motion sensor includes an acceleration sensor (30) for detecting the acceleration of the own device. The apparatus further includes device inclination detection means (terminal inclination detection unit 31) for detecting an apparatus inclination that is an inclination of the apparatus, and when the face inclination detection means cannot perform the face recognition, the rotation conversion means The operation movement detected by the operation movement detection unit may be rotationally converted into an operation movement with respect to the vertical line using the apparatus inclination detected by the apparatus inclination detection unit. According to said structure, the input information which does not depend on the inclination of an input device can be produced.

本発明の態様6に係る入力装置は、上記態様1から4において、前記顔傾き検知手段は、前記撮影画像に含まれる前記顔以外の被写体の画像に対し画像認識を行って、自装置に対する前記被写体の基準線の傾きである被写体傾きを検知しており、前記顔認識を行うことができなかった場合、今回検知した前記被写体傾きと、以前に前記顔認識を行うことができた場合に検知した前記顔傾きおよび前記被写体傾きとから、今回の前記顔傾きを推定してもよい。   In an input device according to aspect 6 of the present invention, in the above aspects 1 to 4, the face inclination detection unit performs image recognition on an image of a subject other than the face included in the captured image, and Detected when the subject inclination, which is the inclination of the reference line of the subject, is detected and the face recognition cannot be performed, and when the subject inclination detected this time and the face recognition can be performed previously. The current face inclination may be estimated from the face inclination and the subject inclination.

ここで、上記ユーザの顔以外の被写体の例としては、家具、壁に貼付された壁紙、上記ユーザが着ている服などが挙げられる。上記家具の基準線の例としては、鉛直線、水平線などが挙げられる。また、上記壁紙の基準線の例としては、当該壁紙の模様の方向を示す直線などが挙げられる。そして、上記服の基準線の例としては、当該服の模様の方向を示す直線などが挙げられる。   Here, examples of subjects other than the user's face include furniture, wallpaper affixed to a wall, clothes worn by the user, and the like. Examples of the reference line for the furniture include a vertical line and a horizontal line. Examples of the wallpaper reference line include a straight line indicating the direction of the wallpaper pattern. Examples of the clothes reference line include a straight line indicating the direction of the clothes pattern.

通常、ユーザは、少なくとも1分間程度は姿勢を維持すると考えられる。上記姿勢が維持されると、上記ユーザの顔と上記被写体との幾何学的位置関係が維持されるので、当該ユーザの顔の基準線と当該被写体の基準線との幾何学的位置関係も維持されると考えられる。   Usually, it is considered that the user maintains the posture for at least about one minute. If the posture is maintained, the geometric positional relationship between the user's face and the subject is maintained, so the geometric positional relationship between the reference line of the user's face and the reference line of the subject is also maintained. It is thought that it is done.

従って、上記の構成によれば、上記顔傾きを検知した時に上記被写体傾きを検知しておけば、上記顔認識を行うことができないことにより上記顔傾きを検知できない場合でも、上記被写体傾きを検知し、検知した被写体傾きと、以前に検知した顔傾きおよび被写体傾きと用いて、現在の顔傾きを推定することができる。なお、該顔傾きを推定するために利用される上記被写体は、1つでもよいし、複数でもよい。   Therefore, according to the above configuration, if the subject tilt is detected when the face tilt is detected, the subject tilt is detected even if the face tilt cannot be detected because the face recognition cannot be performed. The current face inclination can be estimated by using the detected subject inclination and the previously detected face inclination and subject inclination. Note that the subject used for estimating the face inclination may be one or plural.

本発明の態様7に係る入力装置は、上記態様1から6において、複数の前記顔画像の情報を前記顔傾きに対応付けた対応情報を記憶する記憶部(22)をさらに備えており、前記顔傾き検知手段は、前記対応情報を参照して、前記ユーザの顔画像に類似する顔画像に対応する前記顔傾きを取得してもよい。   The input device according to aspect 7 of the present invention further includes a storage unit (22) that stores correspondence information in which information of a plurality of face images is associated with the face inclination in the above aspects 1 to 6, The face inclination detection means may acquire the face inclination corresponding to a face image similar to the user's face image with reference to the correspondence information.

上記の構成によれば、上記顔画像に対し顔認識を行って上記顔の基準線を特定する処理を省略できるので、上記顔傾きを迅速に取得することができる。なお、記憶部に記憶される顔画像は、同じユーザのものであってもよいし、平均的な人間のものであってもよい。また、上記態様3の場合、複数の上記撮影部を利用することにより、上記対応情報を迅速に作成することができる。   According to said structure, since the process which performs face recognition with respect to the said face image and specifies the reference line of the said face can be abbreviate | omitted, the said face inclination can be acquired rapidly. The face images stored in the storage unit may be those of the same user or may be those of an average person. Moreover, in the case of the said aspect 3, the said corresponding | compatible information can be rapidly produced by utilizing several said imaging | photography part.

本発明の態様8に係る入力システム(表示システム1)は、ユーザからの入力を受け付ける入力装置と、該入力に基づく入力情報を前記入力装置から受信する情報処理装置とを備える入力システムであって、鉛直線に対する前記ユーザの顔の基準線の傾きである顔傾きを検知する顔傾き検知手段(顔傾き検知部41、メガネ型端末50)と、前記鉛直線に対する前記入力装置の傾きである装置傾きを検知する装置傾き検知手段と、ユーザによる前記入力装置の操作動きを検知する操作動き検知手段と、該操作動き検知手段が検知した操作動きを、前記顔傾き検知手段および前記装置傾き検知手段がそれぞれ検知した顔傾きおよび装置傾きを用いて、前記顔の基準線に対する操作動きに回転変換する回転変換手段(回転変換部42)と、を備え、前記情報処理装置は、前記回転変換手段が回転変換した操作動きを、自装置の基準線に対する操作動きとして、該操作動きに基づき処理を行っている。   An input system (display system 1) according to an aspect 8 of the present invention is an input system including an input device that receives an input from a user and an information processing device that receives input information based on the input from the input device. A face inclination detecting means (face inclination detecting unit 41, glasses-type terminal 50) for detecting a face inclination which is an inclination of a reference line of the user's face with respect to a vertical line, and an apparatus which is an inclination of the input device with respect to the vertical line An apparatus inclination detecting means for detecting an inclination, an operation movement detecting means for detecting an operation movement of the input device by a user, and an operation movement detected by the operation movement detecting means, the face inclination detecting means and the apparatus inclination detecting means. Rotation conversion means (rotation conversion unit 42) for performing rotation conversion to an operation movement with respect to the reference line of the face using the detected face inclination and apparatus inclination, respectively. Wherein the information processing apparatus, the operation moves to the rotation conversion unit has rotational transformation as the operation movement relative to the reference line of the own device, and performs processing based on the manipulation motion.

上記の構成によれば、鉛直線に対するユーザの顔の基準線の傾きを検知する。この検知を行うには、情報処理装置、表示装置など、鉛直線を基準線とする装置に設けられた撮影部からの撮影画像を利用すればよい。或いは、上記ユーザの顔に装着され、加速度センサを備えた携帯型装置であれば、上記検知を行うことができる。   According to said structure, the inclination of the reference line of a user's face with respect to a perpendicular line is detected. In order to perform this detection, a photographed image from a photographing unit provided in a device having a vertical line as a reference line, such as an information processing device or a display device, may be used. Alternatively, the detection can be performed by a portable device attached to the user's face and provided with an acceleration sensor.

また、鉛直線に対する入力装置の傾きである装置傾きが検知される。この検知を行うには、上記入力装置に設けられた加速度センサの検出結果を利用すればよい。或いは、上記情報処理装置に設けられた撮影部が撮影した、上記入力装置を含む撮影画像を利用すればよい。   In addition, a device tilt that is the tilt of the input device with respect to the vertical line is detected. In order to perform this detection, the detection result of the acceleration sensor provided in the input device may be used. Or what is necessary is just to utilize the picked-up image containing the said input device image | photographed by the imaging | photography part provided in the said information processing apparatus.

次に、検知された操作動きが、上記顔傾きおよび上記装置傾きを用いて、上記顔の基準線に対する操作動きに回転変換される。これにより、回転変換された操作動きは、入力装置の傾きに依存しなくなる。また、当該操作動きは、上記顔の基準線に対する動きであるので、ユーザの姿勢に依存しない。   Next, the detected operation motion is rotationally converted into an operation motion with respect to the reference line of the face using the face tilt and the device tilt. As a result, the rotation-converted operation movement does not depend on the tilt of the input device. Further, since the operation movement is movement with respect to the reference line of the face, it does not depend on the posture of the user.

そして、回転変換された、上記顔の基準線に対する操作動きを、基準線に対する動きとして、情報処理装置が当該動きに基づき処理を行う。これにより、ユーザにとって同じ動きで、情報処理装置に対し同じ指示を行うことができる。   Then, the information processing apparatus performs processing based on the movement of the face with respect to the reference line, which has been rotationally converted, as movement with respect to the reference line. Thus, the same instruction can be given to the information processing apparatus with the same movement for the user.

なお、上記各手段は、上記入力装置が備えてもよいし、上記情報処理装置が備えてもよい。上記入力装置が備える場合、上記情報処理装置は、新たな機能を追加する必要がないので、既存のものを利用することができる。さらに、上記各手段は、上記表示システムに含まれる、上記入力装置および上記情報処理装置以外の装置が備えていてもよい。   In addition, each said means may be provided in the said input device, and the said information processing apparatus may be provided. When the input device is provided, the information processing device does not need to add a new function, and thus can use an existing one. Furthermore, each means may be included in a device other than the input device and the information processing device included in the display system.

本発明の態様9に係る入力装置の制御方法は、ユーザからの入力を受け付け、該入力に基づく入力情報を情報処理装置に送信する入力装置の制御方法であって、撮影部による撮影画像に含まれる前記ユーザの顔画像に対し顔認識を行って、自装置に対する前記顔の基準線の傾きである顔傾きを検知する顔傾き検知ステップ(S12)と、ユーザによる自装置の操作の動きである操作動きを検知する操作動き検知ステップ(S15・S18)と、該操作動き検知ステップにて検知された操作動きを、前記顔傾き検知ステップにて検知された顔傾きを用いて、前記顔の基準線に対する操作動きに回転変換する回転変換ステップ(S16・S19)と、該回転変換ステップにて回転変換された操作動きに基づく前記入力情報を作成する入力情報作成ステップ(S17・S20)と、を含んでいる。この場合、上記態様1と同様の効果を奏する。   An input device control method according to an aspect 9 of the present invention is a control method for an input device that receives input from a user and transmits input information based on the input to an information processing device, and is included in a photographed image by a photographing unit. A face inclination detection step (S12) of performing face recognition on the user's face image to detect a face inclination which is an inclination of the reference line of the face with respect to the own apparatus, and a user's operation of the own apparatus. An operation movement detection step (S15 / S18) for detecting an operation movement, and the operation movement detected in the operation movement detection step is used as a reference for the face using the face inclination detected in the face inclination detection step. Rotation conversion step (S16 / S19) for rotationally converting the operation motion to the line, and input information creation for creating the input information based on the operation motion rotationally converted in the rotation conversion step And step (S17 · S20), contains. In this case, the same effects as those of the first aspect are obtained.

本発明の各態様に係る入力装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記入力装置が備える各手段として動作させることにより上記入力装置をコンピュータにて実現させる入力装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。   The input device according to each aspect of the present invention may be realized by a computer. In this case, the input device is realized by the computer by causing the computer to operate as each unit included in the input device. A control program and a computer-readable recording medium on which the control program is recorded also fall within the scope of the present invention.

本発明は、撮影画像から顔傾きが検知され、該顔傾きを用いて、ユーザによる自装置の操作の動きである操作動きが、上記顔の基準線に対する操作動きに回転変換され、回転変換された操作動きに基づく入力情報が作成されることにより、入力装置の向きおよびユーザの姿勢に依存することなく、同じ操作で同じ入力情報を作成できるので、任意の入力装置に適用することができる。   In the present invention, a face inclination is detected from a captured image, and using the face inclination, an operation movement, which is a movement of the user's own apparatus, is rotationally converted into an operation movement with respect to the reference line of the face, and the rotation is converted. Since the input information based on the operation motion is created, the same input information can be created by the same operation without depending on the direction of the input device and the posture of the user, so that it can be applied to any input device.

1 入力システム
10 表示装置(情報処理装置)
11 画面
12 コンテンツ受信部
13 コンテンツ解析部
14 通信部
15 表示制御部
16 表示部
20 携帯端末(入力装置)
21 制御部
22 記憶部
23 モーションセンサ
24 撮影部
25 入力部
26 表示部
27 通信部
30 加速度センサ
31 端末傾き検知部(装置傾き検知手段)
32 顔傾き検知部(顔傾き検知手段)
33 動き検知部(操作動き検知手段)
34 回転変換部(回転変換手段)
35 操作データ作成部(入力情報作成手段)
40 撮影部
41 顔傾き検知部
42 回転変換部
43 オブジェクト操作部
50 メガネ型端末
51 顔傾き変換部
1 Input System 10 Display Device (Information Processing Device)
11 Screen 12 Content receiving unit 13 Content analyzing unit 14 Communication unit 15 Display control unit 16 Display unit 20 Mobile terminal (input device)
21 Control unit 22 Storage unit 23 Motion sensor 24 Imaging unit 25 Input unit 26 Display unit 27 Communication unit 30 Acceleration sensor 31 Terminal tilt detection unit (device tilt detection means)
32 Face tilt detection unit (face tilt detection means)
33 Motion detection unit (operation motion detection means)
34 Rotation conversion unit (rotation conversion means)
35 Operation data creation unit (input information creation means)
40 photographing unit 41 face tilt detecting unit 42 rotation converting unit 43 object operating unit 50 glasses-type terminal 51 face tilt converting unit

Claims (10)

ユーザからの入力を受け付け、該入力に基づく入力情報を情報処理装置に送信する入力装置であって、
撮影を行う撮影部と、
前記撮影による撮影画像に含まれる前記ユーザの顔画像に対し顔認識を行って、自装置に対する前記顔の基準線の傾きである顔傾きを検知する顔傾き検知手段と、
ユーザによる自装置の操作の動きである操作動きを検知する操作動き検知手段と、
該操作動き検知手段が検知した操作動きを、前記顔傾き検知手段が検知した顔傾きを用いて、前記顔の基準線に対する操作動きに回転変換する回転変換手段と、
該回転変換手段が回転変換した操作動きに基づく前記入力情報を作成する入力情報作成手段と、を備えることを特徴とする入力装置。
An input device that receives input from a user and transmits input information based on the input to an information processing device,
A shooting unit for shooting;
A face inclination detecting means for performing face recognition on the face image of the user included in the photographed image by the photographing and detecting a face inclination which is an inclination of the reference line of the face with respect to the own device;
An operation movement detecting means for detecting an operation movement that is a movement of the user's own device;
Rotation conversion means for rotating and converting the operation movement detected by the operation movement detection means into an operation movement with respect to a reference line of the face using the face inclination detected by the face inclination detection means;
An input device comprising: input information creating means for creating the input information based on the operation movement rotationally converted by the rotation converting means.
前記顔の基準線は前記顔の正中線であることを特徴とする請求項1に記載の入力装置。   The input device according to claim 1, wherein the reference line of the face is a median line of the face. 複数の前記撮影部を異なる位置に備えることを特徴とする請求項1または2に記載の入力装置。   The input device according to claim 1, wherein a plurality of the photographing units are provided at different positions. 自装置の動きを検出するモーションセンサをさらに備えており、
前記操作動き検知手段は、前記モーションセンサが検出した自装置の動きを、前記操作動きとして検知することを特徴とする請求項1から3までの何れか1項に記載の入力装置。
It further includes a motion sensor that detects the movement of its own device,
The input device according to any one of claims 1 to 3, wherein the operation motion detection unit detects the motion of the device detected by the motion sensor as the operation motion.
前記モーションセンサは、自装置の加速度を検出する加速度センサを備えており、
前記加速度センサの検出結果から、鉛直線に対する自装置の傾きである装置傾きを検知する装置傾き検知手段をさらに備えており、
前記顔傾き検知手段が前記顔認識を行うことができなかった場合、前記回転変換手段は、前記操作動き検知手段が検知した操作動きを、前記装置傾き検知手段が検知した装置傾きを用いて、前記鉛直線に対する操作動きに回転変換することを特徴とする請求項4に記載の入力装置。
The motion sensor includes an acceleration sensor that detects the acceleration of the device itself,
From the detection result of the acceleration sensor, further comprising a device inclination detecting means for detecting a device inclination that is the inclination of the device relative to the vertical line,
When the face inclination detection unit cannot perform the face recognition, the rotation conversion unit uses the device inclination detected by the device inclination detection unit to detect the operation movement detected by the operation movement detection unit. The input device according to claim 4, wherein the input device is rotationally converted into an operation motion with respect to the vertical line.
前記顔傾き検知手段は、
前記撮影画像に含まれる前記顔以外の被写体の画像に対し画像認識を行って、自装置に対する前記被写体の基準線の傾きである被写体傾きを検知しており、
前記顔認識を行うことができなかった場合、今回検知した前記被写体傾きと、以前に前記顔認識を行うことができた場合に検知した前記顔傾きおよび前記被写体傾きとから、今回の前記顔傾きを推定することを特徴とする請求項1から4までの何れか1項に記載の入力装置。
The face inclination detecting means is
Image recognition is performed on an image of a subject other than the face included in the photographed image, and a subject tilt that is a tilt of a reference line of the subject with respect to the own device is detected;
When the face recognition cannot be performed, the current inclination of the subject is determined from the subject inclination detected this time and the face inclination and the subject inclination detected when the face recognition has been performed previously. The input device according to claim 1, wherein the input device is estimated.
複数の前記顔画像の情報を前記顔傾きに対応付けた対応情報を記憶する記憶部をさらに備えており、
前記顔傾き検知手段は、前記対応情報を参照して、前記ユーザの顔画像に類似する顔画像に対応する前記顔傾きを取得することを特徴とする請求項1から6までの何れか1項に記載の入力装置。
A storage unit for storing correspondence information in which information on a plurality of face images is associated with the face inclination;
The face inclination detection unit acquires the face inclination corresponding to a face image similar to the face image of the user with reference to the correspondence information. The input device described in 1.
ユーザからの入力を受け付ける入力装置と、該入力に基づく入力情報を前記入力装置から受信する情報処理装置とを備える入力システムであって、
鉛直線に対する前記ユーザの顔の基準線の傾きである顔傾きを検知する顔傾き検知手段と、
前記鉛直線に対する前記入力装置の傾きである装置傾きを検知する装置傾き検知手段と、
ユーザによる前記入力装置の操作動きを検知する操作動き検知手段と、
該操作動き検知手段が検知した操作動きを、前記顔傾き検知手段および前記装置傾き検知手段がそれぞれ検知した顔傾きおよび装置傾きを用いて、前記顔の基準線に対する操作動きに回転変換する回転変換手段と、を備え、
前記情報処理装置は、前記回転変換手段が回転変換した操作動きを、自装置の基準線に対する操作動きとして、該操作動きに基づき処理を行うことを特徴とする入力システム。
An input system comprising: an input device that receives input from a user; and an information processing device that receives input information based on the input from the input device,
Face inclination detecting means for detecting a face inclination which is an inclination of a reference line of the user's face with respect to a vertical line;
An apparatus inclination detecting means for detecting an apparatus inclination which is an inclination of the input apparatus with respect to the vertical line;
An operation movement detecting means for detecting an operation movement of the input device by a user;
Rotation conversion that rotationally converts the operation movement detected by the operation movement detection means into an operation movement with respect to the reference line of the face, using the face inclination and the apparatus inclination detected by the face inclination detection means and the apparatus inclination detection means, respectively. Means, and
The information processing apparatus performs processing based on the operation movement as the operation movement with respect to the reference line of the own apparatus as the operation movement rotated and converted by the rotation conversion unit.
ユーザからの入力を受け付け、該入力に基づく入力情報を情報処理装置に送信する入力装置の制御方法であって、
撮影部による撮影画像に含まれる前記ユーザの顔画像に対し顔認識を行って、自装置に対する前記顔の基準線の傾きである顔傾きを検知する顔傾き検知ステップと、
ユーザによる自装置の操作の動きである操作動きを検知する操作動き検知ステップと、
該操作動き検知ステップにて検知された操作動きを、前記顔傾き検知ステップにて検知された顔傾きを用いて、前記顔の基準線に対する操作動きに回転変換する回転変換ステップと、
該回転変換ステップにて回転変換された操作動きに基づく前記入力情報を作成する入力情報作成ステップと、を含むことを特徴とする入力装置の制御方法。
An input device control method for receiving input from a user and transmitting input information based on the input to an information processing device,
A face inclination detection step of performing face recognition on the face image of the user included in the photographed image by the photographing unit and detecting a face inclination which is an inclination of the reference line of the face with respect to the own device;
An operation motion detection step for detecting an operation motion that is a motion of the operation of the device by the user;
A rotation conversion step of rotating and converting the operation movement detected in the operation movement detection step into an operation movement with respect to the reference line of the face using the face inclination detected in the face inclination detection step;
And an input information creating step for creating the input information based on the operation motion rotationally converted in the rotation converting step.
請求項1から7までの何れか1項に記載の入力装置としてコンピュータを機能させるための制御プログラムであって、コンピュータを上記各手段として機能させるための制御プログラム。   A control program for causing a computer to function as the input device according to any one of claims 1 to 7, wherein the control program causes the computer to function as each of the means.
JP2014141653A 2014-07-09 2014-07-09 Input device and its control method and control program, and input system Pending JP2016018448A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014141653A JP2016018448A (en) 2014-07-09 2014-07-09 Input device and its control method and control program, and input system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014141653A JP2016018448A (en) 2014-07-09 2014-07-09 Input device and its control method and control program, and input system

Publications (1)

Publication Number Publication Date
JP2016018448A true JP2016018448A (en) 2016-02-01

Family

ID=55233613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014141653A Pending JP2016018448A (en) 2014-07-09 2014-07-09 Input device and its control method and control program, and input system

Country Status (1)

Country Link
JP (1) JP2016018448A (en)

Similar Documents

Publication Publication Date Title
US11606482B2 (en) Methods for camera movement compensation
CN111034181B (en) Image capturing apparatus, image display system, and operation method
CN108734736B (en) Camera posture tracking method, device, equipment and storage medium
US10999480B2 (en) Methods for camera movement compensation
KR101751347B1 (en) Mobile terminal and method of controlling the same
TWI539810B (en) Panoramic scene capturing and browsing mobile device, system and method
JP6058978B2 (en) Image processing apparatus, image processing method, photographing apparatus, and computer program
US9392165B2 (en) Array camera, mobile terminal, and methods for operating the same
US9412190B2 (en) Image display system, image display apparatus, image display method, and non-transitory storage medium encoded with computer readable program
JP2013258614A (en) Image generation device and image generation method
KR102240639B1 (en) Glass type terminal and control method thereof
US20220124240A1 (en) Target tracking method and system, readable storage medium, and mobile platform
KR20110133698A (en) Method and apparatus for operating camera function in portable terminal
KR101773116B1 (en) Image photographing apparatus and method thereof
CN109166150B (en) Pose acquisition method and device storage medium
US20140292636A1 (en) Head-Worn Infrared-Based Mobile User-Interface
WO2018066705A1 (en) Smartphone
US9406136B2 (en) Information processing device, information processing method and storage medium for identifying communication counterpart based on image including person
US9438805B2 (en) Terminal device and image capturing method
EP3520071B1 (en) Consistent spherical photo and video orientation correction
JP7155242B2 (en) Personal digital assistant
JP2016018448A (en) Input device and its control method and control program, and input system
KR102614026B1 (en) Electronic device having a plurality of lens and controlling method thereof
WO2017168622A1 (en) Captured image sharing system, captured image sharing method, and program
KR20160149945A (en) Mobile terminal