JP6528193B2 - Electronics - Google Patents

Electronics Download PDF

Info

Publication number
JP6528193B2
JP6528193B2 JP2015024024A JP2015024024A JP6528193B2 JP 6528193 B2 JP6528193 B2 JP 6528193B2 JP 2015024024 A JP2015024024 A JP 2015024024A JP 2015024024 A JP2015024024 A JP 2015024024A JP 6528193 B2 JP6528193 B2 JP 6528193B2
Authority
JP
Japan
Prior art keywords
image
display
electronic device
user
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015024024A
Other languages
Japanese (ja)
Other versions
JP2016148899A (en
Inventor
嘉泰 小笠原
嘉泰 小笠原
和義 大澤
和義 大澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2015024024A priority Critical patent/JP6528193B2/en
Priority to US15/019,042 priority patent/US9804667B2/en
Publication of JP2016148899A publication Critical patent/JP2016148899A/en
Application granted granted Critical
Publication of JP6528193B2 publication Critical patent/JP6528193B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、所定の情報処理を行うことが可能な手持ち型の電子機器に関する。   The present invention relates to a hand-held electronic device capable of performing predetermined information processing.

従来より、ディスプレイとディスプレイの背面に設けられたカメラとを備える携帯型のゲーム装置が存在する(例えば、特許文献1)。このような従来のゲーム装置では、カメラにより撮像画像を取得し、当該取得された画像を解析した結果に基づく画像をディスプレイに表示することができる。   BACKGROUND Conventionally, there has been a portable game device provided with a display and a camera provided on the back of the display (e.g., Patent Document 1). In such a conventional game device, a captured image can be acquired by a camera, and an image based on a result of analysis of the acquired image can be displayed on a display.

特開2006−271663号公報Unexamined-Japanese-Patent No. 2006-271663

しかしながら、上記従来の装置では、カメラを用いてディスプレイの背面方向を撮像した画像をディスプレイに表示するものであり、他の方向を撮像するカメラからの撮像画像をユーザに見やすく表示するという点において改善の余地があった。   However, in the above-mentioned conventional apparatus, an image obtained by capturing the back direction of the display using a camera is displayed on the display, and an improvement is made in that the captured image from the camera capturing another direction is displayed easily for the user. There was room for

それ故、本発明の目的の一つは、所定方向を撮像するカメラからの画像をユーザに見やすく表示することが可能な電子機器を提供することである。   Therefore, one of the objects of the present invention is to provide an electronic device capable of displaying an image from a camera for imaging a predetermined direction in an easy-to-view manner for the user.

本発明では、上記の課題を解決するために、以下の構成を採用した。   In the present invention, the following configuration is adopted in order to solve the above problems.

一実施形態に係る電子機器は、カメラと、取得手段と、表示制御手段と、処理手段とを備える。カメラは、前記電子機器の側面方向を撮像する。取得手段は、前記カメラによって撮像された入力画像を取得する。表示制御手段は、前記取得手段によって取得された入力画像により示される被写体を所定方向に傾けた画像を表示手段に表示させる。処理手段は、前記取得手段によって取得された入力画像に基づいて所定のアプリケーション処理を行う。   An electronic device according to an embodiment includes a camera, an acquisition unit, a display control unit, and a processing unit. The camera captures the side direction of the electronic device. Acquisition means acquires an input image captured by the camera. The display control means causes the display means to display an image in which the subject indicated by the input image acquired by the acquisition means is inclined in a predetermined direction. The processing means performs predetermined application processing based on the input image acquired by the acquisition means.

上記によれば、側面方向を撮像するカメラで撮像した被写体の画像を表示装置に表示する際に所定方向に傾けて表示することができ、例えばユーザにとって見やすい表示を行うことができる。   According to the above, when displaying an image of a subject captured by a camera capturing an image in the side direction on the display device, it can be displayed by being tilted in a predetermined direction, and for example, display that is easy for the user to view can be performed.

また、他の構成では、前記表示制御手段は、前記入力画像を斜めから見た画像を前記表示手段に表示させてもよい。   In addition, in another configuration, the display control means may cause the display means to display an image obtained by viewing the input image obliquely.

上記によれば、撮像した入力画像を斜めから見た画像を表示することで、電子機器の側面方向に存在する物体を違和感なく表示することができ、ユーザにとって見やすい表示とすることができる。   According to the above, by displaying an image obtained by viewing the captured input image obliquely, an object present in the side direction of the electronic device can be displayed without a sense of incongruity, and the display can be easily viewed by the user.

また、他の構成では、前記表示制御手段は、前記カメラと当該カメラの撮像範囲に含まれる物体との相対位置をユーザに認識可能な態様で前記画像を表示させてもよい。   In addition, in another configuration, the display control unit may display the image in a manner that allows the user to recognize the relative position between the camera and an object included in the imaging range of the camera.

上記によれば、電子機器の側面方向に存在する物体の位置をユーザに認識可能に表示することができる。   According to the above, the position of the object present in the side direction of the electronic device can be displayed so as to be recognizable by the user.

また、他の構成では、前記表示制御手段は、前記カメラの撮像範囲に含まれる物体の奥行き方向の位置をユーザに認識可能な態様で前記画像を表示させてもよい。   Further, in another configuration, the display control means may display the image in a manner that allows the user to recognize the position in the depth direction of the object included in the imaging range of the camera.

上記によれば、電子機器の側面方向に存在する物体の奥行き方向の位置をユーザに認識可能に表示することができる。   According to the above, the position in the depth direction of the object present in the side direction of the electronic device can be displayed so as to be recognizable by the user.

また、他の構成では、前記表示制御手段は、前記カメラの撮像範囲に含まれる物体をユーザが直接見たときと、前記表示手段に表示される当該物体の画像とが同じ見え方となるように、前記画像を前記表示手段に表示させてもよい。   In another configuration, the display control unit may be configured such that the user directly looks at an object included in the imaging range of the camera and the image of the object displayed on the display unit looks the same. The image may be displayed on the display means.

上記によれば、ユーザから見た物体の見え方と、表示装置に表示される物体の見え方が同様になるため、ユーザにとって見やすくなる。   According to the above, the appearance of the object viewed from the user is the same as the appearance of the object displayed on the display device, which makes the user easy to see.

また、他の構成では、前記表示制御手段は、前記カメラの撮像範囲に含まれる物体が適切な位置にあるか否かをユーザに認識可能なガイド画像を表示させてもよい。   In another configuration, the display control unit may display a guide image that allows the user to recognize whether an object included in the imaging range of the camera is at an appropriate position.

上記によれば、ガイド画像により、物体が適切な位置にあるか否かをユーザに認識させることができ、適切な位置にユーザを誘導することができる。   According to the above, the guide image can make the user recognize whether or not the object is at the appropriate position, and can guide the user to the appropriate position.

また、他の構成では、前記表示制御手段は、前記カメラの撮像範囲のうちの所定領域を示すガイド画像を前記表示手段にさらに表示させてもよい。   In addition, in another configuration, the display control unit may further cause the display unit to display a guide image indicating a predetermined area in the imaging range of the camera.

上記によれば、ガイド画像を表示することで、例えば、側面方向に存在する物体をカメラの撮像範囲内におさめやすくすることができる。   According to the above, by displaying the guide image, for example, an object present in the side direction can be easily accommodated within the imaging range of the camera.

また、他の構成では、前記表示制御手段は、前記ガイド画像と前記入力画像とを所定方向に傾けた画像を前記表示手段に表示させてもよい。   Further, in another configuration, the display control means may cause the display means to display an image in which the guide image and the input image are inclined in a predetermined direction.

上記によれば、入力画像とガイド画像とが所定方向に傾けて表示されるため、例えば、ユーザはより見やすい表示とすることができるとともに、カメラの撮像範囲内に物体をおさめやすくすることができる。   According to the above, since the input image and the guide image are displayed being inclined in a predetermined direction, for example, the display can be made more easily viewable by the user, and the object can be easily set within the imaging range of the camera. .

また、他の構成では、前記表示手段は前記電子機器に設けられてもよい。前記カメラは前記表示手段の側面方向を撮像する。前記表示制御手段は、前記表示手段の表示画面のうち、前記カメラの撮像方向側に前記画像を表示させる。   In addition, in another configuration, the display unit may be provided in the electronic device. The camera captures the side direction of the display means. The display control means causes the image to be displayed on the imaging direction side of the camera on the display screen of the display means.

上記によれば、カメラの撮像方向と表示手段の表示画面における画像の表示位置とを一致させることができる。例えば、表示装置の右側面方向をカメラで撮像する場合、当該カメラで撮像した画像を表示装置の表示画面における右側に表示することができる。このため、例えば、側面方向に存在する物体の位置関係をユーザが認識し易くすることができる。   According to the above, the imaging direction of the camera and the display position of the image on the display screen of the display means can be made to coincide. For example, when the right side surface direction of the display device is captured by a camera, an image captured by the camera can be displayed on the right side of the display screen of the display device. Therefore, for example, the user can easily recognize the positional relationship of the object present in the side direction.

また、他の構成では、前記表示制御手段は、前記取得手段によって取得された入力画像により示される被写体を所定方向に傾けた画像とともに、前記所定のアプリケーション処理の結果を示す画像を表示してもよい。   In another configuration, the display control unit may display an image indicating the result of the predetermined application processing together with an image in which the subject indicated by the input image acquired by the acquisition unit is inclined in a predetermined direction. Good.

上記によれば、被写体とカメラとの位置関係とその位置関係によるアプリケーション処理の結果とをユーザに認識させやすくすることができる。   According to the above, it is possible to make the user easily recognize the positional relationship between the subject and the camera and the result of the application processing based on the positional relationship.

また、他の構成では、前記表示制御手段は、前記カメラの撮像範囲に含まれる物体を抽象化した画像を前記表示手段に表示させてもよい。   In addition, in another configuration, the display control unit may cause the display unit to display an image obtained by abstracting an object included in an imaging range of the camera.

上記によれば、カメラの撮像範囲に含まれる物体を抽象化して表示することができ、例えばユーザにとって見やすい表示とすることができる。   According to the above, the object included in the imaging range of the camera can be abstracted and displayed, and for example, the display can be easy for the user to view.

また、他の構成では、前記表示制御手段は、前記カメラの撮像範囲に含まれる物体の輪郭を示す画像を前記表示手段に表示させてもよい。   Further, in another configuration, the display control means may cause the display means to display an image indicating an outline of an object included in an imaging range of the camera.

また、他の構成では、前記表示制御手段は、前記カメラの撮像範囲に含まれる複数の物体のうちの特定の物体のみを前記表示手段に表示させてもよい。   Further, in another configuration, the display control means may cause the display means to display only a specific object among a plurality of objects included in an imaging range of the camera.

上記によれば、特定の物体のみを表示することができ、他の物体が表示されることにより見にくい表示となることを防止できる。   According to the above, it is possible to display only a specific object, and it is possible to prevent the display from being obscured by the display of other objects.

また、他の構成では、前記入力画像に基づいてユーザの手を検出する検出手段をさらに備えてもよい。前記処理手段は、前記検出手段による検出結果に基づいて、前記アプリケーション処理を行う。   In another configuration, the apparatus may further include detection means for detecting a user's hand based on the input image. The processing means performs the application processing based on the detection result by the detection means.

上記によれば、ユーザの手を検出することができ、手の検出結果に基づいてアプリケーション処理を行うことができる。   According to the above, the user's hand can be detected, and application processing can be performed based on the hand detection result.

また、他の構成では、前記検出手段は、ユーザによって行われたジェスチャを検出してもよい。   In another configuration, the detection means may detect a gesture performed by the user.

上記によれば、ユーザによって行われたジェスチャを検出することができ、例えば、ジェスチャを用いた入力によりアプリケーション処理を行うことができる。   According to the above, the gesture performed by the user can be detected, and for example, the application processing can be performed by the input using the gesture.

また、他の構成では、前記入力画像に含まれる物体の少なくとも一部が前記カメラの撮像範囲のうちの所定の領域からはみ出したか否かを判定する判定手段をさらに備えてもよい。前記表示制御手段は、前記判定手段による判定結果に応じた画像を前記表示手段に表示させる。   Further, in another configuration, the image processing apparatus may further include a determination unit that determines whether at least a part of the object included in the input image is out of a predetermined area of the imaging range of the camera. The display control means causes the display means to display an image according to the determination result by the determination means.

上記によれば、物体の一部が撮像範囲の所定の領域からはみ出したか否かをユーザに認識させることができる。   According to the above, it is possible to make the user recognize whether or not a part of the object is out of the predetermined area of the imaging range.

また、他の構成では、前記表示制御手段は、前記処理手段によって行われる所定のアプリケーション処理の実行状況に応じて、前記画像を表示又は非表示にしてもよい。   Further, in another configuration, the display control means may display or hide the image according to an execution state of a predetermined application process performed by the processing means.

上記によれば、アプリケーションの実行状況又はユーザの選択に応じて前記画像を表示又は非表示とすることができ、例えば、アプリケーションの開始前のみ表示したり、チュートリアル時のみ表示したりすることができる。   According to the above, the image can be displayed or not displayed according to the execution status of the application or the user's selection. For example, the image can be displayed only before the start of the application or can be displayed only at the time of the tutorial .

また、他の構成では、前記電子機器は手持ち型の電子機器であってもよい。   In another configuration, the electronic device may be a hand-held electronic device.

また、他の構成では、前記カメラは、赤外光を受光可能な赤外線カメラであってもよい。   In another configuration, the camera may be an infrared camera capable of receiving infrared light.

また、他の実施形態では、入力装置と、前記入力装置の側面方向を撮像するカメラと、前記カメラによって撮像された入力画像を取得する取得手段と、前記取得手段によって取得された入力画像により示される被写体を所定方向に傾けた画像を表示手段に表示させる表示制御手段と、前記取得手段によって取得された入力画像に基づいて所定のアプリケーション処理を行う処理手段と、を備える電子機器システムであってもよい。当該システムは、複数の装置によって構成されてもよいし、1の装置によって構成されてもよい。   In another embodiment, an input device, a camera for capturing a side direction of the input device, an acquisition unit for acquiring an input image imaged by the camera, and an input image acquired by the acquisition unit are used. An electronic device system comprising: display control means for displaying on a display means an image obtained by tilting a subject to be moved in a predetermined direction; and processing means for performing predetermined application processing based on an input image acquired by the acquisition means. It is also good. The system may be configured by a plurality of devices or may be configured by one device.

また、一実施形態に係る電子機器は、カメラと、取得手段と、入力画像表示手段と、設定手段と、領域表示手段と、判定手段と、表示態様制御手段とを備える。取得手段は、前記カメラによって撮像された入力画像を取得する。入力画像表示手段は、前記取得手段によって取得された入力画像を表示手段に表示させる。設定手段は、前記カメラの撮像範囲よりも小さな領域であって当該撮像範囲に対して固定された固定領域を設定する。領域表示手段は、前記固定領域を示す領域画像を前記表示手段に表示させる。判定手段は、前記入力画像に含まれる物体の少なくとも一部が前記固定領域からはみ出したか否かを判定する。表示態様制御手段は、前記判定手段による判定結果に基づいて、前記表示手段に表示される画像の表示態様を制御する。   Further, the electronic device according to one embodiment includes a camera, an acquisition unit, an input image display unit, a setting unit, an area display unit, a determination unit, and a display mode control unit. Acquisition means acquires an input image captured by the camera. The input image display means causes the display means to display the input image acquired by the acquisition means. The setting means sets a fixed area which is an area smaller than the imaging range of the camera and is fixed to the imaging range. The area display means causes the display means to display an area image indicating the fixed area. The determination means determines whether or not at least a part of the object included in the input image is out of the fixed area. The display mode control means controls the display mode of the image displayed on the display means based on the determination result by the determination means.

上記によれば、例えば、固定領域から物体がはみ出たか否かをユーザに認識させることができ、カメラの撮像範囲から物体がはずれることをユーザに認識させることができる。   According to the above, for example, it is possible to make the user recognize whether or not an object has come out of the fixed area, and to make the user recognize that the object deviates from the imaging range of the camera.

また、他の構成では、前記カメラは前記電子機器の側面方向を撮像してもよい。   In another configuration, the camera may capture the side direction of the electronic device.

また、一実施形態に係る電子機器は、カメラと、取得手段と、検出手段と、処理手段と、条件判定手段と、警告手段とを備える。取得手段は、前記カメラによって撮像された入力画像を取得する。検出手段は、前記取得手段によって取得された入力画像に含まれる特定の物体を検出する。処理手段は、前記検出手段によって前記特定の物体が検出された場合に所定の情報処理を行う。条件判定手段は、前記入力画像に基づいて所定の条件を満たすか否かを判定する。警告手段は、前記検出手段によって前記特定の物体が検出されている場合において、前記条件判定手段によって前記所定の条件を満たすと判定された場合、警告を行う。前記処理手段は、前記条件判定手段によって前記所定の条件を満たすと判定された場合でも前記入力画像に基づいて前記所定の情報処理を行う。   In addition, the electronic device according to one embodiment includes a camera, an acquisition unit, a detection unit, a processing unit, a condition determination unit, and a warning unit. Acquisition means acquires an input image captured by the camera. The detection means detects a specific object included in the input image acquired by the acquisition means. The processing means performs predetermined information processing when the specific object is detected by the detection means. The condition determining means determines whether or not a predetermined condition is satisfied based on the input image. The warning means gives a warning when it is judged by the condition judging means that the predetermined condition is satisfied, when the specific object is detected by the detection means. The processing means performs the predetermined information processing based on the input image even when the condition determination means determines that the predetermined condition is satisfied.

上記によれば、例えば、特定の物体が検出されている場合であっても入力画像に基づいて所定の条件が満たされていると判定された場合には、警告を行うことができ、例えば、入力画像に基づく所定の情報処理が行われなくなる前に、事前にユーザに警告することができる。   According to the above, for example, even when a specific object is detected, when it is determined that the predetermined condition is satisfied based on the input image, a warning can be given, for example, The user can be warned in advance before the predetermined information processing based on the input image is not performed.

また、他の構成では、前記検出手段によって前記特定の物体が検出されなかった場合、前記警告手段による警告とは異なる警告を行う第2警告手段をさらに備えてもよい。   In another configuration, the apparatus may further include a second warning unit that gives a warning different from the warning by the warning unit when the specific object is not detected by the detection unit.

また、他の構成では、前記検出手段によって前記特定の物体が検出されなかった場合、前記処理手段による前記所定の情報処理を停止する停止手段をさらに備えてもよい。   In another configuration, the apparatus may further include stop means for stopping the predetermined information processing by the processing means when the specific object is not detected by the detection means.

本発明の一例によれば、側面方向を撮像するカメラで撮像した画像を表示装置に表示する際に所定方向に傾けて表示することができ、例えばユーザにとって見やすい表示を行うことができる。   According to an example of the present invention, when displaying an image captured by a camera capturing an image in the side direction on a display device, it can be displayed by being tilted in a predetermined direction, and for example, display that is easy for the user to view can be performed.

本実施形態の携帯電子機器1の正面図Front view of the portable electronic device 1 of the present embodiment 携帯電子機器1の右側面図Right side view of portable electronic device 1 携帯電子機器1の背面図Rear view of portable electronic device 1 携帯電子機器1の内部構成の一例を示すブロック図Block diagram showing an example of the internal configuration of the portable electronic device 1 携帯電子機器1の使用状態の一例を示す図であり、ユーザが携帯電子機器1を両手で把持したときの様子を示す図FIG. 6 is a view showing an example of the usage state of the portable electronic device 1, showing a state in which the user holds the portable electronic device 1 with both hands. ユーザが携帯電子機器1の右側面方向で右手を用いてジェスチャ入力を行う様子を示す図A diagram showing a user performing a gesture input using the right hand in the right side direction of the portable electronic device 1 ユーザが携帯電子機器1の右側面方向で右手を用いてジェスチャ入力を行う様子を示す図A diagram showing a user performing a gesture input using the right hand in the right side direction of the portable electronic device 1 図6Aに示すようなジェスチャ入力が行われた場合の赤外線カメラ4によって撮像される画像の一例を示す図The figure which shows an example of the image imaged by the infrared camera 4 at the time of gesture input as shown to FIG. 6A being performed. 図6Bに示すようなジェスチャ入力が行われた場合の赤外線カメラ4によって撮像される画像の一例を示す図The figure which shows an example of the image imaged by the infrared camera 4 at the time of gesture input as shown to FIG. 6B being performed. 本実施形態のガイド表示の一例を示す図The figure which shows an example of the guide display of this embodiment 図8に示す状態において赤外線カメラ4によって撮像された赤外線画像の一例を示す図The figure which shows an example of the infrared image imaged with the infrared camera 4 in the state shown in FIG. 図9に示す画像が取得された場合の輪郭描画処理およびガイド枠画像描画処理が行われた後の画像の一例を示す図A diagram showing an example of an image after the contour drawing process and the guide frame image drawing process when the image shown in FIG. 9 is acquired 図8に示す状態からユーザが手を上方向(Y軸方向)に移動させた状態を示す図The figure which shows the state which the user moved the hand upwards (Y-axis direction) from the state shown in FIG. 図8に示す状態からユーザが手を画面の奥方向(Z軸方向)に移動させた状態を示す図The figure which shows the state which the user moved the hand to the back direction (Z-axis direction) of a screen from the state shown in FIG. 図11に示す状態における輪郭画像21とガイド枠画像22とを合成した合成画像41を示す図The figure which shows the synthetic | combination image 41 which synthesize | combined the outline image 21 and the guide frame image 22 in the state shown in FIG. 図12に示す状態における輪郭画像21とガイド枠画像22とを合成した合成画像41を示す図The figure which shows the synthetic | combination image 41 which synthesize | combined the outline image 21 and the guide frame image 22 in the state shown in FIG. パース表示を行うための処理の一例を示す概略図Schematic diagram showing an example of processing for performing perspective display 携帯電子機器1のディスプレイ2に表示されるメニュー画面の一例を示す図The figure which shows an example of the menu screen displayed on the display 2 of the portable electronic device 1. メニュー画面によって選択されたアプリBが起動した様子を示す図Diagram showing application B selected by the menu screen started up 起動されたアプリBのゲームが開始された直後の画面の一例を示す図A diagram showing an example of a screen immediately after the game of the started application B is started ゲームが実行されている間の画面遷移の一例を示す図Diagram showing an example of screen transition while a game is being executed 他の実施形態におけるメニュー画面を表示するためのジェスチャの一例を示す図The figure which shows an example of the gesture for displaying the menu screen in other embodiment ガイド表示を行うための処理の一例を示すフローチャートFlow chart showing an example of processing for performing guide display メニュー画面の表示を行うための処理の一例を示すフローチャートFlowchart showing an example of processing for displaying a menu screen アプリケーション制御処理の一例を示すフローチャートFlow chart showing an example of application control processing

以下、本発明の一実施形態に係る携帯電子機器について説明する。携帯電子機器は、ユーザが手で持って操作可能な手持ち型の情報処理装置であり、例えば、ゲーム装置であってもよいし、携帯電話機(スマートフォン等)、タブレット端末、カメラ、腕時計型の端末等の任意の装置であってもよい。図1は、本実施形態の携帯電子機器1の正面図である。図2は、携帯電子機器1の右側面図である。図3は、携帯電子機器1の背面図である。   Hereinafter, a portable electronic device according to an embodiment of the present invention will be described. The portable electronic device is a hand-held information processing apparatus which can be operated by the user by hand and may be, for example, a game device, a portable telephone (such as a smart phone), a tablet terminal, a camera, and a wristwatch type terminal Or any other device. FIG. 1 is a front view of a portable electronic device 1 of the present embodiment. FIG. 2 is a right side view of the portable electronic device 1. FIG. 3 is a rear view of the portable electronic device 1.

図1に示すように、携帯電子機器1は、ディスプレイ2と、タッチパネル3と、赤外線カメラ4と、測距センサ5と、入力ボタン6(6A〜6D)と、照射部7と、プロジェクタ8とを備え、これらはハウジング10に収納される。ハウジング10(携帯電子機器1)は、板状の形状であり、ユーザが片手又は両手で把持可能な大きさである。   As shown in FIG. 1, the portable electronic device 1 includes a display 2, a touch panel 3, an infrared camera 4, a distance measuring sensor 5, input buttons 6 (6 A to 6 D), an irradiation unit 7, and a projector 8. , Which are housed in the housing 10. The housing 10 (portable electronic device 1) has a plate-like shape, and has a size that can be gripped by the user with one hand or both hands.

ディスプレイ2としては、例えば、液晶表示装置や有機EL表示装置等が用いられ、その他、任意の表示装置が用いられてもよい。ディスプレイ2の画面は、ハウジング10の正面(T5面)に露出するように設けられる。タッチパネル3は、ディスプレイ2の画面上に設けられ、ユーザによってタッチされた画面上の位置を検出する。タッチパネル3としては、1点検出が可能なものや多点検出が可能なものが用いられ、例えば、静電容量方式、抵抗膜方式等、任意のものが用いられてもよい。   As the display 2, for example, a liquid crystal display device, an organic EL display device, or the like may be used, and any other display device may be used. The screen of the display 2 is provided so as to be exposed on the front surface (surface T5) of the housing 10. The touch panel 3 is provided on the screen of the display 2 and detects the position on the screen touched by the user. As the touch panel 3, a touch panel capable of single-point detection or a touch panel capable of multi-point detection may be used. For example, an arbitrary type such as an electrostatic capacitance system or a resistance film system may be used.

入力ボタン6A〜6Dは、ユーザによる入力(押下)を受け付ける。入力ボタン6A〜6Dは、ユーザが携帯電子機器1の両端を把持したときにユーザの指が届く位置に設けられる。具体的には、入力ボタン6Aおよび6Cは、ユーザが右手で携帯電子機器1を把持したときに右手の指が届く位置にあり、入力ボタン6Aは右手の親指が届く位置に、入力ボタン6Cは右手の人差し指又は中指が届く位置に設けられる。また、入力ボタン6Bおよび6Dは、ユーザが左手で携帯電子機器1を把持したときに左手の指が届く位置にあり、入力ボタン6Bは左手の親指が届く位置に、入力ボタン6Dは左手の人差し指又は中指が届く位置に設けられる。図1に示すように、入力ボタン6Aおよび6Bは、ハウジング10の正面(T5面)に設けられ、入力ボタン6Cおよび6Dは、ハウジング10の上面(T4面)に設けられる。なお、ユーザによる入力を受け付ける入力部としては、入力ボタン6A〜6Dの他に、方向入力のための十字キー、アナログスティック等が設けられてもよい。   The input buttons 6A to 6D receive input (depression) by the user. The input buttons 6A to 6D are provided at positions where the user's finger can reach when the user grips both ends of the portable electronic device 1. Specifically, when the user grips the portable electronic device 1 with the right hand, the input buttons 6A and 6C are in a position where the finger of the right hand reaches, the input button 6A is in a position where the thumb of the right hand reaches, and the input button 6C is It is provided at a position where the index finger or the middle finger of the right hand can reach. In addition, the input buttons 6B and 6D are in a position where the finger of the left hand reaches when the user grips the portable electronic device 1 with the left hand, the input button 6B is in a position where the thumb of the left hand reaches, and the input button 6D is the forefinger of the left hand Or it is provided in the position which a middle finger reaches. As shown in FIG. 1, the input buttons 6A and 6B are provided on the front surface (surface T5) of the housing 10, and the input buttons 6C and 6D are provided on the top surface (surface T4) of the housing 10. In addition to the input buttons 6A to 6D, a cross key for direction input, an analog stick, or the like may be provided as an input unit that receives an input by the user.

赤外線カメラ4は、レンズと光(赤外線。具体的には近赤外線)に感光するセンサとを備える。赤外線カメラ4のセンサは、赤外線に感光する素子を縦横に複数並べたイメージセンサであり、当該イメージセンサの各素子が赤外線を受光して電気信号に変換することで2次元の赤外線画像を出力する。   The infrared camera 4 includes a lens and a sensor that is sensitive to light (infrared, specifically, near infrared). The sensor of the infrared camera 4 is an image sensor in which a plurality of elements sensitive to infrared light are arranged vertically and horizontally. Each element of the image sensor receives infrared light and converts it into an electrical signal to output a two-dimensional infrared image. .

測距センサ5は、測距センサ5に設けられた光源から射出された光(例えば、赤外光)が物体に反射し、当該反射光を受光素子で受光することで物体との間の距離を測定する。測距センサ5としては、三角測距方式、TOF(Time Of Flight)方式等任意のものが用いられてもよい。測距センサ5の光源としては、特定方向に赤外光を射出するLEDやレーザダイオード等が用いられる。   The distance measuring sensor 5 reflects a light (for example, infrared light) emitted from a light source provided to the distance measuring sensor 5 to an object, and the reflected light is received by the light receiving element to obtain a distance between the light and the object. Measure As the distance measuring sensor 5, any sensor such as a triangular distance measuring method or a TOF (Time Of Flight) method may be used. As a light source of the distance measurement sensor 5, an LED, a laser diode or the like which emits infrared light in a specific direction is used.

照射部7は、赤外線を所定の時間間隔(例えば、1/60秒間隔)で照射する。赤外線カメラ4が画像を撮像するタイミングと同期して、照射部7が赤外線を照射する。照射部7は、携帯電子機器1の右側面方向の所定の範囲に赤外線を照射する。照射部7によって照射された赤外線が物体によって反射され、当該反射された赤外線が赤外線カメラ4によって受光されることで、赤外線の画像が取得される。なお、照射部7は、赤外線カメラ4による赤外線画像の撮像のため、および、測距センサ5による距離の測定のために用いられてもよい。すなわち、照射部7からの赤外光を利用して、赤外線カメラ4によって画像が撮像されるとともに、測距センサ5によって距離が測定されてもよい。   The irradiation unit 7 irradiates infrared light at a predetermined time interval (for example, 1/60 second interval). The irradiation unit 7 emits infrared light in synchronization with the timing at which the infrared camera 4 captures an image. The irradiation unit 7 irradiates infrared rays to a predetermined range in the right side surface direction of the portable electronic device 1. The infrared light emitted by the irradiation unit 7 is reflected by the object, and the reflected infrared light is received by the infrared camera 4 to obtain an infrared image. The irradiation unit 7 may be used to capture an infrared image by the infrared camera 4 and to measure the distance by the distance measurement sensor 5. That is, the infrared camera 4 may capture an image using the infrared light from the irradiation unit 7 and the distance measuring sensor 5 may measure the distance.

また、プロジェクタ8は、可視光を射出する光源を有し、当該光源からの光を用いて文字や画像等を投影面(スクリーンやユーザの手等)に投影する。   The projector 8 also has a light source for emitting visible light, and uses the light from the light source to project characters, images, etc. onto a projection surface (screen, user's hand, etc.).

赤外線カメラ4、測距センサ5、照射部7、およびプロジェクタ8は、ハウジング10の側面(例えば右側面:T1面)に設けられる。具体的には、赤外線カメラ4の撮像方向(光軸)は、右側面に垂直な方向を向く。測距センサ5の検出方向、プロジェクタ8が光を照射する方向もまた同様に右側面に垂直な方向である。すなわち、赤外線カメラ4は、ユーザが左手で携帯電子機器1を把持した際に、携帯電子機器1の右側面方向の空間を撮像し、測距センサ5は、携帯電子機器1の右側面方向の空間に存在する物体までの距離を測定する。また、プロジェクタ8は、赤外線カメラ4および測距センサ5と同じ方向に可視光を照射することで画像等を投影する。   The infrared camera 4, the distance measurement sensor 5, the irradiation unit 7, and the projector 8 are provided on the side surface of the housing 10 (for example, right side surface: T1 surface). Specifically, the imaging direction (optical axis) of the infrared camera 4 is in the direction perpendicular to the right side surface. The detection direction of the distance measurement sensor 5 and the direction in which the projector 8 emits light are also directions perpendicular to the right side surface. That is, when the user holds the portable electronic device 1 with the left hand, the infrared camera 4 captures a space in the direction of the right side surface of the portable electronic device 1, and the distance measuring sensor 5 measures the direction of the right side surface of the portable electronic device 1. Measure the distance to an object present in space. In addition, the projector 8 projects an image or the like by emitting visible light in the same direction as the infrared camera 4 and the distance measuring sensor 5.

携帯電子機器1の背面(T6面)には、外側カメラ9が設けられる(図3)。外側カメラ9は、典型的には、赤外線カメラ4の撮像方向とは垂直な方向を撮像可能であり、背面と垂直な方向を撮像可能である。外側カメラ9は、レンズと可視光に感光するイメージセンサとを備える。外側カメラ9は、背面方向の空間を撮像し、カラー画像(RGB画像)を取得する。なお、背面の外側カメラ9に加えて正面にもカメラが設けられてもよいし、背面の外側カメラ9は設けられず、正面(ディスプレイ2の画面が設けられた面)にカメラが設けられてもよい。   An outer camera 9 is provided on the back surface (surface T6) of the portable electronic device 1 (FIG. 3). The outer camera 9 can typically capture a direction perpendicular to the imaging direction of the infrared camera 4 and can capture a direction perpendicular to the back surface. The outer camera 9 comprises a lens and an image sensor sensitive to visible light. The outer camera 9 captures a space in the back direction to obtain a color image (RGB image). It should be noted that a camera may be provided on the front in addition to the rear camera 9 on the rear, and the rear camera 9 on the rear is not provided, and the camera is provided on the front (the surface on which the screen of the display 2 is provided) It is also good.

図4は、携帯電子機器1の内部構成の一例を示すブロック図である。図4に示すように、携帯電子機器1は、上述した各部の他、バイブレータ11、マイク12、スピーカ13、制御部14、通信部15、姿勢検出部16、GPSレシーバ17、および地磁気センサ18を備える。また、携帯電子機器1は、図示しないバッテリーを備え、当該バッテリーから電源が供給される。これら各部はハウジング10内に収納される。   FIG. 4 is a block diagram showing an example of the internal configuration of the portable electronic device 1. As shown in FIG. 4, the portable electronic device 1 includes the vibrator 11, the microphone 12, the speaker 13, the control unit 14, the communication unit 15, the attitude detection unit 16, the GPS receiver 17, and the geomagnetic sensor 18 in addition to the above-described units. Prepare. In addition, the portable electronic device 1 includes a battery (not shown), and power is supplied from the battery. These components are housed in the housing 10.

制御部14は、ディスプレイ2、タッチパネル3、赤外線カメラ4、測距センサ5、入力ボタン6、照射部7、プロジェクタ8、バイブレータ11、マイク12、スピーカ13、通信部15、姿勢検出部16、GPSレシーバ17、地磁気センサ18等、各部に接続され、各部を制御する。   The control unit 14 includes the display 2, the touch panel 3, the infrared camera 4, the distance measurement sensor 5, the input button 6, the irradiation unit 7, the projector 8, the vibrator 11, the microphone 12, the speaker 13, the communication unit 15, the attitude detection unit 16, and GPS The receiver 17 and the geomagnetic sensor 18 are connected to each part to control each part.

具体的には、制御部14は、CPUやメモリ(RAM)等を含み、携帯電子機器1に備えられた図示しない記憶装置(例えば、不揮発性メモリやハードディスク等)に記憶された所定のプログラム(例えば、ゲーム処理や画像処理、各種演算を行うためのアプリケーションプログラム)に基づいて所定の処理を行う。例えば、制御部14は、赤外線カメラ4からの画像を取得して当該画像を解析したり、測距センサ5からの信号に基づいて物体までの距離を算出したり、タッチパネル3や入力ボタン6からの入力信号に応じた処理を行う。そして、制御部14は、所定の処理の結果に基づく画像を生成し、ディスプレイ2に当該画像を出力する。なお、所定の処理を行うためのプログラムは、通信部15を介して外部からダウンロードされてもよい。   Specifically, the control unit 14 includes a CPU, a memory (RAM), and the like, and stores a predetermined program (for example, a non-volatile memory, a hard disk, etc.) (not shown) provided in the portable electronic device 1. For example, predetermined processing is performed based on game processing, image processing, and an application program for performing various calculations. For example, the control unit 14 acquires an image from the infrared camera 4 and analyzes the image, or calculates a distance to an object based on a signal from the distance measurement sensor 5, or from the touch panel 3 or the input button 6. Perform processing according to the input signal of Then, the control unit 14 generates an image based on the result of the predetermined processing, and outputs the image to the display 2. The program for performing the predetermined process may be downloaded from the outside via the communication unit 15.

バイブレータ11は、制御部14からの命令に基づいて動作し、携帯電子機器1全体を振動させる。バイブレータ11は、ユーザの手に振動が伝わりやすい所定の位置(例えば、ハウジング10内の中央部や左右の何れかに偏った位置)に設けられる。   The vibrator 11 operates based on an instruction from the control unit 14 to vibrate the entire portable electronic device 1. The vibrator 11 is provided at a predetermined position where the vibration is easily transmitted to the user's hand (for example, a position biased to either the central portion in the housing 10 or to the left or right).

マイク12およびスピーカ13は、音声を入力/出力するために用いられる。通信部15は、所定の通信方式(例えば、無線LAN等)で他の機器と通信を行うために用いられる。また、姿勢検出部16は、例えば、加速度センサや角速度センサであり、携帯電子機器1の姿勢を検出する。   The microphone 12 and the speaker 13 are used to input / output voice. The communication unit 15 is used to communicate with another device by a predetermined communication method (for example, a wireless LAN or the like). Further, the posture detection unit 16 is, for example, an acceleration sensor or an angular velocity sensor, and detects the posture of the portable electronic device 1.

GPSレシーバ17は、GPS(Global Positioning System)衛星からの信号を受信し、当該信号を受信することで携帯電子機器1は自機の位置を計算することができる。例えば、携帯電子機器1は、特定の位置で所定の操作(例えば、後述する赤外線カメラ4を用いたジェスチャ入力やボタン入力、携帯電子機器1を振るなどの動作)が行われた場合に、当該特定の位置に対応付けられたオブジェクトを表示してもよい。例えば、携帯電子機器1においてゲームが行われる場合において、携帯電子機器1が特定の位置にある場合、当該特定の位置に対応したオブジェクトを当該ゲームに登場させてもよい。   The GPS receiver 17 receives a signal from a GPS (Global Positioning System) satellite, and the mobile electronic device 1 can calculate the position of the mobile electronic device 1 by receiving the signal. For example, when a predetermined operation (for example, a gesture input or a button input using an infrared camera 4 described later, an operation such as shaking the mobile electronic device 1) is performed at a specific position, the mobile electronic device 1 An object associated with a specific position may be displayed. For example, when a game is played in the mobile electronic device 1, when the mobile electronic device 1 is in a specific position, an object corresponding to the specific position may be made to appear in the game.

また、地磁気センサ18は、磁気の方向および大きさを検出可能なセンサである。例えば、携帯電子機器1は、地磁気センサ18の検出結果に基づいて、特定の方位を向いているか否かを判定し、特定の方位で所定の操作(上記ジェスチャ入力等)が行われた場合に、オブジェクトを表示してもよい。例えば、携帯電子機器1においてゲームが行われる場合、特定の方位に対応したオブジェクトが当該ゲームに登場してもよい。また、携帯電子機器1は、GPSレシーバ17を用いたGPS情報と地磁気センサを用いた方位情報とを組み合わせてもよい。例えば、携帯電子機器1が、特定の位置にあり、かつ、特定の方位を向いている場合、当該特定の位置及び特定の方位に対応するオブジェクトを表示したり、当該オブジェクトをゲームに登場させてもよい。   Further, the geomagnetic sensor 18 is a sensor capable of detecting the direction and magnitude of magnetism. For example, the portable electronic device 1 determines whether or not it is facing a specific direction based on the detection result of the geomagnetic sensor 18, and a predetermined operation (such as the above gesture input) is performed in the specific direction. , Objects may be displayed. For example, when a game is played in the portable electronic device 1, an object corresponding to a specific orientation may appear in the game. In addition, the portable electronic device 1 may combine GPS information using the GPS receiver 17 and azimuth information using a geomagnetic sensor. For example, when the portable electronic device 1 is at a specific position and faces a specific orientation, the object corresponding to the specific position and the specific orientation is displayed, or the object is made to appear in the game. It is also good.

図5は、携帯電子機器1の使用状態の一例を示す図であり、ユーザが携帯電子機器1を両手で把持したときの様子を示す図である。図5に示すように、ユーザは携帯電子機器1の左右両端部を把持する。ユーザが左右の両端部を把持した場合に、ユーザは、左手の親指で入力ボタン6Bを押下可能であり、右手の親指で入力ボタン6Aを押下可能である。また、ユーザが左右の両端部を把持した場合に、ユーザは、左手の人差し指又は中指を動かすことができ当該左手の人差し指又は中指で入力ボタン6Dを押下可能であり、右手の人差し指又は中指を動かすことができ当該右手の人差し指又は中指で入力ボタン6Cを押下可能である。   FIG. 5 is a view showing an example of the usage state of the portable electronic device 1, and a view showing a state where the user holds the portable electronic device 1 with both hands. As shown in FIG. 5, the user grips the left and right ends of the portable electronic device 1. When the user grips the left and right ends, the user can press the input button 6B with the thumb of the left hand, and can press the input button 6A with the thumb of the right hand. Also, when the user grips the left and right ends, the user can move the index finger or middle finger of the left hand and can press the input button 6D with the index finger or middle finger of the left hand, and move the index finger or middle finger of the right hand It is possible to press the input button 6C with the index finger or the middle finger of the right hand.

次に、携帯電子機器1に対する入力について説明する。本実施形態では、ユーザは、携帯電子機器1を左手で把持した状態で、右手を用いて携帯電子機器1に対してジェスチャ入力を行うことができる。   Next, input to the portable electronic device 1 will be described. In the present embodiment, the user can perform a gesture input to the portable electronic device 1 using the right hand while holding the portable electronic device 1 with the left hand.

図6Aおよび図6Bは、ユーザが携帯電子機器1の右側面方向で右手を用いてジェスチャ入力を行う様子を示す図である。図7Aは、図6Aに示すようなジェスチャ入力が行われた場合の赤外線カメラ4によって撮像される画像の一例を示す図である。図7Bは、図6Bに示すようなジェスチャ入力が行われた場合の赤外線カメラ4によって撮像される画像の一例を示す図である。   6A and 6B are diagrams showing how the user performs a gesture input using the right hand in the direction of the right side surface of the portable electronic device 1. FIG. FIG. 7A is a view showing an example of an image captured by the infrared camera 4 when a gesture input as shown in FIG. 6A is performed. FIG. 7B is a diagram showing an example of an image captured by the infrared camera 4 when a gesture input as shown in FIG. 6B is performed.

図6Aおよび図6Bに示すように、ユーザは、携帯電子機器1の右側面方向の位置で右手を用いて様々なジェスチャ入力を行う。携帯電子機器1は、携帯電子機器1の右側面に設けられた赤外線カメラ4で赤外線画像を撮像し、当該撮像した赤外線画像を解析することにより、ユーザのジェスチャ入力を判別する。   As shown in FIGS. 6A and 6B, the user performs various gesture inputs using the right hand at a position in the direction of the right side surface of the portable electronic device 1. The portable electronic device 1 captures an infrared image with the infrared camera 4 provided on the right side surface of the portable electronic device 1 and analyzes the captured infrared image to determine the gesture input of the user.

具体的には、図7Aや図7Bに示す画像が赤外線カメラ4から取得されると、携帯電子機器1は、取得された画像に含まれる特定の物体(具体的には、人間の手)を検出し、当該特定の物体の形状等に基づいて、ユーザによって行われたジェスチャの種類を判別する。例えば、携帯電子機器1は、取得された画像に所定の形状の物体が存在するか否かをパターンマッチング等により判定する。例えば、携帯電子機器1は、図7Aに示す画像が取得された場合、指の本数から「グー」を認識することができ、図7Bに示す画像が取得された場合は、指の本数から「パー」を認識することができる。そして、携帯電子機器1は、後述するようにジェスチャの種類に応じた処理を行う。   Specifically, when the image shown in FIG. 7A or 7B is acquired from the infrared camera 4, the portable electronic device 1 sets a specific object (specifically, a human hand) included in the acquired image. Detection is performed, and the type of gesture performed by the user is determined based on the shape or the like of the specific object. For example, the portable electronic device 1 determines whether an object having a predetermined shape exists in the acquired image by pattern matching or the like. For example, when the image shown in FIG. 7A is obtained, the portable electronic device 1 can recognize “Goo” from the number of fingers, and when the image shown in FIG. 7B is obtained, "Per" can be recognized. And the portable electronic device 1 performs the process according to the kind of gesture so that it may mention later.

ここで、判別されるジェスチャは、ユーザの手や顔等の体の一部や全体を用いた身振り・手振りであり、携帯電子機器1は、手等の静止した状態をジェスチャ入力として認識してもよいし、手を使った一連の動作をジェスチャ入力として認識してもよい。また、携帯電子機器1は、ユーザが物を持った状態で行われるジェスチャ入力を認識してもよい。この場合、携帯電子機器1は、ユーザが持っている物のみの静止状態や動作状態をジェスチャ入力として認識してもよいし、ユーザの手と物を含んだ全体の静止状態や動作状態をジェスチャ入力として認識してもよい。   Here, the gesture to be determined is a gesture or gesture using a part or the whole of the body such as the user's hand or face, and the portable electronic device 1 recognizes a stationary state of the hand or the like as a gesture input. You may also recognize a series of actions using a hand as gesture input. The portable electronic device 1 may also recognize a gesture input performed in a state where the user holds an object. In this case, the portable electronic device 1 may recognize the stationary state or the operating state of only the object held by the user as a gesture input, or gesture the entire stationary state or the operating state including the user's hand and the object. It may be recognized as input.

なお、赤外線カメラ4によって撮像された赤外線画像の中に複数の物体が含まれる場合、携帯電子機器1は、複数の物体のうちの特定の物体のみを検出し、当該検出した物体に基づいて処理を行ってもよい。例えば、赤外線カメラ4を用いてユーザの手を撮像する場合、手とその背後の物体が赤外線画像の中に含まれることがある。この場合、携帯電子機器1は、ユーザの手のみを認識してもよい。例えば、携帯電子機器1は、赤外線カメラ4によって撮像された赤外線画像に含まれる複数の物体の画像のうち、平均輝度が最も高い物体の画像のみを取り出して、当該物体の画像を解析することにより、ユーザの手を認識してもよい。また、赤外線カメラ4によって撮像された赤外線画像に含まれる複数の物体の画像からパターンマッチング等に基づいてユーザの手のみを認識してもよい。   When a plurality of objects are included in the infrared image captured by the infrared camera 4, the portable electronic device 1 detects only a specific object of the plurality of objects, and processes based on the detected objects. You may For example, when imaging a user's hand using the infrared camera 4, the hand and an object behind it may be included in the infrared image. In this case, the portable electronic device 1 may recognize only the user's hand. For example, the portable electronic device 1 extracts only an image of an object having the highest average luminance among images of a plurality of objects included in the infrared image captured by the infrared camera 4 and analyzes the image of the object. The user's hand may be recognized. Alternatively, only the user's hand may be recognized from images of a plurality of objects included in the infrared image captured by the infrared camera 4 based on pattern matching or the like.

本実施形態では、ユーザは、携帯電子機器1の例えば右側面方向において右手を用いてジェスチャを行うことで、携帯電子機器1に対して様々な操作を行う。まず、ユーザは、携帯電子機器1の右側面に配置された赤外線カメラ4で自身の右手が正常に撮像され、ジェスチャ入力が可能な状態か否かを認識する必要がある。そこで、本実施形態では、ジェスチャ入力が可能な位置をユーザに認識させるための(ユーザの手をジェスチャ入力に適した位置に誘導するための)ガイド表示が行われる。例えば、後述するアプリケーションが実行されるに先立って、ガイド表示が行われる。   In the present embodiment, the user performs various operations on the portable electronic device 1 by performing a gesture using the right hand in, for example, the right side direction of the portable electronic device 1. First, the user needs to recognize whether or not the right hand of the user's right hand is normally imaged by the infrared camera 4 disposed on the right side surface of the portable electronic device 1 and that gesture input is possible. Thus, in the present embodiment, guide display (for guiding the user's hand to a position suitable for gesture input) for causing the user to recognize the position where gesture input can be performed is performed. For example, before the application described later is executed, guide display is performed.

(ガイド表示)
図8は、本実施形態のガイド表示の一例を示す図である。図8では、赤外線カメラ4の撮像範囲内にユーザの右手があり、かつ、赤外線カメラ4によってユーザの右手が赤外線カメラの正面から撮像される場合におけるガイド表示の一例が示されている。
(Guide display)
FIG. 8 is a view showing an example of the guide display of the present embodiment. FIG. 8 shows an example of guide display in the case where the user's right hand is within the imaging range of the infrared camera 4 and the user's right hand is imaged by the infrared camera 4 from the front of the infrared camera.

図8に示すように、ディスプレイ2の画面の右側には、ユーザに正しいジェスチャ入力位置を認識させるためのガイド表示として、輪郭画像21とガイド枠画像22とが表示される。輪郭画像21は、赤外線カメラ4によって撮像された赤外線画像に含まれるユーザの手の画像の輪郭を示す画像である。ガイド枠画像22は、正しいジェスチャ入力位置をユーザに認識させるための画像であり、赤外線カメラ4によって撮像される撮像範囲よりも狭い範囲を示す画像である。   As shown in FIG. 8, on the right side of the screen of the display 2, an outline image 21 and a guide frame image 22 are displayed as a guide display for causing the user to recognize the correct gesture input position. The contour image 21 is an image showing the contour of the image of the user's hand included in the infrared image captured by the infrared camera 4. The guide frame image 22 is an image for causing the user to recognize the correct gesture input position, and is an image showing a narrower range than the imaging range imaged by the infrared camera 4.

図8に示すように、例えば、携帯電子機器1の右方向(長辺方向)をX軸、上方向(短辺方向)をY軸、ディスプレイ2の画面の奥方向をZ軸と定義する。赤外線カメラ4からX軸方向に延びる直線がユーザの右手の掌のほぼ中央に当たり、かつ、X軸方向の適切な位置にユーザの右手が存在する場合、赤外線カメラ4によってユーザの右手の全部が撮像される。   As shown in FIG. 8, for example, the right direction (long side direction) of the portable electronic device 1 is defined as an X axis, the upper direction (short side direction) as a Y axis, and the back direction of the screen of the display 2 as a Z axis. If a straight line extending from the infrared camera 4 in the X-axis direction is approximately at the center of the palm of the user's right hand, and the user's right hand is at an appropriate position in the X-axis direction, the infrared camera 4 captures all of the user's right Be done.

図9は、図8に示す状態において赤外線カメラ4によって撮像された赤外線画像の一例を示す図である。図10は、図9に示す画像が取得された場合の輪郭描画処理およびガイド枠画像描画処理が行われた後の画像の一例を示す図である。   FIG. 9 is a view showing an example of an infrared image captured by the infrared camera 4 in the state shown in FIG. FIG. 10 is a view showing an example of an image after the contour drawing process and the guide frame image drawing process when the image shown in FIG. 9 is acquired.

図9に示すように、赤外線カメラ4によって撮像された赤外線画像40には、ユーザの右手の画像が含まれる。この撮像された赤外線画像40に輪郭描画処理およびガイド枠画像描画処理が行われることで、図10に示す合成画像41が生成される。具体的には、携帯電子機器1は、図10に示すように、赤外線カメラ4によって赤外線画像40が撮像されると、例えばエッジ検出によって赤外線画像40に含まれる右手の輪郭を検出するとともに輪郭以外の内部の画素情報を消去することにより、輪郭画像21を生成する。また、携帯電子機器1は、生成した輪郭画像21に重ねてガイド枠画像22を描画する。具体的には、ガイド枠画像22は、赤外線カメラ4によって撮像された赤外線画像40の画像中心に固定された、一定の大きさを有する四角形の枠を示す画像である。   As shown in FIG. 9, the infrared image 40 captured by the infrared camera 4 includes an image of the user's right hand. A contour drawing process and a guide frame image drawing process are performed on the captured infrared image 40 to generate a composite image 41 shown in FIG. Specifically, as shown in FIG. 10, when the infrared image 40 is captured by the infrared camera 4, the portable electronic device 1 detects the outline of the right hand included in the infrared image 40 by edge detection, for example, and detects an outline other than the outline. The contour image 21 is generated by erasing the pixel information in the inside. The portable electronic device 1 also draws the guide frame image 22 so as to overlap the generated outline image 21. Specifically, the guide frame image 22 is an image that is fixed at the image center of the infrared image 40 captured by the infrared camera 4 and indicates a rectangular frame having a certain size.

輪郭画像21とガイド枠画像22とを合成した合成画像41が、所定方向に傾けられて、ディスプレイ2に表示される。具体的には、携帯電子機器1は、図8に示すように、合成画像41にパースをかけ、パースがかかった合成画像(合成画像41を斜めから見た画像)をディスプレイ2に表示する。なお、パースをかける処理の具体例については後述する。   A composite image 41 obtained by combining the contour image 21 and the guide frame image 22 is displayed on the display 2 while being tilted in a predetermined direction. Specifically, as shown in FIG. 8, the portable electronic device 1 parses the composite image 41 and displays the composite image (image obtained by viewing the composite image 41 obliquely) on the display 2. Note that a specific example of the process of parsing will be described later.

ここで、図8に示す状態からユーザが右手を動かした場合、ディスプレイ2に表示される画像が変化する。図11は、図8に示す状態からユーザが手を上方向(Y軸方向)に移動させた状態を示す図である。図12は、図8に示す状態からユーザが手を画面の奥方向(Z軸方向)に移動させた状態を示す図である。   Here, when the user moves the right hand from the state shown in FIG. 8, the image displayed on the display 2 changes. FIG. 11 is a diagram showing a state in which the user has moved his hand upward (Y-axis direction) from the state shown in FIG. FIG. 12 is a diagram showing a state in which the user has moved his hand in the back direction (Z-axis direction) of the screen from the state shown in FIG.

図11に示すように、赤外線カメラ4の撮像範囲の中心に対して上側にユーザの手の中心がある場合、ガイド枠画像22の上方に輪郭画像21の一部がはみ出た画像が、ディスプレイ2に表示される。また、図12に示すように、赤外線カメラ4の撮像範囲の中心に対して左側(図12のZ軸方向側)にユーザの手の中心がある場合、ガイド枠画像22の左方に輪郭画像21の一部がはみ出た画像が、ディスプレイ2に表示される。ここで、図11及び図12に示すように、輪郭画像21のうちガイド枠画像22からはみ出た部分は、ガイド枠画像22内に収まる部分とは異なる表示態様で表示される。例えば、輪郭画像21のうちガイド枠画像22からはみ出た部分は、色が異なっていたり、太い線で表示されたりする。   As shown in FIG. 11, when the center of the user's hand is above the center of the imaging range of the infrared camera 4, an image in which a part of the outline image 21 protrudes above the guide frame image 22 is displayed on the display 2. Is displayed on. Further, as shown in FIG. 12, when the center of the user's hand is on the left side (the Z axis direction side in FIG. 12) with respect to the center of the imaging range of the infrared camera 4, the outline image on the left of the guide frame image 22 An image in which a part of the image 21 is projected is displayed on the display 2. Here, as shown in FIG. 11 and FIG. 12, the portion of the contour image 21 that is out of the guide frame image 22 is displayed in a display mode different from the portion that fits in the guide frame image 22. For example, a portion of the outline image 21 that protrudes from the guide frame image 22 is different in color or displayed as a thick line.

図13は、図11に示す状態における輪郭画像21とガイド枠画像22とを合成した合成画像41を示す図である。図14は、図12に示す状態における輪郭画像21とガイド枠画像22とを合成した合成画像41を示す図である。   FIG. 13 is a view showing a composite image 41 obtained by combining the outline image 21 and the guide frame image 22 in the state shown in FIG. FIG. 14 is a view showing a synthesized image 41 obtained by synthesizing the outline image 21 and the guide frame image 22 in the state shown in FIG.

図13に示すように、赤外線画像の中心(赤外線カメラ4の撮像範囲の中心)よりも上側にユーザの手が存在する場合、ユーザの手の輪郭の一部がガイド枠画像22の上方にはみ出る。また、図14に示すように、赤外線画像の中心よりも左側にユーザの手が存在する場合、ユーザの手の輪郭の一部がガイド枠画像22の左方にはみ出る。これらはみ出た部分は、はみ出てない他の部分(例えば、黒色)とは異なる表示態様(例えば、赤色)で表示される。このような合成画像41が生成された後、これらの画像にパースがかけられディスプレイ2に表示される(図11及び図12に示すように合成画像41がパース表示される)。   As shown in FIG. 13, when the user's hand exists above the center of the infrared image (the center of the imaging range of the infrared camera 4), a part of the user's hand protrudes above the guide frame image 22 . Further, as shown in FIG. 14, when the user's hand exists on the left side of the center of the infrared image, a part of the outline of the user's hand protrudes to the left of the guide frame image 22. These portions that have run out are displayed in a display mode (eg, red) different from other portions (eg, black) that do not run out. After such a composite image 41 is generated, these images are parsed and displayed on the display 2 (the composite image 41 is displayed in perspective as shown in FIGS. 11 and 12).

このように、パースがかかった画像(合成画像41を斜めから見た画像)が表示されることにより、ユーザは、奥行き方向の位置を認識し易く、自身の手が赤外線カメラ4の撮像範囲に入っているか否かを容易に認識することができる。すなわち、パースがかかった画像は、ユーザが自身の手を直接見たときと同じような画像になるため、ユーザは奥行き方向を認識し易く、自身の手が現在奥行き方向のどの位置にあるかを容易に認識することができる。   In this manner, the user can easily recognize the position in the depth direction by displaying the image subjected to the perspective (image obtained by viewing the composite image 41 obliquely), and the user's hand is in the imaging range of the infrared camera 4. It can be easily recognized whether it is in or out. That is, since the image with the perspective is the same as when the user directly looks at his hand, it is easy for the user to recognize the depth direction, and at which position in the depth direction the hand is currently located Can be easily recognized.

また、赤外線カメラ4の撮像範囲に固定されたガイド枠画像22が表示されるため、ユーザはガイド枠画像22内に手が入るように手の位置を調整し易い。また、ガイド枠画像22からはみ出た部分がガイド枠画像22内の部分と異なる態様で表示されるため、ユーザは、手がガイド枠画像22の外に出たことを容易に認識することができ、手の位置を調整し易くなる。   In addition, since the guide frame image 22 fixed in the imaging range of the infrared camera 4 is displayed, the user can easily adjust the position of the hand so that the hand is in the guide frame image 22. In addition, since the part protruding from the guide frame image 22 is displayed in a mode different from the part in the guide frame image 22, the user can easily recognize that the hand is out of the guide frame image 22. , Easy to adjust the position of the hand.

また、ガイド枠画像22は、赤外線カメラ4によって撮像された赤外線画像よりも小さい。このため、ユーザの手がガイド枠画像22からはみ出ても、赤外線カメラ4によって撮像された赤外線画像にユーザの手(指)が含まれる場合は、携帯電子機器1はユーザによって行われたジェスチャを認識することができる。ガイド枠画像22を表示することにより、ユーザよって行われたジェスチャを認識できなくなる前に、赤外線カメラ4の撮像範囲からユーザの手が出てしまうことをユーザに警告することができる。   The guide frame image 22 is smaller than the infrared image captured by the infrared camera 4. Therefore, even if the user's hand extends beyond the guide frame image 22, when the infrared image captured by the infrared camera 4 includes the user's hand (finger), the portable electronic device 1 performs the gesture performed by the user. It can be recognized. By displaying the guide frame image 22, it is possible to warn the user that the user's hand will come out of the imaging range of the infrared camera 4 before it can not recognize the gesture performed by the user.

また、本実施形態では、携帯電子機器1の右側面方向が赤外線カメラ4で撮像され、その撮像された画像がディスプレイ2の画面の右側に表示される。すなわち、携帯電子機器1の側面方向が赤外線カメラ4で撮像され、ディスプレイ2の画面のうち、赤外線カメラ4で撮像される側面方向と同じ側に画像が表示される。このため、ユーザは自身の手の位置を直感的に認識し易い。   Further, in the present embodiment, the right side surface direction of the portable electronic device 1 is imaged by the infrared camera 4, and the imaged image is displayed on the right side of the screen of the display 2. That is, the side surface direction of the portable electronic device 1 is imaged by the infrared camera 4, and an image is displayed on the same side of the screen of the display 2 as the side surface direction imaged by the infrared camera 4. Therefore, the user can easily recognize the position of his / her hand intuitively.

このように、本実施形態では、ガイド表示(輪郭画像21及びガイド枠画像22)が行われる。これにより、ユーザに正しいジェスチャ入力位置を認識させることができる。すなわち、上述のようなガイド表示を行うことで、手が適切な位置にあるか否かをユーザに認識させることができる。   Thus, in the present embodiment, guide display (the outline image 21 and the guide frame image 22) is performed. This allows the user to recognize the correct gesture input position. That is, by performing the guide display as described above, it is possible to make the user recognize whether or not the hand is at an appropriate position.

ここで、図8、図11及び図12に例示されるようなパース表示を行うための処理の一例について説明する。   Here, an example of processing for performing perspective display as illustrated in FIGS. 8, 11 and 12 will be described.

図15は、パース表示を行うための処理の一例を示す概略図である。図15に示すように、輪郭画像21とガイド枠画像22とが仮想空間の所定位置に配置される。例えば、x軸、y軸、及びz軸によって定義される仮想空間のyz平面上に、輪郭画像21を形成する各点、及び、ガイド枠画像22を形成する各点がプロットされる。これらの各点がx軸方向に平行移動されて、輪郭画像21’及びガイド枠画像22’を形成する。これら移動後の各点(輪郭画像21’及びガイド枠画像22’)を射影変換することにより、ディスプレイ2にパースがかかった画像が表示される。具体的には、yz平面上に仮想カメラ50が配置され、仮想カメラ50の撮像方向(cz軸方向)はz軸と平行に設定され、仮想カメラ50の上方向(cy軸方向)はy軸と平行に設定される。このような仮想カメラ50で輪郭画像21’及びガイド枠画像22’を撮像した画像がディスプレイ2に表示される。   FIG. 15 is a schematic diagram showing an example of processing for performing perspective display. As shown in FIG. 15, the contour image 21 and the guide frame image 22 are arranged at predetermined positions in the virtual space. For example, each point forming the contour image 21 and each point forming the guide frame image 22 are plotted on the yz plane of the virtual space defined by the x axis, the y axis, and the z axis. Each of these points is translated in the x-axis direction to form a contour image 21 'and a guide frame image 22'. By projection-transforming the moved points (the outline image 21 ′ and the guide frame image 22 ′), the display 2 displays the image subjected to the perspective. Specifically, the virtual camera 50 is disposed on the yz plane, the imaging direction (cz axis direction) of the virtual camera 50 is set parallel to the z axis, and the upper direction (cy axis direction) of the virtual camera 50 is the y axis Set parallel to An image obtained by capturing the contour image 21 ′ and the guide frame image 22 ′ with such a virtual camera 50 is displayed on the display 2.

なお、パース表示のための処理は図15に示す処理に限られない。例えば、輪郭画像21とガイド枠画像22とを合成した合成画像41を、縦軸(図8のY軸)周りに所定の角度だけ回転させ、当該回転させた画像をディスプレイ2に表示することにより、合成画像41にパースがかかった画像が表示されてもよい。   Note that the process for perspective display is not limited to the process shown in FIG. For example, the composite image 41 obtained by combining the contour image 21 and the guide frame image 22 is rotated by a predetermined angle around the vertical axis (Y axis in FIG. 8), and the rotated image is displayed on the display 2 An image in which a perspective is applied to the composite image 41 may be displayed.

また、上記実施形態では、赤外線カメラ4によって撮像された赤外線画像に含まれる手の画像の輪郭を示す輪郭画像21をディスプレイ2に表示したが、輪郭ではなく、赤外線カメラ4によって撮像された赤外線画像をそのままディスプレイ2にパース表示してもよい。また、赤外線カメラ4によって撮像された赤外線画像をそのままディスプレイ2に表示するのではなく、抽象化してディスプレイ2にパース表示してもよい。上述のような手の輪郭を表示することに限らず、例えば、撮像した手の特徴点を結んだボーン(特徴点を結ぶ線分)を表示することによって、赤外線カメラ4によって撮像された赤外線画像を抽象化して表示してもよいし、他の方法によって赤外線画像を抽象化してもよい。   Further, in the above embodiment, the contour image 21 indicating the contour of the hand image included in the infrared image captured by the infrared camera 4 is displayed on the display 2, but the infrared image captured by the infrared camera 4 instead of the contour May be displayed on the display 2 as it is. Further, the infrared image picked up by the infrared camera 4 may be abstracted and displayed on the display 2 in perspective, instead of being displayed on the display 2 as it is. The infrared image captured by the infrared camera 4 is not limited to displaying the outline of the hand as described above, for example, by displaying a bone (a line segment connecting the feature points) connecting the captured feature points of the hand May be abstracted and displayed, or the infrared image may be abstracted by another method.

また、上記実施形態では、手の画像の輪郭のうち、ガイド枠画像22からはみ出た部分を他の部分と異なる特定の態様で表示することにより、ユーザにガイド枠から手がはみ出たことを知らせた。他の実施形態では、ユーザの手がガイド枠からはみ出た場合、手の画像全体(又ははみ出た部分)を特定の態様で表示させることで、ユーザに警告してもよい。また、ユーザの手がガイド枠画像22からはみ出た場合に、手の画像に加えて又は代えて、ガイド枠画像22を通常とは異なる特定の態様で表示することで、ユーザに警告をしてもよい。ここで、特定の態様としては、上述のように色を通常と異ならせたり、線の太さを変えたりするものに限らない。例えば、点滅表示することにより通常と異ならせてもよい。また、ユーザの手がガイド枠からはみ出た場合、他の画像や文字、音、振動(携帯電子機器1を把持した手(左手)に対する振動)、プロジェクタ8(LEDランプでもよい)を用いた光等により、ユーザに警告をしてもよい。   Further, in the above embodiment, the user is informed of the fact that the hand has protruded from the guide frame by displaying the portion of the image of the hand that has protruded from the guide frame image 22 in a specific mode different from other portions. The In another embodiment, when the user's hand extends out of the guide frame, the user may be warned by displaying the entire hand image (or the extended portion) in a specific manner. Also, when the user's hand protrudes from the guide frame image 22, a warning is given to the user by displaying the guide frame image 22 in a specific mode different from the normal, in addition to or instead of the hand image. It is also good. Here, the specific aspect is not limited to the one in which the color is different from the normal or the thickness of the line is changed as described above. For example, it may be made different from normal by blinking display. In addition, when the user's hand protrudes from the guide frame, light using another image, characters, sound, vibration (vibration with respect to the hand holding the portable electronic device 1 (left hand), projector 8 (which may be an LED lamp) The user may be warned, etc.

また、上記実施形態では、赤外線カメラ4によって撮像された赤外線画像にパースをかけてディスプレイ2に表示したが、他の実施形態では、撮像された画像(又は撮像された画像を抽象化した画像)にパースをかけずに表示してもよい。すなわち、ユーザが携帯電子機器1に対する手の相対位置を認識可能な態様で表示されればどのような態様で表示されてもよい。例えば、赤外線カメラ4によって撮像される撮像範囲を示す範囲画像をディスプレイに表示し、その範囲画像にユーザの手の位置を示す画像を重ねて(あるいは重ねずに)表示することで、撮像範囲のうちのどの位置にユーザの手があるのかを示してもよい。例えば、ユーザが手の奥行き方向の位置を認識し易いように、奥行き方向の位置を示す範囲画像を表示し、当該範囲画像に重ねて(あるいは重ねずに)、手の位置を示す画像を表示してもよい。具体的には、例えば、赤外線画像4によって撮像された赤外線画像から、当該撮像画像におけるユーザの手の所定位置(例えば重心)を算出する。そして、赤外線画像の左右方向(図9のZ軸方向)の範囲を示す範囲画像を表示するとともに、当該算出した位置に、手の位置を示す画像を表示する。これにより、ユーザの手が奥行き方向(Z軸方向)のどこに位置するかをユーザに認識させることができる。   Further, in the above embodiment, the infrared image captured by the infrared camera 4 is displayed on the display 2 after being scanned and displayed on the display 2. However, in another embodiment, the captured image (or an image obtained by abstracting the captured image) You may display without parsing it. That is, as long as the user's relative position of the hand with respect to the portable electronic device 1 can be displayed in a manner that can be recognized, it may be displayed in any manner. For example, the range image indicating the imaging range imaged by the infrared camera 4 is displayed on the display, and the image indicating the position of the user's hand is superimposed (or not superimposed) on the range image to display the imaging range. It may also indicate at which position the user's hand is located. For example, a range image indicating the position in the depth direction is displayed so that the user can easily recognize the position in the depth direction, and an image indicating the position of the hand is displayed by overlapping (or not overlapping) the range image. You may Specifically, for example, from the infrared image captured by the infrared image 4, a predetermined position (for example, the center of gravity) of the user's hand in the captured image is calculated. Then, a range image indicating the range in the left-right direction (Z-axis direction in FIG. 9) of the infrared image is displayed, and an image indicating the position of the hand is displayed at the calculated position. This allows the user to recognize where the user's hand is located in the depth direction (Z-axis direction).

また、上述したガイド表示は、後述するアプリケーションの実行前に行われることとしたが、携帯電子機器1によって行われる情報処理の実行状況に応じてガイド表示が行われたり、行われなかったりしてもよい。例えば、後述するアプリケーションの実行中に常にガイド表示が行われてもよいし、ユーザによる指示によってガイド表示の表示/非表示が切り替えられてもよい。また、ユーザによってガイド表示を行うためのプログラムの実行の指示が行われた場合に、ガイド表示が行われてもよい。また、携帯電子機器1の設定時や、携帯電子機器1の使い方をユーザに教示ためのチュートリアルのときだけ、上記ガイド表示が行われてもよい。   In addition, although the guide display described above is performed before the execution of the application described later, the guide display may or may not be performed depending on the execution status of the information processing performed by the portable electronic device 1. It is also good. For example, guide display may be always performed during execution of an application described later, or display / non-display of the guide display may be switched by an instruction from the user. In addition, when an instruction to execute a program for performing guide display is issued by the user, the guide display may be performed. Further, the above-described guide display may be performed only at the time of setting of the portable electronic device 1 or at the time of a tutorial for teaching the user how to use the portable electronic device 1.

また、上記実施形態では、ユーザの手を認識できなくなるまでの事前の警告として、ガイド枠画像22からユーザの手がはみ出た場合に、当該はみ出た部分を特定の態様で表示した。具体的には、赤外線カメラ4によって撮像された赤外線画像からユーザの手を認識することができる場合であっても、ユーザの手がガイド枠からはみ出る場合には、上記のようにガイド枠画像22からはみ出た部分を特定の表示態様で表示することにより、ユーザに事前警告を行った。この場合において、実際に赤外線カメラ4によって撮像された赤外線画像からユーザの手を認識することができなくなった場合は、他の警告を行ってもよい。例えば、音声や文字、画像、振動、光等を用いて、上述したガイド枠画像22を用いた事前警告とは異なる第2の警告が行われてもよい。また、後述のようなアプリケーションの実行中に上記ガイド表示を用いて事前警告を行う場合において、赤外線カメラ4によって撮像された赤外線画像からユーザの手を認識することができなくなったときは、第2の警告を行った後(又は第2の警告を行わず)、アプリケーションを終了してもよいし、後述のようにアプリケーションを一時停止してもよい。   Further, in the above-described embodiment, when the user's hand protrudes from the guide frame image 22 as a pre-warning until the user's hand can not be recognized, the part that has protruded is displayed in a specific manner. Specifically, even if it is possible to recognize the user's hand from the infrared image captured by the infrared camera 4, if the user's hand is out of the guide frame, the guide frame image 22 as described above. The user is warned in advance by displaying the part that has come off from the display in a specific display mode. In this case, when the user's hand can not be recognized from the infrared image actually taken by the infrared camera 4, another warning may be issued. For example, a second warning different from the above-described prior warning using the guide frame image 22 may be performed using voice, characters, images, vibrations, light, and the like. In addition, in the case where a warning is given in advance using the above-mentioned guide display while an application as described later is being executed, the second hand can not be recognized when the user's hand can not be recognized from the infrared image captured by the infrared camera 4. After giving a warning (or not giving a second warning), the application may be terminated or the application may be suspended as described later.

また、上記実施形態では、ユーザの手を検出している場合であってもユーザの手の少なくとも一部がガイド枠からはみ出た場合に、ユーザに対して警告を行った。他の実施形態では、警告を行うための条件はこれに限らない。例えば、他の実施形態では、ユーザのジェスチャを認識できなくなる所定の条件が満たされているか否かを赤外線カメラ4によって撮像された画像に基づいて判定し、所定の条件が満たされている場合に、警告を行ってもよい。例えば、所定の条件としては、赤外線カメラ4によって撮像された画像が暗すぎる(又は明るすぎる)こと、画像に含まれるノイズのレベルが所定以上であること等であってもよい。例えば、画像全体の平均輝度が所定値未満である場合に、それよりも輝度が下がるとユーザのジェスチャを判別できないことになるため、そのような場合には警告を行ってもよい。   Further, in the above embodiment, even when the user's hand is detected, when at least a part of the user's hand is out of the guide frame, the user is warned. In other embodiments, the conditions for giving a warning are not limited to this. For example, in another embodiment, it is determined based on an image captured by the infrared camera 4 whether or not a predetermined condition in which the user's gesture can not be recognized is satisfied, and the predetermined condition is satisfied. You may give a warning. For example, the predetermined condition may be that the image captured by the infrared camera 4 is too dark (or too bright), that the level of noise included in the image is a predetermined level or more, or the like. For example, if the average brightness of the entire image is less than a predetermined value, the user's gesture can not be determined if the brightness is lower than that, so a warning may be issued in such a case.

また、ガイド枠の形状や大きさは単なる一例であり、他の任意の形状、大きさのガイド枠が設定されてガイド枠画像として表示されてもよい。また、枠画像に限らず他の任意の画像が表示されてもよい。すなわち、赤外線カメラ4の撮像範囲に含まれる物体(例えばユーザの手)が適切な位置にあるか否かをユーザに認識可能な画像であればどのような画像が表示されてもよい。例えば、手が適切な位置にあるときには所定の画像が画面の端に表示され、手が適切な位置にないとき(手が撮像範囲内であって、適切な範囲の外にあるとき)には所定の画像が点滅表示されてもよい。   Further, the shape and size of the guide frame are merely an example, and a guide frame of any other shape and size may be set and displayed as a guide frame image. Moreover, not only a frame image but other arbitrary images may be displayed. That is, any image may be displayed as long as the user can recognize whether an object (for example, the user's hand) included in the imaging range of the infrared camera 4 is at an appropriate position. For example, when the hand is at the proper position, a predetermined image is displayed at the edge of the screen, and when the hand is not at the proper position (when the hand is within the imaging range and out of the proper range) A predetermined image may be displayed blinking.

(アプリケーション制御)
次に、携帯電子機器1における赤外線カメラ4によって撮像された赤外線画像に基づくアプリケーションの制御について説明する。図16は、携帯電子機器1のディスプレイ2に表示されるメニュー画面の一例を示す図である。図17は、メニュー画面によって選択されたアプリBが起動した様子を示す図である。
(Application control)
Next, control of an application based on an infrared image captured by the infrared camera 4 in the portable electronic device 1 will be described. FIG. 16 is a view showing an example of a menu screen displayed on the display 2 of the portable electronic device 1. FIG. 17 is a diagram showing how the application B selected by the menu screen is activated.

図16に示すように、メニュー画面では携帯電子機器1において実行可能なアプリケーションの一覧が表示される。携帯電子機器1は、例えば、所定のゲームを行うゲームアプリケーション、音楽や映像を再生するためのアプリケーション、通話を行うためのアプリケーション、画像を撮像・表示するためのアプリケーション、電子メールやメッセージ等を送受信するためのアプリケーション、インターネット上のWebページを閲覧するためのブラウザアプリケーション、文書の作成や編集を行うためのアプリケーション等、任意のアプリケーションを実行可能であってもよい。また、メニュー画面から携帯電子機器1の設定を行うためのプログラムを実行可能であってもよい。   As shown in FIG. 16, a list of applications that can be executed on the portable electronic device 1 is displayed on the menu screen. For example, the mobile electronic device 1 transmits and receives a game application for performing a predetermined game, an application for playing music and video, an application for calling, an application for capturing and displaying an image, and an e-mail, a message, etc. It may be possible to execute any application such as an application for browsing, a browser application for browsing web pages on the Internet, and an application for creating or editing a document. Moreover, the program for setting the portable electronic device 1 may be executable from the menu screen.

ユーザは、メニュー画面に表示された複数のアプリケーションを示すアイコンの中から所望のアプリケーションに対応するアイコンを選択する。例えば、ユーザは、入力ボタンを用いて、アプリケーションを選択可能であってもよいし、指やタッチペンを用いてタッチパネル3に対するタッチ操作を行うことで、アプリケーションを選択可能であってもよい。また、ユーザは、携帯電子機器1の右側面においてジェスチャを行うことによって、メニュー画面に表示された複数のアプリケーションの中から所望のアプリケーションを選択可能であってもよい。   The user selects an icon corresponding to the desired application from among the icons indicating the plurality of applications displayed on the menu screen. For example, the user may select an application using the input button, or may select an application by performing a touch operation on the touch panel 3 using a finger or a touch pen. Further, the user may be able to select a desired application from a plurality of applications displayed on the menu screen by making a gesture on the right side surface of the portable electronic device 1.

例えば、図16に示すようにアプリBが選択された状態でユーザが手を右側面に近づけると、図17に示すように、アプリBが起動する。具体的には、携帯電子機器1は、赤外線カメラ4によって撮像された赤外線画像を解析して物体(例えばユーザの手)を検出する。物体が検出された場合、携帯電子機器1は、選択されたアプリBを起動する。具体的には、携帯電子機器1の制御部14のCPUは、携帯電子機器1の内部の記憶装置(例えば不揮発性メモリ等)からアプリBのプログラムをRAMに読み込み、当該プログラムの実行を開始する。あるいは、アプリBのプログラムは携帯電子機器1の外部に記憶され、携帯電子機器1は通信部15を介して当該プログラムを取得し、RAMに読み込んでもよい。   For example, when the user brings the hand close to the right side in a state where the application B is selected as shown in FIG. 16, the application B is activated as shown in FIG. Specifically, the portable electronic device 1 analyzes an infrared image captured by the infrared camera 4 to detect an object (for example, a user's hand). When an object is detected, the portable electronic device 1 activates the selected application B. Specifically, the CPU of the control unit 14 of the portable electronic device 1 reads the program of the application B from the storage device (for example, non-volatile memory etc.) inside the portable electronic device 1 into the RAM and starts the execution of the program . Alternatively, the program of the application B may be stored outside the mobile electronic device 1, and the mobile electronic device 1 may acquire the program via the communication unit 15 and read the program into the RAM.

なお、選択されたアプリを起動するための条件としては、携帯電子機器1が物体を検出したことに限らず、携帯電子機器1がユーザの手を検出したこと、携帯電子機器1がユーザの所定のジェスチャを検出したこと、携帯電子機器1の右側面がユーザによって把持されたこと、携帯電子機器1が特定の物体を検出したこと、携帯電子機器1と特定の物体との距離が所定の値になったこと、物体が所定以上の速度で移動していること等であってもよい。   In addition, as conditions for starting the selected application, not only that the portable electronic device 1 detected the object but that the portable electronic device 1 detected the user's hand, the portable electronic device 1 specified the user That the right side surface of the portable electronic device 1 is held by the user, that the portable electronic device 1 detects a specific object, and the distance between the portable electronic device 1 and the specific object is a predetermined value It may be that the object is moving at a predetermined speed or more.

例えば、赤外線カメラ4によって撮像された赤外線画像を解析することで、携帯電子機器1は、ユーザが携帯電子機器1を把持したことや携帯電子機器1と物体との距離を検出することができる。また、携帯電子機器1は、赤外線カメラ4から取得した赤外線画像に含まれる特定の物体の大きさに基づいて、携帯電子機器1と特定の物体との間の相対的な距離を判別してもよい。例えば、携帯電子機器1は、赤外線カメラ4によって撮像された赤外線画像の輝度情報に基づいて、ユーザによって把持されたと判定してもよいし、携帯電子機器1と物体との距離を算出してもよい。物体と携帯電子機器1との距離が近いほど赤外線画像の各画素の輝度は高くなる。このため、携帯電子機器1は、例えば撮像された赤外線画像のうち輝度が所定値以上の領域が、所定の割合以上である場合、ユーザによって把持されたと判定することができる。   For example, by analyzing the infrared image captured by the infrared camera 4, the portable electronic device 1 can detect that the user grips the portable electronic device 1 or the distance between the portable electronic device 1 and the object. In addition, the portable electronic device 1 determines the relative distance between the portable electronic device 1 and the specific object based on the size of the specific object included in the infrared image acquired from the infrared camera 4. Good. For example, the portable electronic device 1 may determine that the user is held by the user based on the luminance information of the infrared image captured by the infrared camera 4, or the distance between the portable electronic device 1 and the object may be calculated. Good. As the distance between the object and the portable electronic device 1 decreases, the luminance of each pixel of the infrared image increases. For this reason, the portable electronic device 1 can determine that the user grips the region, for example, in the case where the region having the luminance equal to or more than the predetermined value in the captured infrared image is equal to or more than the predetermined ratio.

また、携帯電子機器1は、赤外線画像に含まれる物体の輝度に基づいて、物体との相対的な距離を算出することができ、相対的な距離の変化に基づいて、物体の速度を算出することができる。このようにして算出された距離や速度に基づいて、携帯電子機器1は、アプリケーションを起動(開始)してもよい。   Further, the portable electronic device 1 can calculate the relative distance to the object based on the luminance of the object included in the infrared image, and calculates the velocity of the object based on the change of the relative distance be able to. The portable electronic device 1 may activate (start) the application based on the distance and speed calculated in this manner.

起動されたアプリBは、所定の条件が成立することにより開始される。例えば、アプリBがゲームアプリケーションである場合、ユーザによってゲームスタートのための所定の指示(ボタンやタッチパネル、ジェスチャ等を用いた指示)がされたことを条件に、ゲームが開始される。あるいは、携帯電子機器1がユーザの手を検出したことを条件に、ゲームが開始されてもよい。アプリBがジェスチャを用いたゲームである場合は、ユーザの手が検出されなければゲームを行うことができないため、ユーザの手を検出したことがゲーム開始の条件であってもよい。あるいは、アプリケーションBの起動から所定時間が経過したことを条件に、ゲームが開始されてもよい。   The activated application B is started when a predetermined condition is established. For example, when the application B is a game application, the game is started on condition that the user has given a predetermined instruction (instruction using a button, a touch panel, a gesture, or the like) to start the game. Alternatively, the game may be started on condition that the portable electronic device 1 detects the user's hand. When the application B is a game using a gesture, the game can not be performed unless the user's hand is detected, and thus the detection of the user's hand may be the condition for starting the game. Alternatively, the game may be started on condition that a predetermined time has elapsed since the start of the application B.

図18は、起動されたアプリBのゲームが開始された直後の画面の一例を示す図である。図18に示すように、ゲームが開始されるとディスプレイ2にはゲーム終了までの残り時間を示す表示と、ゲーム中に獲得された点数を示す表示が行われる。アプリBは、例えば、所定時間内により多くの点数の獲得を目指すゲームであり、ユーザが一人で行うゲームであってもよいし、通信部15を用いて他の携帯電子機器1(又はその他の機器)と双方向に通信することで多人数で協力して点数を獲得するゲームであってもよいし、多人数で点数を競うゲームであってもよい。例えば、アプリBは、ディスプレイ2に表示された指示通りのジェスチャをユーザが行った場合に点数が加算されるゲームである。このようなゲームにおいて、アプリBの起動後にゲームが開始されると、図18に示す画像が表示される。   FIG. 18 is a diagram showing an example of the screen immediately after the game of the started application B is started. As shown in FIG. 18, when the game is started, the display 2 shows a display indicating the remaining time until the game is over and a display showing the points acquired during the game. The application B is, for example, a game aiming to obtain more points within a predetermined time, may be a game played by the user alone, or may be another portable electronic device 1 (or other device using the communication unit 15). The game may be a game in which a large number of people cooperate with each other to obtain points by interactively communicating with the device), or a game in which the numbers are competed by a large number of people. For example, the application B is a game in which the score is added when the user performs a gesture as instructed on the display 2. In such a game, when the game is started after the application B is started, an image shown in FIG. 18 is displayed.

図19は、ゲームが実行されている間の画面遷移の一例を示す図である。図19の(A)に示すように、ゲーム開始から30秒が経過した時点では、残り時間を示す表示は「30」となり、点数は「75」となっている。また、ユーザに対する指示が画面に表示され、その指示に応じたジェスチャをユーザが行う。(B)に示すように、さらに2秒が経過してゲーム開始から32秒が経過すると、残り時間を示す表示は「28」となり、ユーザが指示に応じたジェスチャを行うことにより点数も加算される。このように、このゲームでは、例えば所定の音楽のリズムにしたがって指示が次々と表示され、表示された指示に応じたジェスチャが行われた場合は、点数が加算される。   FIG. 19 is a diagram showing an example of screen transition while the game is being executed. As shown in FIG. 19A, when 30 seconds have elapsed from the start of the game, the display indicating the remaining time is “30” and the score is “75”. In addition, an instruction for the user is displayed on the screen, and the user performs a gesture according to the instruction. As shown in (B), when 2 seconds have passed and 32 seconds have passed since the game started, the display indicating the remaining time is “28” and the score is also added by the user performing a gesture according to the instruction. Ru. As described above, in this game, for example, instructions are displayed one after another according to a predetermined music rhythm, and when a gesture corresponding to the displayed instruction is performed, points are added.

ここで、図19の(C)に示すように、ユーザの手が赤外線カメラ4の撮像範囲から外れ、赤外線カメラ4によってユーザの手を検出できなかった場合、アプリBのゲームは一時的に停止され、メニュー画面に戻る。例えば、ユーザの手が検出されなくなってから所定の待機時間が経過すると、アプリBのゲーム画面からメニュー画面に切り替わる。このとき、ゲームは内部的に一時停止され、当該ゲームの進行が一時的に停止される。しかしながら、実行中のゲームは終了されず、当該ゲームの実行に関するデータはRAMに残されたままとなる。例えば、RAMにはゲームの進行状況を示す値(例えば、残り時間や点数)が記憶されており、ゲームの実行中は当該進行状況を示す値が時間経過(あるいは、ユーザの操作)に応じて増加する。ゲームの進行が停止されると、この進行状況を示す値の増加(あるいは減少)も停止する。このメニュー画面において、ユーザは、他の所望のアプリケーションを選択することもできる。   Here, as shown in FIG. 19C, when the user's hand is out of the imaging range of the infrared camera 4 and the infrared camera 4 can not detect the user's hand, the game of the application B is temporarily stopped. And return to the menu screen. For example, when the predetermined standby time elapses after the user's hand is not detected, the game screen of application B is switched to the menu screen. At this time, the game is paused internally, and the progress of the game is temporarily stopped. However, the game being executed is not ended, and data relating to the execution of the game remains in the RAM. For example, a value (for example, remaining time or score) indicating the progress of the game is stored in the RAM, and during the game, the value indicating the progress is in accordance with the passage of time (or the user's operation). To increase. When the progress of the game is stopped, the increase (or decrease) of the value indicating the progress is also stopped. In this menu screen, the user can also select another desired application.

そして、図19の(D)に示すように、アプリBが選択された状態で再びユーザの手が赤外線カメラ4の撮像範囲に入ると、携帯電子機器1はユーザの手を検出しアプリBのゲームを再開する。具体的には、一時停止されたときの状態からアプリBのゲームが再び開始する。例えば、残り時間が28秒で点数が80点のときにゲームが一時停止した場合、残り時間27秒で点数が80点の状態からゲームが再開される。   Then, as shown in (D) of FIG. 19, when the user's hand again enters the imaging range of the infrared camera 4 in a state where the application B is selected, the portable electronic device 1 detects the user's hand. Resume the game. Specifically, the game of application B starts again from the state of being paused. For example, when the game is paused when the remaining time is 28 seconds and the score is 80 points, the game is resumed from the state where the score is 80 points with the remaining time 27 seconds.

より具体的には、携帯電子機器1は、ユーザの手を検出した直後に(あるいは、上記待機時間よりも短い期間が経過した後に)アプリBのゲームを再開する。携帯電子機器1は、アプリを一時的に停止する場合は所定の時間待機する一方で、アプリを再開する場合は所定の時間待機せずに即座にアプリを再開することで、ユーザの意図したようにアプリの一時停止/再開を制御することができる。すなわち、手を使ったジェスチャを行うアプリでは、ユーザが意図せずに、赤外線カメラ4の撮像範囲から手が一瞬離れてしまうことがある。このような場合に、実行中のアプリを即座に一時停止すると、ユーザの意図に反してアプリが一時的に停止されてしまう。しかしながら、アプリを一時停止する場合は上記待機時間が設定されるため、このようなユーザの意図しないアプリの一時停止を防止することができる。一方、メニュー画面からアプリを再開する場合は、ユーザは意図的に手を赤外線カメラ4の撮像範囲に入れる。このため、携帯電子機器1は、アプリを再開する場合は上記待機時間を設けずに、即座にアプリを再開する。   More specifically, the portable electronic device 1 resumes the game of the application B immediately after detecting the user's hand (or after a period shorter than the standby time has elapsed). The portable electronic device 1 waits for a predetermined time when temporarily stopping the application, but when restarting the application, the user's intention is achieved by immediately resuming the application without waiting for the predetermined time. You can control app pause / resume. That is, in an application that performs a gesture using a hand, the hand may be momentarily detached from the imaging range of the infrared camera 4 without the user's intention. In such a case, pausing the running application immediately suspends the application temporarily against the user's intention. However, since the waiting time is set when pausing the application, it is possible to prevent the suspension of the application that the user does not intend. On the other hand, when resuming the application from the menu screen, the user intentionally puts his hand in the imaging range of the infrared camera 4. For this reason, the portable electronic device 1 resumes the application immediately without providing the above-mentioned waiting time when restarting the application.

なお、携帯電子機器1は、アプリを一時的に停止する場合と同様に、ユーザの手を検出してから所定の待機時間が経過した後、アプリを再開してもよい。また、携帯電子機器1は、アプリを一時的に停止する場合でも、アプリを再開する場合でも、所定の時間待機せずに即座にアプリを一時停止/再開してもよい。また、図19の(C)のようにアプリが一時停止された場合において、所定の時間が経過してもアプリが再開されない場合は、携帯電子機器1は、アプリを終了してもよい。この場合、ユーザが再び赤外線カメラ4の撮像範囲に手を入れても、アプリは最初から開始される。   The portable electronic device 1 may resume the application after a predetermined waiting time has elapsed since the user's hand was detected, as in the case of temporarily stopping the application. Further, the portable electronic device 1 may suspend / resume the application immediately without waiting for a predetermined time, even when the application is temporarily suspended or restarted. When the application is suspended as shown in FIG. 19C and the application is not resumed even after a predetermined time has elapsed, the portable electronic device 1 may end the application. In this case, even if the user puts his hand in the imaging range of the infrared camera 4 again, the application is started from the beginning.

このように、本実施形態の携帯電子機器1では、ユーザの入力に応じて進行が制御されるインタラクティブなアプリケーションが実行される。具体的には、当該アプリケーションは、携帯電子機器1の側面方向において行われたジェスチャ入力に応じて進行する。例えば、インタラクティブなアプリケーションの一例として、ジェスチャ入力に対する成否判定が行われ、成否判定の結果に応じて点数が加算されるゲームが行われる。携帯電子機器1の側面方向においてユーザが手をかざしたり、手を用いたジェスチャを行ったりすることで、アプリケーションが起動、開始する。また、携帯電子機器1の側面方向においてユーザが手をどけると、実行中のアプリケーションが一時停止するとともに、メニュー画面が表示される。メニュー画面では、ユーザは、他の所望のアプリケーションを選択することができる。一時停止されたアプリケーションが選択された状態で再びユーザが携帯電子機器1の側面方向において手をかざすと、一時停止されたアプリケーションが再開される。   As described above, in the portable electronic device 1 of the present embodiment, an interactive application in which the progress is controlled in accordance with the user's input is executed. Specifically, the application progresses in response to a gesture input performed in the side direction of the portable electronic device 1. For example, as an example of an interactive application, success or failure determination with respect to a gesture input is performed, and a game is performed in which points are added according to the result of the success or failure determination. The application is started and started by the user holding a hand in the side direction of the portable electronic device 1 or performing a gesture using the hand. In addition, when the user puts his hand in the side direction of the portable electronic device 1, the application being executed is paused and a menu screen is displayed. The menu screen allows the user to select another desired application. When the user holds the hand in the side direction of the portable electronic device 1 again with the suspended application selected, the suspended application is resumed.

なお、上述した例では、アプリケーションを実行中にユーザが手をどけると、すなわち、赤外線カメラ4によって撮像された赤外線画像にユーザの手が検出されなくなると、メニュー画面が表示された。他の例では、例えば、ユーザが右手を所定の速度で携帯電子機器1の右側面に近づけた場合(あるいは遠ざけた場合)に、メニュー画面が表示されるようにしてもよい。また、ユーザが所定のジェスチャを行った場合に、メニュー画面が表示されてもよい。例えば、ユーザが特定のジェスチャを行った場合に実行中のアプリケーションが一時停止され、かつ、その状態で手を動かした場合に、メニュー画面が表示されるようにしてもよい。   In the example described above, the menu screen is displayed when the user moves his hand while executing the application, that is, when the user's hand is not detected in the infrared image captured by the infrared camera 4. In another example, for example, the menu screen may be displayed when the user brings the right hand close to (or away from) the right side surface of the portable electronic device 1 at a predetermined speed. In addition, when the user makes a predetermined gesture, a menu screen may be displayed. For example, the menu screen may be displayed when the application being executed is paused when the user makes a specific gesture and the hand is moved in that state.

図20は、他の実施形態におけるメニュー画面を表示するためのジェスチャの一例を示す図である。例えば、図20に示すように、携帯電子機器1の右側面方向においてユーザが物を掴むようなジェスチャを行うと、実行中のアプリケーションが一時停止される。この状態で、ユーザが右方向に手を移動させると、ディスプレイ2の左端からメニュー画面の一部が引っ張られるように出てくる。そして、さらにユーザが手を右方向に移動させると、ディスプレイ2の画面全体がメニュー画面に切り替わる。   FIG. 20 is a diagram showing an example of a gesture for displaying a menu screen according to another embodiment. For example, as shown in FIG. 20, when the user makes a gesture of grasping an object in the direction of the right side of the portable electronic device 1, the application being executed is suspended. In this state, when the user moves the hand in the right direction, a part of the menu screen appears to be pulled from the left end of the display 2. Then, when the user further moves the hand in the right direction, the entire screen of the display 2 is switched to the menu screen.

また、上記では、ユーザが赤外線カメラ4に手をかざすと、メニュー画面において選択されたアプリケーションが開始(再開)された。他の実施形態では、誤動作を防止するために、例えば、ユーザが所定のジェスチャを行った場合や手が所定の速度で動かされた場合に、選択されたアプリケーションが開始されてもよい。また、ユーザによって携帯電子機器1の右側面が把持された場合に、選択されたアプリケーションが開始されてもよい。この場合、ユーザによって携帯電子機器1の右側面が把持されたか否かは、例えば、赤外線カメラ4によって撮像された画像の輝度情報に基づいて判定されてもよいし、輝度の変化に基づいて判定されてもよい。また、携帯電子機器1は、ユーザの脈を検知した場合、アプリケーションを開始(再開)してもよい。例えば、赤外線カメラ4によって撮像された画像の輝度の変化に基づいてユーザの脈を検知することができる。ユーザの脈を検知した場合にアプリケーションを開始することにより、誤動作を防止することができる。   Also, in the above, when the user places the hand over the infrared camera 4, the application selected on the menu screen is started (restarted). In other embodiments, the selected application may be launched, for example, when the user makes a predetermined gesture or when the hand is moved at a predetermined speed, to prevent malfunction. In addition, when the user grips the right side surface of the portable electronic device 1, the selected application may be started. In this case, whether or not the user holds the right side surface of the portable electronic device 1 may be determined based on, for example, luminance information of an image captured by the infrared camera 4 or based on a change in luminance. It may be done. In addition, the portable electronic device 1 may start (resume) an application when it detects a pulse of the user. For example, the pulse of the user can be detected based on the change in the brightness of the image captured by the infrared camera 4. Malfunction can be prevented by starting the application when the user's pulse is detected.

また、アプリケーションの起動と、アプリケーションにおける所定の処理の開始とで、物体の検出に関する条件が異なっていてもよい。また、アプリケーションの一時停止と、アプリケーションの終了とで、物体の検出に関する条件が異なっていてもよい。例えば、物体の検出に関する第1の条件が満たされている場合にはアプリケーションが起動し、第1の条件よりも厳しい第2の条件が満たされている場合にはアプリケーションにおける所定の処理を開始してもよい。この場合、第1の条件が満たされており、かつ、第2の条件が満たされていない場合は、アプリケーションは起動しても当該アプリケーションにおける所定の処理は開始されない。また、例えば、第1の条件が満たされている場合にはアプリケーションを一時停止し、第1の条件よりも厳しい第2の条件が満たされている場合にはアプリケーションを終了してもよい。この場合、第1の条件が満たされており、かつ、第2の条件が満たされていない場合は、アプリケーションは一時停止しても当該アプリケーションは終了されない。   In addition, the conditions regarding detection of an object may be different between the activation of the application and the start of predetermined processing in the application. In addition, the condition regarding detection of an object may be different between the suspension of the application and the termination of the application. For example, the application is activated when the first condition for detecting an object is satisfied, and starts a predetermined process in the application when a second condition stricter than the first condition is satisfied. May be In this case, if the first condition is satisfied and the second condition is not satisfied, predetermined processing in the application is not started even if the application is started. In addition, for example, the application may be suspended when the first condition is satisfied, and the application may be terminated when the second condition stricter than the first condition is satisfied. In this case, if the first condition is satisfied and the second condition is not satisfied, the application is not terminated even if the application is suspended.

例えば、アプリBは、携帯電子機器1が物体を検出した場合に起動し、図17に示すようにアプリBの起動画面(初期画面)が表示される。この起動画面はアプリBにおける所定の処理(ゲーム処理)が開始される前の画面である。そして、起動画面が表示された後、例えば、携帯電子機器1がユーザの手を検出した場合に、ゲーム処理が開始される。具体的には、赤外線カメラ4によって撮像された赤外線画像に何らかの物体(手であるか否かにかかわらず何らかの物体)を検出した場合に、アプリBの起動画面が表示され、その状態で携帯電子機器1がユーザの手を検出した場合、ゲームが開始する。すなわち、アプリBの起動画面が立ち上がるための条件としては、ユーザの手が検出される必要はなく、何らかの物体が検出されることであり、アプリBにおけるゲーム処理が開始されるための条件としては、ユーザの手が検出されることである。これは、赤外線カメラ4の撮像範囲にユーザの手が入っても、手と赤外線カメラ4との距離が近すぎると携帯電子機器1は何らかの物体が存在することは認識できても、それがユーザの手なのかどうかは認識できない。このような場合にアプリBの起動画面が立ち上がらずメニュー画面のままであれば、ユーザはどのような操作をしたらアプリBが起動するのか分かりにくくなる。このため、携帯電子機器1がユーザの手を認識できなかったとしても(第2の条件が満たされていなかったとしても)、何らかの物体を検出した場合は(第1の条件が満たされている場合は)、携帯電子機器1はアプリBの起動画面を立ち上げる。しかしながら、ゲームはジェスチャを用いたゲームであるため、実際のゲーム処理を行うためには携帯電子機器1はユーザの手を認識する必要がある。したがって、ユーザの手を認識できたことをゲーム開始の条件とする。このように、物体の検出に関する第1の条件が満たされればアプリを開始し、アプリが開始した後に、第1の条件よりも厳しい第2の条件が満たされれば、アプリにおける所定の処理(ゲーム処理)を開始してもよい。   For example, the application B is activated when the mobile electronic device 1 detects an object, and the start screen (initial screen) of the application B is displayed as shown in FIG. The start screen is a screen before the predetermined process (game process) in the application B is started. Then, after the start-up screen is displayed, for example, when the portable electronic device 1 detects a user's hand, game processing is started. Specifically, when an object (some object regardless of whether it is a hand or not) is detected in the infrared image captured by the infrared camera 4, the start screen of the application B is displayed, and the portable electronic device is displayed in that state When the device 1 detects the user's hand, the game starts. That is, the condition for the start-up screen of application B to rise up is that the user's hand does not have to be detected, but some object is detected, and the condition for the game processing in application B to be started , The user's hand is to be detected. This is because even if the user's hand falls within the imaging range of the infrared camera 4, if the hand and the infrared camera 4 are too close to each other, the portable electronic device 1 can recognize that there is any object, I can not recognize if it is a hand or not. In such a case, if the start screen of the application B does not rise and the menu screen remains, it is difficult for the user to understand what operation the application B will start. Therefore, even if the portable electronic device 1 can not recognize the user's hand (even if the second condition is not satisfied), it detects the first object (if the first condition is satisfied). If the mobile electronic device 1 launches the launch screen of the application B). However, since the game is a game using a gesture, the portable electronic device 1 needs to recognize the user's hand in order to perform actual game processing. Therefore, the recognition of the user's hand is regarded as the condition for starting the game. As described above, the application is started if the first condition regarding detection of an object is satisfied, and the second condition stricter than the first condition is satisfied after the application is started, and the predetermined process (game Processing) may be started.

アプリを一時停止、終了する場合も、同様に、物体の検出に関する第1の条件が満たされればアプリを一時停止し、アプリが一時停止した後に、第1の条件よりも厳しい第2の条件が満たされれば、アプリを終了してもよい。   Even when the application is paused and terminated, the application is paused if the first condition for detecting an object is satisfied, and the second condition is stricter than the first condition after the application is paused. If satisfied, you may exit the app.

また、実行されるアプリケーションは上述したゲームに限られない。例えば、所定のゲームオブジェクトが表示され、ユーザの手の動きによって所定のゲームオブジェクトを制御するゲームが行われてもよい。例えば、携帯電子機器1は、赤外線カメラ4によって撮像された画像の位置(例えば、輝度が所定以上の領域の重心位置)に基づいて、ゲームオブジェクトの移動を制御してもよい。   Also, the application to be executed is not limited to the game described above. For example, a predetermined game object may be displayed, and a game in which the user's hand controls the predetermined game object may be played. For example, the portable electronic device 1 may control the movement of the game object based on the position of the image captured by the infrared camera 4 (for example, the position of the center of gravity of the area having a predetermined luminance or more).

また、上記実施形態では、アプリケーションの実行中に携帯電子機器1がユーザの手を検出しなくなった場合にアプリケーションを一時停止してメニュー画面を表示した。他の実施形態では、アプリケーションの実行中に携帯電子機器1がユーザの手を検出しなくなった場合にアプリケーションを一時停止するとともに、アプリケーションを終了するか否かの画面が表示されてもよい。この画面でユーザによってアプリケーションの終了が指示された場合は、アプリケーションが終了してもよい。また、アプリケーションが一時停止されてからユーザの指示がなくても、所定時間が経過した場合は、アプリケーションを終了してもよい。   Further, in the above embodiment, when the portable electronic device 1 does not detect the user's hand during the execution of the application, the application is paused to display the menu screen. In another embodiment, when the portable electronic device 1 does not detect the user's hand during execution of the application, the application may be paused, and a screen as to whether or not to end the application may be displayed. The application may be terminated when the user instructs the termination of the application on this screen. In addition, even if the application is suspended and there is no instruction from the user, the application may be terminated when a predetermined time has elapsed.

(ガイド表示処理の詳細)
次に、携帯電子機器1において行われる具体的な処理の一例について説明する。まず、図21を参照して、上述したガイド表示を行うための処理の詳細について説明する。図21は、ガイド表示を行うための処理の一例を示すフローチャートである。制御部14(のCPU)は、所定のタイミング(例えば、ユーザの指示やアプリケーションが開始される前のタイミング)で記憶装置に記憶されたプログラムをRAMに読み込み、当該プログラムを実行することで図21に示す処理を行う。なお、図21に示す処理は、所定の時間間隔(例えば、1/60秒に1回)で繰り返し行われる。
(Details of guide display process)
Next, an example of specific processing performed in the portable electronic device 1 will be described. First, with reference to FIG. 21, the details of the process for performing the above-described guide display will be described. FIG. 21 is a flowchart showing an example of processing for performing guide display. The control unit 14 (of the CPU) reads a program stored in the storage device into the RAM at a predetermined timing (for example, a timing before a user's instruction or an application is started), and executes the program. Perform the process shown in. The process shown in FIG. 21 is repeatedly performed at a predetermined time interval (for example, once in 1/60 seconds).

図21に示すように、ステップS10において、制御部14は、赤外線カメラ4から赤外線画像を取得する。次に、制御部14は、ステップS10で取得された赤外線画像を解析してユーザの手を検出する手検出処理を行う(ステップS11)。手検出処理の結果、手を検出することができた場合(ステップS12:YES)、制御部14は、取得された赤外線画像に固定のガイド枠を設定する(ステップS13)。具体的には、制御部14は、取得された赤外線画像の中央領域を覆う一定の大きさのガイド枠を設定する。   As shown in FIG. 21, in step S <b> 10, the control unit 14 acquires an infrared image from the infrared camera 4. Next, the control unit 14 performs a hand detection process of detecting the user's hand by analyzing the infrared image acquired in step S10 (step S11). As a result of the hand detection process, when the hand can be detected (step S12: YES), the control unit 14 sets a fixed guide frame to the acquired infrared image (step S13). Specifically, the control unit 14 sets a guide frame of a certain size that covers the central region of the acquired infrared image.

続いて、制御部14は、取得された赤外線画像に含まれるユーザの手の輪郭を示す輪郭画像を生成する(ステップS14)。具体的には、制御部14は、取得された赤外線画像に複数の物体が存在する場合、輝度が最も高い物体のみを抽出し、当該抽出した物体の輪郭を検出する。そして、制御部14は、検出した輪郭を残して輪郭以外の画素情報を消去する。次に、制御部14は、生成した輪郭画像のうち、ステップS13で設定したガイド枠からはみ出た部分の画素情報を赤色に設定する(ステップS15)。続いて、制御部14は、輪郭画像にステップS13で設定したガイド枠を示すガイド枠画像を合成する(ステップS16)。そして、制御部14は、合成した合成画像を斜めから見た画像を生成し、ディスプレイ2に表示する(ステップS17)。具体的には、制御部14は、例えば図15を参照して説明したパース表示のための処理を行うことで、合成画像が図10のY軸回りに所定の角度だけ回転した画像をディスプレイ2の右端に表示する。   Subsequently, the control unit 14 generates an outline image indicating the outline of the user's hand included in the acquired infrared image (step S14). Specifically, when a plurality of objects exist in the acquired infrared image, the control unit 14 extracts only the object with the highest luminance, and detects the contour of the extracted object. Then, the control unit 14 erases pixel information other than the contour while leaving the detected contour. Next, the control unit 14 sets the pixel information of the portion of the generated contour image that is out of the guide frame set in step S13 to red (step S15). Subsequently, the control unit 14 combines the outline image with the guide frame image indicating the guide frame set in step S13 (step S16). Then, the control unit 14 generates an image obtained by obliquely viewing the combined image, and displays the image on the display 2 (step S17). Specifically, the control unit 14 performs the processing for perspective display described with reference to FIG. 15, for example, to display the image obtained by rotating the composite image by a predetermined angle around the Y axis in FIG. 10. Display at the right end of

一方、ステップS11の手検出処理の結果、手を検出することができなかった場合(ステップS12:NO)、制御部14は、ディスプレイ2にエラー表示を行う(ステップS18)。例えば、制御部14は、手が検出されなかったことを示す文字をディスプレイ2に表示するとともに、音声や振動等によって手が検出されかなったことをユーザに知らせてもよい。   On the other hand, when the hand can not be detected as a result of the hand detection process of step S11 (step S12: NO), the control unit 14 displays an error on the display 2 (step S18). For example, the control unit 14 may display a character indicating that a hand has not been detected on the display 2 and notify the user that the hand has not been detected by voice, vibration or the like.

ステップS17又はステップS18の処理を行った後、制御部14は、図21に示す処理を終了するか否かを判定する(ステップS19)。例えば、図21に示す処理は、ユーザの指示に応じて終了してもよいし、所定時間が経過したことに応じて終了してもよい。制御部14、図21に示す処理を終了しないと判定した場合は(ステップS19:NO)、再びステップS10の処理を実行し、図21に示す処理を終了すると判定した場合は(ステップS19:YES)、図21に示す処理を終了する。   After performing the process of step S17 or step S18, the control unit 14 determines whether to end the process illustrated in FIG. 21 (step S19). For example, the process illustrated in FIG. 21 may end in response to a user's instruction, or may end in response to the passage of a predetermined time. If it is determined that the control unit 14 does not end the process shown in FIG. 21 (step S19: NO), the process of step S10 is executed again, and if it is determined that the process shown in FIG. 21 is ended (step S19: YES). And end the processing shown in FIG.

(メニュー表示処理の詳細)
次に、図22を参照して、上述したメニュー画面の表示を行うための処理の詳細について説明する。図22は、メニュー画面の表示を行うための処理の一例を示すフローチャートである。なお、図22に示す処理は、制御部14(のCPU)がメニュー表示を行うためのプログラムを実行することにより行われる。また、図22に示す処理は、所定の時間間隔(例えば、1/60秒に1回)で繰り返し行われる。
(Details of menu display process)
Next, with reference to FIG. 22, the details of the process for displaying the menu screen described above will be described. FIG. 22 is a flowchart illustrating an example of processing for displaying a menu screen. The process shown in FIG. 22 is performed by the control unit 14 (CPU thereof) executing a program for displaying a menu. Further, the process shown in FIG. 22 is repeatedly performed at a predetermined time interval (for example, once in 1/60 seconds).

図22に示すように、ステップS20において、制御部14は、ディスプレイ2にメニュー画面を表示する。例えば、制御部14は、携帯電子機器1において現在実行可能なアプリケーションの一覧を取得し、各アプリケーションを示すアイコンを画面に並べて表示する。携帯電子機器1において実行可能なアプリケーションは、例えば、携帯電子機器1の内部の記憶装置に記憶されたアプリケーション、又は、携帯電子機器1からアクセス可能な外部の記憶装置に記憶されたアプリケーションであってもよい。   As shown in FIG. 22, in step S <b> 20, the control unit 14 displays a menu screen on the display 2. For example, the control unit 14 acquires a list of currently executable applications in the portable electronic device 1, and arranges and displays icons indicating each application on a screen. An application executable in the portable electronic device 1 is, for example, an application stored in a storage device inside the portable electronic device 1 or an application stored in an external storage device accessible from the portable electronic device 1 It is also good.

ステップS20に続いて、制御部14は、アプリ選択処理を行う(ステップS21)。例えば、制御部14は、タッチパネル3が検出した位置に基づいて、アプリケーションに対応するアイコンがユーザによって選択(タッチ)されたか否かを判定する。ユーザによってアイコンが選択されたと判定した場合、制御部14は、選択されたアイコンに対応するアプリケーションを選択する。   Following step S20, the control unit 14 performs application selection processing (step S21). For example, based on the position detected by the touch panel 3, the control unit 14 determines whether the icon corresponding to the application is selected (touched) by the user. If it is determined that the icon has been selected by the user, the control unit 14 selects an application corresponding to the selected icon.

次に、制御部14は、赤外線カメラ4から赤外線画像を取得する(ステップS22)。次に、制御部14は、ステップS22で取得された赤外線画像を解析してユーザの手を検出する手検出処理を行う(ステップS23)。手検出処理の結果、手を検出することができた場合(ステップS24:YES)、制御部14は、アプリケーションが選択済みであるか否かを判定する(ステップS25)。具体的には、制御部14は、ステップS21において既にユーザによってアプリケーションが選択されているか否かを判定する。アプリケーションが選択済みである場合(ステップS25:YES)、制御部14は、選択されたアプリケーションが既に起動しているか否かを判定する(ステップS26)。具体的には、アプリケーションが既に起動している場合は、当該アプリケーションの情報(プログラム自体や他のデータ)がRAMに記憶されているため、制御部14は、RAMに記憶された情報に基づいて、アプリケーションが既に起動されているか否かを判定する。   Next, the control unit 14 acquires an infrared image from the infrared camera 4 (step S22). Next, the control unit 14 performs a hand detection process of detecting the user's hand by analyzing the infrared image acquired in step S22 (step S23). As a result of the hand detection process, when the hand can be detected (step S24: YES), the control unit 14 determines whether the application has been selected (step S25). Specifically, the control unit 14 determines whether or not the application has been selected by the user in step S21. If an application has been selected (step S25: YES), the control unit 14 determines whether the selected application has already been activated (step S26). Specifically, when the application has already been started, the information on the application (the program itself and other data) is stored in the RAM, so the control unit 14 determines based on the information stored in the RAM. , It is determined whether the application has already been started.

一方、手検出処理の結果、手を検出することができなかった場合(ステップS24:NO)、又は、アプリケーションが選択済みでない場合(ステップS25:NO)、制御部14は、ステップS20の処理を再び行う。   On the other hand, when the hand can not be detected as a result of the hand detection process (step S24: NO), or when the application has not been selected (step S25: NO), the control unit 14 performs the process of step S20. Do it again.

アプリケーションが既に起動していない場合(ステップS26:NO)、制御部14は、ステップS21で選択されたアプリケーションを起動する。アプリケーションが既に起動している場合(ステップS26:YES)、制御部14は、選択されたアプリケーションの実行を再開する(ステップS28)。   When the application has not been started (step S26: NO), the control unit 14 starts the application selected in step S21. If the application has already been started (step S26: YES), the control unit 14 resumes the execution of the selected application (step S28).

ステップS27又はステップS28の処理の後、制御部14は、図22に示す処理を終了する。   After the process of step S27 or step S28, the control unit 14 ends the process illustrated in FIG.

(アプリケーション制御処理の詳細)
次に、図23を参照して、上述したアプリケーションを制御するための処理の詳細について説明する。図23は、アプリケーション制御処理の一例を示すフローチャートである。図23に示す処理は、例えば上述のようにユーザが携帯電子機器1の右側面に手をかざした場合に行われる。また、図23に示す処理は、所定の時間間隔(例えば、1/60秒に1回)で繰り返し行われる。
(Details of application control process)
Next, the details of the process for controlling the application described above will be described with reference to FIG. FIG. 23 is a flowchart illustrating an example of the application control process. The process shown in FIG. 23 is performed, for example, when the user holds his hand over the right side surface of the portable electronic device 1 as described above. Further, the process shown in FIG. 23 is repeatedly performed at a predetermined time interval (for example, once in 1/60 seconds).

図23に示すように、ステップS30において、制御部14は、アプリケーションを開始(又は再開)する。具体的には、アプリケーションが起動していない場合(RAMにアプリケーションプログラムが読み込まれていなかったり、アプリケーションを開始するための初期設定が行われていなかったりした場合)、制御部14は、アプリケーションを起動してから所定の条件の成立(所定時間が経過したことやユーザの指示が行われたこと)に応じて当該アプリケーションを開始する。また、アプリケーションが一時停止している場合(すなわち、既にアプリケーションが開始されてから一時停止されてメニュー画面が表示されている場合)、制御部14は、アプリケーションを再開する。具体的には、制御部14は、RAMに記憶されたアプリケーションのためのデータを読み出し、後述するステップS38においてアプリケーションが一時停止された状態からアプリケーションを再開する。   As shown in FIG. 23, in step S30, the control unit 14 starts (or restarts) an application. Specifically, when the application is not activated (when the application program is not read into the RAM, or when the initial setting for starting the application is not performed), the control unit 14 activates the application. After that, the application is started in response to establishment of a predetermined condition (a predetermined time has elapsed or a user instruction has been made). In addition, when the application is paused (that is, when the application is already started and then paused and the menu screen is displayed), the control unit 14 resumes the application. Specifically, the control unit 14 reads data for the application stored in the RAM, and resumes the application from a state in which the application is suspended in step S38 described later.

ステップS30に続いて、制御部14は、赤外線カメラ4から赤外線画像を取得する(ステップS31)。次に、制御部14は、ステップS31で取得された赤外線画像を解析してユーザの手を検出する手検出処理を行う(ステップS32)。手検出処理の結果、手を検出することができた場合(ステップS33:YES)、制御部14は、ユーザによって行われたジェスチャ入力を判別するジェスチャ判別処理を行う(ステップS34)。具体的には、制御部14は、検出した手の形や動きに基づいて、予め定められた複数のジェスチャのうちの何れのジェスチャが行われたかを判別する。   Following step S30, the control unit 14 acquires an infrared image from the infrared camera 4 (step S31). Next, the control unit 14 analyzes the infrared image acquired in step S31 and performs a hand detection process of detecting the user's hand (step S32). As a result of the hand detection process, when the hand can be detected (step S33: YES), the control unit 14 performs a gesture determination process for determining a gesture input performed by the user (step S34). Specifically, the control unit 14 determines which of a plurality of predetermined gestures has been performed, based on the detected hand shape and movement.

続いて、制御部14は、判別したジェスチャに応じたアプリケーション処理を行う(ステップS35)。例えば、図19に示したゲームアプリケーションが行われる場合、制御部14は、ディスプレイ2にユーザに対する指示を示す文字や画像、キャラクタ等を表示し、当該指示に応じたジェスチャが行われたか否かを判定する。そして、制御部14は、判定結果をディスプレイ2に表示する。例えば、制御部14は、指示に応じたジェスチャが行われたと判定した場合、点数を加算し、加算した点数をディスプレイ2に表示する。また、制御部14は、アプリケーションの開始からの経過時間を計測し、ディスプレイ2に表示する。なお、ステップS35のアプリケーション処理は、ユーザによって行われたジェスチャ入力に加えて(又は代えて)、例えば、入力ボタンに対する操作や携帯電子機器1の姿勢に基づいて行われてもよい。   Subsequently, the control unit 14 performs an application process according to the determined gesture (step S35). For example, when the game application shown in FIG. 19 is performed, the control unit 14 causes the display 2 to display characters, images, characters, etc. indicating an instruction for the user, and determines whether a gesture according to the instruction has been performed. judge. Then, the control unit 14 displays the determination result on the display 2. For example, when it is determined that the gesture according to the instruction has been performed, the control unit 14 adds points and displays the added points on the display 2. Further, the control unit 14 measures an elapsed time from the start of the application and displays the time on the display 2. In addition to (or instead of) the gesture input performed by the user, the application processing in step S35 may be performed based on, for example, an operation on the input button or the posture of the portable electronic device 1.

ステップS35に続いて、制御部14は、アプリケーションを終了するか否かを判定する(ステップS36)。例えば、制御部14は、アプリケーションの終了までの時間を示す残り時間が「0」となった場合、アプリケーションを終了すると判定する。また、例えば、ユーザによってアプリケーションの終了のための操作(ボタン操作やジェスチャによる操作)が行われた場合、制御部14は、アプリケーションを終了すると判定する。   Following step S35, the control unit 14 determines whether to end the application (step S36). For example, when the remaining time indicating the time until the end of the application becomes “0”, the control unit 14 determines to end the application. Further, for example, when an operation for ending the application (an operation by a button operation or a gesture) is performed by the user, the control unit 14 determines to end the application.

アプリケーションを終了すると判定しなかった場合(ステップS36:NO)、制御部14は、ステップS31の処理を再び実行する。一方、アプリケーションを終了すると判定した場合(ステップS36:YES)、制御部14は、アプリケーション終了処理を行い(ステップS40)、図23に示す処理を終了する。例えば、制御部14は、アプリケーション終了処理として、アプリケーションプログラムの実行のために確保したRAMの領域を開放する。これにより、当該アプリケーションの進行状況に応じた値(例えば、上記残り時間や点数等)がクリアされる。   If it is not determined to end the application (step S36: NO), the control unit 14 executes the process of step S31 again. On the other hand, when it is determined to end the application (step S36: YES), the control unit 14 performs an application end process (step S40), and ends the process shown in FIG. For example, the control unit 14 releases the area of the RAM secured for the execution of the application program as the application termination process. As a result, a value (for example, the above-mentioned remaining time or score) according to the progress status of the application is cleared.

一方、ステップS32の手検出処理においてユーザの手を検出することができなかった場合(ステップS33:NO)、制御部14は、ユーザの手を検出しなくなってから所定の待機時間が経過したか否かを判定する(ステップS37)。ユーザの手を検出しなくなってから所定の待機時間が経過していない場合(ステップS37:NO)、制御部14は、ステップS31の処理を再び実行する。なお、所定の待機時間はアプリの種類に応じて異なってもよいし、一定時間でもよいし、手の検出状況によって変化されてもよい。   On the other hand, if the user's hand can not be detected in the hand detection process in step S32 (step S33: NO), whether the control unit 14 has detected the user's hand and then a predetermined standby time has elapsed It is determined whether or not it is (step S37). If the predetermined standby time has not elapsed since the user's hand was not detected (step S37: NO), the control unit 14 executes the process of step S31 again. Note that the predetermined waiting time may be different depending on the type of application, may be a fixed time, or may be changed according to the detection condition of the hand.

ユーザの手を検出しなくなってから所定の待機時間が経過した場合(ステップS37:YES)、制御部14は、実行中のアプリケーションを一時停止する(ステップS38)。具体的には、アプリケーションの実行のために確保したRAMの領域を維持したまま、アプリケーションを一時停止する。例えば、ディスプレイ2にアプリケーションの画像が表示されている場合は、制御部14は、その画像をRAMに記憶する。また、制御部14は、アプリケーションの進行状況に応じた値(例えば、残り時間や点数等)を維持する。   If the predetermined waiting time has elapsed since the user's hand was not detected (step S37: YES), the control unit 14 suspends the application being executed (step S38). Specifically, the application is suspended while maintaining the RAM area reserved for the execution of the application. For example, when the image of the application is displayed on the display 2, the control unit 14 stores the image in the RAM. In addition, the control unit 14 maintains a value (for example, remaining time, score, and the like) according to the progress status of the application.

ステップS38においてアプリケーションを一時停止した場合、制御部14は、上述したメニュー処理を行うためのプログラムを呼び出し(ステップS39)、図23に示す処理を終了する。これにより、図22に示したメニュー処理が行われる。   When the application is temporarily stopped in step S38, the control unit 14 calls a program for performing the above-described menu processing (step S39), and ends the processing illustrated in FIG. Thus, the menu processing shown in FIG. 22 is performed.

なお、上記フローチャートで示した処理は単なる一例であり、処理の順番や内容に適宜変更が加えられてもよい。また、上述したアプリケーションは単なる一例であり、他の任意のアプリケーションが行われてもよい。   The process shown in the flowchart is merely an example, and the order and contents of the process may be appropriately modified. Also, the application described above is merely an example, and any other application may be performed.

(変形例)
なお、上述した実施形態は単なる一例であり、例えば、以下のような変形が加えられてもよい。
(Modification)
The embodiment described above is merely an example, and the following modifications may be added, for example.

例えば、赤外線カメラ4は携帯電子機器1の右側面に限らず、左側面(図1のT2面)、上側面(T4面)、下側面(T3面)の何れに設けられてもよく、任意の側面方向においてユーザによってジェスチャ入力が行われてもよい。また、複数の側面に赤外線カメラ4が設けられてもよい。例えば、携帯電子機器1の左側面に赤外線カメラ4が設けられる場合には、上述したガイド表示(輪郭画像21およびガイド枠画像22)は、ディスプレイ2の画面の左側に表示される。また、携帯電子機器1の姿勢に応じて、ガイド表示の表示位置が異なるようにしてもよい。携帯電子機器1は、姿勢検出部16によって自機の姿勢を検出することができ、例えば、画面に垂直な軸に何度回転されたかを角速度センサや加速度センサによって検出することができる。例えば、通常、図6Aに示すように赤外線カメラ4が右側に位置するように把持されるところ、ユーザが左右が反転するように携帯電子機器1を把持した場合は、赤外線カメラ4は左側に位置するようになる。この場合、右手で携帯電子機器1が把持され、左手でジェスチャ入力が行われる。このような場合は、上記ガイド表示は、ディスプレイ2の左側に表示される。具体的には、ユーザが左手を直接見たときと同じような見え方となるように、パースがかかったガイド表示がディスプレイ2の左側に表示される。すなわち、ディスプレイ2の表示画面のうち、赤外線カメラ4によって撮像される側面方向と同じ側に上記ガイド表示が表示される。   For example, the infrared camera 4 is not limited to the right side surface of the portable electronic device 1, but may be provided on any of the left side surface (T2 surface in FIG. 1), the upper side surface (T4 surface), and the lower side surface (T3 surface) Gesture input may be performed by the user in the side direction of. Further, the infrared camera 4 may be provided on a plurality of side surfaces. For example, when the infrared camera 4 is provided on the left side surface of the portable electronic device 1, the above-described guide display (the outline image 21 and the guide frame image 22) is displayed on the left side of the screen of the display 2. Further, the display position of the guide display may be different according to the attitude of the mobile electronic device 1. The portable electronic device 1 can detect the attitude of the mobile electronic device 1 by the attitude detection unit 16, and can detect, for example, how many times it has been rotated about an axis perpendicular to the screen by using an angular velocity sensor or an acceleration sensor. For example, as shown in FIG. 6A, normally, the infrared camera 4 is held to be positioned on the right side, but when the user holds the portable electronic device 1 so that the left and right are reversed, the infrared camera 4 is positioned on the left side You will come to In this case, the portable electronic device 1 is held by the right hand, and gesture input is performed by the left hand. In such a case, the guide display is displayed on the left side of the display 2. Specifically, a guide display with a perspective is displayed on the left side of the display 2 in the same manner as when the user directly looks at the left hand. That is, the guide display is displayed on the same side of the display screen of the display 2 as the side direction taken by the infrared camera 4.

また、上記実施形態では、ディスプレイ2が設けられた携帯電子機器1が上記処理を行うことを想定した。他の実施形態では、外部のディスプレイに画像が表示されてもよい。赤外線カメラ4が設けられた手持ち型の入力装置をユーザが把持し、当該入力装置の側面方向においてユーザが手を用いたジェスチャを行うことにより、入力装置と離れた表示装置に上述したガイド表示の画像やアプリケーションの画像、メニュー画面等が表示されてもよい。赤外線カメラ4が設けられた手持ち型の入力装置と、表示装置と、情報処理装置とが別体となった情報処理システムが構築されてもよい。この場合、例えば、上述したガイド表示の画像やアプリケーションの画像は表示装置において表示され、アプリケーションの処理は情報処理装置で行われる。例えば、情報処理装置は、入力装置からの画像を取得し、当該画像に基づいてジェスチャを認識し、ジェスチャの認識結果に基づいてアプリケーションの処理を行う。また、情報処理装置は、入力装置からの画像を取得して上記ガイド表示のための処理(輪郭画像21及びガイド枠画像22の描画やこれらの画像にパースをかける処理)を行う。そして、情報処理装置は、アプリケーションの処理およびガイド表示のための処理の結果としての画像を表示装置に出力する。これら複数の装置のそれぞれが処理を分担することで上述した処理が実行されてもよい。また、携帯電子機器1を、ユーザの入力を受け付けるコントローラとして機能させてもよい。この場合、ディスプレイは設けられてもよいし、設けられなくてもよい。携帯電子機器1がコントローラとして機能する場合、携帯電子機器1は、無線や有線で別の情報処理装置と接続される。携帯電子機器1に対して操作(入力ボタンに対する操作や携帯電子機器1自体を動かす操作、上記ジェスチャ操作等)が行われると、当該操作に応じた操作データが別の情報処理装置に送信される。情報処理装置は、操作データを受信すると、操作データに応じた処理を行う。操作データに応じた処理は、実行されるアプリケーションの種類によって異なる。   Moreover, in the said embodiment, it assumed that the portable electronic device 1 in which the display 2 was provided performs the said process. In another embodiment, the image may be displayed on an external display. The user holds the hand-held input device provided with the infrared camera 4 and the user performs a gesture using a hand in the side direction of the input device to display the above-described guide display on the display device separated from the input device. An image, an image of an application, a menu screen or the like may be displayed. An information processing system may be constructed in which the hand-held input device provided with the infrared camera 4, the display device, and the information processing device are separated. In this case, for example, the image of the guide display or the image of the application described above is displayed on the display device, and the processing of the application is performed on the information processing device. For example, the information processing apparatus acquires an image from an input device, recognizes a gesture based on the image, and performs processing of an application based on a recognition result of the gesture. In addition, the information processing apparatus acquires an image from the input device and performs processing for displaying the guide (processing for drawing the contour image 21 and the guide frame image 22 and performing processing on these images). Then, the information processing apparatus outputs an image as a result of the processing of the application and the processing for guide display to the display device. The above-described processing may be executed by each of the plurality of devices sharing the processing. Also, the mobile electronic device 1 may function as a controller that receives user input. In this case, a display may or may not be provided. When the portable electronic device 1 functions as a controller, the portable electronic device 1 is connected to another information processing apparatus wirelessly or by wire. When an operation (an operation for an input button, an operation for moving the mobile electronic device 1 itself, the above gesture operation, etc.) is performed on the mobile electronic device 1, operation data corresponding to the operation is transmitted to another information processing apparatus . When the information processing device receives the operation data, the information processing device performs a process according to the operation data. The processing according to the operation data differs depending on the type of application to be executed.

また、携帯電子機器1の形状はどのようなものでもよい。例えば、携帯電子機器1(ディスプレイ2)は、横長ではなく縦長であってもよいし、正方形であってもよい。   Further, the shape of the portable electronic device 1 may be any shape. For example, the portable electronic device 1 (display 2) may be vertically long instead of horizontally long, or may be square.

また、上記実施形態では赤外線カメラ4が用いられたが、他の実施形態では、赤外線カメラ4に代えて、可視光の画像(RGB画像)を撮像可能なカメラが用いられてもよい。   Moreover, although the infrared camera 4 was used in the said embodiment, it replaces with the infrared camera 4 in another embodiment, and the camera which can pick_up the image (RGB image) of visible light may be used.

また、上記実施形態では、一方の手で携帯電子機器を把持し、他方の手で携帯電子機器に対してジェスチャ入力を行う例について説明した。他の実施形態では、携帯電子機器は、例えば画面を備える腕時計型の装置のように、ユーザの腕(身体)に固定されるものであってもよい。   Further, in the above embodiment, an example has been described in which the portable electronic device is held by one hand and the gesture input is performed to the portable electronic device by the other hand. In another embodiment, the portable electronic device may be fixed to the user's arm (body), such as a watch-type device with a screen.

また、携帯電子機器の形状はどのようなものでもよく、例えば、板状の楕円形状であってもよい。例えば、携帯電子機器は、折り畳み可能なものであってもよい。   In addition, the shape of the portable electronic device may be any shape, for example, a plate-like elliptical shape. For example, the portable electronic device may be foldable.

1 携帯電子機器
2 ディスプレイ
3 タッチパネル
4 赤外線カメラ
5 測距センサ
6 入力ボタン
7 照射部
8 プロジェクタ
15 通信部
21 輪郭画像
22 ガイド枠画像
41 合成画像
Reference Signs List 1 portable electronic device 2 display 3 touch panel 4 infrared camera 5 distance measuring sensor 6 input button 7 irradiation unit 8 projector 15 communication unit 21 outline image 22 guide frame image 41 composite image

Claims (23)

入力装置と
前記入力装置の側面方向を撮像するカメラと、
前記カメラによって撮像された入力画像を取得する取得手段と、
前記取得手段によって取得された入力画像に含まれる物体を所定方向に傾けた画像を表示手段に表示させる表示制御手段と、
前記取得手段によって取得された入力画像に基づいて所定のアプリケーション処理を行う処理手段と、を備え
前記表示制御手段は、前記カメラの撮像範囲に含まれる前記物体が、前記所定のアプリケーション処理のために適切な位置にあるか否かをユーザに認識させるためのガイド画像を表示させる、電子機器システム
An input device ,
A camera for imaging the side direction of the input device ;
Acquisition means for acquiring an input image captured by the camera;
Display control means for causing the display means to display an image obtained by tilting an object included in the input image acquired by the acquisition means in a predetermined direction;
And processing means for performing predetermined application processing based on the input image acquired by the acquisition means .
The electronic device system , wherein the display control means displays a guide image for causing a user to recognize whether the object included in the imaging range of the camera is at an appropriate position for the predetermined application processing. .
前記表示制御手段は、前記入力画像を斜めから見た画像を前記表示手段に表示させる、請求項1に記載の電子機器システムThe electronic device system according to claim 1, wherein the display control means causes the display means to display an image obtained by obliquely viewing the input image. 前記表示制御手段は、前記カメラと当該カメラの撮像範囲に含まれる物体との相対位置をユーザに認識可能な態様で前記画像を表示させる、請求項1又は2に記載の電子機器システム3. The electronic device system according to claim 1, wherein the display control unit displays the image in a manner that allows a user to recognize the relative position between the camera and an object included in an imaging range of the camera. 前記表示制御手段は、前記カメラの撮像範囲に含まれる物体の奥行き方向の位置をユーザに認識可能な態様で前記画像を表示させる、請求項1から3の何れかに記載の電子機器システムThe electronic device system according to any one of claims 1 to 3, wherein the display control means causes the image to be displayed in a mode in which a user can recognize the position of the object included in the imaging range of the camera in the depth direction. 前記表示制御手段は、前記カメラの撮像範囲に含まれる物体をユーザが直接見たときと、前記表示手段に表示される当該物体の画像とが同じ見え方となるように、前記画像を前記表示手段に表示させる、請求項1から4の何れかに記載の電子機器システムThe display control means displays the image so that the user looks directly at an object included in the imaging range of the camera and the image of the object displayed on the display means looks the same. The electronic device system according to any one of claims 1 to 4, which is displayed on the means. 前記ガイド画像は、前記カメラの撮像範囲のうちの所定領域を示す画である、請求項1から5の何れかに記載の電子機器システムThe guide image is shown to picture image a predetermined region in the imaging range of the camera, an electronic device system according to any one of claims 1 to 5. 前記表示制御手段は、前記ガイド画像と前記入力画像とを所定方向に傾けた画像を前記表示手段に表示させる、請求項に記載の電子機器システムThe electronic device system according to claim 6 , wherein the display control means causes the display means to display an image in which the guide image and the input image are inclined in a predetermined direction. 前記表示手段は前記電子機器に設けられ、
前記カメラは前記表示手段の側面方向を撮像し、
前記表示制御手段は、前記表示手段の表示画面のうち、前記カメラの撮像方向側に前記画像を表示させる、請求項1からの何れかに記載の電子機器システム
The display means is provided to the electronic device.
The camera captures the side direction of the display means,
The electronic device system according to any one of claims 1 to 7 , wherein the display control means causes the image to be displayed on an imaging direction side of the camera among display screens of the display means.
前記表示制御手段は、前記取得手段によって取得された入力画像により示される被写体を所定方向に傾けた画像とともに、前記所定のアプリケーション処理の結果を示す画像を表示する、請求項1からの何れかに記載の電子機器システム9. The display control means according to any one of claims 1 to 8 , wherein an image showing a result of the predetermined application processing is displayed together with an image obtained by tilting the subject indicated by the input image acquired by the acquisition means in a predetermined direction. The electronic device system described in. 前記表示制御手段は、前記カメラの撮像範囲に含まれる物体を抽象化した画像を前記表示手段に表示させる、請求項1からの何れかに記載の電子機器システムThe electronic device system according to any one of claims 1 to 9 , wherein the display control means causes the display means to display an image obtained by abstracting an object included in an imaging range of the camera. 前記表示制御手段は、前記カメラの撮像範囲に含まれる物体の輪郭を示す画像を前記表示手段に表示させる、請求項1に記載の電子機器システムWherein the display control unit, an image showing the outline of an object included in the imaging range of the camera is displayed on the display unit, an electronic device system according to claim 1 0. 前記表示制御手段は、前記カメラの撮像範囲に含まれる複数の物体のうちの特定の物体のみを前記表示手段に表示させる、請求項1から1の何れかに記載の電子機器システムThe electronic device system according to any one of claims 1 to 11, wherein the display control means causes the display means to display only a specific object among a plurality of objects included in an imaging range of the camera. 前記入力画像に基づいてユーザの手を検出する検出手段をさらに備え、
前記処理手段は、前記検出手段による検出結果に基づいて、前記アプリケーション処理を行う、請求項1から1の何れかに記載の電子機器システム
It further comprises detection means for detecting the user's hand based on the input image,
It said processing means based on the detection result by the detection means, performs the application process, the electronic device system according to claim 1 1 2.
前記検出手段は、ユーザによって行われたジェスチャを検出する、請求項1に記載の電子機器システムThe sensor detects a gesture made by the user, the electronic device system according to claim 1 3. 前記入力画像に含まれる物体の少なくとも一部が前記カメラの撮像範囲のうちの所定の領域からはみ出したか否かを判定する判定手段をさらに備え、
前記表示制御手段は、前記判定手段による判定結果に応じた画像を前記表示手段に表示させる、請求項1から1の何れかに記載の電子機器システム
The image processing apparatus further includes a determination unit that determines whether at least a part of an object included in the input image is out of a predetermined area of an imaging range of the camera.
Wherein the display control unit, wherein an image corresponding to the determination result by the determination means to be displayed on the display unit, an electronic device system according to any one of claims 1 to 1 4.
前記表示制御手段は、前記処理手段によって行われる所定のアプリケーション処理の実行状況又はユーザの選択に応じて、前記画像を表示又は非表示にする、請求項1から1の何れかに記載の電子機器システムWherein the display control unit, according to the execution status or user's selection of a predetermined application processing performed by the processing means, to show or hide the image, electronic according to claim 1 1 5 Equipment system . 前記電子機器は手持ち型の電子機器である、請求項1から1の何れかに記載の電子機器システムThe electronic device system according to any one of claims 1 to 16 , wherein the electronic device is a handheld electronic device. 前記カメラは、赤外光を受光可能な赤外線カメラである、請求項1から1の何れかに記載の電子機器システムThe electronic device system according to any one of claims 1 to 17 , wherein the camera is an infrared camera capable of receiving infrared light. 電子機器であって
前記電子機器の側面方向を撮像するカメラと、
前記カメラによって撮像された入力画像を取得する取得手段と、
前記取得手段によって取得された入力画像に含まれる物体を所定方向に傾けた画像を表示手段に表示させる表示制御手段と、
前記取得手段によって取得された入力画像に基づいて所定のアプリケーション処理を行う処理手段と、を備え
前記表示制御手段は、前記カメラの撮像範囲に含まれる前記物体が、前記所定のアプリケーション処理のために適切な位置にあるか否かをユーザに認識させるためのガイド画像を表示させる、電子機器。
An electronic device ,
A camera for imaging the side direction of the electronic device ;
Acquisition means for acquiring an input image captured by the camera;
Display control means for causing the display means to display an image obtained by tilting an object included in the input image acquired by the acquisition means in a predetermined direction;
And processing means for performing predetermined application processing based on the input image acquired by the acquisition means .
Wherein the display control unit, the object included in the imaging range of the camera, whether in position to display a guide image for recognizing the user for the predetermined application processing, electronic equipment .
カメラと、
前記カメラによって撮像された入力画像を取得する取得手段と、
前記取得手段によって取得された入力画像を表示手段に表示させる入力画像表示手段と、
前記カメラの撮像範囲よりも小さな領域であって当該撮像範囲に対して固定された固定領域を設定する設定手段と、
前記固定領域を示す領域画像を前記表示手段に表示させる領域表示手段と、
前記入力画像に含まれる物体の少なくとも一部が前記固定領域からはみ出したか否かを判定する判定手段と、
前記判定手段によって前記物体の少なくとも一部が前記固定領域からはみ出したと判定された場合、前記表示手段に表示される画像の表示態様を、前記物体の少なくとも一部が前記固定領域からはみ出したことを示す表示態様に制御する表示態様制御手段と、を備える電子機器システム
With the camera,
Acquisition means for acquiring an input image captured by the camera;
Input image display means for causing the display means to display the input image acquired by the acquisition means;
A setting unit configured to set a fixed area that is smaller than an imaging range of the camera and fixed to the imaging range;
Area display means for displaying an area image showing the fixed area on the display means;
A determination unit that determines whether at least a part of an object included in the input image is out of the fixed area;
When it is determined by the determination means that at least a part of the object is out of the fixed area , the display mode of the image displayed on the display means that at least a part of the object is out of the fixed area electronic device system comprising a display mode controller for controlling the display mode shown, the.
前記電子機器システムは、入力装置を含み、
前記カメラは前記入力装置の側面方向を撮像する、請求項2に記載の電子機器システム
The electronic device system includes an input device
The camera images the side surface direction of the input device, an electronic device system according to claim 2 0.
カメラと、
前記カメラによって撮像された入力画像を取得する取得手段と、
前記取得手段によって取得された入力画像に含まれる特定の物体を検出する検出手段と、
前記検出手段によって前記特定の物体が検出された場合に所定の情報処理を行う処理手段と、
前記入力画像に基づいて所定の条件を満たすか否かを判定する条件判定手段と、
前記検出手段によって前記特定の物体が検出されている場合において、前記条件判定手段によって前記所定の条件を満たすと判定された場合、第1の警告を行う第1警告手段と、
前記検出手段によって前記特定の物体が検出されなかった場合、前記第1警告手段による前記第1の警告とは異なる第2の警告を行う第2警告手段と、を備え、
前記処理手段は、前記条件判定手段によって前記所定の条件を満たすと判定された場合でも前記入力画像に基づいて前記所定の情報処理を行う、電子機器システム
With the camera,
Acquisition means for acquiring an input image captured by the camera;
A detection unit that detects a specific object included in the input image acquired by the acquisition unit;
Processing means for performing predetermined information processing when the specific object is detected by the detection means;
Condition determination means for determining whether or not a predetermined condition is satisfied based on the input image;
In the case where the specific object is detected by said detecting means, when it is determined that the predetermined condition is satisfied by the condition determining means, a first warning means for performing a first warning,
And second warning means for performing a second warning different from the first warning by the first warning means when the specific object is not detected by the detection means .
The electronic device system , wherein the processing means performs the predetermined information processing based on the input image even when the condition determination means determines that the predetermined condition is satisfied.
前記検出手段によって前記特定の物体が検出されなかった場合、前記処理手段による前記所定の情報処理を停止する停止手段をさらに備える、請求項2に記載の電子機器システムFurther comprising an electronic device system according to claim 2 2 wherein when a particular object is not detected, stopping means for stopping the predetermined information processing by said processing means by said detecting means.
JP2015024024A 2015-02-10 2015-02-10 Electronics Active JP6528193B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015024024A JP6528193B2 (en) 2015-02-10 2015-02-10 Electronics
US15/019,042 US9804667B2 (en) 2015-02-10 2016-02-09 Electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015024024A JP6528193B2 (en) 2015-02-10 2015-02-10 Electronics

Publications (2)

Publication Number Publication Date
JP2016148899A JP2016148899A (en) 2016-08-18
JP6528193B2 true JP6528193B2 (en) 2019-06-12

Family

ID=56687930

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015024024A Active JP6528193B2 (en) 2015-02-10 2015-02-10 Electronics

Country Status (1)

Country Link
JP (1) JP6528193B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7135444B2 (en) * 2018-05-29 2022-09-13 富士フイルムビジネスイノベーション株式会社 Information processing device and program
CN112534474A (en) 2018-09-18 2021-03-19 松下知识产权经营株式会社 Depth acquisition device, depth acquisition method, and program
WO2020066236A1 (en) 2018-09-27 2020-04-02 パナソニックIpマネジメント株式会社 Depth acquisition device, depth acquisition method, and program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008137708A1 (en) * 2007-05-04 2008-11-13 Gesturetek, Inc. Camera-based user input for compact devices
JP5174908B2 (en) * 2008-06-30 2013-04-03 株式会社ソニー・コンピュータエンタテインメント Portable game device and method for controlling portable game device
JP2010274813A (en) * 2009-05-29 2010-12-09 Fujitsu Ten Ltd Image generation device and image display system
JP5113220B2 (en) * 2010-06-28 2013-01-09 本田技研工業株式会社 Image display device for vehicle
JP2012079138A (en) * 2010-10-04 2012-04-19 Olympus Corp Gesture recognition device
JP5921981B2 (en) * 2012-07-25 2016-05-24 日立マクセル株式会社 Video display device and video display method
JP6165485B2 (en) * 2013-03-28 2017-07-19 国立大学法人埼玉大学 AR gesture user interface system for mobile terminals

Also Published As

Publication number Publication date
JP2016148899A (en) 2016-08-18

Similar Documents

Publication Publication Date Title
US9804667B2 (en) Electronic apparatus
US10015402B2 (en) Electronic apparatus
CN110337023B (en) Animation display method, device, terminal and storage medium
EP3057297A1 (en) Accessory and information processing system
JP6684042B2 (en) Electronics
CN112044065B (en) Virtual resource display method, device, equipment and storage medium
JP2012221145A (en) Input system, information processor, information processing program and three-dimensional position calculation method
JP6534011B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING PROGRAM, INFORMATION PROCESSING SYSTEM, AND INFORMATION PROCESSING METHOD
JP5988549B2 (en) POSITION CALCULATION SYSTEM, POSITION CALCULATION DEVICE, POSITION CALCULATION PROGRAM, AND POSITION CALCULATION METHOD
JP5607579B2 (en) Information processing system, information processing apparatus, information processing program, and content reproduction control method
JP6528193B2 (en) Electronics
JP6573457B2 (en) Information processing system
JP6519075B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING PROGRAM, INFORMATION PROCESSING SYSTEM, AND INFORMATION PROCESSING METHOD
JP6388203B2 (en) Electronics
CN108509127B (en) Method and device for starting screen recording task and computer equipment
JP2018084875A (en) Terminal device and program
US10653947B2 (en) Non-transitory storage medium having game program stored therein, information processing apparatus, information processing system, game processing method
JP6519074B2 (en) Electronics
JP6561400B2 (en) Information processing apparatus, information processing program, information processing system, and information processing method
JP6603024B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
JP2007310789A (en) Interface device
JP2014207680A (en) Information processing system, information processor, information processing program, and content reproduction control method
JP6589216B2 (en) Electronics
JP5804781B2 (en) GAME SYSTEM, INFORMATION PROCESSING METHOD, GAME DEVICE, AND INFORMATION PROCESSING PROGRAM
EP3578236A1 (en) Information processing program, information processing system and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190411

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190423

R150 Certificate of patent or registration of utility model

Ref document number: 6528193

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250