JP2016148900A - Electronic apparatus - Google Patents

Electronic apparatus Download PDF

Info

Publication number
JP2016148900A
JP2016148900A JP2015024034A JP2015024034A JP2016148900A JP 2016148900 A JP2016148900 A JP 2016148900A JP 2015024034 A JP2015024034 A JP 2015024034A JP 2015024034 A JP2015024034 A JP 2015024034A JP 2016148900 A JP2016148900 A JP 2016148900A
Authority
JP
Japan
Prior art keywords
application
electronic device
user
image
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015024034A
Other languages
Japanese (ja)
Other versions
JP6573457B2 (en
Inventor
嘉泰 小笠原
Yoshiyasu Ogasawara
嘉泰 小笠原
和義 大澤
Kazuyoshi Osawa
和義 大澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2015024034A priority Critical patent/JP6573457B2/en
Priority to US15/019,042 priority patent/US9804667B2/en
Publication of JP2016148900A publication Critical patent/JP2016148900A/en
Application granted granted Critical
Publication of JP6573457B2 publication Critical patent/JP6573457B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an electronic apparatus that can perform control on a device on the basis of a photographed image.SOLUTION: A portable electronic apparatus includes a display provided on a front face, and an infrared camera provided on a side face. The portable electronic apparatus determines a user's gesture on the basis of an image photographed with the infrared camera, and controls an application being executed on the basis of a result of the determination of the gesture. When the user's hand is not detected in the image photographed with the infrared camera, the portable electronic apparatus temporarily stops the application being executed and display a menu screen. When the user holds the hand over the infrared camera again, the application is resumed.SELECTED DRAWING: Figure 19

Description

本発明は、所定の情報処理を行うことが可能な手持ち型の電子機器に関する。   The present invention relates to a handheld electronic device capable of performing predetermined information processing.

従来より、ディスプレイとディスプレイの背面に設けられたカメラとを備える携帯型のゲーム装置が存在する(例えば、特許文献1)。このような従来のゲーム装置では、カメラにより撮像画像を取得し、当該取得された画像を解析した結果に基づく画像をディスプレイに表示することができる。   Conventionally, there is a portable game device including a display and a camera provided on the back of the display (for example, Patent Document 1). In such a conventional game device, a captured image can be acquired by a camera, and an image based on a result of analyzing the acquired image can be displayed on a display.

特開2006−271663号公報JP 2006-271663 A

しかしながら、上記従来の装置では、カメラからの撮像画像をディスプレイに表示するものであり、撮像画像を用いて装置の様々な制御を行うという点において改善の余地があった。   However, the above-described conventional apparatus displays a captured image from the camera on a display, and there is room for improvement in that various controls of the apparatus are performed using the captured image.

それ故、本発明の目的の一つは、撮像画像に基づいて装置に関する制御を行うことが可能な電子機器を提供することである。   Therefore, one of the objects of the present invention is to provide an electronic device capable of performing control related to an apparatus based on a captured image.

本発明では、上記の課題を解決するために、以下の構成を採用した。   In the present invention, the following configuration is adopted in order to solve the above-described problems.

一実施形態に係る電子機器は、手持ち型の電子機器であって、カメラと、取得手段と、制御手段とを備える。カメラは、前記電子機器の側面方向を撮像する。取得手段は、前記カメラによって撮像された入力画像を取得する。制御手段は、前記取得手段によって取得された入力画像に基づいて、アプリケーションの開始、一時停止、再開のうちの少なくとも何れか1の制御を行う。   An electronic apparatus according to an embodiment is a handheld electronic apparatus, and includes a camera, an acquisition unit, and a control unit. The camera images the side direction of the electronic device. The acquisition unit acquires an input image captured by the camera. The control unit performs at least one of application start, pause, and restart based on the input image acquired by the acquisition unit.

上記によれば、側面方向を撮像するカメラで撮像した画像に基づいてアプリケーションの開始、一時停止、再開を制御することができる。   Based on the above, it is possible to control start, pause, and restart of an application based on an image captured by a camera that captures the lateral direction.

また、他の構成では、前記アプリケーションは、ユーザによる入力に応じて処理が行われるインタラクティブ型のアプリケーションであってもよい。   In another configuration, the application may be an interactive application in which processing is performed according to an input by a user.

上記によれば、インタラクティブ型のアプリケーションの開始、一時停止、再開を制御することができる。   Based on the above, it is possible to control start, pause, and restart of an interactive application.

また、他の構成では、前記取得手段によって取得された入力画像に基づいて、実行中の前記アプリケーションの進行を制御するアプリケーション制御手段をさらに備えてもよい。   In another configuration, the image processing apparatus may further include application control means for controlling the progress of the application being executed based on the input image acquired by the acquisition means.

上記によれば、カメラによって撮像された入力画像に基づいて、アプリケーションの開始、一時停止、再開を制御するとともに、アプリケーションの進行も制御することができ、アプリケーションの開始、一時停止および再開の少なくとも何れかと進行とで、操作部の切り替えることが不要なため、ユーザの利便性を向上させることができる。   According to the above, based on the input image captured by the camera, the start, pause, and resume of the application can be controlled, and the progress of the application can be controlled, and at least any of the start, pause, and resume of the application Since it is not necessary to switch the operation unit depending on the progress, it is possible to improve user convenience.

また、他の構成では、前記取得手段によって取得された入力画像に基づいて、物体を検出する検出手段をさらに備えてもよい。前記制御手段は、前記検出手段による前記物体の検出結果に基づいて、前記アプリケーションの前記制御を行う。   In another configuration, a detection unit that detects an object based on the input image acquired by the acquisition unit may be further provided. The control unit performs the control of the application based on a detection result of the object by the detection unit.

上記によれば、入力画像に基づいて物体を検出し、検出結果に基づいてアプリケーションの制御を行うことができる。   Based on the above, it is possible to detect an object based on the input image and control the application based on the detection result.

また、他の構成では、前記検出手段は、ユーザの手を検出してもよい。   In another configuration, the detection unit may detect a user's hand.

上記によれば、入力画像に基づいてユーザの手を検出し、手の検出結果に基づいてアプリケーションの制御を行うことができる。   Based on the above, it is possible to detect the user's hand based on the input image and control the application based on the hand detection result.

また、他の構成では、前記検出手段は、ユーザの手によって行われたジェスチャを検出してもよい。前記制御手段は、前記検出手段によって検出されたジェスチャに基づいて、前記アプリケーションの前記制御を行う。   In another configuration, the detection unit may detect a gesture made by a user's hand. The control means performs the control of the application based on the gesture detected by the detection means.

上記によれば、ジェスチャによってアプリケーションの開始、一時停止、再開を制御することができる。   Based on the above, it is possible to control the start, pause, and restart of an application by a gesture.

また、他の構成では、前記制御手段は、前記検出手段によって前記物体が検出された場合、前記アプリケーションを開始してもよい。   In another configuration, the control unit may start the application when the detection unit detects the object.

上記によれば、物体が検出された場合は、アプリケーションを開始することができる。   According to the above, when an object is detected, the application can be started.

また、他の構成では、前記制御手段は、前記検出手段によって前記物体が検出されなかった場合、実行中のアプリケーションを一時停止してもよい。   In another configuration, the control unit may pause an application being executed when the object is not detected by the detection unit.

上記によれば、物体が検出されなかった場合に実行中のアプリケーションを一時停止することができる。   Based on the above, it is possible to temporarily stop an application being executed when an object is not detected.

また、他の構成では、前記制御手段は、前記検出手段によって前記物体が検出されなくなってから所定期間が経過した場合に、前記アプリケーションを一時停止してもよい。   In another configuration, the control unit may temporarily stop the application when a predetermined period has elapsed after the detection unit no longer detects the object.

上記によれば、物体を検出しなくなってから所定期間が経過した場合にアプリケーションを一時停止することができる。これにより、例えば、ユーザの意図した通りにアプリケーションの制御を行うことができる。   According to the above, the application can be temporarily stopped when a predetermined period has elapsed since the object is no longer detected. Thereby, for example, the application can be controlled as intended by the user.

また、他の構成では、前記制御手段は、前記実行中のアプリケーションを一時停止した後に、前記検出手段によって前記物体が検出された場合に、一時停止しているアプリケーションを再開してもよい。   In another configuration, the control unit may resume the paused application when the object is detected by the detection unit after the currently running application is paused.

上記によれば、物体が検出されずにアプリケーションが一時停止した場合でも、物体が検出されるとアプリケーションを再開することができる。   According to the above, even when the application is temporarily stopped without detecting the object, the application can be resumed when the object is detected.

また、他の構成では、前記制御手段は、前記検出手段によって前記物体が検出されなかった場合、実行中のアプリケーションとは異なる第2アプリケーションを開始又は再開してもよい。   In another configuration, the control unit may start or restart a second application different from the application being executed when the object is not detected by the detection unit.

上記によれば、物体が検出されなかった場合は、実行中のアプリケーションとは異なる第2アプリケーションを開始又は再開することができる。   According to the above, when an object is not detected, the second application different from the application being executed can be started or restarted.

また、他の構成では、前記制御手段は、前記検出手段によって前記物体が検出された場合、前記第2アプリケーションが開始される前に実行されていた前記アプリケーションを開始又は再開してもよい。   In another configuration, when the object is detected by the detection unit, the control unit may start or restart the application that was executed before the second application was started.

上記によれば、物体が検出されずに第2アプリケーションが開始された後に物体が検出された場合、当該第2アプリケーションが開始される前に実行されていたアプリケーションを開始又は再開することができる。   According to the above, when an object is detected after the second application is started without detecting the object, it is possible to start or restart the application that was being executed before the second application was started.

また、他の構成では、前記検出手段は、前記入力画像に基づいて、前記電子機器がユーザによって把持されたか否かを検出し、前記制御手段は、前記電子機器がユーザによって把持されたことを前記検出手段が検出した場合、前記アプリケーションを開始してもよい。   In another configuration, the detection unit detects whether or not the electronic device is gripped by a user based on the input image, and the control unit determines that the electronic device is gripped by the user. When the detection means detects, the application may be started.

上記によれば、電子機器が把持された場合にアプリケーションを開始することができる。   According to the above, the application can be started when the electronic device is gripped.

また、他の構成では、前記検出手段による前記物体の検出結果に基づいて、実行中の前記アプリケーションの進行を制御するアプリケーション制御手段をさらに備えてもよい。   In another configuration, application control means for controlling the progress of the application being executed may be further provided based on the detection result of the object by the detection means.

上記によれば、物体の検出結果に基づいてアプリケーションの進行を制御することができる。   Based on the above, it is possible to control the progress of the application based on the detection result of the object.

また、他の構成では、前記入力画像に基づいて、前記物体と前記カメラとの距離を算出する距離算出手段をさらに備えてもよい。前記制御手段は、前記距離算出手段によって算出された距離に基づいて、前記アプリケーションの前記制御を行う。   In another configuration, a distance calculation unit that calculates a distance between the object and the camera based on the input image may be further provided. The control means performs the control of the application based on the distance calculated by the distance calculation means.

上記によれば、物体との距離に基づいてアプリケーションの制御を行うことができる。   Based on the above, it is possible to control the application based on the distance to the object.

また、他の構成では、前記入力画像に基づいて、前記物体の速度を算出する速度算出手段をさらに備えてもよい。前記制御手段は、前記速度算出手段によって算出された速度に基づいて、前記アプリケーションの前記制御を行う。   In another configuration, the apparatus may further include a speed calculation unit that calculates the speed of the object based on the input image. The control means performs the control of the application based on the speed calculated by the speed calculation means.

上記によれば、物体の速度に基づいてアプリケーションの制御を行うことができる。   Based on the above, the application can be controlled based on the speed of the object.

また、他の構成では、前記制御手段によって前記アプリケーションが一時停止される際に、当該アプリケーションが一時停止することをユーザに報知する報知手段をさらに備えてもよい。   Further, in another configuration, when the application is suspended by the control unit, a notification unit that notifies the user that the application is suspended may be further provided.

上記によれば、アプリケーションの一時停止の際にユーザに報知することができる。   According to the above, it is possible to notify the user when the application is paused.

また、他の構成では、複数のアプリケーションのうちの何れかをユーザの入力に応じて選択する選択手段をさらに備えてもよい。前記制御手段は、前記選択手段によって既に選択されていたアプリケーションを開始する。   In another configuration, the information processing apparatus may further include a selection unit that selects any one of the plurality of applications according to a user input. The control means starts an application that has already been selected by the selection means.

上記によれば、複数のアプリケーションのうちの何れかを選択して開始することができる。   According to the above, it is possible to select and start any one of a plurality of applications.

また、他の構成では、前記検出手段は、前記物体の検出に関する第1の条件が満たされているか否かを判定する第1判定手段と、前記第1の条件よりも厳しい第2の条件が満たされているか否かを判定する第2判定手段とを含んでもよい。前記制御手段は、前記第1の条件が満たされている場合は、前記アプリケーションの開始又は終了に関する第1処理を行う一方で当該第1処理の後に続く第2処理を行わず、前記第2の条件が満たされている場合は、前記アプリケーションの前記第1処理及び前記第2処理を行う。   In another configuration, the detection unit includes a first determination unit that determines whether or not a first condition relating to the detection of the object is satisfied, and a second condition that is stricter than the first condition. And second determination means for determining whether or not the condition is satisfied. When the first condition is satisfied, the control unit performs a first process related to the start or end of the application, but does not perform a second process following the first process, and performs the second process. If the condition is satisfied, the first process and the second process of the application are performed.

上記によれば、物体の検出に関する第1の条件と、第1の条件よりも厳しい第2の条件とに基づいて、アプリケーションの開始又は終了に関する第1処理、第2処理を行うことができる。例えば、アプリケーションを開始する場合において、第1の条件が満たされており、かつ、第2の条件が満たされていない場合は、アプリケーションを開始するものの、当該アプリケーションにおける所定の処理は開始しない。第2の条件が満たされると、当該アプリケーションにおける所定の処理は開始される。また、例えば、アプリケーションを終了する場合において、第1の条件が満たされており、かつ、第2の条件が満たされていない場合は、アプリケーションを一時停止するものの、当該アプリケーションを終了しない。第2の条件が満たされると、当該アプリケーションを終了する。   Based on the above, it is possible to perform the first process and the second process related to the start or end of the application based on the first condition related to object detection and the second condition that is stricter than the first condition. For example, when the application is started, if the first condition is satisfied and the second condition is not satisfied, the application is started, but the predetermined processing in the application is not started. When the second condition is satisfied, a predetermined process in the application is started. Further, for example, when the application is terminated, if the first condition is satisfied and the second condition is not satisfied, the application is temporarily stopped, but the application is not terminated. When the second condition is satisfied, the application is terminated.

また、他の構成では、前記制御手段は、前記アプリケーションを一時停止した場合、前記アプリケーションを終了するか否かのユーザによる指示を受け付け、当該ユーザによる指示に応じて前記アプリケーションを終了してもよい。   In another configuration, when the application is paused, the control unit may accept an instruction from a user as to whether or not to terminate the application, and terminate the application according to the instruction from the user. .

上記によれば、アプリケーションを一時停止した後、ユーザによる指示に応じてアプリケーションを終了することができる。   According to the above, after the application is paused, the application can be terminated in accordance with an instruction from the user.

また、他の構成では、前記制御手段は、前記アプリケーションを一時停止した場合、所定時間の経過に応じて、前記アプリケーションを終了してもよい。   In another configuration, the control unit may terminate the application when a predetermined time elapses when the application is temporarily stopped.

上記によれば、アプリケーションを一時停止した後、所定時間の経過に応じてアプリケーションを終了することができる。   According to the above, the application can be terminated as the predetermined time elapses after the application is paused.

また、他の構成では、前記カメラは赤外線カメラであってもよい。   In another configuration, the camera may be an infrared camera.

また、他の構成では、前記カメラは前記電子機器の側面に設けられてもよい。   In another configuration, the camera may be provided on a side surface of the electronic device.

また、一実施形態に係る電子機器は、取得手段と、アプリケーション実行手段と、制御手段とを備える。取得手段は、カメラによって撮像された入力画像を取得する。アプリケーション実行手段は、ユーザの操作に基づいて進行するインタラクティブ型のアプリケーションを実行する。制御手段は、前記取得手段によって取得された入力画像に基づいて、実行中の前記アプリケーションを一時停止する。   In addition, an electronic apparatus according to an embodiment includes an acquisition unit, an application execution unit, and a control unit. The acquisition unit acquires an input image captured by the camera. The application execution means executes an interactive application that proceeds based on a user operation. The control unit temporarily stops the application being executed based on the input image acquired by the acquisition unit.

上記によれば、カメラによって撮像された入力画像に基づいて、実行中のアプリケーションを一時停止することができる。   Based on the above, it is possible to pause the running application based on the input image captured by the camera.

また、一実施形態に係る電子機器は、当該電子機器の側面方向を撮像するカメラと、取得手段と、アプリケーション起動手段とを備える。取得手段は、前記カメラによって撮像された入力画像を取得する。アプリケーション起動手段は、前記取得手段によって取得された入力画像に基づいて、アプリケーションの起動を行う。   An electronic device according to an embodiment includes a camera that captures an image of the side direction of the electronic device, an acquisition unit, and an application activation unit. The acquisition unit acquires an input image captured by the camera. The application activation unit activates the application based on the input image acquired by the acquisition unit.

上記によれば、カメラによって撮像された入力画像に基づいて、アプリケーションを起動することができる。   Based on the above, it is possible to start an application based on the input image captured by the camera.

本発明の一例によれば、カメラからの入力画像に基づいてアプリケーションの制御を行うことができる。   According to an example of the present invention, an application can be controlled based on an input image from a camera.

本実施形態の携帯電子機器1の正面図Front view of portable electronic device 1 of the present embodiment 携帯電子機器1の右側面図Right side view of portable electronic device 1 携帯電子機器1の背面図Rear view of portable electronic device 1 携帯電子機器1の内部構成の一例を示すブロック図The block diagram which shows an example of an internal structure of the portable electronic device 1 携帯電子機器1の使用状態の一例を示す図であり、ユーザが携帯電子機器1を両手で把持したときの様子を示す図It is a figure which shows an example of the use condition of the portable electronic device 1, and is a figure which shows a mode when a user hold | grips the portable electronic device 1 with both hands ユーザが携帯電子機器1の右側面方向で右手を用いてジェスチャ入力を行う様子を示す図The figure which shows a mode that a user performs gesture input using the right hand in the right side surface direction of the portable electronic device 1. ユーザが携帯電子機器1の右側面方向で右手を用いてジェスチャ入力を行う様子を示す図The figure which shows a mode that a user performs gesture input using the right hand in the right side surface direction of the portable electronic device 1. 図6Aに示すようなジェスチャ入力が行われた場合の赤外線カメラ4によって撮像される画像の一例を示す図The figure which shows an example of the image imaged with the infrared camera 4 at the time of gesture input as shown to FIG. 6A being performed 図6Bに示すようなジェスチャ入力が行われた場合の赤外線カメラ4によって撮像される画像の一例を示す図The figure which shows an example of the image imaged with the infrared camera 4 at the time of gesture input as shown to FIG. 6B being performed 本実施形態のガイド表示の一例を示す図The figure which shows an example of the guide display of this embodiment 図8に示す状態において赤外線カメラ4によって撮像された赤外線画像の一例を示す図The figure which shows an example of the infrared image imaged with the infrared camera 4 in the state shown in FIG. 図9に示す画像が取得された場合の輪郭描画処理およびガイド枠画像描画処理が行われた後の画像の一例を示す図The figure which shows an example of the image after the outline drawing process and guide frame image drawing process when the image shown in FIG. 9 is acquired 図8に示す状態からユーザが手を上方向(Y軸方向)に移動させた状態を示す図The figure which shows the state which the user moved the hand upward (Y-axis direction) from the state shown in FIG. 図8に示す状態からユーザが手を画面の奥方向(Z軸方向)に移動させた状態を示す図The figure which shows the state which the user moved the hand to the back direction (Z-axis direction) of the screen from the state shown in FIG. 図11に示す状態における輪郭画像21とガイド枠画像22とを合成した合成画像41を示す図The figure which shows the synthesized image 41 which synthesize | combined the outline image 21 and the guide frame image 22 in the state shown in FIG. 図12に示す状態における輪郭画像21とガイド枠画像22とを合成した合成画像41を示す図The figure which shows the synthesized image 41 which synthesize | combined the outline image 21 and the guide frame image 22 in the state shown in FIG. パース表示を行うための処理の一例を示す概略図Schematic showing an example of processing for performing a perspective display 携帯電子機器1のディスプレイ2に表示されるメニュー画面の一例を示す図The figure which shows an example of the menu screen displayed on the display 2 of the portable electronic device 1 メニュー画面によって選択されたアプリBが起動した様子を示す図The figure which shows a mode that the application B selected by the menu screen started 起動されたアプリBのゲームが開始された直後の画面の一例を示す図The figure which shows an example of the screen immediately after the game of the activated application B is started ゲームが実行されている間の画面遷移の一例を示す図The figure which shows an example of the screen transition while a game is running 他の実施形態におけるメニュー画面を表示するためのジェスチャの一例を示す図The figure which shows an example of the gesture for displaying the menu screen in other embodiment. ガイド表示を行うための処理の一例を示すフローチャートThe flowchart which shows an example of the process for performing a guide display メニュー画面の表示を行うための処理の一例を示すフローチャートThe flowchart which shows an example of the process for displaying a menu screen アプリケーション制御処理の一例を示すフローチャートFlow chart showing an example of application control processing

以下、本発明の一実施形態に係る携帯電子機器について説明する。携帯電子機器は、ユーザが手で持って操作可能な手持ち型の情報処理装置であり、例えば、ゲーム装置であってもよいし、携帯電話機(スマートフォン等)、タブレット端末、カメラ、腕時計型の端末等の任意の装置であってもよい。図1は、本実施形態の携帯電子機器1の正面図である。図2は、携帯電子機器1の右側面図である。図3は、携帯電子機器1の背面図である。   Hereinafter, a portable electronic device according to an embodiment of the present invention will be described. The portable electronic device is a hand-held information processing apparatus that can be operated by a user's hand. For example, the portable electronic apparatus may be a game device, a mobile phone (smartphone, etc.), a tablet terminal, a camera, or a wristwatch type terminal. Arbitrary arbitrary apparatuses, such as, may be sufficient. FIG. 1 is a front view of the portable electronic device 1 of the present embodiment. FIG. 2 is a right side view of the portable electronic device 1. FIG. 3 is a rear view of the portable electronic device 1.

図1に示すように、携帯電子機器1は、ディスプレイ2と、タッチパネル3と、赤外線カメラ4と、測距センサ5と、入力ボタン6(6A〜6D)と、照射部7と、プロジェクタ8とを備え、これらはハウジング10に収納される。ハウジング10(携帯電子機器1)は、板状の形状であり、ユーザが片手又は両手で把持可能な大きさである。   As shown in FIG. 1, the portable electronic device 1 includes a display 2, a touch panel 3, an infrared camera 4, a distance measuring sensor 5, input buttons 6 (6 </ b> A to 6 </ b> D), an irradiation unit 7, and a projector 8. These are housed in the housing 10. The housing 10 (portable electronic device 1) has a plate shape and is a size that can be held by a user with one hand or both hands.

ディスプレイ2としては、例えば、液晶表示装置や有機EL表示装置等が用いられ、その他、任意の表示装置が用いられてもよい。ディスプレイ2の画面は、ハウジング10の正面(T5面)に露出するように設けられる。タッチパネル3は、ディスプレイ2の画面上に設けられ、ユーザによってタッチされた画面上の位置を検出する。タッチパネル3としては、1点検出が可能なものや多点検出が可能なものが用いられ、例えば、静電容量方式、抵抗膜方式等、任意のものが用いられてもよい。   As the display 2, for example, a liquid crystal display device or an organic EL display device is used, and any other display device may be used. The screen of the display 2 is provided so as to be exposed on the front surface (T5 surface) of the housing 10. The touch panel 3 is provided on the screen of the display 2 and detects a position on the screen touched by the user. As the touch panel 3, one that can detect one point or one that can detect multiple points is used. For example, an arbitrary one such as a capacitance method or a resistance film method may be used.

入力ボタン6A〜6Dは、ユーザによる入力(押下)を受け付ける。入力ボタン6A〜6Dは、ユーザが携帯電子機器1の両端を把持したときにユーザの指が届く位置に設けられる。具体的には、入力ボタン6Aおよび6Cは、ユーザが右手で携帯電子機器1を把持したときに右手の指が届く位置にあり、入力ボタン6Aは右手の親指が届く位置に、入力ボタン6Cは右手の人差し指又は中指が届く位置に設けられる。また、入力ボタン6Bおよび6Dは、ユーザが左手で携帯電子機器1を把持したときに左手の指が届く位置にあり、入力ボタン6Bは左手の親指が届く位置に、入力ボタン6Dは左手の人差し指又は中指が届く位置に設けられる。図1に示すように、入力ボタン6Aおよび6Bは、ハウジング10の正面(T5面)に設けられ、入力ボタン6Cおよび6Dは、ハウジング10の上面(T4面)に設けられる。なお、ユーザによる入力を受け付ける入力部としては、入力ボタン6A〜6Dの他に、方向入力のための十字キー、アナログスティック等が設けられてもよい。   The input buttons 6A to 6D accept input (pressing) by the user. The input buttons 6 </ b> A to 6 </ b> D are provided at positions where the user's finger can reach when the user grips both ends of the mobile electronic device 1. Specifically, the input buttons 6A and 6C are in a position where the finger of the right hand can reach when the user holds the portable electronic device 1 with the right hand, the input button 6A is in a position where the thumb of the right hand can reach, and the input button 6C is It is provided at a position where the index finger or middle finger of the right hand can reach. The input buttons 6B and 6D are in a position where the left hand can reach when the user holds the portable electronic device 1 with the left hand, the input button 6B is in a position where the left thumb can reach, and the input button 6D is the left index finger. Or it is provided at a position where the middle finger can reach. As shown in FIG. 1, the input buttons 6A and 6B are provided on the front surface (T5 surface) of the housing 10, and the input buttons 6C and 6D are provided on the upper surface (T4 surface) of the housing 10. In addition to the input buttons 6A to 6D, an input unit that receives input by the user may be provided with a cross key for inputting a direction, an analog stick, or the like.

赤外線カメラ4は、レンズと光(赤外線。具体的には近赤外線)に感光するセンサとを備える。赤外線カメラ4のセンサは、赤外線に感光する素子を縦横に複数並べたイメージセンサであり、当該イメージセンサの各素子が赤外線を受光して電気信号に変換することで2次元の赤外線画像を出力する。   The infrared camera 4 includes a lens and a sensor that is sensitive to light (infrared rays, specifically near infrared rays). The sensor of the infrared camera 4 is an image sensor in which a plurality of elements sensitive to infrared rays are arranged vertically and horizontally, and each element of the image sensor receives infrared rays and converts them into electric signals to output a two-dimensional infrared image. .

測距センサ5は、測距センサ5に設けられた光源から射出された光(例えば、赤外光)が物体に反射し、当該反射光を受光素子で受光することで物体との間の距離を測定する。測距センサ5としては、三角測距方式、TOF(Time Of Flight)方式等任意のものが用いられてもよい。測距センサ5の光源としては、特定方向に赤外光を射出するLEDやレーザダイオード等が用いられる。   The distance measuring sensor 5 reflects light (for example, infrared light) emitted from a light source provided in the distance measuring sensor 5 to an object, and receives the reflected light with a light receiving element, thereby distance from the object. Measure. As the distance measuring sensor 5, an arbitrary sensor such as a triangular distance measuring method, a TOF (Time Of Flight) method, or the like may be used. As a light source of the distance measuring sensor 5, an LED, a laser diode, or the like that emits infrared light in a specific direction is used.

照射部7は、赤外線を所定の時間間隔(例えば、1/60秒間隔)で照射する。赤外線カメラ4が画像を撮像するタイミングと同期して、照射部7が赤外線を照射する。照射部7は、携帯電子機器1の右側面方向の所定の範囲に赤外線を照射する。照射部7によって照射された赤外線が物体によって反射され、当該反射された赤外線が赤外線カメラ4によって受光されることで、赤外線の画像が取得される。なお、照射部7は、赤外線カメラ4による赤外線画像の撮像のため、および、測距センサ5による距離の測定のために用いられてもよい。すなわち、照射部7からの赤外光を利用して、赤外線カメラ4によって画像が撮像されるとともに、測距センサ5によって距離が測定されてもよい。   The irradiation unit 7 irradiates infrared rays at a predetermined time interval (for example, 1/60 second interval). The irradiation unit 7 emits infrared rays in synchronization with the timing when the infrared camera 4 captures an image. The irradiation unit 7 irradiates infrared rays to a predetermined range in the right side surface direction of the portable electronic device 1. The infrared light emitted by the irradiation unit 7 is reflected by an object, and the reflected infrared light is received by the infrared camera 4, whereby an infrared image is acquired. The irradiation unit 7 may be used for capturing an infrared image by the infrared camera 4 and for measuring a distance by the distance measuring sensor 5. That is, the infrared light from the irradiation unit 7 may be used to capture an image by the infrared camera 4 and the distance sensor 5 may measure the distance.

また、プロジェクタ8は、可視光を射出する光源を有し、当該光源からの光を用いて文字や画像等を投影面(スクリーンやユーザの手等)に投影する。   The projector 8 has a light source that emits visible light, and projects characters, images, and the like onto a projection surface (a screen, a user's hand, etc.) using the light from the light source.

赤外線カメラ4、測距センサ5、照射部7、およびプロジェクタ8は、ハウジング10の側面(例えば右側面:T1面)に設けられる。具体的には、赤外線カメラ4の撮像方向(光軸)は、右側面に垂直な方向を向く。測距センサ5の検出方向、プロジェクタ8が光を照射する方向もまた同様に右側面に垂直な方向である。すなわち、赤外線カメラ4は、ユーザが左手で携帯電子機器1を把持した際に、携帯電子機器1の右側面方向の空間を撮像し、測距センサ5は、携帯電子機器1の右側面方向の空間に存在する物体までの距離を測定する。また、プロジェクタ8は、赤外線カメラ4および測距センサ5と同じ方向に可視光を照射することで画像等を投影する。   The infrared camera 4, the distance measuring sensor 5, the irradiation unit 7, and the projector 8 are provided on the side surface (for example, the right side surface: T1 surface) of the housing 10. Specifically, the imaging direction (optical axis) of the infrared camera 4 is oriented in a direction perpendicular to the right side surface. The detection direction of the distance measuring sensor 5 and the direction in which the projector 8 emits light are also perpendicular to the right side surface. That is, when the user holds the portable electronic device 1 with the left hand, the infrared camera 4 images the space in the right side surface direction of the portable electronic device 1, and the ranging sensor 5 is in the right side surface direction of the portable electronic device 1. Measure the distance to an object in space. The projector 8 projects an image or the like by irradiating visible light in the same direction as the infrared camera 4 and the distance measuring sensor 5.

携帯電子機器1の背面(T6面)には、外側カメラ9が設けられる(図3)。外側カメラ9は、典型的には、赤外線カメラ4の撮像方向とは垂直な方向を撮像可能であり、背面と垂直な方向を撮像可能である。外側カメラ9は、レンズと可視光に感光するイメージセンサとを備える。外側カメラ9は、背面方向の空間を撮像し、カラー画像(RGB画像)を取得する。なお、背面の外側カメラ9に加えて正面にもカメラが設けられてもよいし、背面の外側カメラ9は設けられず、正面(ディスプレイ2の画面が設けられた面)にカメラが設けられてもよい。   An outer camera 9 is provided on the back surface (T6 surface) of the portable electronic device 1 (FIG. 3). The outer camera 9 can typically capture a direction perpendicular to the imaging direction of the infrared camera 4 and can capture a direction perpendicular to the back surface. The outer camera 9 includes a lens and an image sensor that is sensitive to visible light. The outer camera 9 captures a space in the back direction and acquires a color image (RGB image). In addition to the rear outer camera 9, a camera may be provided on the front, or the rear outer camera 9 is not provided, and a camera is provided on the front (the surface on which the screen of the display 2 is provided). Also good.

図4は、携帯電子機器1の内部構成の一例を示すブロック図である。図4に示すように、携帯電子機器1は、上述した各部の他、バイブレータ11、マイク12、スピーカ13、制御部14、通信部15、姿勢検出部16、GPSレシーバ17、および地磁気センサ18を備える。また、携帯電子機器1は、図示しないバッテリーを備え、当該バッテリーから電源が供給される。これら各部はハウジング10内に収納される。   FIG. 4 is a block diagram illustrating an example of the internal configuration of the mobile electronic device 1. As shown in FIG. 4, the portable electronic device 1 includes a vibrator 11, a microphone 12, a speaker 13, a control unit 14, a communication unit 15, a posture detection unit 16, a GPS receiver 17, and a geomagnetic sensor 18 in addition to the above-described units. Prepare. The mobile electronic device 1 includes a battery (not shown), and power is supplied from the battery. These parts are accommodated in the housing 10.

制御部14は、ディスプレイ2、タッチパネル3、赤外線カメラ4、測距センサ5、入力ボタン6、照射部7、プロジェクタ8、バイブレータ11、マイク12、スピーカ13、通信部15、姿勢検出部16、GPSレシーバ17、地磁気センサ18等、各部に接続され、各部を制御する。   The control unit 14 includes a display 2, a touch panel 3, an infrared camera 4, a distance measuring sensor 5, an input button 6, an irradiation unit 7, a projector 8, a vibrator 11, a microphone 12, a speaker 13, a communication unit 15, a posture detection unit 16, and a GPS. It is connected to each part such as the receiver 17 and the geomagnetic sensor 18 and controls each part.

具体的には、制御部14は、CPUやメモリ(RAM)等を含み、携帯電子機器1に備えられた図示しない記憶装置(例えば、不揮発性メモリやハードディスク等)に記憶された所定のプログラム(例えば、ゲーム処理や画像処理、各種演算を行うためのアプリケーションプログラム)に基づいて所定の処理を行う。例えば、制御部14は、赤外線カメラ4からの画像を取得して当該画像を解析したり、測距センサ5からの信号に基づいて物体までの距離を算出したり、タッチパネル3や入力ボタン6からの入力信号に応じた処理を行う。そして、制御部14は、所定の処理の結果に基づく画像を生成し、ディスプレイ2に当該画像を出力する。なお、所定の処理を行うためのプログラムは、通信部15を介して外部からダウンロードされてもよい。   Specifically, the control unit 14 includes a CPU, a memory (RAM), and the like, and a predetermined program (for example, a nonvolatile memory or a hard disk) stored in the portable electronic device 1 (not shown) For example, predetermined processing is performed based on game processing, image processing, and an application program for performing various calculations. For example, the control unit 14 acquires an image from the infrared camera 4 and analyzes the image, calculates a distance to an object based on a signal from the distance measuring sensor 5, or from the touch panel 3 or the input button 6. The process according to the input signal is performed. Then, the control unit 14 generates an image based on the result of the predetermined process, and outputs the image to the display 2. Note that a program for performing predetermined processing may be downloaded from the outside via the communication unit 15.

バイブレータ11は、制御部14からの命令に基づいて動作し、携帯電子機器1全体を振動させる。バイブレータ11は、ユーザの手に振動が伝わりやすい所定の位置(例えば、ハウジング10内の中央部や左右の何れかに偏った位置)に設けられる。   The vibrator 11 operates based on a command from the control unit 14 and vibrates the entire portable electronic device 1. The vibrator 11 is provided at a predetermined position where vibration is easily transmitted to the user's hand (for example, a position biased to either the central portion or the left and right in the housing 10).

マイク12およびスピーカ13は、音声を入力/出力するために用いられる。通信部15は、所定の通信方式(例えば、無線LAN等)で他の機器と通信を行うために用いられる。また、姿勢検出部16は、例えば、加速度センサや角速度センサであり、携帯電子機器1の姿勢を検出する。   The microphone 12 and the speaker 13 are used for inputting / outputting sound. The communication unit 15 is used for communicating with other devices by a predetermined communication method (for example, wireless LAN or the like). In addition, the posture detection unit 16 is, for example, an acceleration sensor or an angular velocity sensor, and detects the posture of the mobile electronic device 1.

GPSレシーバ17は、GPS(Global Positioning System)衛星からの信号を受信し、当該信号を受信することで携帯電子機器1は自機の位置を計算することができる。例えば、携帯電子機器1は、特定の位置で所定の操作(例えば、後述する赤外線カメラ4を用いたジェスチャ入力やボタン入力、携帯電子機器1を振るなどの動作)が行われた場合に、当該特定の位置に対応付けられたオブジェクトを表示してもよい。例えば、携帯電子機器1においてゲームが行われる場合において、携帯電子機器1が特定の位置にある場合、当該特定の位置に対応したオブジェクトを当該ゲームに登場させてもよい。   The GPS receiver 17 receives a signal from a GPS (Global Positioning System) satellite, and the portable electronic device 1 can calculate its own position by receiving the signal. For example, when a predetermined operation (for example, gesture input or button input using an infrared camera 4 to be described later, operation of shaking the mobile electronic device 1) is performed at a specific position, the mobile electronic device 1 An object associated with a specific position may be displayed. For example, when a game is played in the mobile electronic device 1, when the mobile electronic device 1 is at a specific position, an object corresponding to the specific position may appear in the game.

また、地磁気センサ18は、磁気の方向および大きさを検出可能なセンサである。例えば、携帯電子機器1は、地磁気センサ18の検出結果に基づいて、特定の方位を向いているか否かを判定し、特定の方位で所定の操作(上記ジェスチャ入力等)が行われた場合に、オブジェクトを表示してもよい。例えば、携帯電子機器1においてゲームが行われる場合、特定の方位に対応したオブジェクトが当該ゲームに登場してもよい。また、携帯電子機器1は、GPSレシーバ17を用いたGPS情報と地磁気センサを用いた方位情報とを組み合わせてもよい。例えば、携帯電子機器1が、特定の位置にあり、かつ、特定の方位を向いている場合、当該特定の位置及び特定の方位に対応するオブジェクトを表示したり、当該オブジェクトをゲームに登場させてもよい。   The geomagnetic sensor 18 is a sensor capable of detecting the direction and magnitude of magnetism. For example, the mobile electronic device 1 determines whether or not it is facing a specific direction based on the detection result of the geomagnetic sensor 18, and when a predetermined operation (such as the above gesture input) is performed in the specific direction. The object may be displayed. For example, when a game is played on the mobile electronic device 1, an object corresponding to a specific direction may appear in the game. Moreover, the portable electronic device 1 may combine GPS information using the GPS receiver 17 and azimuth information using a geomagnetic sensor. For example, when the mobile electronic device 1 is at a specific position and is facing a specific direction, an object corresponding to the specific position and the specific direction is displayed, or the object is made to appear in the game. Also good.

図5は、携帯電子機器1の使用状態の一例を示す図であり、ユーザが携帯電子機器1を両手で把持したときの様子を示す図である。図5に示すように、ユーザは携帯電子機器1の左右両端部を把持する。ユーザが左右の両端部を把持した場合に、ユーザは、左手の親指で入力ボタン6Bを押下可能であり、右手の親指で入力ボタン6Aを押下可能である。また、ユーザが左右の両端部を把持した場合に、ユーザは、左手の人差し指又は中指を動かすことができ当該左手の人差し指又は中指で入力ボタン6Dを押下可能であり、右手の人差し指又は中指を動かすことができ当該右手の人差し指又は中指で入力ボタン6Cを押下可能である。   FIG. 5 is a diagram illustrating an example of a usage state of the mobile electronic device 1 and is a diagram illustrating a state when the user holds the mobile electronic device 1 with both hands. As shown in FIG. 5, the user grips both left and right ends of the mobile electronic device 1. When the user grips both left and right ends, the user can press the input button 6B with the thumb of the left hand and can press the input button 6A with the thumb of the right hand. Further, when the user grips both left and right ends, the user can move the index finger or middle finger of the left hand and can press the input button 6D with the index finger or middle finger of the left hand, and move the index finger or middle finger of the right hand The input button 6C can be pressed with the index finger or middle finger of the right hand.

次に、携帯電子機器1に対する入力について説明する。本実施形態では、ユーザは、携帯電子機器1を左手で把持した状態で、右手を用いて携帯電子機器1に対してジェスチャ入力を行うことができる。   Next, input to the portable electronic device 1 will be described. In the present embodiment, the user can perform gesture input on the mobile electronic device 1 using the right hand while holding the mobile electronic device 1 with the left hand.

図6Aおよび図6Bは、ユーザが携帯電子機器1の右側面方向で右手を用いてジェスチャ入力を行う様子を示す図である。図7Aは、図6Aに示すようなジェスチャ入力が行われた場合の赤外線カメラ4によって撮像される画像の一例を示す図である。図7Bは、図6Bに示すようなジェスチャ入力が行われた場合の赤外線カメラ4によって撮像される画像の一例を示す図である。   6A and 6B are diagrams illustrating a state where the user performs gesture input using the right hand in the right side surface direction of the mobile electronic device 1. FIG. 7A is a diagram illustrating an example of an image captured by the infrared camera 4 when the gesture input illustrated in FIG. 6A is performed. FIG. 7B is a diagram illustrating an example of an image captured by the infrared camera 4 when the gesture input illustrated in FIG. 6B is performed.

図6Aおよび図6Bに示すように、ユーザは、携帯電子機器1の右側面方向の位置で右手を用いて様々なジェスチャ入力を行う。携帯電子機器1は、携帯電子機器1の右側面に設けられた赤外線カメラ4で赤外線画像を撮像し、当該撮像した赤外線画像を解析することにより、ユーザのジェスチャ入力を判別する。   As illustrated in FIGS. 6A and 6B, the user performs various gesture inputs using the right hand at a position in the right side surface direction of the mobile electronic device 1. The portable electronic device 1 captures an infrared image with an infrared camera 4 provided on the right side surface of the portable electronic device 1 and analyzes the captured infrared image to determine a user's gesture input.

具体的には、図7Aや図7Bに示す画像が赤外線カメラ4から取得されると、携帯電子機器1は、取得された画像に含まれる特定の物体(具体的には、人間の手)を検出し、当該特定の物体の形状等に基づいて、ユーザによって行われたジェスチャの種類を判別する。例えば、携帯電子機器1は、取得された画像に所定の形状の物体が存在するか否かをパターンマッチング等により判定する。例えば、携帯電子機器1は、図7Aに示す画像が取得された場合、指の本数から「グー」を認識することができ、図7Bに示す画像が取得された場合は、指の本数から「パー」を認識することができる。そして、携帯電子機器1は、後述するようにジェスチャの種類に応じた処理を行う。   Specifically, when the image shown in FIG. 7A or 7B is acquired from the infrared camera 4, the portable electronic device 1 displays a specific object (specifically, a human hand) included in the acquired image. The type of gesture performed by the user is determined based on the detected shape and the like of the specific object. For example, the mobile electronic device 1 determines whether or not an object having a predetermined shape exists in the acquired image by pattern matching or the like. For example, when the image shown in FIG. 7A is acquired, the mobile electronic device 1 can recognize “goo” from the number of fingers, and when the image shown in FIG. "Par" can be recognized. And the portable electronic device 1 performs the process according to the kind of gesture so that it may mention later.

ここで、判別されるジェスチャは、ユーザの手や顔等の体の一部や全体を用いた身振り・手振りであり、携帯電子機器1は、手等の静止した状態をジェスチャ入力として認識してもよいし、手を使った一連の動作をジェスチャ入力として認識してもよい。また、携帯電子機器1は、ユーザが物を持った状態で行われるジェスチャ入力を認識してもよい。この場合、携帯電子機器1は、ユーザが持っている物のみの静止状態や動作状態をジェスチャ入力として認識してもよいし、ユーザの手と物を含んだ全体の静止状態や動作状態をジェスチャ入力として認識してもよい。   Here, the determined gesture is a gesture / hand gesture using a part or the whole of the user's hand or face, and the portable electronic device 1 recognizes the stationary state of the hand as a gesture input. Alternatively, a series of actions using the hand may be recognized as a gesture input. In addition, the mobile electronic device 1 may recognize a gesture input performed while the user holds an object. In this case, the mobile electronic device 1 may recognize a stationary state or an operating state of only an object held by the user as a gesture input, or a gesture of an entire stationary state or an operating state including the user's hand and the object. It may be recognized as an input.

なお、赤外線カメラ4によって撮像された赤外線画像の中に複数の物体が含まれる場合、携帯電子機器1は、複数の物体のうちの特定の物体のみを検出し、当該検出した物体に基づいて処理を行ってもよい。例えば、赤外線カメラ4を用いてユーザの手を撮像する場合、手とその背後の物体が赤外線画像の中に含まれることがある。この場合、携帯電子機器1は、ユーザの手のみを認識してもよい。例えば、携帯電子機器1は、赤外線カメラ4によって撮像された赤外線画像に含まれる複数の物体の画像のうち、平均輝度が最も高い物体の画像のみを取り出して、当該物体の画像を解析することにより、ユーザの手を認識してもよい。また、赤外線カメラ4によって撮像された赤外線画像に含まれる複数の物体の画像からパターンマッチング等に基づいてユーザの手のみを認識してもよい。   When a plurality of objects are included in the infrared image captured by the infrared camera 4, the mobile electronic device 1 detects only a specific object among the plurality of objects, and performs processing based on the detected object. May be performed. For example, when a user's hand is imaged using the infrared camera 4, the hand and an object behind the hand may be included in the infrared image. In this case, the mobile electronic device 1 may recognize only the user's hand. For example, the mobile electronic device 1 extracts only the image of the object having the highest average brightness from the images of the plurality of objects included in the infrared image captured by the infrared camera 4 and analyzes the image of the object. The user's hand may be recognized. Further, only the user's hand may be recognized based on pattern matching or the like from images of a plurality of objects included in the infrared image captured by the infrared camera 4.

本実施形態では、ユーザは、携帯電子機器1の例えば右側面方向において右手を用いてジェスチャを行うことで、携帯電子機器1に対して様々な操作を行う。まず、ユーザは、携帯電子機器1の右側面に配置された赤外線カメラ4で自身の右手が正常に撮像され、ジェスチャ入力が可能な状態か否かを認識する必要がある。そこで、本実施形態では、ジェスチャ入力が可能な位置をユーザに認識させるための(ユーザの手をジェスチャ入力に適した位置に誘導するための)ガイド表示が行われる。例えば、後述するアプリケーションが実行されるに先立って、ガイド表示が行われる。   In the present embodiment, the user performs various operations on the mobile electronic device 1 by performing a gesture using the right hand in the direction of the right side of the mobile electronic device 1, for example. First, the user needs to recognize whether or not his / her right hand is normally captured by the infrared camera 4 arranged on the right side surface of the mobile electronic device 1 and gesture input is possible. Therefore, in the present embodiment, guide display is performed for allowing the user to recognize a position where gesture input is possible (for guiding the user's hand to a position suitable for gesture input). For example, a guide display is performed before an application described later is executed.

(ガイド表示)
図8は、本実施形態のガイド表示の一例を示す図である。図8では、赤外線カメラ4の撮像範囲内にユーザの右手があり、かつ、赤外線カメラ4によってユーザの右手が赤外線カメラの正面から撮像される場合におけるガイド表示の一例が示されている。
(Guide display)
FIG. 8 is a diagram illustrating an example of a guide display according to the present embodiment. FIG. 8 shows an example of a guide display when the user's right hand is within the imaging range of the infrared camera 4 and the user's right hand is imaged from the front of the infrared camera by the infrared camera 4.

図8に示すように、ディスプレイ2の画面の右側には、ユーザに正しいジェスチャ入力位置を認識させるためのガイド表示として、輪郭画像21とガイド枠画像22とが表示される。輪郭画像21は、赤外線カメラ4によって撮像された赤外線画像に含まれるユーザの手の画像の輪郭を示す画像である。ガイド枠画像22は、正しいジェスチャ入力位置をユーザに認識させるための画像であり、赤外線カメラ4によって撮像される撮像範囲よりも狭い範囲を示す画像である。   As shown in FIG. 8, a contour image 21 and a guide frame image 22 are displayed on the right side of the screen of the display 2 as a guide display for allowing the user to recognize the correct gesture input position. The contour image 21 is an image indicating the contour of the image of the user's hand included in the infrared image captured by the infrared camera 4. The guide frame image 22 is an image for allowing the user to recognize the correct gesture input position, and is an image showing a range narrower than the imaging range captured by the infrared camera 4.

図8に示すように、例えば、携帯電子機器1の右方向(長辺方向)をX軸、上方向(短辺方向)をY軸、ディスプレイ2の画面の奥方向をZ軸と定義する。赤外線カメラ4からX軸方向に延びる直線がユーザの右手の掌のほぼ中央に当たり、かつ、X軸方向の適切な位置にユーザの右手が存在する場合、赤外線カメラ4によってユーザの右手の全部が撮像される。   As shown in FIG. 8, for example, the right direction (long side direction) of the portable electronic device 1 is defined as the X axis, the upward direction (short side direction) is defined as the Y axis, and the back direction of the screen of the display 2 is defined as the Z axis. When the straight line extending in the X-axis direction from the infrared camera 4 hits almost the center of the palm of the user's right hand and the user's right hand exists at an appropriate position in the X-axis direction, the infrared camera 4 captures the entire image of the user's right hand. Is done.

図9は、図8に示す状態において赤外線カメラ4によって撮像された赤外線画像の一例を示す図である。図10は、図9に示す画像が取得された場合の輪郭描画処理およびガイド枠画像描画処理が行われた後の画像の一例を示す図である。   FIG. 9 is a diagram illustrating an example of an infrared image captured by the infrared camera 4 in the state illustrated in FIG. 8. FIG. 10 is a diagram illustrating an example of an image after the contour drawing process and the guide frame image drawing process when the image illustrated in FIG. 9 is acquired.

図9に示すように、赤外線カメラ4によって撮像された赤外線画像40には、ユーザの右手の画像が含まれる。この撮像された赤外線画像40に輪郭描画処理およびガイド枠画像描画処理が行われることで、図10に示す合成画像41が生成される。具体的には、携帯電子機器1は、図10に示すように、赤外線カメラ4によって赤外線画像40が撮像されると、例えばエッジ検出によって赤外線画像40に含まれる右手の輪郭を検出するとともに輪郭以外の内部の画素情報を消去することにより、輪郭画像21を生成する。また、携帯電子機器1は、生成した輪郭画像21に重ねてガイド枠画像22を描画する。具体的には、ガイド枠画像22は、赤外線カメラ4によって撮像された赤外線画像40の画像中心に固定された、一定の大きさを有する四角形の枠を示す画像である。   As shown in FIG. 9, the infrared image 40 captured by the infrared camera 4 includes an image of the right hand of the user. A contour drawing process and a guide frame image drawing process are performed on the captured infrared image 40, thereby generating a composite image 41 shown in FIG. Specifically, as illustrated in FIG. 10, when the infrared image 40 is captured by the infrared camera 4, the portable electronic device 1 detects the contour of the right hand included in the infrared image 40 by edge detection, for example, and other than the contour The contour image 21 is generated by erasing the pixel information inside the. In addition, the mobile electronic device 1 draws the guide frame image 22 so as to overlap the generated contour image 21. Specifically, the guide frame image 22 is an image showing a rectangular frame having a certain size, which is fixed at the center of the infrared image 40 captured by the infrared camera 4.

輪郭画像21とガイド枠画像22とを合成した合成画像41が、所定方向に傾けられて、ディスプレイ2に表示される。具体的には、携帯電子機器1は、図8に示すように、合成画像41にパースをかけ、パースがかかった合成画像(合成画像41を斜めから見た画像)をディスプレイ2に表示する。なお、パースをかける処理の具体例については後述する。   A composite image 41 obtained by combining the contour image 21 and the guide frame image 22 is tilted in a predetermined direction and displayed on the display 2. Specifically, as illustrated in FIG. 8, the mobile electronic device 1 parses the composite image 41 and displays the parsed composite image (an image obtained by viewing the composite image 41 from an oblique direction) on the display 2. A specific example of the parsing process will be described later.

ここで、図8に示す状態からユーザが右手を動かした場合、ディスプレイ2に表示される画像が変化する。図11は、図8に示す状態からユーザが手を上方向(Y軸方向)に移動させた状態を示す図である。図12は、図8に示す状態からユーザが手を画面の奥方向(Z軸方向)に移動させた状態を示す図である。   Here, when the user moves the right hand from the state shown in FIG. 8, the image displayed on the display 2 changes. FIG. 11 is a diagram illustrating a state where the user has moved his / her hand upward (Y-axis direction) from the state illustrated in FIG. 8. FIG. 12 is a diagram illustrating a state in which the user moves his / her hand in the back direction (Z-axis direction) of the screen from the state illustrated in FIG. 8.

図11に示すように、赤外線カメラ4の撮像範囲の中心に対して上側にユーザの手の中心がある場合、ガイド枠画像22の上方に輪郭画像21の一部がはみ出た画像が、ディスプレイ2に表示される。また、図12に示すように、赤外線カメラ4の撮像範囲の中心に対して左側(図12のZ軸方向側)にユーザの手の中心がある場合、ガイド枠画像22の左方に輪郭画像21の一部がはみ出た画像が、ディスプレイ2に表示される。ここで、図11及び図12に示すように、輪郭画像21のうちガイド枠画像22からはみ出た部分は、ガイド枠画像22内に収まる部分とは異なる表示態様で表示される。例えば、輪郭画像21のうちガイド枠画像22からはみ出た部分は、色が異なっていたり、太い線で表示されたりする。   As shown in FIG. 11, when the center of the user's hand is above the center of the imaging range of the infrared camera 4, an image in which a part of the contour image 21 protrudes above the guide frame image 22 is displayed on the display 2. Is displayed. As shown in FIG. 12, when the center of the user's hand is on the left side (Z-axis direction side in FIG. 12) with respect to the center of the imaging range of the infrared camera 4, the contour image is on the left side of the guide frame image 22. An image in which a part of 21 protrudes is displayed on the display 2. Here, as shown in FIGS. 11 and 12, the part of the contour image 21 that protrudes from the guide frame image 22 is displayed in a display mode different from the part that fits in the guide frame image 22. For example, a portion of the contour image 21 that protrudes from the guide frame image 22 has a different color or is displayed with a thick line.

図13は、図11に示す状態における輪郭画像21とガイド枠画像22とを合成した合成画像41を示す図である。図14は、図12に示す状態における輪郭画像21とガイド枠画像22とを合成した合成画像41を示す図である。   FIG. 13 is a view showing a composite image 41 obtained by combining the contour image 21 and the guide frame image 22 in the state shown in FIG. FIG. 14 is a view showing a composite image 41 obtained by combining the contour image 21 and the guide frame image 22 in the state shown in FIG.

図13に示すように、赤外線画像の中心(赤外線カメラ4の撮像範囲の中心)よりも上側にユーザの手が存在する場合、ユーザの手の輪郭の一部がガイド枠画像22の上方にはみ出る。また、図14に示すように、赤外線画像の中心よりも左側にユーザの手が存在する場合、ユーザの手の輪郭の一部がガイド枠画像22の左方にはみ出る。これらはみ出た部分は、はみ出てない他の部分(例えば、黒色)とは異なる表示態様(例えば、赤色)で表示される。このような合成画像41が生成された後、これらの画像にパースがかけられディスプレイ2に表示される(図11及び図12に示すように合成画像41がパース表示される)。   As shown in FIG. 13, when the user's hand is present above the center of the infrared image (the center of the imaging range of the infrared camera 4), a part of the contour of the user's hand protrudes above the guide frame image 22. . As shown in FIG. 14, when the user's hand is present on the left side of the center of the infrared image, a part of the contour of the user's hand protrudes to the left of the guide frame image 22. These protruding portions are displayed in a display mode (for example, red) different from other portions (for example, black) that do not protrude. After such a composite image 41 is generated, these images are parsed and displayed on the display 2 (the composite image 41 is parsed as shown in FIGS. 11 and 12).

このように、パースがかかった画像(合成画像41を斜めから見た画像)が表示されることにより、ユーザは、奥行き方向の位置を認識し易く、自身の手が赤外線カメラ4の撮像範囲に入っているか否かを容易に認識することができる。すなわち、パースがかかった画像は、ユーザが自身の手を直接見たときと同じような画像になるため、ユーザは奥行き方向を認識し易く、自身の手が現在奥行き方向のどの位置にあるかを容易に認識することができる。   In this way, by displaying the parsed image (an image obtained by viewing the composite image 41 from an oblique direction), the user can easily recognize the position in the depth direction, and his / her hand is within the imaging range of the infrared camera 4. It can be easily recognized whether or not it is present. In other words, the parsed image is the same as when the user looks directly at his / her hand, so the user can easily recognize the depth direction, and the position of his / her hand in the current depth direction. Can be easily recognized.

また、赤外線カメラ4の撮像範囲に固定されたガイド枠画像22が表示されるため、ユーザはガイド枠画像22内に手が入るように手の位置を調整し易い。また、ガイド枠画像22からはみ出た部分がガイド枠画像22内の部分と異なる態様で表示されるため、ユーザは、手がガイド枠画像22の外に出たことを容易に認識することができ、手の位置を調整し易くなる。   Further, since the guide frame image 22 fixed in the imaging range of the infrared camera 4 is displayed, the user can easily adjust the position of the hand so that the hand enters the guide frame image 22. In addition, since the portion protruding from the guide frame image 22 is displayed in a different form from the portion in the guide frame image 22, the user can easily recognize that the hand has moved out of the guide frame image 22. Easy to adjust hand position.

また、ガイド枠画像22は、赤外線カメラ4によって撮像された赤外線画像よりも小さい。このため、ユーザの手がガイド枠画像22からはみ出ても、赤外線カメラ4によって撮像された赤外線画像にユーザの手(指)が含まれる場合は、携帯電子機器1はユーザによって行われたジェスチャを認識することができる。ガイド枠画像22を表示することにより、ユーザよって行われたジェスチャを認識できなくなる前に、赤外線カメラ4の撮像範囲からユーザの手が出てしまうことをユーザに警告することができる。   Further, the guide frame image 22 is smaller than the infrared image captured by the infrared camera 4. For this reason, even if the user's hand protrudes from the guide frame image 22, if the user's hand (finger) is included in the infrared image captured by the infrared camera 4, the mobile electronic device 1 makes a gesture made by the user. Can be recognized. By displaying the guide frame image 22, it is possible to warn the user that the user's hand comes out of the imaging range of the infrared camera 4 before the gesture made by the user cannot be recognized.

また、本実施形態では、携帯電子機器1の右側面方向が赤外線カメラ4で撮像され、その撮像された画像がディスプレイ2の画面の右側に表示される。すなわち、携帯電子機器1の側面方向が赤外線カメラ4で撮像され、ディスプレイ2の画面のうち、赤外線カメラ4で撮像される側面方向と同じ側に画像が表示される。このため、ユーザは自身の手の位置を直感的に認識し易い。   In the present embodiment, the right side surface direction of the portable electronic device 1 is imaged by the infrared camera 4, and the captured image is displayed on the right side of the screen of the display 2. That is, the side direction of the portable electronic device 1 is captured by the infrared camera 4, and an image is displayed on the same side as the side direction captured by the infrared camera 4 in the screen of the display 2. For this reason, the user can easily recognize the position of his / her hand intuitively.

このように、本実施形態では、ガイド表示(輪郭画像21及びガイド枠画像22)が行われる。これにより、ユーザに正しいジェスチャ入力位置を認識させることができる。すなわち、上述のようなガイド表示を行うことで、手が適切な位置にあるか否かをユーザに認識させることができる。   Thus, in this embodiment, guide display (contour image 21 and guide frame image 22) is performed. Thereby, a user can be made to recognize the correct gesture input position. That is, by performing the guide display as described above, it is possible to make the user recognize whether or not the hand is in an appropriate position.

ここで、図8、図11及び図12に例示されるようなパース表示を行うための処理の一例について説明する。   Here, an example of processing for performing the perspective display as exemplified in FIGS. 8, 11, and 12 will be described.

図15は、パース表示を行うための処理の一例を示す概略図である。図15に示すように、輪郭画像21とガイド枠画像22とが仮想空間の所定位置に配置される。例えば、x軸、y軸、及びz軸によって定義される仮想空間のyz平面上に、輪郭画像21を形成する各点、及び、ガイド枠画像22を形成する各点がプロットされる。これらの各点がx軸方向に平行移動されて、輪郭画像21’及びガイド枠画像22’を形成する。これら移動後の各点(輪郭画像21’及びガイド枠画像22’)を射影変換することにより、ディスプレイ2にパースがかかった画像が表示される。具体的には、yz平面上に仮想カメラ50が配置され、仮想カメラ50の撮像方向(cz軸方向)はz軸と平行に設定され、仮想カメラ50の上方向(cy軸方向)はy軸と平行に設定される。このような仮想カメラ50で輪郭画像21’及びガイド枠画像22’を撮像した画像がディスプレイ2に表示される。   FIG. 15 is a schematic diagram illustrating an example of processing for performing a perspective display. As shown in FIG. 15, the contour image 21 and the guide frame image 22 are arranged at predetermined positions in the virtual space. For example, each point forming the contour image 21 and each point forming the guide frame image 22 are plotted on the yz plane of the virtual space defined by the x axis, the y axis, and the z axis. These points are translated in the x-axis direction to form a contour image 21 'and a guide frame image 22'. The projected image is displayed on the display 2 by projective transformation of each point after movement (the contour image 21 ′ and the guide frame image 22 ′). Specifically, the virtual camera 50 is arranged on the yz plane, the imaging direction (cz-axis direction) of the virtual camera 50 is set parallel to the z-axis, and the upward direction (cy-axis direction) of the virtual camera 50 is the y-axis. Is set in parallel. An image obtained by capturing the contour image 21 ′ and the guide frame image 22 ′ with such a virtual camera 50 is displayed on the display 2.

なお、パース表示のための処理は図15に示す処理に限られない。例えば、輪郭画像21とガイド枠画像22とを合成した合成画像41を、縦軸(図8のY軸)周りに所定の角度だけ回転させ、当該回転させた画像をディスプレイ2に表示することにより、合成画像41にパースがかかった画像が表示されてもよい。   The process for the perspective display is not limited to the process shown in FIG. For example, the synthesized image 41 obtained by synthesizing the contour image 21 and the guide frame image 22 is rotated by a predetermined angle around the vertical axis (Y axis in FIG. 8), and the rotated image is displayed on the display 2. Alternatively, an image in which the synthesized image 41 is parsed may be displayed.

また、上記実施形態では、赤外線カメラ4によって撮像された赤外線画像に含まれる手の画像の輪郭を示す輪郭画像21をディスプレイ2に表示したが、輪郭ではなく、赤外線カメラ4によって撮像された赤外線画像をそのままディスプレイ2にパース表示してもよい。また、赤外線カメラ4によって撮像された赤外線画像をそのままディスプレイ2に表示するのではなく、抽象化してディスプレイ2にパース表示してもよい。上述のような手の輪郭を表示することに限らず、例えば、撮像した手の特徴点を結んだボーン(特徴点を結ぶ線分)を表示することによって、赤外線カメラ4によって撮像された赤外線画像を抽象化して表示してもよいし、他の方法によって赤外線画像を抽象化してもよい。   Moreover, in the said embodiment, although the outline image 21 which shows the outline of the image of the hand contained in the infrared image imaged with the infrared camera 4 was displayed on the display 2, the infrared image imaged with the infrared camera 4 instead of the outline is displayed. May be displayed on the display 2 as it is. Further, the infrared image captured by the infrared camera 4 may not be displayed on the display 2 as it is, but may be abstractly displayed on the display 2 as a perspective display. The infrared image captured by the infrared camera 4 is not limited to displaying the outline of the hand as described above, but, for example, by displaying bones (line segments connecting the feature points) connecting the captured hand feature points. May be abstracted and displayed, or the infrared image may be abstracted by other methods.

また、上記実施形態では、手の画像の輪郭のうち、ガイド枠画像22からはみ出た部分を他の部分と異なる特定の態様で表示することにより、ユーザにガイド枠から手がはみ出たことを知らせた。他の実施形態では、ユーザの手がガイド枠からはみ出た場合、手の画像全体(又ははみ出た部分)を特定の態様で表示させることで、ユーザに警告してもよい。また、ユーザの手がガイド枠画像22からはみ出た場合に、手の画像に加えて又は代えて、ガイド枠画像22を通常とは異なる特定の態様で表示することで、ユーザに警告をしてもよい。ここで、特定の態様としては、上述のように色を通常と異ならせたり、線の太さを変えたりするものに限らない。例えば、点滅表示することにより通常と異ならせてもよい。また、ユーザの手がガイド枠からはみ出た場合、他の画像や文字、音、振動(携帯電子機器1を把持した手(左手)に対する振動)、プロジェクタ8(LEDランプでもよい)を用いた光等により、ユーザに警告をしてもよい。   Moreover, in the said embodiment, by displaying the part which protruded from the guide frame image 22 in the specific aspect different from another part among the outlines of the image of a hand, it is notified to a user that the hand protruded from the guide frame. It was. In another embodiment, when the user's hand protrudes from the guide frame, the user may be warned by displaying the entire hand image (or the protruding portion) in a specific manner. Further, when the user's hand protrudes from the guide frame image 22, a warning is given to the user by displaying the guide frame image 22 in a specific manner different from the normal in addition to or instead of the hand image. Also good. Here, as a specific aspect, it is not restricted to what makes a color different from normal as mentioned above, or changes the thickness of a line. For example, it may be made different from normal by blinking display. Further, when the user's hand protrudes from the guide frame, other images, characters, sounds, vibrations (vibration with respect to the hand (left hand) holding the portable electronic device 1), light using the projector 8 (which may be an LED lamp) For example, the user may be warned.

また、上記実施形態では、赤外線カメラ4によって撮像された赤外線画像にパースをかけてディスプレイ2に表示したが、他の実施形態では、撮像された画像(又は撮像された画像を抽象化した画像)にパースをかけずに表示してもよい。すなわち、ユーザが携帯電子機器1に対する手の相対位置を認識可能な態様で表示されればどのような態様で表示されてもよい。例えば、赤外線カメラ4によって撮像される撮像範囲を示す範囲画像をディスプレイに表示し、その範囲画像にユーザの手の位置を示す画像を重ねて(あるいは重ねずに)表示することで、撮像範囲のうちのどの位置にユーザの手があるのかを示してもよい。例えば、ユーザが手の奥行き方向の位置を認識し易いように、奥行き方向の位置を示す範囲画像を表示し、当該範囲画像に重ねて(あるいは重ねずに)、手の位置を示す画像を表示してもよい。具体的には、例えば、赤外線画像4によって撮像された赤外線画像から、当該撮像画像におけるユーザの手の所定位置(例えば重心)を算出する。そして、赤外線画像の左右方向(図9のZ軸方向)の範囲を示す範囲画像を表示するとともに、当該算出した位置に、手の位置を示す画像を表示する。これにより、ユーザの手が奥行き方向(Z軸方向)のどこに位置するかをユーザに認識させることができる。   In the above embodiment, the infrared image captured by the infrared camera 4 is parsed and displayed on the display 2. However, in another embodiment, the captured image (or an image obtained by abstracting the captured image) is displayed. It is also possible to display without parsing. That is, as long as the user can display the relative position of the hand with respect to the mobile electronic device 1, the display may be performed in any manner. For example, a range image indicating an imaging range captured by the infrared camera 4 is displayed on the display, and an image indicating the position of the user's hand is displayed on the range image in an overlapping manner (or without overlapping). It may indicate at which position the user's hand is located. For example, a range image indicating the position in the depth direction is displayed so that the user can easily recognize the position in the depth direction of the hand, and an image indicating the position of the hand is displayed on or over the range image. May be. Specifically, for example, a predetermined position (for example, the center of gravity) of the user's hand in the captured image is calculated from the infrared image captured by the infrared image 4. And the range image which shows the range of the left-right direction (Z-axis direction of FIG. 9) of an infrared image is displayed, and the image which shows the position of a hand is displayed in the said calculated position. Thereby, the user can recognize where the user's hand is located in the depth direction (Z-axis direction).

また、上述したガイド表示は、後述するアプリケーションの実行前に行われることとしたが、携帯電子機器1によって行われる情報処理の実行状況に応じてガイド表示が行われたり、行われなかったりしてもよい。例えば、後述するアプリケーションの実行中に常にガイド表示が行われてもよいし、ユーザによる指示によってガイド表示の表示/非表示が切り替えられてもよい。また、ユーザによってガイド表示を行うためのプログラムの実行の指示が行われた場合に、ガイド表示が行われてもよい。また、携帯電子機器1の設定時や、携帯電子機器1の使い方をユーザに教示ためのチュートリアルのときだけ、上記ガイド表示が行われてもよい。   In addition, the guide display described above is performed before the execution of an application described later, but the guide display may or may not be performed depending on the execution status of the information processing performed by the mobile electronic device 1. Also good. For example, guide display may always be performed during execution of an application described later, or display / non-display of the guide display may be switched according to a user instruction. In addition, when the user gives an instruction to execute a program for displaying a guide, the guide display may be performed. Further, the guide display may be performed only when setting the mobile electronic device 1 or during a tutorial for teaching the user how to use the mobile electronic device 1.

また、上記実施形態では、ユーザの手を認識できなくなるまでの事前の警告として、ガイド枠画像22からユーザの手がはみ出た場合に、当該はみ出た部分を特定の態様で表示した。具体的には、赤外線カメラ4によって撮像された赤外線画像からユーザの手を認識することができる場合であっても、ユーザの手がガイド枠からはみ出る場合には、上記のようにガイド枠画像22からはみ出た部分を特定の表示態様で表示することにより、ユーザに事前警告を行った。この場合において、実際に赤外線カメラ4によって撮像された赤外線画像からユーザの手を認識することができなくなった場合は、他の警告を行ってもよい。例えば、音声や文字、画像、振動、光等を用いて、上述したガイド枠画像22を用いた事前警告とは異なる第2の警告が行われてもよい。また、後述のようなアプリケーションの実行中に上記ガイド表示を用いて事前警告を行う場合において、赤外線カメラ4によって撮像された赤外線画像からユーザの手を認識することができなくなったときは、第2の警告を行った後(又は第2の警告を行わず)、アプリケーションを終了してもよいし、後述のようにアプリケーションを一時停止してもよい。   Moreover, in the said embodiment, when a user's hand protrudes from the guide frame image 22 as a prior warning until it becomes impossible to recognize a user's hand, the said protrusion part was displayed in the specific aspect. Specifically, even when the user's hand can be recognized from the infrared image captured by the infrared camera 4, if the user's hand protrudes from the guide frame, the guide frame image 22 as described above. The user is warned in advance by displaying the protruding portion in a specific display mode. In this case, when the user's hand cannot be recognized from the infrared image actually captured by the infrared camera 4, another warning may be given. For example, a second warning different from the prior warning using the guide frame image 22 described above may be performed using voice, characters, images, vibration, light, or the like. Further, in the case of performing a prior warning using the guide display during execution of an application as described later, when the user's hand cannot be recognized from the infrared image captured by the infrared camera 4, the second After performing the warning (or without performing the second warning), the application may be terminated, or the application may be paused as described later.

また、上記実施形態では、ユーザの手を検出している場合であってもユーザの手の少なくとも一部がガイド枠からはみ出た場合に、ユーザに対して警告を行った。他の実施形態では、警告を行うための条件はこれに限らない。例えば、他の実施形態では、ユーザのジェスチャを認識できなくなる所定の条件が満たされているか否かを赤外線カメラ4によって撮像された画像に基づいて判定し、所定の条件が満たされている場合に、警告を行ってもよい。例えば、所定の条件としては、赤外線カメラ4によって撮像された画像が暗すぎる(又は明るすぎる)こと、画像に含まれるノイズのレベルが所定以上であること等であってもよい。例えば、画像全体の平均輝度が所定値未満である場合に、それよりも輝度が下がるとユーザのジェスチャを判別できないことになるため、そのような場合には警告を行ってもよい。   In the above-described embodiment, even when the user's hand is detected, the user is warned when at least a part of the user's hand protrudes from the guide frame. In other embodiments, the conditions for warning are not limited to this. For example, in another embodiment, it is determined based on an image captured by the infrared camera 4 whether or not a predetermined condition that makes it impossible to recognize a user's gesture is satisfied, and when the predetermined condition is satisfied A warning may be given. For example, the predetermined condition may be that an image captured by the infrared camera 4 is too dark (or too bright), a noise level included in the image is equal to or higher than a predetermined level, and the like. For example, when the average brightness of the entire image is less than a predetermined value, the user's gesture cannot be determined if the brightness falls below that value. In such a case, a warning may be given.

また、ガイド枠の形状や大きさは単なる一例であり、他の任意の形状、大きさのガイド枠が設定されてガイド枠画像として表示されてもよい。また、枠画像に限らず他の任意の画像が表示されてもよい。すなわち、赤外線カメラ4の撮像範囲に含まれる物体(例えばユーザの手)が適切な位置にあるか否かをユーザに認識可能な画像であればどのような画像が表示されてもよい。例えば、手が適切な位置にあるときには所定の画像が画面の端に表示され、手が適切な位置にないとき(手が撮像範囲内であって、適切な範囲の外にあるとき)には所定の画像が点滅表示されてもよい。   Further, the shape and size of the guide frame are merely examples, and guide frames having other arbitrary shapes and sizes may be set and displayed as a guide frame image. Moreover, not only a frame image but another arbitrary image may be displayed. That is, any image may be displayed as long as the user can recognize whether or not an object (for example, a user's hand) included in the imaging range of the infrared camera 4 is in an appropriate position. For example, when the hand is in an appropriate position, a predetermined image is displayed at the edge of the screen, and when the hand is not in the appropriate position (when the hand is within the imaging range and outside the appropriate range) A predetermined image may be displayed blinking.

(アプリケーション制御)
次に、携帯電子機器1における赤外線カメラ4によって撮像された赤外線画像に基づくアプリケーションの制御について説明する。図16は、携帯電子機器1のディスプレイ2に表示されるメニュー画面の一例を示す図である。図17は、メニュー画面によって選択されたアプリBが起動した様子を示す図である。
(Application control)
Next, application control based on an infrared image captured by the infrared camera 4 in the portable electronic device 1 will be described. FIG. 16 is a diagram illustrating an example of a menu screen displayed on the display 2 of the mobile electronic device 1. FIG. 17 is a diagram illustrating a state where the application B selected on the menu screen is activated.

図16に示すように、メニュー画面では携帯電子機器1において実行可能なアプリケーションの一覧が表示される。携帯電子機器1は、例えば、所定のゲームを行うゲームアプリケーション、音楽や映像を再生するためのアプリケーション、通話を行うためのアプリケーション、画像を撮像・表示するためのアプリケーション、電子メールやメッセージ等を送受信するためのアプリケーション、インターネット上のWebページを閲覧するためのブラウザアプリケーション、文書の作成や編集を行うためのアプリケーション等、任意のアプリケーションを実行可能であってもよい。また、メニュー画面から携帯電子機器1の設定を行うためのプログラムを実行可能であってもよい。   As shown in FIG. 16, a list of applications that can be executed in the mobile electronic device 1 is displayed on the menu screen. The portable electronic device 1 transmits and receives, for example, a game application for playing a predetermined game, an application for playing music and video, an application for making a call, an application for capturing and displaying an image, an e-mail, a message, and the like Arbitrary applications such as an application for browsing, a browser application for browsing a Web page on the Internet, and an application for creating and editing a document may be executable. Moreover, the program for performing the setting of the portable electronic device 1 from a menu screen may be executable.

ユーザは、メニュー画面に表示された複数のアプリケーションを示すアイコンの中から所望のアプリケーションに対応するアイコンを選択する。例えば、ユーザは、入力ボタンを用いて、アプリケーションを選択可能であってもよいし、指やタッチペンを用いてタッチパネル3に対するタッチ操作を行うことで、アプリケーションを選択可能であってもよい。また、ユーザは、携帯電子機器1の右側面においてジェスチャを行うことによって、メニュー画面に表示された複数のアプリケーションの中から所望のアプリケーションを選択可能であってもよい。   The user selects an icon corresponding to a desired application from icons indicating a plurality of applications displayed on the menu screen. For example, the user may be able to select an application using an input button, or may be able to select an application by performing a touch operation on the touch panel 3 using a finger or a touch pen. In addition, the user may be able to select a desired application from a plurality of applications displayed on the menu screen by performing a gesture on the right side surface of the mobile electronic device 1.

例えば、図16に示すようにアプリBが選択された状態でユーザが手を右側面に近づけると、図17に示すように、アプリBが起動する。具体的には、携帯電子機器1は、赤外線カメラ4によって撮像された赤外線画像を解析して物体(例えばユーザの手)を検出する。物体が検出された場合、携帯電子機器1は、選択されたアプリBを起動する。具体的には、携帯電子機器1の制御部14のCPUは、携帯電子機器1の内部の記憶装置(例えば不揮発性メモリ等)からアプリBのプログラムをRAMに読み込み、当該プログラムの実行を開始する。あるいは、アプリBのプログラムは携帯電子機器1の外部に記憶され、携帯電子機器1は通信部15を介して当該プログラムを取得し、RAMに読み込んでもよい。   For example, when the user brings his hand close to the right side in a state where the app B is selected as shown in FIG. 16, the app B is activated as shown in FIG. Specifically, the mobile electronic device 1 detects an object (for example, a user's hand) by analyzing an infrared image captured by the infrared camera 4. When the object is detected, the mobile electronic device 1 activates the selected application B. Specifically, the CPU of the control unit 14 of the portable electronic device 1 reads the application B program from a storage device (for example, a non-volatile memory) inside the portable electronic device 1 into the RAM, and starts executing the program. . Alternatively, the program of the application B may be stored outside the mobile electronic device 1, and the mobile electronic device 1 may acquire the program via the communication unit 15 and read it into the RAM.

なお、選択されたアプリを起動するための条件としては、携帯電子機器1が物体を検出したことに限らず、携帯電子機器1がユーザの手を検出したこと、携帯電子機器1がユーザの所定のジェスチャを検出したこと、携帯電子機器1の右側面がユーザによって把持されたこと、携帯電子機器1が特定の物体を検出したこと、携帯電子機器1と特定の物体との距離が所定の値になったこと、物体が所定以上の速度で移動していること等であってもよい。   Note that the condition for starting the selected application is not limited to that the portable electronic device 1 has detected an object, but that the portable electronic device 1 has detected the user's hand, That the right side surface of the portable electronic device 1 is gripped by the user, the portable electronic device 1 has detected a specific object, and the distance between the portable electronic device 1 and the specific object is a predetermined value. It may be that the object is moving at a speed higher than a predetermined speed.

例えば、赤外線カメラ4によって撮像された赤外線画像を解析することで、携帯電子機器1は、ユーザが携帯電子機器1を把持したことや携帯電子機器1と物体との距離を検出することができる。また、携帯電子機器1は、赤外線カメラ4から取得した赤外線画像に含まれる特定の物体の大きさに基づいて、携帯電子機器1と特定の物体との間の相対的な距離を判別してもよい。例えば、携帯電子機器1は、赤外線カメラ4によって撮像された赤外線画像の輝度情報に基づいて、ユーザによって把持されたと判定してもよいし、携帯電子機器1と物体との距離を算出してもよい。物体と携帯電子機器1との距離が近いほど赤外線画像の各画素の輝度は高くなる。このため、携帯電子機器1は、例えば撮像された赤外線画像のうち輝度が所定値以上の領域が、所定の割合以上である場合、ユーザによって把持されたと判定することができる。   For example, by analyzing an infrared image captured by the infrared camera 4, the mobile electronic device 1 can detect that the user has gripped the mobile electronic device 1 or the distance between the mobile electronic device 1 and an object. Further, the mobile electronic device 1 may determine the relative distance between the mobile electronic device 1 and the specific object based on the size of the specific object included in the infrared image acquired from the infrared camera 4. Good. For example, the mobile electronic device 1 may determine that the mobile electronic device 1 is gripped by the user based on the luminance information of the infrared image captured by the infrared camera 4 or may calculate the distance between the mobile electronic device 1 and the object. Good. The closer the distance between the object and the portable electronic device 1, the higher the luminance of each pixel of the infrared image. For this reason, the portable electronic device 1 can determine that the user has gripped, for example, when the region of the captured infrared image having a luminance equal to or higher than a predetermined value is equal to or higher than a predetermined ratio.

また、携帯電子機器1は、赤外線画像に含まれる物体の輝度に基づいて、物体との相対的な距離を算出することができ、相対的な距離の変化に基づいて、物体の速度を算出することができる。このようにして算出された距離や速度に基づいて、携帯電子機器1は、アプリケーションを起動(開始)してもよい。   Further, the mobile electronic device 1 can calculate the relative distance from the object based on the luminance of the object included in the infrared image, and calculates the speed of the object based on the change in the relative distance. be able to. Based on the distance and speed calculated in this way, the mobile electronic device 1 may start (start) the application.

起動されたアプリBは、所定の条件が成立することにより開始される。例えば、アプリBがゲームアプリケーションである場合、ユーザによってゲームスタートのための所定の指示(ボタンやタッチパネル、ジェスチャ等を用いた指示)がされたことを条件に、ゲームが開始される。あるいは、携帯電子機器1がユーザの手を検出したことを条件に、ゲームが開始されてもよい。アプリBがジェスチャを用いたゲームである場合は、ユーザの手が検出されなければゲームを行うことができないため、ユーザの手を検出したことがゲーム開始の条件であってもよい。あるいは、アプリケーションBの起動から所定時間が経過したことを条件に、ゲームが開始されてもよい。   The activated application B is started when a predetermined condition is satisfied. For example, when the application B is a game application, the game is started on condition that a predetermined instruction for starting the game (an instruction using a button, a touch panel, a gesture, or the like) is given by the user. Alternatively, the game may be started on condition that the mobile electronic device 1 detects the user's hand. When the app B is a game using a gesture, the game cannot be performed unless the user's hand is detected. Therefore, the game start condition may be that the user's hand is detected. Alternatively, the game may be started on the condition that a predetermined time has elapsed since the activation of the application B.

図18は、起動されたアプリBのゲームが開始された直後の画面の一例を示す図である。図18に示すように、ゲームが開始されるとディスプレイ2にはゲーム終了までの残り時間を示す表示と、ゲーム中に獲得された点数を示す表示が行われる。アプリBは、例えば、所定時間内により多くの点数の獲得を目指すゲームであり、ユーザが一人で行うゲームであってもよいし、通信部15を用いて他の携帯電子機器1(又はその他の機器)と双方向に通信することで多人数で協力して点数を獲得するゲームであってもよいし、多人数で点数を競うゲームであってもよい。例えば、アプリBは、ディスプレイ2に表示された指示通りのジェスチャをユーザが行った場合に点数が加算されるゲームである。このようなゲームにおいて、アプリBの起動後にゲームが開始されると、図18に示す画像が表示される。   FIG. 18 is a diagram illustrating an example of a screen immediately after the game of the activated application B is started. As shown in FIG. 18, when the game is started, a display indicating the remaining time until the end of the game and a display indicating the points acquired during the game are performed on the display 2. For example, the app B is a game that aims to acquire more points within a predetermined time, and may be a game that a user plays alone, or other portable electronic devices 1 (or other The game may be a game in which a large number of people cooperate to acquire points by bidirectionally communicating with a device, or a game in which many people compete for points. For example, the application B is a game in which points are added when a user performs a gesture according to an instruction displayed on the display 2. In such a game, when the game is started after the application B is activated, an image shown in FIG. 18 is displayed.

図19は、ゲームが実行されている間の画面遷移の一例を示す図である。図19の(A)に示すように、ゲーム開始から30秒が経過した時点では、残り時間を示す表示は「30」となり、点数は「75」となっている。また、ユーザに対する指示が画面に表示され、その指示に応じたジェスチャをユーザが行う。(B)に示すように、さらに2秒が経過してゲーム開始から32秒が経過すると、残り時間を示す表示は「28」となり、ユーザが指示に応じたジェスチャを行うことにより点数も加算される。このように、このゲームでは、例えば所定の音楽のリズムにしたがって指示が次々と表示され、表示された指示に応じたジェスチャが行われた場合は、点数が加算される。   FIG. 19 is a diagram illustrating an example of screen transition while the game is being executed. As shown in FIG. 19A, when 30 seconds have elapsed from the start of the game, the display indicating the remaining time is “30” and the score is “75”. In addition, an instruction for the user is displayed on the screen, and the user performs a gesture according to the instruction. As shown in (B), when 2 seconds have passed and 32 seconds have passed since the start of the game, the remaining time is displayed as “28”, and points are also added when the user performs a gesture according to the instruction. The In this way, in this game, for example, instructions are displayed one after another according to a predetermined music rhythm, and when a gesture according to the displayed instructions is performed, points are added.

ここで、図19の(C)に示すように、ユーザの手が赤外線カメラ4の撮像範囲から外れ、赤外線カメラ4によってユーザの手を検出できなかった場合、アプリBのゲームは一時的に停止され、メニュー画面に戻る。例えば、ユーザの手が検出されなくなってから所定の待機時間が経過すると、アプリBのゲーム画面からメニュー画面に切り替わる。このとき、ゲームは内部的に一時停止され、当該ゲームの進行が一時的に停止される。しかしながら、実行中のゲームは終了されず、当該ゲームの実行に関するデータはRAMに残されたままとなる。例えば、RAMにはゲームの進行状況を示す値(例えば、残り時間や点数)が記憶されており、ゲームの実行中は当該進行状況を示す値が時間経過(あるいは、ユーザの操作)に応じて増加する。ゲームの進行が停止されると、この進行状況を示す値の増加(あるいは減少)も停止する。このメニュー画面において、ユーザは、他の所望のアプリケーションを選択することもできる。   Here, as shown in FIG. 19C, when the user's hand is out of the imaging range of the infrared camera 4 and the user's hand cannot be detected by the infrared camera 4, the game of the app B is temporarily stopped. And return to the menu screen. For example, when a predetermined waiting time has elapsed since the user's hand is no longer detected, the game screen of app B is switched to the menu screen. At this time, the game is paused internally, and the progress of the game is temporarily stopped. However, the game being executed is not terminated, and data relating to the execution of the game remains in the RAM. For example, a value indicating the progress of the game (for example, remaining time or score) is stored in the RAM, and the value indicating the progress is in accordance with the passage of time (or user operation) while the game is being executed. To increase. When the progress of the game is stopped, the increase (or decrease) of the value indicating the progress is also stopped. On this menu screen, the user can also select another desired application.

そして、図19の(D)に示すように、アプリBが選択された状態で再びユーザの手が赤外線カメラ4の撮像範囲に入ると、携帯電子機器1はユーザの手を検出しアプリBのゲームを再開する。具体的には、一時停止されたときの状態からアプリBのゲームが再び開始する。例えば、残り時間が28秒で点数が80点のときにゲームが一時停止した場合、残り時間27秒で点数が80点の状態からゲームが再開される。   Then, as shown in FIG. 19D, when the user's hand enters the imaging range of the infrared camera 4 again with the application B selected, the mobile electronic device 1 detects the user's hand and Resume the game. Specifically, the game of the app B starts again from the state when it is paused. For example, if the game is paused when the remaining time is 28 seconds and the score is 80 points, the game is resumed from the state where the remaining time is 27 seconds and the score is 80 points.

より具体的には、携帯電子機器1は、ユーザの手を検出した直後に(あるいは、上記待機時間よりも短い期間が経過した後に)アプリBのゲームを再開する。携帯電子機器1は、アプリを一時的に停止する場合は所定の時間待機する一方で、アプリを再開する場合は所定の時間待機せずに即座にアプリを再開することで、ユーザの意図したようにアプリの一時停止/再開を制御することができる。すなわち、手を使ったジェスチャを行うアプリでは、ユーザが意図せずに、赤外線カメラ4の撮像範囲から手が一瞬離れてしまうことがある。このような場合に、実行中のアプリを即座に一時停止すると、ユーザの意図に反してアプリが一時的に停止されてしまう。しかしながら、アプリを一時停止する場合は上記待機時間が設定されるため、このようなユーザの意図しないアプリの一時停止を防止することができる。一方、メニュー画面からアプリを再開する場合は、ユーザは意図的に手を赤外線カメラ4の撮像範囲に入れる。このため、携帯電子機器1は、アプリを再開する場合は上記待機時間を設けずに、即座にアプリを再開する。   More specifically, the mobile electronic device 1 resumes the game of the application B immediately after detecting the user's hand (or after a period shorter than the waiting time has elapsed). The mobile electronic device 1 waits for a predetermined time when the application is temporarily stopped, and resumes the application immediately without waiting for the predetermined time when the application is resumed. It is possible to control the pause / resume of the application. That is, in an application that performs a gesture using a hand, the user may unintentionally move away from the imaging range of the infrared camera 4 for an instant. In such a case, if the currently running application is paused immediately, the application is temporarily stopped against the user's intention. However, when the application is paused, the waiting time is set, so that the application can be prevented from being unintentionally paused. On the other hand, when resuming the application from the menu screen, the user intentionally puts his hand in the imaging range of the infrared camera 4. For this reason, the portable electronic device 1 resumes an application immediately, without providing the said standby | waiting time, when resuming an application.

なお、携帯電子機器1は、アプリを一時的に停止する場合と同様に、ユーザの手を検出してから所定の待機時間が経過した後、アプリを再開してもよい。また、携帯電子機器1は、アプリを一時的に停止する場合でも、アプリを再開する場合でも、所定の時間待機せずに即座にアプリを一時停止/再開してもよい。また、図19の(C)のようにアプリが一時停止された場合において、所定の時間が経過してもアプリが再開されない場合は、携帯電子機器1は、アプリを終了してもよい。この場合、ユーザが再び赤外線カメラ4の撮像範囲に手を入れても、アプリは最初から開始される。   Note that the mobile electronic device 1 may resume the application after a predetermined waiting time has elapsed after detecting the user's hand, as in the case of temporarily stopping the application. Also, the mobile electronic device 1 may pause / resume the application immediately without waiting for a predetermined time, whether the application is temporarily stopped or the application is resumed. In addition, when the application is temporarily stopped as illustrated in FIG. 19C, if the application is not resumed even after a predetermined time has elapsed, the mobile electronic device 1 may end the application. In this case, even if the user puts his hand in the imaging range of the infrared camera 4 again, the application is started from the beginning.

このように、本実施形態の携帯電子機器1では、ユーザの入力に応じて進行が制御されるインタラクティブなアプリケーションが実行される。具体的には、当該アプリケーションは、携帯電子機器1の側面方向において行われたジェスチャ入力に応じて進行する。例えば、インタラクティブなアプリケーションの一例として、ジェスチャ入力に対する成否判定が行われ、成否判定の結果に応じて点数が加算されるゲームが行われる。携帯電子機器1の側面方向においてユーザが手をかざしたり、手を用いたジェスチャを行ったりすることで、アプリケーションが起動、開始する。また、携帯電子機器1の側面方向においてユーザが手をどけると、実行中のアプリケーションが一時停止するとともに、メニュー画面が表示される。メニュー画面では、ユーザは、他の所望のアプリケーションを選択することができる。一時停止されたアプリケーションが選択された状態で再びユーザが携帯電子機器1の側面方向において手をかざすと、一時停止されたアプリケーションが再開される。   As described above, in the portable electronic device 1 of the present embodiment, an interactive application whose progress is controlled according to a user input is executed. Specifically, the application proceeds in response to a gesture input performed in the side surface direction of the mobile electronic device 1. For example, as an example of an interactive application, a game is performed in which success / failure determination with respect to a gesture input is performed, and points are added according to the result of the determination of success / failure. The application is activated and started when the user holds his / her hand in the lateral direction of the portable electronic device 1 or performs a gesture using the hand. When the user removes the hand in the side direction of the mobile electronic device 1, the running application is temporarily stopped and a menu screen is displayed. On the menu screen, the user can select another desired application. When the user holds his / her hand again in the side surface direction of the portable electronic device 1 with the paused application selected, the paused application is resumed.

なお、上述した例では、アプリケーションを実行中にユーザが手をどけると、すなわち、赤外線カメラ4によって撮像された赤外線画像にユーザの手が検出されなくなると、メニュー画面が表示された。他の例では、例えば、ユーザが右手を所定の速度で携帯電子機器1の右側面に近づけた場合(あるいは遠ざけた場合)に、メニュー画面が表示されるようにしてもよい。また、ユーザが所定のジェスチャを行った場合に、メニュー画面が表示されてもよい。例えば、ユーザが特定のジェスチャを行った場合に実行中のアプリケーションが一時停止され、かつ、その状態で手を動かした場合に、メニュー画面が表示されるようにしてもよい。   In the above-described example, when the user removes the hand while executing the application, that is, when the user's hand is no longer detected in the infrared image captured by the infrared camera 4, the menu screen is displayed. In another example, for example, the menu screen may be displayed when the user moves (or moves away from) the right hand of the mobile electronic device 1 at a predetermined speed. Further, when the user performs a predetermined gesture, a menu screen may be displayed. For example, the menu screen may be displayed when the application being executed is paused when the user performs a specific gesture and the hand is moved in that state.

図20は、他の実施形態におけるメニュー画面を表示するためのジェスチャの一例を示す図である。例えば、図20に示すように、携帯電子機器1の右側面方向においてユーザが物を掴むようなジェスチャを行うと、実行中のアプリケーションが一時停止される。この状態で、ユーザが右方向に手を移動させると、ディスプレイ2の左端からメニュー画面の一部が引っ張られるように出てくる。そして、さらにユーザが手を右方向に移動させると、ディスプレイ2の画面全体がメニュー画面に切り替わる。   FIG. 20 is a diagram illustrating an example of a gesture for displaying a menu screen according to another embodiment. For example, as illustrated in FIG. 20, when the user performs a gesture such as grasping an object in the right side surface direction of the mobile electronic device 1, the application being executed is temporarily stopped. In this state, when the user moves his hand in the right direction, a part of the menu screen comes out from the left end of the display 2. When the user further moves the hand to the right, the entire screen of the display 2 is switched to the menu screen.

また、上記では、ユーザが赤外線カメラ4に手をかざすと、メニュー画面において選択されたアプリケーションが開始(再開)された。他の実施形態では、誤動作を防止するために、例えば、ユーザが所定のジェスチャを行った場合や手が所定の速度で動かされた場合に、選択されたアプリケーションが開始されてもよい。また、ユーザによって携帯電子機器1の右側面が把持された場合に、選択されたアプリケーションが開始されてもよい。この場合、ユーザによって携帯電子機器1の右側面が把持されたか否かは、例えば、赤外線カメラ4によって撮像された画像の輝度情報に基づいて判定されてもよいし、輝度の変化に基づいて判定されてもよい。また、携帯電子機器1は、ユーザの脈を検知した場合、アプリケーションを開始(再開)してもよい。例えば、赤外線カメラ4によって撮像された画像の輝度の変化に基づいてユーザの脈を検知することができる。ユーザの脈を検知した場合にアプリケーションを開始することにより、誤動作を防止することができる。   Further, in the above, when the user holds the hand over the infrared camera 4, the application selected on the menu screen is started (resumed). In other embodiments, the selected application may be initiated, for example, when the user makes a predetermined gesture or when the hand is moved at a predetermined speed to prevent malfunction. Moreover, when the right side surface of the portable electronic device 1 is gripped by the user, the selected application may be started. In this case, whether or not the right side surface of the portable electronic device 1 is gripped by the user may be determined based on luminance information of an image captured by the infrared camera 4, for example, or may be determined based on a change in luminance. May be. Moreover, the portable electronic device 1 may start (resume) an application, when a user's pulse is detected. For example, the user's pulse can be detected based on a change in luminance of an image captured by the infrared camera 4. A malfunction can be prevented by starting an application when a user's pulse is detected.

また、アプリケーションの起動と、アプリケーションにおける所定の処理の開始とで、物体の検出に関する条件が異なっていてもよい。また、アプリケーションの一時停止と、アプリケーションの終了とで、物体の検出に関する条件が異なっていてもよい。例えば、物体の検出に関する第1の条件が満たされている場合にはアプリケーションが起動し、第1の条件よりも厳しい第2の条件が満たされている場合にはアプリケーションにおける所定の処理を開始してもよい。この場合、第1の条件が満たされており、かつ、第2の条件が満たされていない場合は、アプリケーションは起動しても当該アプリケーションにおける所定の処理は開始されない。また、例えば、第1の条件が満たされている場合にはアプリケーションを一時停止し、第1の条件よりも厳しい第2の条件が満たされている場合にはアプリケーションを終了してもよい。この場合、第1の条件が満たされており、かつ、第2の条件が満たされていない場合は、アプリケーションは一時停止しても当該アプリケーションは終了されない。   Moreover, the conditions regarding the detection of an object may differ by the starting of an application and the start of the predetermined process in an application. In addition, the conditions regarding the detection of the object may be different between the suspension of the application and the termination of the application. For example, when a first condition relating to object detection is satisfied, the application is started. When a second condition that is stricter than the first condition is satisfied, predetermined processing in the application is started. May be. In this case, when the first condition is satisfied and the second condition is not satisfied, the predetermined process in the application is not started even when the application is activated. Further, for example, the application may be temporarily stopped when the first condition is satisfied, and the application may be ended when the second condition that is stricter than the first condition is satisfied. In this case, when the first condition is satisfied and the second condition is not satisfied, the application is not terminated even if the application is paused.

例えば、アプリBは、携帯電子機器1が物体を検出した場合に起動し、図17に示すようにアプリBの起動画面(初期画面)が表示される。この起動画面はアプリBにおける所定の処理(ゲーム処理)が開始される前の画面である。そして、起動画面が表示された後、例えば、携帯電子機器1がユーザの手を検出した場合に、ゲーム処理が開始される。具体的には、赤外線カメラ4によって撮像された赤外線画像に何らかの物体(手であるか否かにかかわらず何らかの物体)を検出した場合に、アプリBの起動画面が表示され、その状態で携帯電子機器1がユーザの手を検出した場合、ゲームが開始する。すなわち、アプリBの起動画面が立ち上がるための条件としては、ユーザの手が検出される必要はなく、何らかの物体が検出されることであり、アプリBにおけるゲーム処理が開始されるための条件としては、ユーザの手が検出されることである。これは、赤外線カメラ4の撮像範囲にユーザの手が入っても、手と赤外線カメラ4との距離が近すぎると携帯電子機器1は何らかの物体が存在することは認識できても、それがユーザの手なのかどうかは認識できない。このような場合にアプリBの起動画面が立ち上がらずメニュー画面のままであれば、ユーザはどのような操作をしたらアプリBが起動するのか分かりにくくなる。このため、携帯電子機器1がユーザの手を認識できなかったとしても(第2の条件が満たされていなかったとしても)、何らかの物体を検出した場合は(第1の条件が満たされている場合は)、携帯電子機器1はアプリBの起動画面を立ち上げる。しかしながら、ゲームはジェスチャを用いたゲームであるため、実際のゲーム処理を行うためには携帯電子機器1はユーザの手を認識する必要がある。したがって、ユーザの手を認識できたことをゲーム開始の条件とする。このように、物体の検出に関する第1の条件が満たされればアプリを開始し、アプリが開始した後に、第1の条件よりも厳しい第2の条件が満たされれば、アプリにおける所定の処理(ゲーム処理)を開始してもよい。   For example, the application B is activated when the portable electronic device 1 detects an object, and the activation screen (initial screen) of the application B is displayed as shown in FIG. This activation screen is a screen before a predetermined process (game process) in application B is started. Then, after the startup screen is displayed, for example, when the mobile electronic device 1 detects the user's hand, the game process is started. Specifically, when any object (any object regardless of whether it is a hand) is detected in the infrared image captured by the infrared camera 4, the startup screen of the application B is displayed, and the mobile electronic device is displayed in that state. When the device 1 detects the user's hand, the game starts. In other words, the condition for the startup screen of application B to start up is that the user's hand does not need to be detected, that some object is detected, and the condition for starting the game processing in application B is as follows. The user's hand is detected. This is because even if the user's hand enters the imaging range of the infrared camera 4, even if the portable electronic device 1 can recognize that some object exists if the distance between the hand and the infrared camera 4 is too short, It is not possible to recognize whether it is a hand. In such a case, if the startup screen of the application B does not stand up and remains on the menu screen, it becomes difficult for the user to know what operation the application B starts up. For this reason, even if the portable electronic device 1 cannot recognize the user's hand (even if the second condition is not satisfied), if any object is detected (the first condition is satisfied). In this case, the portable electronic device 1 starts up the startup screen of the app B. However, since the game is a game using a gesture, the mobile electronic device 1 needs to recognize the user's hand in order to perform actual game processing. Therefore, the condition for starting the game is that the user's hand can be recognized. In this way, the application is started if the first condition related to object detection is satisfied, and after the application starts, if a second condition that is stricter than the first condition is satisfied, a predetermined process (game) in the application is performed. Processing) may be started.

アプリを一時停止、終了する場合も、同様に、物体の検出に関する第1の条件が満たされればアプリを一時停止し、アプリが一時停止した後に、第1の条件よりも厳しい第2の条件が満たされれば、アプリを終了してもよい。   Similarly, when the application is paused and terminated, if the first condition relating to object detection is satisfied, the application is paused. After the application is paused, the second condition that is stricter than the first condition If satisfied, the app may be terminated.

また、実行されるアプリケーションは上述したゲームに限られない。例えば、所定のゲームオブジェクトが表示され、ユーザの手の動きによって所定のゲームオブジェクトを制御するゲームが行われてもよい。例えば、携帯電子機器1は、赤外線カメラ4によって撮像された画像の位置(例えば、輝度が所定以上の領域の重心位置)に基づいて、ゲームオブジェクトの移動を制御してもよい。   Further, the application to be executed is not limited to the above-described game. For example, a game in which a predetermined game object is displayed and the predetermined game object is controlled by the movement of the user's hand may be played. For example, the mobile electronic device 1 may control the movement of the game object based on the position of the image captured by the infrared camera 4 (for example, the barycentric position of an area having a luminance of a predetermined value or more).

また、上記実施形態では、アプリケーションの実行中に携帯電子機器1がユーザの手を検出しなくなった場合にアプリケーションを一時停止してメニュー画面を表示した。他の実施形態では、アプリケーションの実行中に携帯電子機器1がユーザの手を検出しなくなった場合にアプリケーションを一時停止するとともに、アプリケーションを終了するか否かの画面が表示されてもよい。この画面でユーザによってアプリケーションの終了が指示された場合は、アプリケーションが終了してもよい。また、アプリケーションが一時停止されてからユーザの指示がなくても、所定時間が経過した場合は、アプリケーションを終了してもよい。   Moreover, in the said embodiment, when the portable electronic device 1 stopped detecting a user's hand during execution of an application, the application was paused and the menu screen was displayed. In another embodiment, when the mobile electronic device 1 no longer detects the user's hand during the execution of the application, the application may be paused and a screen as to whether to end the application may be displayed. If the user instructs to end the application on this screen, the application may be ended. In addition, even if there is no user instruction after the application is paused, the application may be terminated when a predetermined time has elapsed.

(ガイド表示処理の詳細)
次に、携帯電子機器1において行われる具体的な処理の一例について説明する。まず、図21を参照して、上述したガイド表示を行うための処理の詳細について説明する。図21は、ガイド表示を行うための処理の一例を示すフローチャートである。制御部14(のCPU)は、所定のタイミング(例えば、ユーザの指示やアプリケーションが開始される前のタイミング)で記憶装置に記憶されたプログラムをRAMに読み込み、当該プログラムを実行することで図21に示す処理を行う。なお、図21に示す処理は、所定の時間間隔(例えば、1/60秒に1回)で繰り返し行われる。
(Details of guide display processing)
Next, an example of specific processing performed in the mobile electronic device 1 will be described. First, with reference to FIG. 21, the detail of the process for performing the guide display mentioned above is demonstrated. FIG. 21 is a flowchart illustrating an example of processing for performing guide display. The control unit 14 (the CPU thereof) reads a program stored in the storage device at a predetermined timing (for example, a timing before the user's instruction or application is started) into the RAM, and executes the program as shown in FIG. The process shown in is performed. Note that the processing shown in FIG. 21 is repeatedly performed at predetermined time intervals (for example, once every 1/60 seconds).

図21に示すように、ステップS10において、制御部14は、赤外線カメラ4から赤外線画像を取得する。次に、制御部14は、ステップS10で取得された赤外線画像を解析してユーザの手を検出する手検出処理を行う(ステップS11)。手検出処理の結果、手を検出することができた場合(ステップS12:YES)、制御部14は、取得された赤外線画像に固定のガイド枠を設定する(ステップS13)。具体的には、制御部14は、取得された赤外線画像の中央領域を覆う一定の大きさのガイド枠を設定する。   As shown in FIG. 21, in step S <b> 10, the control unit 14 acquires an infrared image from the infrared camera 4. Next, the control part 14 performs the hand detection process which detects the user's hand by analyzing the infrared image acquired at step S10 (step S11). If the hand can be detected as a result of the hand detection process (step S12: YES), the control unit 14 sets a fixed guide frame in the acquired infrared image (step S13). Specifically, the control unit 14 sets a guide frame having a certain size that covers the central region of the acquired infrared image.

続いて、制御部14は、取得された赤外線画像に含まれるユーザの手の輪郭を示す輪郭画像を生成する(ステップS14)。具体的には、制御部14は、取得された赤外線画像に複数の物体が存在する場合、輝度が最も高い物体のみを抽出し、当該抽出した物体の輪郭を検出する。そして、制御部14は、検出した輪郭を残して輪郭以外の画素情報を消去する。次に、制御部14は、生成した輪郭画像のうち、ステップS13で設定したガイド枠からはみ出た部分の画素情報を赤色に設定する(ステップS15)。続いて、制御部14は、輪郭画像にステップS13で設定したガイド枠を示すガイド枠画像を合成する(ステップS16)。そして、制御部14は、合成した合成画像を斜めから見た画像を生成し、ディスプレイ2に表示する(ステップS17)。具体的には、制御部14は、例えば図15を参照して説明したパース表示のための処理を行うことで、合成画像が図10のY軸回りに所定の角度だけ回転した画像をディスプレイ2の右端に表示する。   Then, the control part 14 produces | generates the outline image which shows the outline of the user's hand contained in the acquired infrared image (step S14). Specifically, when there are a plurality of objects in the acquired infrared image, the control unit 14 extracts only the object having the highest luminance and detects the contour of the extracted object. Then, the control unit 14 deletes pixel information other than the contour while leaving the detected contour. Next, the control part 14 sets the pixel information of the part which protruded from the guide frame set by step S13 among the produced | generated outline images to red (step S15). Subsequently, the control unit 14 synthesizes a guide frame image indicating the guide frame set in step S13 with the contour image (step S16). And the control part 14 produces | generates the image which looked at the synthetic | combination synthesized image from diagonal, and displays it on the display 2 (step S17). Specifically, the control unit 14 performs processing for the perspective display described with reference to FIG. 15, for example, to display an image obtained by rotating the synthesized image by a predetermined angle around the Y axis in FIG. 10 on the display 2. Is displayed at the right end of.

一方、ステップS11の手検出処理の結果、手を検出することができなかった場合(ステップS12:NO)、制御部14は、ディスプレイ2にエラー表示を行う(ステップS18)。例えば、制御部14は、手が検出されなかったことを示す文字をディスプレイ2に表示するとともに、音声や振動等によって手が検出されかなったことをユーザに知らせてもよい。   On the other hand, if the hand cannot be detected as a result of the hand detection process in step S11 (step S12: NO), the control unit 14 displays an error on the display 2 (step S18). For example, the control unit 14 may display a character indicating that no hand has been detected on the display 2 and notify the user that the hand has not been detected by voice, vibration, or the like.

ステップS17又はステップS18の処理を行った後、制御部14は、図21に示す処理を終了するか否かを判定する(ステップS19)。例えば、図21に示す処理は、ユーザの指示に応じて終了してもよいし、所定時間が経過したことに応じて終了してもよい。制御部14、図21に示す処理を終了しないと判定した場合は(ステップS19:NO)、再びステップS10の処理を実行し、図21に示す処理を終了すると判定した場合は(ステップS19:YES)、図21に示す処理を終了する。   After performing the process of step S17 or step S18, the control unit 14 determines whether or not to end the process shown in FIG. 21 (step S19). For example, the process shown in FIG. 21 may be ended according to a user instruction, or may be ended when a predetermined time has elapsed. When it is determined that the control unit 14 does not end the process shown in FIG. 21 (step S19: NO), the process of step S10 is executed again, and when it is determined that the process shown in FIG. 21 is ended (step S19: YES). ), The process shown in FIG.

(メニュー表示処理の詳細)
次に、図22を参照して、上述したメニュー画面の表示を行うための処理の詳細について説明する。図22は、メニュー画面の表示を行うための処理の一例を示すフローチャートである。なお、図22に示す処理は、制御部14(のCPU)がメニュー表示を行うためのプログラムを実行することにより行われる。また、図22に示す処理は、所定の時間間隔(例えば、1/60秒に1回)で繰り返し行われる。
(Details of menu display processing)
Next, the details of the process for displaying the menu screen described above will be described with reference to FIG. FIG. 22 is a flowchart illustrating an example of processing for displaying a menu screen. Note that the processing shown in FIG. 22 is performed by the control unit 14 (or its CPU) executing a program for displaying a menu. Further, the process shown in FIG. 22 is repeatedly performed at a predetermined time interval (for example, once every 1/60 seconds).

図22に示すように、ステップS20において、制御部14は、ディスプレイ2にメニュー画面を表示する。例えば、制御部14は、携帯電子機器1において現在実行可能なアプリケーションの一覧を取得し、各アプリケーションを示すアイコンを画面に並べて表示する。携帯電子機器1において実行可能なアプリケーションは、例えば、携帯電子機器1の内部の記憶装置に記憶されたアプリケーション、又は、携帯電子機器1からアクセス可能な外部の記憶装置に記憶されたアプリケーションであってもよい。   As shown in FIG. 22, in step S <b> 20, the control unit 14 displays a menu screen on the display 2. For example, the control unit 14 acquires a list of applications that are currently executable in the mobile electronic device 1 and displays icons indicating the applications side by side on the screen. The application executable in the mobile electronic device 1 is, for example, an application stored in a storage device inside the mobile electronic device 1 or an application stored in an external storage device accessible from the mobile electronic device 1. Also good.

ステップS20に続いて、制御部14は、アプリ選択処理を行う(ステップS21)。例えば、制御部14は、タッチパネル3が検出した位置に基づいて、アプリケーションに対応するアイコンがユーザによって選択(タッチ)されたか否かを判定する。ユーザによってアイコンが選択されたと判定した場合、制御部14は、選択されたアイコンに対応するアプリケーションを選択する。   Following step S20, the control unit 14 performs an application selection process (step S21). For example, the control unit 14 determines whether an icon corresponding to the application is selected (touched) by the user based on the position detected by the touch panel 3. When it is determined that an icon has been selected by the user, the control unit 14 selects an application corresponding to the selected icon.

次に、制御部14は、赤外線カメラ4から赤外線画像を取得する(ステップS22)。次に、制御部14は、ステップS22で取得された赤外線画像を解析してユーザの手を検出する手検出処理を行う(ステップS23)。手検出処理の結果、手を検出することができた場合(ステップS24:YES)、制御部14は、アプリケーションが選択済みであるか否かを判定する(ステップS25)。具体的には、制御部14は、ステップS21において既にユーザによってアプリケーションが選択されているか否かを判定する。アプリケーションが選択済みである場合(ステップS25:YES)、制御部14は、選択されたアプリケーションが既に起動しているか否かを判定する(ステップS26)。具体的には、アプリケーションが既に起動している場合は、当該アプリケーションの情報(プログラム自体や他のデータ)がRAMに記憶されているため、制御部14は、RAMに記憶された情報に基づいて、アプリケーションが既に起動されているか否かを判定する。   Next, the control unit 14 acquires an infrared image from the infrared camera 4 (step S22). Next, the control unit 14 performs a hand detection process for detecting the user's hand by analyzing the infrared image acquired in step S22 (step S23). If the hand can be detected as a result of the hand detection process (step S24: YES), the control unit 14 determines whether or not the application has been selected (step S25). Specifically, the control unit 14 determines whether or not an application has already been selected by the user in step S21. When the application has been selected (step S25: YES), the control unit 14 determines whether or not the selected application has already been activated (step S26). Specifically, when the application has already been started, the information on the application (the program itself and other data) is stored in the RAM, so the control unit 14 is based on the information stored in the RAM. It is determined whether the application has already been started.

一方、手検出処理の結果、手を検出することができなかった場合(ステップS24:NO)、又は、アプリケーションが選択済みでない場合(ステップS25:NO)、制御部14は、ステップS20の処理を再び行う。   On the other hand, as a result of the hand detection process, when the hand cannot be detected (step S24: NO), or when the application has not been selected (step S25: NO), the control unit 14 performs the process of step S20. Do it again.

アプリケーションが既に起動していない場合(ステップS26:NO)、制御部14は、ステップS21で選択されたアプリケーションを起動する。アプリケーションが既に起動している場合(ステップS26:YES)、制御部14は、選択されたアプリケーションの実行を再開する(ステップS28)。   When the application has not been activated (step S26: NO), the control unit 14 activates the application selected in step S21. When the application has already started (step S26: YES), the control unit 14 resumes the execution of the selected application (step S28).

ステップS27又はステップS28の処理の後、制御部14は、図22に示す処理を終了する。   After the process of step S27 or step S28, the control unit 14 ends the process shown in FIG.

(アプリケーション制御処理の詳細)
次に、図23を参照して、上述したアプリケーションを制御するための処理の詳細について説明する。図23は、アプリケーション制御処理の一例を示すフローチャートである。図23に示す処理は、例えば上述のようにユーザが携帯電子機器1の右側面に手をかざした場合に行われる。また、図23に示す処理は、所定の時間間隔(例えば、1/60秒に1回)で繰り返し行われる。
(Details of application control processing)
Next, with reference to FIG. 23, details of the process for controlling the above-described application will be described. FIG. 23 is a flowchart illustrating an example of the application control process. The process illustrated in FIG. 23 is performed, for example, when the user holds his / her hand on the right side surface of the mobile electronic device 1 as described above. Further, the process shown in FIG. 23 is repeatedly performed at a predetermined time interval (for example, once every 1/60 seconds).

図23に示すように、ステップS30において、制御部14は、アプリケーションを開始(又は再開)する。具体的には、アプリケーションが起動していない場合(RAMにアプリケーションプログラムが読み込まれていなかったり、アプリケーションを開始するための初期設定が行われていなかったりした場合)、制御部14は、アプリケーションを起動してから所定の条件の成立(所定時間が経過したことやユーザの指示が行われたこと)に応じて当該アプリケーションを開始する。また、アプリケーションが一時停止している場合(すなわち、既にアプリケーションが開始されてから一時停止されてメニュー画面が表示されている場合)、制御部14は、アプリケーションを再開する。具体的には、制御部14は、RAMに記憶されたアプリケーションのためのデータを読み出し、後述するステップS38においてアプリケーションが一時停止された状態からアプリケーションを再開する。   As shown in FIG. 23, in step S30, the control unit 14 starts (or resumes) the application. Specifically, when the application is not activated (when the application program is not read into the RAM or when the initial setting for starting the application is not performed), the control unit 14 activates the application. Then, the application is started in response to establishment of a predetermined condition (a predetermined time has elapsed or a user instruction has been given). When the application is paused (that is, when the menu screen is displayed after the application has already been started), the control unit 14 resumes the application. Specifically, the control unit 14 reads data for the application stored in the RAM, and resumes the application from the state where the application is temporarily stopped in step S38 described later.

ステップS30に続いて、制御部14は、赤外線カメラ4から赤外線画像を取得する(ステップS31)。次に、制御部14は、ステップS31で取得された赤外線画像を解析してユーザの手を検出する手検出処理を行う(ステップS32)。手検出処理の結果、手を検出することができた場合(ステップS33:YES)、制御部14は、ユーザによって行われたジェスチャ入力を判別するジェスチャ判別処理を行う(ステップS34)。具体的には、制御部14は、検出した手の形や動きに基づいて、予め定められた複数のジェスチャのうちの何れのジェスチャが行われたかを判別する。   Following step S30, the control unit 14 acquires an infrared image from the infrared camera 4 (step S31). Next, the control unit 14 performs a hand detection process for detecting the user's hand by analyzing the infrared image acquired in step S31 (step S32). If the hand is detected as a result of the hand detection process (step S33: YES), the control unit 14 performs a gesture determination process for determining a gesture input performed by the user (step S34). Specifically, the control unit 14 determines which of the plurality of predetermined gestures has been performed based on the detected hand shape and movement.

続いて、制御部14は、判別したジェスチャに応じたアプリケーション処理を行う(ステップS35)。例えば、図19に示したゲームアプリケーションが行われる場合、制御部14は、ディスプレイ2にユーザに対する指示を示す文字や画像、キャラクタ等を表示し、当該指示に応じたジェスチャが行われたか否かを判定する。そして、制御部14は、判定結果をディスプレイ2に表示する。例えば、制御部14は、指示に応じたジェスチャが行われたと判定した場合、点数を加算し、加算した点数をディスプレイ2に表示する。また、制御部14は、アプリケーションの開始からの経過時間を計測し、ディスプレイ2に表示する。なお、ステップS35のアプリケーション処理は、ユーザによって行われたジェスチャ入力に加えて(又は代えて)、例えば、入力ボタンに対する操作や携帯電子機器1の姿勢に基づいて行われてもよい。   Subsequently, the control unit 14 performs application processing according to the determined gesture (step S35). For example, when the game application shown in FIG. 19 is performed, the control unit 14 displays characters, images, characters, and the like indicating instructions for the user on the display 2 and determines whether or not a gesture according to the instructions has been performed. judge. Then, the control unit 14 displays the determination result on the display 2. For example, when it is determined that the gesture according to the instruction has been performed, the control unit 14 adds the points and displays the added points on the display 2. In addition, the control unit 14 measures the elapsed time from the start of the application and displays it on the display 2. Note that the application process in step S35 may be performed based on, for example, an operation on the input button or the attitude of the mobile electronic device 1 in addition to (or instead of) the gesture input performed by the user.

ステップS35に続いて、制御部14は、アプリケーションを終了するか否かを判定する(ステップS36)。例えば、制御部14は、アプリケーションの終了までの時間を示す残り時間が「0」となった場合、アプリケーションを終了すると判定する。また、例えば、ユーザによってアプリケーションの終了のための操作(ボタン操作やジェスチャによる操作)が行われた場合、制御部14は、アプリケーションを終了すると判定する。   Following step S35, the control unit 14 determines whether or not to end the application (step S36). For example, when the remaining time indicating the time until the application ends is “0”, the control unit 14 determines to end the application. For example, when the user performs an operation for ending the application (button operation or gesture operation), the control unit 14 determines to end the application.

アプリケーションを終了すると判定しなかった場合(ステップS36:NO)、制御部14は、ステップS31の処理を再び実行する。一方、アプリケーションを終了すると判定した場合(ステップS36:YES)、制御部14は、アプリケーション終了処理を行い(ステップS40)、図23に示す処理を終了する。例えば、制御部14は、アプリケーション終了処理として、アプリケーションプログラムの実行のために確保したRAMの領域を開放する。これにより、当該アプリケーションの進行状況に応じた値(例えば、上記残り時間や点数等)がクリアされる。   When it is not determined to end the application (step S36: NO), the control unit 14 executes the process of step S31 again. On the other hand, when it is determined that the application is to be terminated (step S36: YES), the control unit 14 performs an application termination process (step S40) and terminates the process illustrated in FIG. For example, the control unit 14 releases the RAM area reserved for executing the application program as the application termination process. As a result, values (for example, the remaining time and the score) corresponding to the progress status of the application are cleared.

一方、ステップS32の手検出処理においてユーザの手を検出することができなかった場合(ステップS33:NO)、制御部14は、ユーザの手を検出しなくなってから所定の待機時間が経過したか否かを判定する(ステップS37)。ユーザの手を検出しなくなってから所定の待機時間が経過していない場合(ステップS37:NO)、制御部14は、ステップS31の処理を再び実行する。なお、所定の待機時間はアプリの種類に応じて異なってもよいし、一定時間でもよいし、手の検出状況によって変化されてもよい。   On the other hand, if the user's hand could not be detected in the hand detection process of step S32 (step S33: NO), has the predetermined waiting time elapsed since the control unit 14 stopped detecting the user's hand? It is determined whether or not (step S37). When the predetermined standby time has not elapsed since the user's hand is no longer detected (step S37: NO), the control unit 14 executes the process of step S31 again. Note that the predetermined standby time may vary depending on the type of application, may be a fixed time, or may vary depending on the hand detection status.

ユーザの手を検出しなくなってから所定の待機時間が経過した場合(ステップS37:YES)、制御部14は、実行中のアプリケーションを一時停止する(ステップS38)。具体的には、アプリケーションの実行のために確保したRAMの領域を維持したまま、アプリケーションを一時停止する。例えば、ディスプレイ2にアプリケーションの画像が表示されている場合は、制御部14は、その画像をRAMに記憶する。また、制御部14は、アプリケーションの進行状況に応じた値(例えば、残り時間や点数等)を維持する。   When a predetermined waiting time has elapsed since the user's hand is no longer detected (step S37: YES), the control unit 14 temporarily stops the running application (step S38). Specifically, the application is suspended while maintaining the RAM area reserved for executing the application. For example, when an application image is displayed on the display 2, the control unit 14 stores the image in the RAM. Further, the control unit 14 maintains a value (for example, remaining time, score, etc.) according to the progress of the application.

ステップS38においてアプリケーションを一時停止した場合、制御部14は、上述したメニュー処理を行うためのプログラムを呼び出し(ステップS39)、図23に示す処理を終了する。これにより、図22に示したメニュー処理が行われる。   When the application is temporarily stopped in step S38, the control unit 14 calls a program for performing the menu process described above (step S39), and ends the process shown in FIG. Thereby, the menu process shown in FIG. 22 is performed.

なお、上記フローチャートで示した処理は単なる一例であり、処理の順番や内容に適宜変更が加えられてもよい。また、上述したアプリケーションは単なる一例であり、他の任意のアプリケーションが行われてもよい。   Note that the processing shown in the flowchart is merely an example, and the order and contents of the processing may be appropriately changed. Moreover, the application mentioned above is only an example, and other arbitrary applications may be performed.

(変形例)
なお、上述した実施形態は単なる一例であり、例えば、以下のような変形が加えられてもよい。
(Modification)
In addition, embodiment mentioned above is only an example, For example, the following modifications may be added.

例えば、赤外線カメラ4は携帯電子機器1の右側面に限らず、左側面(図1のT2面)、上側面(T4面)、下側面(T3面)の何れに設けられてもよく、任意の側面方向においてユーザによってジェスチャ入力が行われてもよい。また、複数の側面に赤外線カメラ4が設けられてもよい。例えば、携帯電子機器1の左側面に赤外線カメラ4が設けられる場合には、上述したガイド表示(輪郭画像21およびガイド枠画像22)は、ディスプレイ2の画面の左側に表示される。また、携帯電子機器1の姿勢に応じて、ガイド表示の表示位置が異なるようにしてもよい。携帯電子機器1は、姿勢検出部16によって自機の姿勢を検出することができ、例えば、画面に垂直な軸に何度回転されたかを角速度センサや加速度センサによって検出することができる。例えば、通常、図6Aに示すように赤外線カメラ4が右側に位置するように把持されるところ、ユーザが左右が反転するように携帯電子機器1を把持した場合は、赤外線カメラ4は左側に位置するようになる。この場合、右手で携帯電子機器1が把持され、左手でジェスチャ入力が行われる。このような場合は、上記ガイド表示は、ディスプレイ2の左側に表示される。具体的には、ユーザが左手を直接見たときと同じような見え方となるように、パースがかかったガイド表示がディスプレイ2の左側に表示される。すなわち、ディスプレイ2の表示画面のうち、赤外線カメラ4によって撮像される側面方向と同じ側に上記ガイド表示が表示される。   For example, the infrared camera 4 is not limited to the right side surface of the portable electronic device 1, but may be provided on any of the left side surface (T2 surface in FIG. 1), the upper side surface (T4 surface), and the lower side surface (T3 surface). Gesture input may be performed by the user in the side direction. Further, the infrared camera 4 may be provided on a plurality of side surfaces. For example, when the infrared camera 4 is provided on the left side surface of the mobile electronic device 1, the above-described guide display (the contour image 21 and the guide frame image 22) is displayed on the left side of the screen of the display 2. Further, the display position of the guide display may be different depending on the posture of the mobile electronic device 1. The portable electronic device 1 can detect the posture of the mobile device 1 by the posture detection unit 16, and can detect, for example, how many times it has been rotated about an axis perpendicular to the screen by an angular velocity sensor or an acceleration sensor. For example, as shown in FIG. 6A, when the infrared camera 4 is normally held so as to be positioned on the right side, when the user holds the portable electronic device 1 so that the left and right are reversed, the infrared camera 4 is positioned on the left side. To come. In this case, the portable electronic device 1 is gripped with the right hand, and gesture input is performed with the left hand. In such a case, the guide display is displayed on the left side of the display 2. Specifically, a parsed guide display is displayed on the left side of the display 2 so that the user can see the same view as when the user looks directly at the left hand. That is, the guide display is displayed on the same side as the side surface imaged by the infrared camera 4 in the display screen of the display 2.

また、上記実施形態では、ディスプレイ2が設けられた携帯電子機器1が上記処理を行うことを想定した。他の実施形態では、外部のディスプレイに画像が表示されてもよい。赤外線カメラ4が設けられた手持ち型の入力装置をユーザが把持し、当該入力装置の側面方向においてユーザが手を用いたジェスチャを行うことにより、入力装置と離れた表示装置に上述したガイド表示の画像やアプリケーションの画像、メニュー画面等が表示されてもよい。赤外線カメラ4が設けられた手持ち型の入力装置と、表示装置と、情報処理装置とが別体となった情報処理システムが構築されてもよい。この場合、例えば、上述したガイド表示の画像やアプリケーションの画像は表示装置において表示され、アプリケーションの処理は情報処理装置で行われる。例えば、情報処理装置は、入力装置からの画像を取得し、当該画像に基づいてジェスチャを認識し、ジェスチャの認識結果に基づいてアプリケーションの処理を行う。また、情報処理装置は、入力装置からの画像を取得して上記ガイド表示のための処理(輪郭画像21及びガイド枠画像22の描画やこれらの画像にパースをかける処理)を行う。そして、情報処理装置は、アプリケーションの処理およびガイド表示のための処理の結果としての画像を表示装置に出力する。これら複数の装置のそれぞれが処理を分担することで上述した処理が実行されてもよい。また、携帯電子機器1を、ユーザの入力を受け付けるコントローラとして機能させてもよい。この場合、ディスプレイは設けられてもよいし、設けられなくてもよい。携帯電子機器1がコントローラとして機能する場合、携帯電子機器1は、無線や有線で別の情報処理装置と接続される。携帯電子機器1に対して操作(入力ボタンに対する操作や携帯電子機器1自体を動かす操作、上記ジェスチャ操作等)が行われると、当該操作に応じた操作データが別の情報処理装置に送信される。情報処理装置は、操作データを受信すると、操作データに応じた処理を行う。操作データに応じた処理は、実行されるアプリケーションの種類によって異なる。   Moreover, in the said embodiment, it assumed that the portable electronic device 1 provided with the display 2 performs the said process. In other embodiments, the image may be displayed on an external display. The user holds the handheld input device provided with the infrared camera 4, and the user performs a gesture using the hand in the side direction of the input device, so that the guide display described above is displayed on the display device separated from the input device. An image, an application image, a menu screen, or the like may be displayed. An information processing system in which the handheld input device provided with the infrared camera 4, the display device, and the information processing device are separated may be constructed. In this case, for example, the guide display image and the application image described above are displayed on the display device, and the processing of the application is performed by the information processing device. For example, the information processing device acquires an image from the input device, recognizes a gesture based on the image, and performs application processing based on the recognition result of the gesture. Further, the information processing apparatus acquires an image from the input device and performs processing for the guide display (drawing of the contour image 21 and the guide frame image 22 and processing for parsing these images). Then, the information processing apparatus outputs an image as a result of processing for application and processing for guide display to the display device. The processing described above may be executed by each of the plurality of devices sharing the processing. Moreover, you may make the portable electronic device 1 function as a controller which receives a user's input. In this case, a display may or may not be provided. When the portable electronic device 1 functions as a controller, the portable electronic device 1 is connected to another information processing apparatus wirelessly or by wire. When an operation (an operation on an input button, an operation of moving the mobile electronic device 1 itself, the gesture operation, or the like) is performed on the mobile electronic device 1, operation data corresponding to the operation is transmitted to another information processing apparatus. . When receiving the operation data, the information processing apparatus performs processing according to the operation data. Processing according to operation data differs depending on the type of application to be executed.

また、携帯電子機器1の形状はどのようなものでもよい。例えば、携帯電子機器1(ディスプレイ2)は、横長ではなく縦長であってもよいし、正方形であってもよい。   Further, the mobile electronic device 1 may have any shape. For example, the mobile electronic device 1 (display 2) may be vertically long instead of horizontally long, or may be square.

また、上記実施形態では赤外線カメラ4が用いられたが、他の実施形態では、赤外線カメラ4に代えて、可視光の画像(RGB画像)を撮像可能なカメラが用いられてもよい。   Moreover, although the infrared camera 4 was used in the said embodiment, it replaces with the infrared camera 4 and the camera which can image the image (RGB image) of visible light may be used in other embodiment.

また、上記実施形態では、一方の手で携帯電子機器を把持し、他方の手で携帯電子機器に対してジェスチャ入力を行う例について説明した。他の実施形態では、携帯電子機器は、例えば画面を備える腕時計型の装置のように、ユーザの腕(身体)に固定されるものであってもよい。   In the above-described embodiment, an example has been described in which a portable electronic device is held with one hand and a gesture input is performed on the portable electronic device with the other hand. In another embodiment, the portable electronic device may be fixed to a user's arm (body), for example, a wristwatch-type device having a screen.

また、携帯電子機器の形状はどのようなものでもよく、例えば、板状の楕円形状であってもよい。例えば、携帯電子機器は、折り畳み可能なものであってもよい。   The portable electronic device may have any shape, for example, a plate-like ellipse. For example, the portable electronic device may be foldable.

1 携帯電子機器
2 ディスプレイ
3 タッチパネル
4 赤外線カメラ
5 測距センサ
6 入力ボタン
7 照射部
8 プロジェクタ
15 通信部
21 輪郭画像
22 ガイド枠画像
41 合成画像
DESCRIPTION OF SYMBOLS 1 Portable electronic device 2 Display 3 Touch panel 4 Infrared camera 5 Distance sensor 6 Input button 7 Irradiation part 8 Projector 15 Communication part 21 Outline image 22 Guide frame image 41 Composite image

Claims (24)

手持ち型の電子機器であって、
前記電子機器の側面方向を撮像するカメラと、
前記カメラによって撮像された入力画像を取得する取得手段と、
前記取得手段によって取得された入力画像に基づいて、アプリケーションの開始、一時停止、再開のうちの少なくとも何れか1の制御を行う制御手段と、を備える電子機器。
A handheld electronic device,
A camera that images the lateral direction of the electronic device;
Obtaining means for obtaining an input image captured by the camera;
An electronic apparatus comprising: control means for performing control of at least one of start, pause, and restart of an application based on the input image obtained by the obtaining means.
前記アプリケーションは、ユーザによる入力に応じて処理が行われるインタラクティブ型のアプリケーションである、請求項1に記載の電子機器。   The electronic device according to claim 1, wherein the application is an interactive application in which processing is performed according to an input by a user. 前記取得手段によって取得された入力画像に基づいて、実行中の前記アプリケーションの進行を制御するアプリケーション制御手段をさらに備える、請求項1又は2に記載の電子機器。   The electronic apparatus according to claim 1, further comprising an application control unit that controls the progress of the application being executed based on the input image acquired by the acquisition unit. 前記取得手段によって取得された入力画像に基づいて、物体を検出する検出手段をさらに備え、
前記制御手段は、前記検出手段による前記物体の検出結果に基づいて、前記アプリケーションの前記制御を行う、請求項1から3の何れかに記載の電子機器。
Further comprising detection means for detecting an object based on the input image acquired by the acquisition means;
The electronic device according to claim 1, wherein the control unit performs the control of the application based on a detection result of the object by the detection unit.
前記検出手段は、ユーザの手を検出する、請求項4に記載の電子機器。   The electronic device according to claim 4, wherein the detection unit detects a user's hand. 前記検出手段は、ユーザの手によって行われたジェスチャを検出し、
前記制御手段は、前記検出手段によって検出されたジェスチャに基づいて、前記アプリケーションの前記制御を行う、請求項5に記載の電子機器。
The detection means detects a gesture made by a user's hand,
The electronic device according to claim 5, wherein the control unit performs the control of the application based on a gesture detected by the detection unit.
前記制御手段は、前記検出手段によって前記物体が検出された場合、前記アプリケーションを開始する、請求項4から6の何れかに記載の電子機器。   The electronic device according to claim 4, wherein the control unit starts the application when the detection unit detects the object. 前記制御手段は、前記検出手段によって前記物体が検出されなかった場合、実行中のアプリケーションを一時停止する、請求項4から7の何れかに記載の電子機器。   The electronic device according to claim 4, wherein when the object is not detected by the detection unit, the control unit temporarily stops an application being executed. 前記制御手段は、前記検出手段によって前記物体が検出されなくなってから所定期間が経過した場合に、前記アプリケーションを一時停止する、請求項8に記載の電子機器。   The electronic device according to claim 8, wherein the control unit temporarily stops the application when a predetermined period has elapsed after the detection unit no longer detects the object. 前記制御手段は、前記実行中のアプリケーションを一時停止した後に、前記検出手段によって前記物体が検出された場合に、一時停止しているアプリケーションを再開する、請求項8又は9に記載の電子機器。   The electronic device according to claim 8, wherein the control unit resumes the paused application when the object is detected by the detection unit after the currently running application is paused. 前記制御手段は、前記検出手段によって前記物体が検出されなかった場合、実行中のアプリケーションとは異なる第2アプリケーションを開始又は再開する、請求項4から9の何れかに記載の電子機器。   10. The electronic device according to claim 4, wherein when the object is not detected by the detection unit, the control unit starts or restarts a second application different from the application being executed. 11. 前記制御手段は、前記検出手段によって前記物体が検出された場合、前記第2アプリケーションが開始される前に実行されていた前記アプリケーションを開始又は再開する、請求項11に記載の電子機器。   The electronic device according to claim 11, wherein when the object is detected by the detection unit, the control unit starts or restarts the application that was executed before the second application was started. 前記検出手段は、前記入力画像に基づいて、前記電子機器がユーザによって把持されたか否かを検出し、
前記制御手段は、前記電子機器がユーザによって把持されたことを前記検出手段が検出した場合、前記アプリケーションを開始する、請求項4から12の何れかに記載の電子機器。
The detection means detects whether or not the electronic device is gripped by a user based on the input image,
The electronic device according to claim 4, wherein the control unit starts the application when the detection unit detects that the electronic device is held by a user.
前記検出手段による前記物体の検出結果に基づいて、実行中の前記アプリケーションの進行を制御するアプリケーション制御手段をさらに備える、請求項4から13の何れかに記載の電子機器。   14. The electronic apparatus according to claim 4, further comprising application control means for controlling the progress of the application being executed based on the detection result of the object by the detection means. 前記入力画像に基づいて、前記物体と前記カメラとの距離を算出する距離算出手段をさらに備え、
前記制御手段は、前記距離算出手段によって算出された距離に基づいて、前記アプリケーションの前記制御を行う、請求項4から14の何れかに記載の電子機器。
Further comprising distance calculation means for calculating a distance between the object and the camera based on the input image;
The electronic device according to claim 4, wherein the control unit performs the control of the application based on the distance calculated by the distance calculation unit.
前記入力画像に基づいて、前記物体の速度を算出する速度算出手段をさらに備え、
前記制御手段は、前記速度算出手段によって算出された速度に基づいて、前記アプリケーションの前記制御を行う、請求項4から15の何れかに記載の電子機器。
A speed calculating means for calculating the speed of the object based on the input image;
The electronic device according to claim 4, wherein the control unit performs the control of the application based on the speed calculated by the speed calculation unit.
前記制御手段によって前記アプリケーションが一時停止される際に、当該アプリケーションが一時停止することをユーザに報知する報知手段をさらに備える、請求項1から16の何れかに記載の電子機器。   The electronic device according to claim 1, further comprising notification means for notifying a user that the application is suspended when the application is suspended by the control means. 複数のアプリケーションのうちの何れかをユーザの入力に応じて選択する選択手段をさらに備え、
前記制御手段は、前記選択手段によって既に選択されていたアプリケーションを開始する、請求項1から17の何れかに記載の電子機器。
A selection means for selecting any one of a plurality of applications according to a user input;
The electronic device according to claim 1, wherein the control unit starts an application that has already been selected by the selection unit.
前記制御手段は、前記アプリケーションを一時停止した場合、前記アプリケーションを終了するか否かのユーザによる指示を受け付け、当該ユーザによる指示に応じて前記アプリケーションを終了する、請求項1から18の何れかに記載の電子機器。   The control unit according to any one of claims 1 to 18, wherein when the application is paused, the control unit receives an instruction by a user as to whether or not to end the application, and ends the application according to the instruction from the user. The electronic device described. 前記制御手段は、前記アプリケーションを一時停止した場合、所定時間の経過に応じて、前記アプリケーションを終了する、請求項1から19の何れかに記載の電子機器。   The electronic device according to claim 1, wherein when the application is temporarily stopped, the control unit ends the application according to a lapse of a predetermined time. 前記カメラは赤外線カメラである、請求項1から20の何れかに記載の電子機器。   The electronic device according to claim 1, wherein the camera is an infrared camera. 前記カメラは前記電子機器の側面に設けられる、請求項1から20の何れかに記載の電子機器。   The electronic device according to claim 1, wherein the camera is provided on a side surface of the electronic device. カメラによって撮像された入力画像を取得する取得手段と、
ユーザの操作に基づいて進行するインタラクティブ型のアプリケーションを実行するアプリケーション実行手段と、
前記取得手段によって取得された入力画像に基づいて、実行中の前記アプリケーションを一時停止する制御手段と、を備える電子機器。
Obtaining means for obtaining an input image captured by the camera;
An application execution means for executing an interactive application that proceeds based on a user operation;
An electronic apparatus comprising: control means for temporarily stopping the application being executed based on the input image obtained by the obtaining means.
手持ち型の電子機器であって、
前記電子機器の側面方向を撮像するカメラと、
前記カメラによって撮像された入力画像を取得する取得手段と、
前記取得手段によって取得された入力画像に基づいて、アプリケーションの起動を行うアプリケーション起動手段と、を備える電子機器。
A handheld electronic device,
A camera that images the lateral direction of the electronic device;
Obtaining means for obtaining an input image captured by the camera;
An electronic device comprising: an application activation unit that activates an application based on the input image acquired by the acquisition unit.
JP2015024034A 2015-02-10 2015-02-10 Information processing system Active JP6573457B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015024034A JP6573457B2 (en) 2015-02-10 2015-02-10 Information processing system
US15/019,042 US9804667B2 (en) 2015-02-10 2016-02-09 Electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015024034A JP6573457B2 (en) 2015-02-10 2015-02-10 Information processing system

Publications (2)

Publication Number Publication Date
JP2016148900A true JP2016148900A (en) 2016-08-18
JP6573457B2 JP6573457B2 (en) 2019-09-11

Family

ID=56687933

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015024034A Active JP6573457B2 (en) 2015-02-10 2015-02-10 Information processing system

Country Status (1)

Country Link
JP (1) JP6573457B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106599812A (en) * 2016-12-05 2017-04-26 苏州维盟韵联网络科技有限公司 3D dynamic gesture recognition method for smart home system
KR20180131900A (en) * 2017-06-01 2018-12-11 삼성전자주식회사 Electronic device and method for processing input of external input device
WO2019244645A1 (en) * 2018-06-20 2019-12-26 ソニー株式会社 Program, recognition device, and recognition method

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08278758A (en) * 1995-04-10 1996-10-22 Fujitsu General Ltd Image display device
JP2001134225A (en) * 1999-08-26 2001-05-18 Toppan Printing Co Ltd Advertisement provision device and memory medium, exhibition implement, display panel and display case for advertisement provision device
JP2010526391A (en) * 2007-05-04 2010-07-29 ジェスチャー テック,インコーポレイテッド Camera-based user input for compact devices
US20130172070A1 (en) * 2011-12-19 2013-07-04 Empire Technology Development Llc Pause and resume schemes for gesture-based game
JP2013171529A (en) * 2012-02-22 2013-09-02 Shimane Prefecture Operation input device, operation determination method, and program
WO2013187137A1 (en) * 2012-06-15 2013-12-19 株式会社ニコン Electronic device
JP2014085967A (en) * 2012-10-25 2014-05-12 Nec Personal Computers Ltd Information processing device, information processing method, and program
US20140267142A1 (en) * 2013-03-15 2014-09-18 Qualcomm Incorporated Extending interactive inputs via sensor fusion
US20140267084A1 (en) * 2013-03-15 2014-09-18 Qualcomm Incorporated Enhancing touch inputs with gestures

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08278758A (en) * 1995-04-10 1996-10-22 Fujitsu General Ltd Image display device
JP2001134225A (en) * 1999-08-26 2001-05-18 Toppan Printing Co Ltd Advertisement provision device and memory medium, exhibition implement, display panel and display case for advertisement provision device
JP2010526391A (en) * 2007-05-04 2010-07-29 ジェスチャー テック,インコーポレイテッド Camera-based user input for compact devices
US20130172070A1 (en) * 2011-12-19 2013-07-04 Empire Technology Development Llc Pause and resume schemes for gesture-based game
JP2013171529A (en) * 2012-02-22 2013-09-02 Shimane Prefecture Operation input device, operation determination method, and program
WO2013187137A1 (en) * 2012-06-15 2013-12-19 株式会社ニコン Electronic device
JP2014085967A (en) * 2012-10-25 2014-05-12 Nec Personal Computers Ltd Information processing device, information processing method, and program
US20140267142A1 (en) * 2013-03-15 2014-09-18 Qualcomm Incorporated Extending interactive inputs via sensor fusion
US20140267084A1 (en) * 2013-03-15 2014-09-18 Qualcomm Incorporated Enhancing touch inputs with gestures

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106599812A (en) * 2016-12-05 2017-04-26 苏州维盟韵联网络科技有限公司 3D dynamic gesture recognition method for smart home system
KR20180131900A (en) * 2017-06-01 2018-12-11 삼성전자주식회사 Electronic device and method for processing input of external input device
KR102324964B1 (en) * 2017-06-01 2021-11-12 삼성전자 주식회사 Electronic device and method for processing input of external input device
WO2019244645A1 (en) * 2018-06-20 2019-12-26 ソニー株式会社 Program, recognition device, and recognition method
US11493997B2 (en) 2018-06-20 2022-11-08 Sony Corporation Program, recognition apparatus, and recognition method

Also Published As

Publication number Publication date
JP6573457B2 (en) 2019-09-11

Similar Documents

Publication Publication Date Title
US9804667B2 (en) Electronic apparatus
US10015402B2 (en) Electronic apparatus
US8350896B2 (en) Terminal apparatus, display control method, and display control program
JP5581817B2 (en) Control system, control device, handheld device, control method and program.
JP6684042B2 (en) Electronics
CN112044065B (en) Virtual resource display method, device, equipment and storage medium
US10025975B2 (en) Information processing device, storage medium storing information processing program, information processing system, and information processing method
JP6573457B2 (en) Information processing system
US9864905B2 (en) Information processing device, storage medium storing information processing program, information processing system, and information processing method
JP6388203B2 (en) Electronics
CN108509127B (en) Method and device for starting screen recording task and computer equipment
JP6528193B2 (en) Electronics
JP2013012158A (en) Electronic apparatus and control method
JP6561400B2 (en) Information processing apparatus, information processing program, information processing system, and information processing method
JP6519074B2 (en) Electronics
CN108228052B (en) Method and device for triggering operation of interface component, storage medium and terminal
EP3057035B1 (en) Information processing program, information processing device, information processing system, and information processing method
JP2014109885A (en) Display device and notification method
JP6589216B2 (en) Electronics
CN113384878B (en) Virtual card control method, device, terminal and storage medium
JP5804781B2 (en) GAME SYSTEM, INFORMATION PROCESSING METHOD, GAME DEVICE, AND INFORMATION PROCESSING PROGRAM
JP6100453B2 (en) GAME SYSTEM, INFORMATION PROCESSING METHOD, GAME DEVICE, INFORMATION PROCESSING PROGRAM, AND OPERATION DEVICE

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180813

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181026

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190628

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190701

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190813

R150 Certificate of patent or registration of utility model

Ref document number: 6573457

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250