JP2011188345A - Portable electronic device - Google Patents

Portable electronic device Download PDF

Info

Publication number
JP2011188345A
JP2011188345A JP2010052990A JP2010052990A JP2011188345A JP 2011188345 A JP2011188345 A JP 2011188345A JP 2010052990 A JP2010052990 A JP 2010052990A JP 2010052990 A JP2010052990 A JP 2010052990A JP 2011188345 A JP2011188345 A JP 2011188345A
Authority
JP
Japan
Prior art keywords
sensor
electronic device
user
portable electronic
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010052990A
Other languages
Japanese (ja)
Inventor
Akihiro Kubota
明広 窪田
秀彰 ▲高▼橋
Hideaki Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2010052990A priority Critical patent/JP2011188345A/en
Publication of JP2011188345A publication Critical patent/JP2011188345A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Set Structure (AREA)
  • Telephone Function (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a portable electronic device that achieves a user-friendly interface and the like, by acquiring sensor information, determining a hand of the user holding the portable electronic device, and changing the content of processing based on the result of the determination. <P>SOLUTION: The portable electronic device includes: a sensor information acquiring section 166 which acquires sensor information from a sensor; a determination section 162 which determines a hand of the user holding the portable electronic device, based on the sensor information; and a processing section 164 which changes the content of processing of the portable electronic device based on the result of the determination by the determination section 162 as to the hand of the user holding the portable electronic device. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、携帯電子機器等に関する。   The present invention relates to a portable electronic device and the like.

近年の携帯電子機器では、機能の実行を指示するユーザーインターフェイスとして操作ボタンではなく、例えば、特許文献1、2のようにモーションセンサで行うことが提案されている。   In recent portable electronic devices, it has been proposed to use a motion sensor as a user interface for instructing execution of a function instead of an operation button, for example, as in Patent Documents 1 and 2.

特許文献1の技術では、例えばズーム操作をするために光軸方向にカメラ本体を移動させることで実現している。   In the technique of Patent Document 1, for example, the camera body is moved in the optical axis direction in order to perform a zoom operation.

特許文献2の技術では、ゲームコントローラにモーションセンサを内蔵させ、例えばテニスのスイングを、コントローラを移動することで表現し、ゲームを行う仕様になっている。   In the technique of Patent Document 2, a motion controller is built in a game controller, and for example, a tennis swing is expressed by moving the controller to play a game.

特開2006−211458号公報JP 2006-21458 A 特開2007−241655号公報JP 2007-241655 A

モーションセンサで操作コマンドを実行することはユーザの直感的な操作が可能となる利点がある。   Executing the operation command by the motion sensor has an advantage that the user can perform an intuitive operation.

しかし、大半のユーザには利き手があり、大雑把な操作は左右の手で相違はないが、詳細な操作では利き手で行わないと違和感がある。従来のモーションセンサ内蔵携帯電子機器では、その点を考慮していなかった。   However, most users have a dominant hand, and rough operations are not different between the left and right hands, but it is uncomfortable if detailed operations are not performed with the dominant hand. Conventional mobile electronic devices with built-in motion sensors have not taken this into consideration.

本発明の幾つかの態様では、ユーザが左右どちらの手で携帯電子機器を把持しているかに応じた適切な処理を実行できる携帯電子機器等を提供できる。   In some aspects of the present invention, it is possible to provide a portable electronic device or the like that can execute appropriate processing depending on whether the user is holding the portable electronic device with the left or right hand.

また、本発明の幾つかの態様では、ユーザが把持している手によって、センサ情報に対する感度や機能、アルゴリズム処理の内容を変更し、ユーザにとって使いやすいインターフェース等を実現した携帯電子機器等を提供できる。   In addition, some aspects of the present invention provide a portable electronic device that realizes an interface that is easy to use for the user by changing the sensitivity, function, and algorithm processing content of the sensor information by the hand held by the user. it can.

本発明の一態様では、センサからのセンサ情報を取得するセンサ情報取得部と、前記センサ情報に基づいて、ユーザが左右どちらの手で携帯電子機器を把持しているかを判別する処理を行う判別部と、前記判別部による、ユーザが左右どちらの手で前記携帯電子機器を把持しているかの判別結果に基づいて、前記携帯電子機器の処理の内容を変化させる処理を行う処理部と、を含む携帯電子機器に関係する。   In one aspect of the present invention, a sensor information acquisition unit that acquires sensor information from a sensor, and a determination that performs a process of determining whether the user is holding the portable electronic device with the left or right hand based on the sensor information And a processing unit that performs a process of changing the content of the process of the mobile electronic device based on a determination result of whether the user is holding the mobile electronic device with the left or right hand by the determination unit. Including portable electronic devices.

本発明の一態様では、センサ情報を取得し、取得したセンサ情報に基づいてユーザが左右どちらの手で携帯電子機器を把持しているかを判別する。そして判別結果に基づいて携帯電子機器の処理の内容を変化させる。これにより、利き手か否かによりセンサ感度等を変更できるため、ユーザにとって使いやすいインターフェース等を実現することができる。   In one embodiment of the present invention, sensor information is acquired, and it is determined based on the acquired sensor information whether the user is holding the portable electronic device with the left or right hand. Then, the processing contents of the portable electronic device are changed based on the determination result. Thereby, since the sensor sensitivity and the like can be changed depending on whether or not the user is a dominant hand, an interface that is easy for the user to use can be realized.

また、本発明の一態様では、移動距離情報算出部と画像を撮像する撮像部と、前記撮像部での画角を調整する画角調整部と、を含み、前記センサは、モーションセンサであり、前記センサ情報取得部は、前記モーションセンサからのモーション情報を前記センサ情報として取得し、前記移動距離情報算出部は、前記モーション情報に基づいて、前記モーションセンサの移動距離情報を算出し、前記画角調整部は、前記移動距離情報算出部により算出された前記移動距離情報に基づいて、前記撮像部での画角を調整してもよい。   In one aspect of the present invention, a moving distance information calculation unit, an imaging unit that captures an image, and an angle-of-view adjustment unit that adjusts an angle of view at the imaging unit are included, and the sensor is a motion sensor. The sensor information acquisition unit acquires motion information from the motion sensor as the sensor information, and the movement distance information calculation unit calculates movement distance information of the motion sensor based on the motion information, The angle of view adjustment unit may adjust the angle of view at the imaging unit based on the movement distance information calculated by the movement distance information calculation unit.

このようにすれば、モーションにより撮像部の画角調整(ズーム操作)を行うことができる携帯電子機器等を実現することができる。   In this way, it is possible to realize a portable electronic device or the like that can adjust the angle of view (zoom operation) of the imaging unit by motion.

また、本発明の一態様では、前記モーションセンサにより感知されるモーションが、画角調整を指示するモーションであるか否かを判別するための感知閾値レベルを設定する感知閾値レベル設定部を含み、前記画角調整部は、前記移動距離情報により表される距離が前記感知閾値レベルよりも大きいと判断された場合には画角を調整し、前記移動距離情報により表される距離が前記感知閾値レベルよりも小さいと判断された場合には画角を非調整にしてもよい。   In one aspect of the present invention, the image sensor includes a detection threshold level setting unit that sets a detection threshold level for determining whether or not the motion detected by the motion sensor is a motion for instructing the angle of view adjustment. The angle of view adjustment unit adjusts the angle of view when it is determined that the distance represented by the moving distance information is greater than the sensing threshold level, and the distance represented by the moving distance information is the sensing threshold. If it is determined that the angle is smaller than the level, the angle of view may be unadjusted.

このようにすれば、モーションが画角調整を指示するモーションであるか否かを判別するための、感知閾値レベルを設定することが可能になる。これにより、適切な感知閾値レベルを設定することで、ユーザによる意図的なモーションと、手ぶれやセンサのノイズ等による動きとを区別することができる。   In this way, it is possible to set a sensing threshold level for determining whether or not the motion is a motion for instructing angle of view adjustment. Thus, by setting an appropriate detection threshold level, it is possible to distinguish between intentional motion by the user and motion due to camera shake, sensor noise, or the like.

また、本発明の一態様では、前記感知閾値レベル設定部は、前記判別部によりユーザが携帯電子機器を利き手で把持していると判別された場合には、ユーザが携帯電子機器を非利き手で把持していると判別された場合に比べて、前記感知閾値レベルを低く設定してもよい。   In the aspect of the invention, the detection threshold level setting unit may be configured such that when the determination unit determines that the user is holding the portable electronic device with a dominant hand, the user holds the portable electronic device with a non-dominant hand. The sensing threshold level may be set lower than when it is determined that the object is gripped.

このようにすれば、利き手でのモーションは小さいものであっても画角調整を指示するモーションであると認識されやすくなり、また、非利き手でのモーションはある程度大きくないと画角調整を指示モーションであると認識されなくなる。従って、正確な動作が可能な利き手においては、ユーザにとって意図的な小さな動き(例えば微調整等)も画角調整を指示するモーションとして認識することが可能になる。それに対して、動作が不正確な非利き手においては、手ぶれ等のユーザの意図しない動きを、画角調整を指示するモーションではないと認識することが可能になる。   In this way, even if the motion with the dominant hand is small, it is easy to recognize that it is a motion that instructs to adjust the angle of view. It will not be recognized as. Therefore, the dominant hand capable of performing an accurate operation can recognize a small movement (for example, fine adjustment) intended for the user as a motion instructing the angle of view adjustment. On the other hand, in a non-dominant hand whose motion is inaccurate, it is possible to recognize a motion unintended by the user, such as camera shake, as a motion that does not instruct a view angle adjustment.

また、本発明の一態様では、前記画角調整部は、前記判別部によりユーザが携帯電子機器を利き手で把持していると判別された場合には、ユーザが携帯電子機器を非利き手で把持していると判別された場合に比べて、前記移動距離情報に対する画角調整量を大きくしてもよい。   In the aspect of the invention, the angle of view adjustment unit may be configured such that when the determination unit determines that the user is holding the portable electronic device with a dominant hand, the user holds the portable electronic device with a non-dominant hand. The angle of view adjustment for the moving distance information may be increased as compared with the case where it is determined that the movement distance has been set.

このようにすれば、同じモーションの大きさ(移動距離情報の大きさ)であっても、利き手によるモーションは非利き手によるモーションに比べて、ズーム量を大きくすることが可能になる。従って、正確な動作が可能な利き手においては、望遠(高いズーム倍率)が可能であるとともに、所定のズーム倍率に設定する際に移動距離が少なくてすむ。それに対して、動作が不正確な非利き手においては、移動距離情報により表される距離に対するズーム量を小さくすることで、ズーム量の微調整等を可能にし、操作を容易にすることができる。   In this way, even with the same motion magnitude (movement distance information magnitude), the dominant hand motion can increase the zoom amount compared to the non-dominant hand motion. Accordingly, a dominant hand capable of performing an accurate operation can perform telephoto (high zoom magnification) and can reduce a moving distance when setting a predetermined zoom magnification. On the other hand, a non-dominant hand whose operation is inaccurate can reduce the zoom amount with respect to the distance represented by the movement distance information, thereby enabling fine adjustment of the zoom amount and facilitating the operation.

また、本発明の一態様では、前記処理部は、前記処理として第1の処理及び第2の処理を行い、前記第1の処理は、前記ユーザにより設定を変更される頻度が高いと設定された処理であり、前記第2の処理は、前記ユーザにより設定を変更される頻度が低いと設定された処理であり、前記処理部は、前記判別部により前記ユーザが前記携帯電子機器を利き手で把持していると判別された場合には、前記ユーザにより設定を変更される頻度が高い処理として設定された前記第1の処理を行うとともに、前記ユーザが前記携帯電子機器を非利き手で把持していると判別された場合には、前記ユーザにより設定を変更される頻度が低い処理として設定された前記第2の処理を行ってもよい。   In one aspect of the present invention, the processing unit performs a first process and a second process as the process, and the first process is set to have a high frequency of setting change by the user. The second process is a process that is set when the frequency of changing the setting by the user is low, and the processing unit is configured to allow the user to hold the portable electronic device with a dominant hand by the determination unit. If it is determined that the user is holding, the first process set as a process whose setting is frequently changed by the user is performed, and the user holds the portable electronic device with a non-dominant hand. If it is determined that the setting is changed, the second process set as a process whose setting is changed less frequently by the user may be performed.

このようにすれば、利き手と非利き手に処理を振り分けることが可能になる。その際、頻繁に設定変更されるものは操作が容易な利き手に振り分けられ、さほど設定変更されないものは精密な動作が困難な非利き手に振り分けられるため、ユーザにとって使いやすいインターフェース等を実現できる。   In this way, it is possible to distribute the processing to the dominant hand and the non-dominant hand. At that time, frequently changed settings are assigned to the dominant hand that is easy to operate, and those that are not changed so much are assigned to the non-dominant hand that is difficult to perform precise operation.

また、本発明の一態様では、前記センサは、モーションセンサであり、前記センサ情報取得部は、前記モーションセンサからのモーション情報を前記センサ情報として取得し、前記判別部は、前記モーション情報に基づいて、前記ユーザが左右どちらの手で前記携帯電子機器を把持しているかを判別する処理を行ってもよい。   In one embodiment of the present invention, the sensor is a motion sensor, the sensor information acquisition unit acquires motion information from the motion sensor as the sensor information, and the determination unit is based on the motion information. Then, a process of determining whether the user is holding the portable electronic device with the left or right hand may be performed.

このようにすれば、モーションセンサのモーション情報に基づいて、ユーザが左右どちらの手で携帯電子機器を把持しているかを判別することが可能になる。   In this way, it is possible to determine whether the user is holding the portable electronic device with the left or right hand based on the motion information of the motion sensor.

また、本発明の一態様では、前記判別部は、前記モーション情報に基づいて前記モーションセンサの移動の軌跡を算出し、算出した前記軌跡に基づいて前記ユーザが左右どちらの手で前記携帯電子機器を把持しているかを判別する処理を行ってもよい。   In the aspect of the invention, the determination unit may calculate a movement trajectory of the motion sensor based on the motion information, and the user may use the left or right hand to move the mobile electronic device based on the calculated trajectory. Processing for determining whether or not the hand is held may be performed.

このようにすれば、モーションセンサのモーション情報から、モーションセンサの移動の軌跡を算出し、算出した軌跡に基づいて、ユーザが左右どちらの手で携帯電子機器を把持しているかを判別することが可能になる。   In this way, it is possible to calculate the movement trajectory of the motion sensor from the motion information of the motion sensor and determine whether the user is holding the portable electronic device with the left or right hand based on the calculated trajectory. It becomes possible.

また、本発明の一態様では、前記センサは、タッチセンサであり、前記センサ情報取得部は、前記ユーザが携帯電子機器に触れているか否かを示すタッチ情報を、前記タッチセンサから前記センサ情報として取得し、前記判別部は、前記タッチ情報に基づいて、前記ユーザが左右どちらの手で前記携帯電子機器を把持しているかを判別する処理を行ってもよい。   In one embodiment of the present invention, the sensor is a touch sensor, and the sensor information acquisition unit receives touch information indicating whether the user is touching a portable electronic device from the touch sensor. And the determination unit may perform a process of determining whether the user is holding the portable electronic device with the left or right hand based on the touch information.

このようにすれば、タッチセンサのタッチ情報に基づいて、ユーザが左右どちらの手で携帯電子機器を把持しているかを判別することが可能になる。   In this way, it is possible to determine whether the user is holding the portable electronic device with the left or right hand based on the touch information of the touch sensor.

また、本発明の一態様では、前記センサは、ユーザを撮像する撮像センサであり、前記センサ情報取得部は、前記撮像センサが撮像したユーザ画像を、前記センサ情報として取得し、前記判別部は、前記ユーザ画像に基づいて、前記ユーザが左右どちらの手で前記携帯電子機器を把持しているかを判別する処理を行ってもよい。   In one aspect of the present invention, the sensor is an imaging sensor that images a user, the sensor information acquisition unit acquires a user image captured by the imaging sensor as the sensor information, and the determination unit includes: Based on the user image, a process of determining whether the user is holding the portable electronic device with the left or right hand may be performed.

このようにすれば、撮像センサが撮像したユーザ画像に基づいて、ユーザが左右どちらの手で携帯電子機器を把持しているかを判別することが可能になる。   In this way, it is possible to determine whether the user is holding the portable electronic device with the left or right hand based on the user image captured by the image sensor.

本実施形態の携帯電子機器の構成例。1 is a configuration example of a portable electronic device according to an embodiment. モーションセンサ(加速度センサ)の例。An example of a motion sensor (acceleration sensor). 携帯電子機器に内蔵されるモーションセンサの説明図。Explanatory drawing of the motion sensor incorporated in a portable electronic device. モーションセンサを用いた処理を説明するためのフローチャート。The flowchart for demonstrating the process using a motion sensor. タッチセンサ或いは撮像センサを用いた処理を説明するためのフローチャート。The flowchart for demonstrating the process using a touch sensor or an imaging sensor. 図6(A)は携帯電子機器を前に押し出す操作を右手で行った場合の軌跡の例、図6(B)は携帯電子機器を前に押し出す操作を左手で行った場合の軌跡の例。FIG. 6A shows an example of a locus when the operation of pushing the portable electronic device forward is performed with the right hand, and FIG. 6B shows an example of a locus when the operation of pushing the portable electronic device forward is performed with the left hand. 図7(A)〜図7(C)は右手で操作を行った場合の加速度の例、図7(D)〜図7(F)は左手で操作を行った場合の加速度の例。7A to 7C show examples of acceleration when the operation is performed with the right hand, and FIGS. 7D to 7F show examples of acceleration when the operation is performed with the left hand. 携帯電子機器の外側に設置されるタッチセンサの説明図。Explanatory drawing of the touch sensor installed in the outer side of a portable electronic device. ゲームコントローラの外側に設置されるタッチセンサの説明図。Explanatory drawing of the touch sensor installed in the outer side of a game controller. 撮像センサを有する携帯電子機器の例。An example of a portable electronic device having an imaging sensor. 撮像センサによって撮像されるユーザ画像の例。The example of the user image imaged with an imaging sensor. 移動距離に対するズーム倍率の例。An example of zoom magnification with respect to travel distance. モーションセンサを用いた処理を説明するための他のフローチャート。The other flowchart for demonstrating the process using a motion sensor. タッチセンサ或いは撮像センサを用いた処理を説明するための他のフローチャート。The other flowchart for demonstrating the process using a touch sensor or an imaging sensor. 携帯電子機器の処理を右手と左手に振り分ける例。An example in which the processing of a portable electronic device is distributed between the right hand and the left hand. 本実施形態の処理を説明するためのフローチャート。The flowchart for demonstrating the process of this embodiment.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.第1の実施形態   1. First embodiment

まず、本実施形態の手法について説明する。本実施形態においては、何らかのセンサ情報に基づいて、ユーザが携帯電子機器を右手で把持しているのか、左手で把持しているのかの判定を行う。そして、判定に基づいて、右手で把持している場合と左手で把持している場合とで処理の内容を変更する。   First, the method of this embodiment will be described. In this embodiment, based on some sensor information, it is determined whether the user is holding the portable electronic device with the right hand or the left hand. Then, based on the determination, the contents of the process are changed depending on whether the hand is held with the right hand or the left hand.

右手か左手かの判別を行うために用いられるセンサとしては、モーションセンサ、タッチセンサ及び撮像センサ等が考えられる。なお、左右を判別するセンサはこれらに限定されるものではない。   As a sensor used for determining whether it is a right hand or a left hand, a motion sensor, a touch sensor, an imaging sensor, or the like can be considered. In addition, the sensor which discriminate | determines left and right is not limited to these.

モーションセンサは、例えば加速度センサであり、携帯電子機器の移動における加速度を検出し、2回積分処理を行うことで移動の軌跡を算出し、算出した軌跡に基づいて左右の判別を行う。また、加速度の情報から直接左右の判別を行ってもよい。   The motion sensor is, for example, an acceleration sensor, detects acceleration in movement of the portable electronic device, calculates a movement trajectory by performing integration processing twice, and performs left / right discrimination based on the calculated trajectory. Alternatively, the left / right determination may be performed directly from the acceleration information.

タッチセンサは、ユーザが携帯電子機器(厳密には携帯電子機器に設置されたタッチセンサ)に触れているか否かを検出する。右手把持部分に設置されたタッチセンサがタッチを検出したか、左手把持部分に設置されたタッチセンサがタッチを検出したかに応じて左右の判別を行う。   The touch sensor detects whether the user is touching a portable electronic device (strictly, a touch sensor installed in the portable electronic device). The left / right determination is performed depending on whether the touch sensor installed in the right hand grip portion detects a touch or the touch sensor installed in the left hand grip portion detects a touch.

撮像センサは、ユーザ(撮影者)を撮像し、ユーザ画像を取得する。これは具体的には例えば、後述する図11のような画像である。ユーザ画像からユーザの腕部分を検出し、検出した腕部分の位置等に基づいて左右の判別を行う。   An imaging sensor images a user (photographer) and acquires a user image. Specifically, this is, for example, an image as shown in FIG. The user's arm part is detected from the user image, and left / right discrimination is performed based on the detected position of the arm part and the like.

変更される処理の内容の具体例としては、センサ情報に対する感度を変更するケースが考えられる。例えばモーションセンサを用いる場合に、利き手で把持している場合には小さな動きまでモーションとして認識するのに対して、非利き手で把持している場合には、小さな動きは手ぶれ等であると判断してモーションとして認識しない。以上の例について第1の実施形態で詳細に説明する。   As a specific example of the content of the process to be changed, a case where the sensitivity to sensor information is changed can be considered. For example, when using a motion sensor, if a hand is gripped by a dominant hand, even a small movement is recognized as a motion, whereas if it is gripped by a non-dominant hand, it is determined that the small movement is camera shake or the like. Is not recognized as motion. The above example will be described in detail in the first embodiment.

また、携帯電子機器とユーザとの間の距離に基づいてズーム操作を行う(以下、適宜スマートズームと表記する)場合には、利き手か非利き手かによって、ズーム倍率を変更するケースが考えられる。例えば利き手で把持している場合には、ズーム倍率を大きく設定し小さな動きでもズーム変化量が大きくなるように設定するのに対して、非利き手で把持している場合には、ズーム倍率を小さく設定し、手ぶれによる動きや不正確なモーションがあったとしてもズーム変化量が小さくなるようにする。以上の例について第2の実施形態で詳細に説明する。   Further, when a zoom operation is performed based on the distance between the mobile electronic device and the user (hereinafter referred to as smart zoom as appropriate), there may be a case where the zoom magnification is changed depending on whether the user is a dominant hand or a non-dominant hand. For example, when holding with a dominant hand, the zoom magnification is set to be large and the zoom change amount is set to be large even with a small movement, whereas when holding with a non-dominant hand, the zoom magnification is reduced. Set it so that the amount of zoom change is small even if there is movement due to camera shake or inaccurate motion. The above example will be described in detail in the second embodiment.

また、後述する図15のように、同じモーションに対して、右手か左手かによって実行する処理を異ならせるケースが考えられる。以上の例について第3の実施形態で詳細に説明する。   Further, as shown in FIG. 15 to be described later, there may be a case where the process to be executed is different depending on whether the right hand or the left hand is applied to the same motion. The above example will be described in detail in the third embodiment.

以下、第1の実施形態について図1〜図11を用いて説明する。本実施形態では、例として特許文献1のように撮像装置を光軸方向に移動することでズーム位置が変化する仕様の携帯電子機器(撮像装置)を考える。   Hereinafter, a first embodiment will be described with reference to FIGS. In the present embodiment, as an example, a portable electronic device (imaging device) having a specification in which the zoom position is changed by moving the imaging device in the optical axis direction as in Patent Document 1 is considered.

図1は、本実施形態に係る携帯電子機器(撮像装置)の概略的構成を説明するブロック図である。携帯電子機器は、撮像部115と、画像処理部130と、I/F部140と、記憶部150と、制御部160と、レンズ駆動モータ(AFモータ、ズームモータ)170と、画角調整部180と、センサ部200とを含んでいる。なお、これらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。   FIG. 1 is a block diagram illustrating a schematic configuration of a portable electronic device (imaging device) according to the present embodiment. The portable electronic device includes an imaging unit 115, an image processing unit 130, an I / F unit 140, a storage unit 150, a control unit 160, a lens driving motor (AF motor, zoom motor) 170, and an angle of view adjustment unit. 180 and the sensor unit 200 are included. Various modifications such as omission of some of these components and addition of other components are possible.

なお、図示していないが携帯電子機器には、背面液晶パネル等の表示装置やフラッシュ機構等の一般の撮像装置(例えばデジタルカメラ)に装備される機器が設けられていてもよい。   Although not shown, the portable electronic device may be provided with a device equipped in a general imaging device (for example, a digital camera) such as a display device such as a rear liquid crystal panel or a flash mechanism.

撮像部115は、撮影レンズ110(光学系)と、撮像素子120(画像センサー)とを含んでいる。   The imaging unit 115 includes a photographing lens 110 (optical system) and an imaging element 120 (image sensor).

撮影レンズ110(光学系)は、CCDあるいはCMOSイメージセンサで構成される撮像素子120の撮像面上に被写体像を形成する焦点距離可変のズームレンズである。本明細書中では、撮像素子120は内部にCDS、A/D変換等の処理ブロックを有してディジタルの画像信号を出力可能なCMOSイメージセンサであるものとして説明をする。   The photographic lens 110 (optical system) is a variable focal length zoom lens that forms a subject image on the imaging surface of the imaging device 120 formed of a CCD or CMOS image sensor. In the present specification, the image sensor 120 will be described as a CMOS image sensor having processing blocks such as CDS and A / D conversion therein and capable of outputting digital image signals.

撮像素子120から出力されるディジタルの画像信号は、記憶部150に一時的に保管される。記憶部150は、画像処理部130が画像処理を行う際のバッファメモリとしても用いられるので、書き込み・読み出しの速度が速いことが望ましく、例えばDRAM、SRAM等で構成することが可能である。記憶部150へは、システムバスを介して撮像素子120、画像処理部130、制御部160がアクセス可能に構成される。記憶部150は、上述した構成要素からのメモリアクセス要求を調停する機能を有する。   The digital image signal output from the image sensor 120 is temporarily stored in the storage unit 150. Since the storage unit 150 is also used as a buffer memory when the image processing unit 130 performs image processing, it is desirable that the writing / reading speed is high, and it can be configured by, for example, a DRAM, an SRAM, or the like. The storage unit 150 is configured to be accessible by the image sensor 120, the image processing unit 130, and the control unit 160 via a system bus. The storage unit 150 has a function of arbitrating memory access requests from the above-described components.

画像処理部130は、特定用途向けの集積回路(ASIC)等で構成することが可能である。この画像処理部130は、撮像素子120から出力されて記憶部150に一時的に保管されたディジタルの画像信号に同時化(デモザイク処理)、ホワイトバランス調整、階調・レベル補正、アンシャープマスク、シェーディング補正等の処理をしてディジタルの画像データを生成する。   The image processing unit 130 can be configured by an application specific integrated circuit (ASIC) or the like. The image processing unit 130 synchronizes with a digital image signal output from the image sensor 120 and temporarily stored in the storage unit 150 (demosaic processing), white balance adjustment, gradation / level correction, unsharp mask, Digital image data is generated by processing such as shading correction.

画像処理部130が画像記録処理を行う際には、画像処理部130によって生成された画像データが必要に応じてJPEG圧縮され、I/F部140を介して不図示の記憶媒体に記録される。この記憶媒体としては様々なものを用いることが可能である。一例として、記憶媒体はフラッシュメモリで、携帯電子機器に内蔵されるものであってもよいし、携帯電子機器に対して着脱可能に構成されるものであってもよい。   When the image processing unit 130 performs image recording processing, the image data generated by the image processing unit 130 is JPEG-compressed as necessary and is recorded on a storage medium (not shown) via the I / F unit 140. . Various storage media can be used. As an example, the storage medium may be a flash memory that may be built in a portable electronic device or configured to be detachable from the portable electronic device.

制御部160は、携帯電子機器を動作させるための種々の処理を行う。特に、センサ部200に含まれるセンサからの情報を受信し、処理の内容を決定する。また、自動露光に係る測光、露光量演算等の一連の動作、フラッシュユニット用メインコンデンサの充電、フラッシュの発光量調節、撮影者による撮影モードの設定操作受付等の携帯電子機器の統括制御を行う。   The control unit 160 performs various processes for operating the portable electronic device. In particular, information from a sensor included in the sensor unit 200 is received and the content of the process is determined. In addition, it performs integrated control of portable electronic devices such as a series of operations such as photometry for automatic exposure, exposure amount calculation, charging of the main capacitor for the flash unit, adjustment of the flash emission amount, and acceptance of setting operation of the shooting mode by the photographer. .

制御部160は、判別部162と、処理部164と、センサ情報取得部166と、移動距離情報算出部168と、感知閾値レベル設定部169とを備えている。なお、これらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。   The control unit 160 includes a determination unit 162, a processing unit 164, a sensor information acquisition unit 166, a movement distance information calculation unit 168, and a sensing threshold level setting unit 169. Various modifications such as omission of some of these components and addition of other components are possible.

判別部162は、センサ情報取得部166が取得したセンサ情報に基づいて、ユーザが携帯電子機器を右手で持っているのか、左手で持っているのかの判別を行う。   Based on the sensor information acquired by the sensor information acquisition unit 166, the determination unit 162 determines whether the user has the portable electronic device with the right hand or the left hand.

処理部164は、判別部162での判別結果に基づいて、右手で持っているか左手で持っているかによって処理の内容を変更する。具体的な処理の内容については後述する。   The processing unit 164 changes the content of the processing based on whether it is held with the right hand or the left hand based on the determination result in the determination unit 162. Details of the processing will be described later.

センサ情報取得部166は、センサ部200に含まれる少なくとも1つのセンサからの情報を取得する。例えば、センサがタッチセンサである場合にはユーザによりタッチされているか否かの情報を取得し、加速度センサである場合には加速度情報を取得する。   The sensor information acquisition unit 166 acquires information from at least one sensor included in the sensor unit 200. For example, when the sensor is a touch sensor, information on whether or not the user is touching is acquired, and when the sensor is an acceleration sensor, acceleration information is acquired.

移動距離情報算出部168は、後述するモーションセンサ201からセンサ情報取得部166が取得した加速度情報に基づいて、モーションセンサ201の移動の軌跡を算出し、算出した軌跡に基づいて移動距離情報を算出する。移動距離情報は画角調整部180に送られ、画角の調整に用いられる。   The movement distance information calculation unit 168 calculates a movement locus of the motion sensor 201 based on acceleration information acquired by the sensor information acquisition unit 166 from a motion sensor 201 described later, and calculates movement distance information based on the calculated locus. To do. The moving distance information is sent to the angle of view adjustment unit 180 and used to adjust the angle of view.

感知閾値レベル設定部169は、感知閾値レベルを設定する。感知閾値レベルとは、モーションセンサの移動を、画角を調整するモーションとして認識するか否かの閾値を表すものである。移動距離情報により表される距離が感知閾値レベルより大きい場合は、撮像部115での画角を調整するモーションとして認識し、移動距離情報により表される距離が感知閾値レベルより小さい場合は、画角を調整するモーションとして認識しない。感知閾値レベル設定部169は、画角を調整するモーションが認識された場合には画角調整部180に対して画角の調整を指示し、モーションが認識されない場合には画角の調整を指示しない。   The sensing threshold level setting unit 169 sets the sensing threshold level. The detection threshold level represents a threshold value indicating whether or not the movement of the motion sensor is recognized as a motion for adjusting the angle of view. When the distance represented by the moving distance information is larger than the sensing threshold level, it is recognized as a motion for adjusting the angle of view in the imaging unit 115, and when the distance represented by the moving distance information is smaller than the sensing threshold level, the image is displayed. Not recognized as a motion to adjust corners. The detection threshold level setting unit 169 instructs the angle of view adjustment unit 180 to adjust the angle of view when a motion for adjusting the angle of view is recognized, and instructs the angle of view adjustment when the motion is not recognized. do not do.

レンズ駆動モータ170は、AFモータやズームモータから構成される。ズームモータは、適切な画角になるように撮影レンズ110の位置を調整する。また、AFモータは画角調整の終了後に、被写体に対して自動的にフォーカスをあわせるAF(オートフォーカス)を実行する。具体的にはズームモータと同様に撮影レンズ110の位置を調整する。   The lens drive motor 170 is composed of an AF motor and a zoom motor. The zoom motor adjusts the position of the taking lens 110 so that an appropriate angle of view is obtained. The AF motor also performs AF (autofocus) for automatically focusing on the subject after the end of the field angle adjustment. Specifically, the position of the photographing lens 110 is adjusted in the same manner as the zoom motor.

画角調整部180は、撮像部115での画角調整を行う。具体的には、制御部160からの処理内容に関する情報及び移動距離情報を取得して、適切な画角を算出し、画角調整信号をレンズ駆動モータ170に出力して、撮像部115での画角調整を実行する。   The angle of view adjustment unit 180 adjusts the angle of view in the imaging unit 115. Specifically, information on the processing content and movement distance information from the control unit 160 is acquired, an appropriate angle of view is calculated, an angle of view adjustment signal is output to the lens drive motor 170, and the imaging unit 115 Perform angle of view adjustment.

表示部190は、例えば液晶表示装置等であり、各種の画像を表示する。   The display unit 190 is a liquid crystal display device, for example, and displays various images.

センサ部200は、少なくとも1つのセンサを含んでいる。本実施形態においてはモーションセンサ201を少なくとも含むものとするが、これに限定されるものではない。また、タッチセンサ203及び撮像センサ205等を含んでいてもよい。   The sensor unit 200 includes at least one sensor. In the present embodiment, at least the motion sensor 201 is included, but the present invention is not limited to this. Moreover, the touch sensor 203, the imaging sensor 205, etc. may be included.

次に、センサ部200に含まれるモーションセンサ201について説明する。   Next, the motion sensor 201 included in the sensor unit 200 will be described.

図2はモーションセンサ201の一例である加速度センサでの平面図である。   FIG. 2 is a plan view of an acceleration sensor which is an example of the motion sensor 201.

この加速度センサは、X軸、Y軸及びZ軸方向の角速度を検出し、その検出した角速度に対応した電圧信号を出力するもので、ピエゾ抵抗RX1〜RX4、RY1〜RY4、RZ1〜RZ4を有している。尚、これらのピエゾ抵抗RX1〜RX4、RY1〜RY4、RZ1〜RZ4は、それぞれブリッジに構成されている。   This acceleration sensor detects angular velocities in the X-axis, Y-axis, and Z-axis directions, and outputs voltage signals corresponding to the detected angular velocities, and has piezo resistors RX1 to RX4, RY1 to RY4, and RZ1 to RZ4. is doing. The piezo resistors RX1 to RX4, RY1 to RY4, and RZ1 to RZ4 are each configured as a bridge.

ここで、X軸方向からのみ加速度センサに加速度が加わった場合には、全てのピエゾ抵抗RX1〜RX4、RY1〜RY4、RZ1〜RZ4は引張応力を受け、ピエゾ抵抗RX1、RX3の抵抗値が減少し、他のピエゾ抵抗の抵抗値は増加する。これにより、X軸方向の加速度を検出するブリッジからのみ出力が得られ、Y軸方向、Z軸方向の加速度を検出するブリッジの出力は0となる。   Here, when acceleration is applied to the acceleration sensor only from the X-axis direction, all the piezo resistors RX1 to RX4, RY1 to RY4, and RZ1 to RZ4 are subjected to tensile stress, and the resistance values of the piezo resistors RX1 and RX3 are decreased. However, the resistance value of other piezoresistors increases. As a result, output is obtained only from the bridge that detects acceleration in the X-axis direction, and the output of the bridge that detects acceleration in the Y-axis direction and Z-axis direction is zero.

同様に、Y軸方向又はZ軸方向からのみ加速度が加わった場合には、Y軸方向又はZ軸方向の加速度を検出するブリッジの出力のみ得られ、他の2つのブリッジの出力は0となる。従って、この加速度センサは、3軸方向の加速度をそれぞれ独立して検出することができる。   Similarly, when acceleration is applied only from the Y-axis direction or the Z-axis direction, only the output of the bridge that detects the acceleration in the Y-axis direction or the Z-axis direction is obtained, and the outputs of the other two bridges are zero. . Accordingly, this acceleration sensor can independently detect accelerations in the three-axis directions.

なお、モーションセンサは、加速度センサであっても、ジャイロセンサであっても、地磁気センサであっても、気圧、水圧等の圧力センサであっても、GPSや携帯電話、無線LAN、Bluetooth、PHS、RFID(無線タグ)等無線による位置検出センサであっても、画像処理による位置検出手段であっても、超音波や赤外線等のアクティブセンサであっても、複数の組合せであっても良い。   The motion sensor may be an acceleration sensor, a gyro sensor, a geomagnetic sensor, a pressure sensor such as atmospheric pressure or water pressure, GPS, mobile phone, wireless LAN, Bluetooth, PHS. It may be a wireless position detection sensor such as an RFID (wireless tag), a position detection means by image processing, an active sensor such as an ultrasonic wave or an infrared ray, or a plurality of combinations.

図3は、図2のモーションセンサを携帯電子機器(撮像装置)に配置した模式図である。モーションセンサを携帯電子機器に必ずしも内蔵させる必要はないが、本実施例では一例として内蔵タイプとする。よって以下ではモーションセンサの移動と携帯電子機器の移動は同義である。なお、右手把持部分を210、左手把持部分を220としている。   FIG. 3 is a schematic diagram in which the motion sensor of FIG. 2 is arranged in a portable electronic device (imaging device). Although it is not always necessary to incorporate the motion sensor in the portable electronic device, in this embodiment, the motion sensor is a built-in type. Therefore, hereinafter, the movement of the motion sensor and the movement of the portable electronic device are synonymous. It is assumed that the right hand grip portion is 210 and the left hand grip portion is 220.

上記モーションセンサによって得られる各軸方向の加速度を示す電圧信号は制御部160に出力される。図3のモーションセンサの配置でz方向にある程度の加速度がある(移動距離情報が感知閾値レベル設定部169により設定された感知閾値レベルより大きい)と画角調整部180はズームを設定するモーションと判断し、画角の調整を開始する。   A voltage signal indicating the acceleration in each axial direction obtained by the motion sensor is output to the control unit 160. When there is a certain amount of acceleration in the z direction with the arrangement of the motion sensors in FIG. 3 (the movement distance information is larger than the detection threshold level set by the detection threshold level setting unit 169), the angle of view adjustment unit 180 sets the motion for setting the zoom. Judgment is made and adjustment of the angle of view is started.

図4は、本実施形態におけるズーム処理(スマートズーム)の詳細を示すフローチャートである。   FIG. 4 is a flowchart showing details of zoom processing (smart zoom) in the present embodiment.

この処理が開始されると、まず携帯電子機器が移動しているかどうかの判定が行われる(S301)。移動していない場合は移動が検出されるまで待機する。移動している場合にはモーションセンサ(ここでは加速度センサを想定している)から、センサ情報として加速度情報を検出する(S302)。   When this process is started, it is first determined whether or not the portable electronic device is moving (S301). If not moving, it waits until movement is detected. If it is moving, acceleration information is detected as sensor information from a motion sensor (here, an acceleration sensor is assumed) (S302).

そして、加速度を積分することで速度を算出し(S303)、速度を積分することでモーションセンサの移動の軌跡を算出する(S304)。   Then, the speed is calculated by integrating the acceleration (S303), and the trajectory of the motion sensor is calculated by integrating the speed (S304).

次に利き手で把持しているか否かの判定が行われる(S305)。判定にはS304で算出した軌跡の情報が用いられる。具体的な例を図6(A)、図6(B)に示す。図6(A)、図6(B)は携帯電子機器を体の正面に押し出すモーションを、右手と左手で行った場合の、移動の軌跡を示したものである。人間の関節の構造上、腕を伸ばす動作は、肘を支点とした回転の要素を含む。肘自体も肩を支点として移動するため、完全な回転運動にはならないものの、直進動作のみで腕を伸ばすことは困難である。よって携帯電子機器の軌跡は右手で行った場合には図6(A)のようになり、左手で行った場合には図6(B)のようになる。この違いを判別することで、右手か左手かを判定することができる。   Next, it is determined whether or not the hand is held with a dominant hand (S305). The trajectory information calculated in S304 is used for the determination. Specific examples are shown in FIGS. 6A and 6B. FIGS. 6A and 6B show movement trajectories when the motion of pushing the portable electronic device to the front of the body is performed with the right hand and the left hand. Due to the structure of the human joint, the action of extending the arm includes an element of rotation about the elbow. Since the elbow itself moves with the shoulder as a fulcrum, it does not become a complete rotational movement, but it is difficult to extend the arm only by a straight movement. Therefore, the locus of the portable electronic device is as shown in FIG. 6A when it is performed with the right hand, and as shown in FIG. 6B when it is performed with the left hand. By discriminating this difference, it is possible to determine whether it is a right hand or a left hand.

また、右手と左手の違いを加速度の観点から示したものが図7(A)〜図7(F)である。図7(A)〜図7(C)は右手でモーションを行った場合のx軸、y軸、z軸での加速度の変化の例であり、図7(D)〜図7(F)は左手でモーションを行った場合のx軸、y軸、z軸での加速度の変化の例である。図6(A)、図6(B)でも示したように、x軸方向での運動方向が逆になるため、右手では図7(A)に示したように負から正に変化するのに対し、左手では図7(D)に示したように正から負に変化する。この違いを判別することでも、右手か左手かを判定することができる。なお、y軸では理想的には加速度を検出しないが、実際の操作ではブレなどの影響である程度の加速度を持つことになる(図7(B)、図7(E))。   Further, FIGS. 7A to 7F show the difference between the right hand and the left hand from the viewpoint of acceleration. FIGS. 7A to 7C are examples of changes in acceleration on the x-axis, y-axis, and z-axis when a motion is performed with the right hand. FIGS. It is an example of the change of the acceleration on the x-axis, y-axis, and z-axis when a motion is performed with the left hand. As shown in FIGS. 6A and 6B, the movement direction in the x-axis direction is reversed, so that the right hand changes from negative to positive as shown in FIG. 7A. On the other hand, the left hand changes from positive to negative as shown in FIG. By discriminating this difference, it is possible to determine whether it is the right hand or the left hand. It should be noted that although the acceleration is not ideally detected on the y-axis, the actual operation has a certain degree of acceleration due to the influence of vibration or the like (FIGS. 7B and 7E).

利き手で把持されていると判定された場合には、感知閾値レベル設定部169は、感知閾値レベルを低く設定する(S306)。また、非利き手で把持されていると判定された場合には、感知閾値レベル設定部169は、感知閾値レベルを高く設定する(S307)。   If it is determined that the hand is gripped by the dominant hand, the sensing threshold level setting unit 169 sets the sensing threshold level low (S306). If it is determined that the hand is held by a non-dominant hand, the sensing threshold level setting unit 169 sets the sensing threshold level high (S307).

このように設定するのは、利き手での操作の場合は柔軟かつ正確な操作が可能になるため、比較的小さな動きであったとしても、ユーザによる意図的なモーションであると判定しても問題がなく、それに対し、非利き手での操作は、正確さに欠けるため、小さな動きはユーザの意図しないブレである可能性が高いためである。   Setting in this way allows flexible and accurate operations when operating with the dominant hand, so even if it is a relatively small movement, it can be a problem even if it is determined that the motion is intentional by the user On the other hand, since the operation with a non-dominant hand lacks accuracy, there is a high possibility that a small movement is a blur unintended by the user.

軌跡から求められた携帯電子機器の移動距離が、S306もしくはS307で設定した感知閾値レベルより大きいか否かの判定を行い(S308)、大きい場合には画角を調整し(S309)、そうでない場合には何も行わずに、処理を終了する。   It is determined whether or not the movement distance of the portable electronic device obtained from the trajectory is larger than the sensing threshold level set in S306 or S307 (S308). If it is larger, the angle of view is adjusted (S309). In this case, nothing is done and the process is terminated.

以上のフローチャートは1回のズーム操作に対応するものであり、再度ズーム操作が行われた場合には、再びS301から処理が開始される。   The above flowchart corresponds to one zoom operation. When the zoom operation is performed again, the process is started again from S301.

なお、以上の説明において、利き手か否かの判別にはモーションセンサが用いられるものとしたが、これに限定されるものではない。   In the above description, the motion sensor is used to determine whether or not it is a dominant hand, but the present invention is not limited to this.

例えば、利き手か否かの判別にタッチセンサ203を用いてもよい。図8は、モーションセンサ201及びタッチセンサ203を携帯電子機器に配置した模式図である。左手把持部220にタッチセンサ203が設置されており、左手でカメラを所持したかがわかる。また、右手把持部210にもタッチセンサ203を設置して、右手、左手、両手の持ち方をそれぞれ検出して、持ち方に応じてモーションセンサの感度(感知閾値レベル)を変更しても良い。   For example, the touch sensor 203 may be used to determine whether or not the user is a dominant hand. FIG. 8 is a schematic diagram in which the motion sensor 201 and the touch sensor 203 are arranged in a portable electronic device. The touch sensor 203 is installed on the left hand holding unit 220, and it can be seen whether the camera is held with the left hand. In addition, the touch sensor 203 may be installed in the right hand holding unit 210 to detect how to hold the right hand, the left hand, and both hands, and the sensitivity (sensing threshold level) of the motion sensor may be changed according to the holding method. .

図5は、利き手か否かの判別にタッチセンサ203を用いた場合の処理を説明するためのフローチャートである。モーションセンサによる判別との違いは、モーション(軌跡)の算出を行う前に、利き手か否かの判定を行える点である。   FIG. 5 is a flowchart for explaining processing when the touch sensor 203 is used to determine whether or not the user is a dominant hand. The difference from the determination by the motion sensor is that it is possible to determine whether or not the user is a dominant hand before calculating the motion (trajectory).

この処理を開始すると、まず利き手で所持しているか否かの判定が行われる(S401)。具体的には右手把持部210に設置されたタッチセンサがタッチを検出したか、左手把持部220に設置されたタッチセンサがタッチを検出したかで判断を行う。   When this process is started, it is first determined whether or not the hand is possessed by a dominant hand (S401). Specifically, the determination is made based on whether the touch sensor installed on the right hand holding unit 210 detects a touch or the touch sensor installed on the left hand holding unit 220 detects a touch.

利き手で把持されていると判定された場合には、感知閾値レベル設定部169は、感知閾値レベルを低く設定する(S402)。また、非利き手で把持されていると判定された場合には、感知閾値レベル設定部169は、感知閾値レベルを高く設定する(S403)。   If it is determined that the hand is gripped by the dominant hand, the sensing threshold level setting unit 169 sets the sensing threshold level low (S402). If it is determined that the hand is held by a non-dominant hand, the sensing threshold level setting unit 169 sets the sensing threshold level high (S403).

次に、携帯電子機器が移動しているかどうかの判定が行われる(S404)。移動していない場合は移動が検出されるまで待機する。移動している場合にはモーションセンサ(ここでは加速度センサを想定している)から、センサ情報として加速度情報を検出する(S405)。   Next, it is determined whether or not the portable electronic device is moving (S404). If not moving, it waits until movement is detected. If it is moving, acceleration information is detected as sensor information from a motion sensor (here, an acceleration sensor is assumed) (S405).

そして、加速度を積分することで速度を算出し(S406)、速度を積分することでモーションセンサの移動の軌跡を算出する(S407)。   Then, the speed is calculated by integrating the acceleration (S406), and the movement trajectory of the motion sensor is calculated by integrating the speed (S407).

軌跡から求められた携帯電子機器の移動距離が、S402もしくはS403で設定した感知閾値レベルより大きいか否かの判定を行い(S408)、大きい場合には画角を調整し(S409)、そうでない場合には何も行わずに、処理を終了する。   It is determined whether or not the movement distance of the portable electronic device obtained from the locus is larger than the sensing threshold level set in S402 or S403 (S408). If it is larger, the angle of view is adjusted (S409), otherwise In this case, nothing is done and the process is terminated.

なお、タッチセンサによる左右の判別の応用例は、携帯電話や撮像装置(例えばデジタルカメラやデジタルビデオカメラ等)に限定されるものではない。図9は、モーションセンサ内蔵のゲームコントローラに右手用タッチセンサを設置した例を示した図である。タッチセンサにより、右手でゲームコントローラを掴んだか左手で掴んだかを検出して、例えばテニスゲームをする際自動的に右手打ちあるいは左手打ちにすることが考えられる。なお、図示していないがタッチセンサを右手把持部と左手把持部の両方に設置しても良い。   Note that the application example of the left / right discrimination by the touch sensor is not limited to a mobile phone or an imaging device (for example, a digital camera or a digital video camera). FIG. 9 is a diagram showing an example in which a right-hand touch sensor is installed in a game controller with a built-in motion sensor. It is conceivable that the touch sensor detects whether the game controller is grasped with the right hand or the left hand, and is automatically left-handed or left-handed when playing a tennis game, for example. Although not shown, the touch sensors may be installed on both the right hand holding part and the left hand holding part.

また、利き手か否かの判別には撮像センサ205が用いられてもよい。図10は、被写体側のカメラ(撮像部115)以外に撮像センサ205が搭載された携帯電子機器(例えば、カメラ内蔵携帯電話)である。撮像センサ205は、ユーザ画像を撮影し、判別部162はユーザ画像を分析して左右どちらの手で本体を所持しているかを検出する。   Further, the image sensor 205 may be used to determine whether or not the user is a dominant hand. FIG. 10 shows a portable electronic device (for example, a mobile phone with a built-in camera) in which an imaging sensor 205 is mounted in addition to the camera on the subject side (imaging unit 115). The imaging sensor 205 captures a user image, and the determination unit 162 analyzes the user image to detect which hand is holding the main body.

図11は撮像センサ205で撮影したユーザ画像の例である。図11において、撮影者の腕をパターンマッチング等により認識することで、左右どちらの手で本体を所持しているかがわかる。なお、ユーザ画像には撮影者の腕が写っている必要があるため、広い範囲を撮像できる広角のカメラを使うことが望ましい。場合によっては魚眼レンズなどを用いてもよい。   FIG. 11 is an example of a user image captured by the image sensor 205. In FIG. 11, by recognizing the photographer's arm by pattern matching or the like, it can be determined which hand is holding the main body. Note that it is necessary to use a wide-angle camera that can capture a wide range because the user image needs to show the arm of the photographer. In some cases, a fisheye lens or the like may be used.

撮像センサの処理を説明するためのフローチャートについてはタッチセンサの場合と同様であり、図5に示す。タッチセンサを用いた場合との違いは、S401における利き手で所持しているか否かの判定方法であり、本実施形態においては、前述したように撮像センサ205により撮影したユーザ画像を用いる。   The flowchart for explaining the processing of the image sensor is the same as that of the touch sensor, and is shown in FIG. The difference from the case of using the touch sensor is a method for determining whether or not the hand is held by a dominant hand in S401. In the present embodiment, the user image captured by the image sensor 205 is used as described above.

具体的には、まず、ユーザ画像から人を抽出する。これは具体的には例えば、肌色認識から顔を認識し、顔の位置や大きさに基づいて他の部位(胴体、右腕、左腕等)の位置を推定していくことで実現できる。そこから左右の腕を抽出し、携帯電子機器があると推定される方向(図11の例でいえば画面下)に伸びている腕の方の手で携帯電子機器を把持していると判定すればよい。   Specifically, first, a person is extracted from the user image. Specifically, this can be realized, for example, by recognizing a face from skin color recognition and estimating the positions of other parts (body, right arm, left arm, etc.) based on the position and size of the face. The left and right arms are extracted therefrom, and it is determined that the portable electronic device is held by the hand of the arm extending in the direction in which it is estimated that the portable electronic device is present (bottom of the screen in the example of FIG. 11). do it.

以上の本実施形態では、図1に示すように携帯電子機器は、センサ情報取得部166と、判別部162と、処理部164とを含む。センサ情報取得部166はセンサ情報を取得し、判別部162は、センサ情報に基づいてユーザが左右どちらの手で携帯電子機器を把持しているかを判別する。そして処理部164は、判別部162での判別結果に基づいて処理の内容を変更する。図4の例でいえば、利き手で把持している場合には感知閾値レベルを低く設定する(S306)のに対し、非利き手で把持している場合には感知閾値レベルを高く設定する(S307)。   In the above embodiment, as shown in FIG. 1, the portable electronic device includes the sensor information acquisition unit 166, the determination unit 162, and the processing unit 164. The sensor information acquisition unit 166 acquires sensor information, and the determination unit 162 determines whether the user is holding the portable electronic device with the left or right hand based on the sensor information. And the process part 164 changes the content of a process based on the determination result in the determination part 162. FIG. In the example of FIG. 4, the sensing threshold level is set low when gripping with a dominant hand (S306), whereas the sensing threshold level is set high when gripping with a non-dominant hand (S307). ).

これにより、センサ情報を取得し、取得したセンサ情報に基づいて判別を行い、判別に基づいて処理を変更する携帯電子機器を実現することが可能になる。よって、利き手か非利き手かに基づいてセンサ感度やズーム倍率等を変更することができるため、ユーザにとって使いやすいインターフェース等を実現することが可能になる。   Accordingly, it is possible to realize a portable electronic device that acquires sensor information, performs determination based on the acquired sensor information, and changes processing based on the determination. Therefore, since the sensor sensitivity, the zoom magnification, and the like can be changed based on whether the user is dominant or non-dominant, an interface that is easy for the user to use can be realized.

また本実施形態の携帯電子機器は、図1に示すように、撮像部115と、移動距離情報算出部168と、画角調整部180を含むことができる。移動距離情報算出部168は、センサ情報取得部166が図2に示すようなモーションセンサ201から取得したモーション情報に基づいて携帯電子機器の移動距離情報を算出する。そして、画角調整部180は、算出された移動距離情報に基づいて、図4のステップS309、図4のステップS409に示すように、撮像部115における画角を調整する。   In addition, as shown in FIG. 1, the portable electronic device of the present embodiment can include an imaging unit 115, a movement distance information calculation unit 168, and an angle of view adjustment unit 180. The movement distance information calculation unit 168 calculates movement distance information of the portable electronic device based on the motion information acquired by the sensor information acquisition unit 166 from the motion sensor 201 as illustrated in FIG. Then, the angle-of-view adjustment unit 180 adjusts the angle of view in the imaging unit 115 based on the calculated moving distance information, as shown in step S309 in FIG. 4 and step S409 in FIG.

これにより、本実施形態の手法にスマートズームを組み合わせた携帯電子機器を実現することが可能になる。スマートズームにおける具体的なズーム操作方法は、図6(A)、図6(B)に示すように、携帯電子機器を前に押し出すモーションである。   This makes it possible to realize a portable electronic device that combines the technique of the present embodiment with smart zoom. A specific zoom operation method in the smart zoom is a motion of pushing the portable electronic device forward as shown in FIGS. 6 (A) and 6 (B).

また本実施形態の携帯電子機器は、図1に示すように、感知閾値レベル設定部169を含むことができる。そして画角調整部180は、図4のS308、S309に示すように、移動距離情報算出部168により算出された移動距離情報が感知閾値レベルより大きい場合には画角調整を行い、移動距離情報が感知閾値レベルより小さい場合には画角調整を行わないように設定されてもよい。   In addition, the portable electronic device of the present embodiment can include a sensing threshold level setting unit 169 as shown in FIG. Then, as shown in S308 and S309 in FIG. 4, the view angle adjustment unit 180 adjusts the view angle when the movement distance information calculated by the movement distance information calculation unit 168 is larger than the sensing threshold level, and the movement distance information May be set so as not to adjust the angle of view.

これにより、感知閾値レベル(モーションの閾値)を設定することが可能になる。携帯電子機器の移動が感知閾値レベルより大きい場合には、ユーザによる意図的なモーションであると判定するのに対して、携帯電子機器の移動が感知閾値レベルより小さい場合には、手ぶれやセンサのノイズ等であると判断し、モーションとして扱わない。   This makes it possible to set a sensing threshold level (motion threshold). When the movement of the portable electronic device is larger than the detection threshold level, it is determined that the motion is intentional by the user. On the other hand, when the movement of the portable electronic device is smaller than the detection threshold level, camera shake or sensor Judged as noise, etc., not treated as motion.

また、感知閾値レベル設定部169は、図4のS305〜S307に示すように、判定部162により利き手で把持されている場合には感知閾値レベルを低く設定し、非利き手で把持されている場合には感知閾値レベルを高く設定してもよい。   Further, as shown in S305 to S307 in FIG. 4, the detection threshold level setting unit 169 sets the detection threshold level low when the determination unit 162 is gripped by a dominant hand, and is held by a non-dominant hand May be set to a high threshold level.

これにより、利き手で把持している場合には小さな動きであってもモーションであると判定することができる。これは、利き手では正確な動きを行うことが想定されるためである。また、非利き手で把持している場合には手ぶれが大きいことが想定されるため、小さな動きはモーションであると判定しない。   Thereby, it is possible to determine that even a small movement is a motion when gripping with a dominant hand. This is because it is assumed that the dominant hand moves accurately. In addition, when the hand is held by a non-dominant hand, it is assumed that the hand movement is large, so that a small movement is not determined to be a motion.

また、センサ情報取得部166はモーションセンサ201からのモーション情報を取得する。そして判別部162は、モーション情報に基づいて右手か左手かの判別を行ってもよい。具体的には、モーションセンサの移動の軌跡を算出し、算出した軌跡に基づいて判別を行ってもよい。   Further, the sensor information acquisition unit 166 acquires motion information from the motion sensor 201. And the discrimination | determination part 162 may discriminate | determine whether it is a right hand or a left hand based on motion information. Specifically, the movement trajectory of the motion sensor may be calculated, and the determination may be performed based on the calculated trajectory.

これにより、モーションセンサ201からの情報に基づいて右手か左手かの判別を行うことができる。具体的には図6(A)、図6(B)に示すように軌跡の違いを判別することになる。もしくは図7(A)〜図7(F)に示すように加速度の違いから判別してもよい。   As a result, it is possible to determine whether the hand is a right hand or a left hand based on information from the motion sensor 201. Specifically, as shown in FIGS. 6 (A) and 6 (B), the difference in trajectory is determined. Or you may discriminate | determine from the difference in acceleration as shown to FIG. 7 (A)-FIG.7 (F).

また、センサ情報取得部166はタッチセンサ203からのタッチ情報を取得してもよい。そして判別部162は、モーション情報に基づいて右手か左手かの判別を行ってもよい。ここでタッチ情報とは、ユーザが携帯電子機器(具体的には携帯電子機器に設置されたタッチセンサ203)に触れているか否かを表す情報である。   The sensor information acquisition unit 166 may acquire touch information from the touch sensor 203. And the discrimination | determination part 162 may discriminate | determine whether it is a right hand or a left hand based on motion information. Here, the touch information is information indicating whether the user is touching the portable electronic device (specifically, the touch sensor 203 installed in the portable electronic device).

これにより、タッチセンサ203からの情報に基づいて右手か左手かの判別を行うことができる。具体的には図8に示したように、右手把持部分及び左手把持部分にタッチセンサ203を設置することが考えられる。また、図9に示したようにゲームコントローラに設置することで右手か左手かの判別を行ってもよい。   As a result, it is possible to determine whether the right hand or the left hand is based on the information from the touch sensor 203. Specifically, as shown in FIG. 8, it is conceivable to install the touch sensor 203 on the right hand holding part and the left hand holding part. In addition, as shown in FIG. 9, it may be determined whether it is a right hand or a left hand by installing the game controller.

また、センサ情報取得部166は、図10に示したような、ユーザを撮影するユーザ撮影カメラ205によるユーザ画像を取得してもよい。そして判別部162は、ユーザ画像に基づいて右手か左手かの判別を行う。具体的には図11に示すように、取得したユーザ画像からユーザの腕の位置を判別することにより行う。   Moreover, the sensor information acquisition part 166 may acquire the user image by the user imaging | photography camera 205 which image | photographs a user as shown in FIG. Then, the determination unit 162 determines whether the right hand or the left hand is based on the user image. Specifically, as shown in FIG. 11, it is performed by determining the position of the user's arm from the acquired user image.

これにより、ユーザ撮影カメラからの情報に基づいて右手か左手かの判別を行うことができる。   Accordingly, it is possible to determine whether the right hand or the left hand is based on the information from the user photographing camera.

2.第2の実施形態   2. Second embodiment

次に第2の実施形態について図12〜図14を用いて説明する。本実施形態の基本的な構成は第1の実施形態と同様であり、利き手か否かの判定結果に基づく、処理内容の変更方法が異なる。   Next, a second embodiment will be described with reference to FIGS. The basic configuration of this embodiment is the same as that of the first embodiment, and the processing content changing method is different based on the result of determination as to whether or not the user is a dominant hand.

図1は、本実施形態に係る携帯電子機器の概略的構成を説明するブロック図である。第1の実施形態と同様であるため、詳細な説明は省略する。   FIG. 1 is a block diagram illustrating a schematic configuration of a portable electronic device according to the present embodiment. Since it is the same as that of 1st Embodiment, detailed description is abbreviate | omitted.

本実施形態においては、利き手か否かに応じて、スマートズームにおける画角調整量(ズーム倍率)を変更する。図12に画角調整量(ズーム量)の例を示す。利き手によるモーションの場合には、微妙な操作が可能であるため、移動距離に対する画角調整量を大きくしてよい。図12の例でいえば、50cmの移動に対して最大ズーム量である10倍のズームがされる。   In the present embodiment, the field angle adjustment amount (zoom magnification) in smart zoom is changed according to whether or not the user is a dominant hand. FIG. 12 shows an example of the angle of view adjustment amount (zoom amount). In the case of a motion by a dominant hand, a delicate operation is possible, and therefore the angle of view adjustment with respect to the movement distance may be increased. In the example of FIG. 12, a zoom of 10 times that is the maximum zoom amount is performed for a movement of 50 cm.

それに対して、非利き手によるモーションの場合には、細かい操作はうまくできないと考えられる。そのため、移動距離に対する画角調整量を小さくすることで、ズーム操作(例えば細かい調整等)を容易にする。図12の例でいえば、左手では50cmの移動に対して5倍のズームしかされない。   On the other hand, in the case of motion by a non-dominant hand, it is considered that fine operations cannot be performed well. Therefore, the zoom operation (for example, fine adjustment) is facilitated by reducing the amount of view angle adjustment with respect to the movement distance. In the example of FIG. 12, the left hand can only zoom 5 times for a 50 cm movement.

図13は左右の判別をモーションセンサで行う場合の、本実施形態の処理の詳細を示すフローチャートである。   FIG. 13 is a flowchart showing details of the processing of the present embodiment when the left / right determination is performed by the motion sensor.

この処理におけるS501〜S505は図4のS301〜S305と同様であるため、詳細な説明は省略する。S505において、利き手で所持されていると判別された場合には、ズーム倍率(画角調整量)を大きく設定し(S506)、非利き手で所持されていると判別された場合には、ズーム倍率を小さく設定する(S507)。そして、S504で求められた軌跡に基づく移動距離情報及びS506或いはS507で求められたズーム倍率により、画角が調整される(S509)。   Since S501 to S505 in this process are the same as S301 to S305 in FIG. 4, detailed description thereof is omitted. If it is determined in S505 that the camera is held by a dominant hand, the zoom magnification (viewing angle adjustment amount) is set large (S506). If it is determined that the camera is held by a non-dominant hand, the zoom magnification is determined. Is set small (S507). Then, the angle of view is adjusted based on the movement distance information based on the trajectory obtained in S504 and the zoom magnification obtained in S506 or S507 (S509).

なお、本実施形態においても、利き手か否かの判別にタッチセンサ203や撮像センサ205を用いてもよい。また、利き手か否かの判別が可能なその他のセンサを用いてもよい。   Also in this embodiment, the touch sensor 203 or the image sensor 205 may be used to determine whether or not the user is a dominant hand. Also, other sensors that can determine whether or not the user is a dominant hand may be used.

図14は、タッチセンサ203或いは撮像センサ205を用いた場合の処理の詳細を示すフローチャートである。図4に対する図5と同様に、モーションが行われる前に利き手か否かの判別が可能な点以外は前述した図13と同様であるため、詳細な説明は省略する。   FIG. 14 is a flowchart showing details of processing when the touch sensor 203 or the imaging sensor 205 is used. Similar to FIG. 5 with respect to FIG. 4, since it is the same as FIG. 13 described above except that it can be determined whether or not it is a dominant hand before the motion is performed, detailed description thereof will be omitted.

以上の本実施形態では、図1の画角調整部180は、図13のS505〜S507に示したように、利き手で把持されている場合には移動距離情報に対する画角調整量を大きくし、非利き手で把持されている場合には移動距離情報に対する画角調整量を小さくする。   In the present embodiment described above, the view angle adjustment unit 180 in FIG. 1 increases the view angle adjustment amount with respect to the movement distance information when held with a dominant hand, as shown in S505 to S507 in FIG. When the hand is held by a non-dominant hand, the angle of view adjustment amount for the movement distance information is reduced.

これにより、図12に示すように、利き手か否かに基づいて画角調整量(ズーム倍率)を変更することが可能になる。具体的には利き手では正確な動きを行うことができるため、移動距離に対するズーム量を大きくしてもよく、さらに具体的には例えば腕を最大限伸ばしたときに最大倍率を実現できる。また、非利き手では手ぶれ等による影響が大きくなるため、移動距離に対するズーム量を小さく設定する。   As a result, as shown in FIG. 12, the angle of view adjustment amount (zoom magnification) can be changed based on whether or not the user is a dominant hand. Specifically, since the dominant hand can perform accurate movement, the zoom amount with respect to the movement distance may be increased, and more specifically, for example, the maximum magnification can be realized when the arm is extended to the maximum. In addition, since the influence of camera shake or the like is increased in the non-dominant hand, the zoom amount with respect to the movement distance is set small.

3.第3の実施形態   3. Third embodiment

次に第3の実施形態について図15、図16を用いて説明する。本実施形態の基本的な構成は第1の実施形態と同様であり利き手か否かの判定の結果に基づく処理内容の変更方法が異なる。   Next, a third embodiment will be described with reference to FIGS. The basic configuration of this embodiment is the same as that of the first embodiment, and the method for changing the processing content based on the result of the determination as to whether or not it is a dominant hand is different.

図1は、本実施形態に係る携帯電子機器の概略的構成を説明するブロック図である。第1の実施形態と同様であるため、詳細な説明は省略する。   FIG. 1 is a block diagram illustrating a schematic configuration of a portable electronic device according to the present embodiment. Since it is the same as that of 1st Embodiment, detailed description is abbreviate | omitted.

本実施形態では、携帯電子機器の操作を右手と左手に振り分けて設定する。具体的な操作の振り分けの例を図15に示す。なお、以下の例では右手を利き手とする。   In the present embodiment, the operation of the mobile electronic device is set by being distributed to the right hand and the left hand. An example of specific operation distribution is shown in FIG. In the following example, the right hand is the dominant hand.

図15の例では、モーション1が右手で行われた場合にはズーム操作を行い、左手で行われた場合にはISO感度の調整を行う。また、モーション2が右手で行われた場合にはデータの送信を行い、左手で行われた場合には、ホワイトバランスの調整を行う。   In the example of FIG. 15, the zoom operation is performed when the motion 1 is performed with the right hand, and the ISO sensitivity is adjusted when the motion 1 is performed with the left hand. Further, when motion 2 is performed with the right hand, data is transmitted, and when motion 2 is performed with the left hand, white balance is adjusted.

このようにすることで、同一のモーションであっても、右手で行われたか左手で行われたかによって、異なる処理を行うことが可能になる。そのため、少ないモーションの種類で、多くの種類の処理を行うことができる。   By doing in this way, even if it is the same motion, it becomes possible to perform a different process depending on whether it was performed with the right hand or the left hand. Therefore, many types of processing can be performed with few types of motion.

この際には、ユーザにより設定が変更される頻度が多い操作を利き手に振り分けるとよい。こうすることで、頻繁に行われる操作を、ユーザにとって自然で容易なモーションにより実現することが可能になる。また、データの送信等、誤って操作してしまうことが好ましくない操作に関しても、利き手に振り分けるとよい。こうすることで、誤操作の危険性を抑えることができる。   In this case, it is preferable to distribute an operation whose setting is frequently changed by the user to a dominant hand. By doing so, it is possible to realize frequently performed operations with natural and easy motion for the user. In addition, operations that are not preferably performed erroneously, such as data transmission, may be distributed to the dominant hand. By doing so, the risk of erroneous operation can be reduced.

図16は本実施形態の処理の詳細を示すフローチャートである。   FIG. 16 is a flowchart showing details of the processing of this embodiment.

この処理におけるS701〜S704は図4のS301〜S304と同様であるため、詳細な説明は省略する。S705において、S704で算出された軌跡がモーション1であるか否かの判別を行う。モーション1であると判別された場合には、利き手で把持しているかの判別が行われ(S706)、利き手の場合はズーム操作を行い(S707)、非利き手の場合はISO感度の調整を行う(S708)。   Since S701 to S704 in this process are the same as S301 to S304 in FIG. 4, detailed description thereof is omitted. In S705, it is determined whether or not the trajectory calculated in S704 is motion 1. If it is determined that the motion 1 is detected, it is determined whether the user is gripping with a dominant hand (S706), the zoom operation is performed for a dominant hand (S707), and the ISO sensitivity is adjusted for a non-dominant hand. (S708).

また、モーション1でなかった場合には、モーション2であるかの判別が行われる(S709)。モーション2であると判別された場合には、利き手で把持しているかの判別が行われ(S710)、利き手の場合はデータの送信を行い(S711)、非利き手の場合はWBの調整を行う(S712)。   If it is not motion 1, it is determined whether it is motion 2 (S709). If it is determined that the motion 2 is detected, it is determined whether the user is gripping with a dominant hand (S710), data is transmitted for a dominant hand (S711), and WB is adjusted for a non-dominant hand. (S712).

モーション1でもモーション2でもなかった場合には、不正なモーションであると判定し(S713)、何もせずに終了する。或いは、モーションが不正である旨をユーザに通知してもよい。   If neither motion 1 nor motion 2 is found, it is determined that the motion is illegal (S713), and the process ends without doing anything. Alternatively, the user may be notified that the motion is illegal.

以上の説明では、モーションは2つとしたが、これに限定されるものではない。   In the above description, there are two motions, but the present invention is not limited to this.

また、以上の説明では、第1、第2の実施形態と同様に、利き手か否かの判別には、モーションセンサ201、タッチセンサ203及び撮像センサ205のどれを用いてもよく、また、これ以外のセンサを用いてもよい。   In the above description, as in the first and second embodiments, any of the motion sensor 201, the touch sensor 203, and the imaging sensor 205 may be used to determine whether or not the user is a dominant hand. Other sensors may be used.

ただし、モーションセンサ201は、モーションがモーション1かモーション2かの判別にも用いられる。そのため、利き手によるモーション1、非利き手によるモーション1、利き手によるモーション2、非利き手によるモーション2、といったように、それぞれのモーションについて利き手か否かの判別が可能である必要がある。腕を伸ばす動作については第1の実施形態で前述したように、左右の判別が可能であるが、モーションによっては左右の判別が困難なケースもあり得る。そのような場合には、左右の判別にはタッチセンサ203や撮像センサ205等、他のセンサを用いることが考えられる。   However, the motion sensor 201 is also used to determine whether the motion is motion 1 or motion 2. Therefore, it is necessary to be able to determine whether or not each hand is a dominant hand, such as motion 1 by a dominant hand, motion 1 by a non-dominant hand, motion 2 by a dominant hand, and motion 2 by a non-dominant hand. As described above in the first embodiment, it is possible to discriminate left and right regarding the operation of extending the arm. However, depending on the motion, there may be a case where it is difficult to discriminate left and right. In such a case, it is conceivable to use other sensors such as the touch sensor 203 and the imaging sensor 205 for the left / right discrimination.

以上の本実施形態では、図1の処理部164の行う処理は第1の処理と第2の処理があり、第1の処理はユーザにより設定を変更される頻度が高い処理であり、第2の処理はユーザにより設定を変更される頻度が低い処理である。そして処理部164は、判別部162により利き手で把持していると判別された場合には設定変更頻度が高い第1の処理を行い、非利き手で把持していると判別された場合には設定変更頻度が低い第2の処理を行う。図15の例においては、ズーム操作が第1の処理に相当し、ISO感度調整が第2の操作に相当する。   In the above embodiment, the processing performed by the processing unit 164 in FIG. 1 includes the first processing and the second processing. The first processing is processing with high frequency of setting change by the user. This process is a process with a low frequency of setting change by the user. The processing unit 164 performs the first processing with a high setting change frequency when the determination unit 162 determines that the hand is gripped with a dominant hand, and sets the processing unit 164 when it is determined that the hand is gripped with a non-dominant hand. A second process with a low change frequency is performed. In the example of FIG. 15, the zoom operation corresponds to the first process, and the ISO sensitivity adjustment corresponds to the second operation.

これにより、設定変更頻度が高い処理は利き手によるモーションにより実行され、設定変更頻度が低い処理は非利き手によるモーションにより実行される。よって、頻繁に行われる処理は利き手によりモーションで実行することが可能になるため、ユーザにとって自然で容易なモーションが多く行われる。そのため、ユーザにとって使いやすいインターフェース等を実現することができる。具体的には図15のように操作を振り分けることが考えられる。   Thereby, processing with a high setting change frequency is executed by a motion by a dominant hand, and processing with a low setting change frequency is executed by a motion by a non-dominant hand. Accordingly, since frequently performed processing can be performed by a dominant hand with motion, many motions that are natural and easy for the user are performed. Therefore, an interface that is easy for the user to use can be realized. Specifically, it is conceivable to distribute operations as shown in FIG.

以上、本発明を適用した3つの実施形態1〜3及びその変形例について説明したが、本発明は、各実施形態1〜3やその変形例そのままに限定されるものではなく、実施段階では、発明の要旨を逸脱しない範囲内で構成要素を変形して具体化することができる。また、上記した各実施形態1〜3や変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、各実施形態1〜3や変形例に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施形態や変形例で説明した構成要素を適宜組み合わせてもよい。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能である。   As described above, the three embodiments 1 to 3 to which the present invention is applied and the modified examples thereof have been described. However, the present invention is not limited to the embodiments 1 to 3 and the modified examples as they are. The constituent elements can be modified and embodied without departing from the scope of the invention. Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above-described first to third embodiments and modifications. For example, some constituent elements may be deleted from all the constituent elements described in the first to third embodiments and modifications. Furthermore, you may combine suitably the component demonstrated in different embodiment and modification. Thus, various modifications and applications are possible without departing from the spirit of the invention.

また、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(例えば、画角調整量)と共に記載された用語(例えば、ズーム量)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。   In addition, in the specification or drawings, a term (for example, zoom amount) described at least once together with a different term having a broader meaning or the same meaning (for example, an angle of view adjustment amount) may be used anywhere in the specification or the drawing. Can be replaced with a different term.

110 撮影レンズ、115 撮像部、120 撮像素子、130 画像処理部、
140 I/F部、150 記憶部、160 制御部、162 判別部、
164 処理部、166 センサ情報取得部、168 移動距離情報算出部、
169 感知閾値レベル設定部、170 レンズ駆動モータ、180 画角調整部、
190 表示部、200 センサ部、201 モーションセンサ、
203 タッチセンサ、205 撮像センサ、210 右手把持部、220 左手把持部
110 imaging lens, 115 imaging unit, 120 imaging element, 130 image processing unit,
140 I / F unit, 150 storage unit, 160 control unit, 162 discrimination unit,
164 processing unit, 166 sensor information acquisition unit, 168 movement distance information calculation unit,
169 Sensing threshold level setting unit, 170 lens drive motor, 180 angle of view adjustment unit,
190 display unit, 200 sensor unit, 201 motion sensor,
203 touch sensor, 205 imaging sensor, 210 right hand grip, 220 left hand grip

Claims (10)

センサからのセンサ情報を取得するセンサ情報取得部と、
前記センサ情報に基づいて、ユーザが左右どちらの手で携帯電子機器を把持しているかを判別する処理を行う判別部と、
前記判別部による、ユーザが左右どちらの手で前記携帯電子機器を把持しているかの判別結果に基づいて、前記携帯電子機器の処理の内容を変化させる処理を行う処理部と、
を含むことを特徴とする携帯電子機器。
A sensor information acquisition unit for acquiring sensor information from the sensor;
Based on the sensor information, a determination unit that performs a process of determining whether the user is holding the portable electronic device with the left or right hand,
A processing unit that performs a process of changing the content of the process of the mobile electronic device based on a determination result of whether the user is holding the mobile electronic device with the left or right hand by the determination unit;
A portable electronic device comprising:
請求項1において、
移動距離情報算出部と、
画像を撮像する撮像部と、
前記撮像部での画角を調整する画角調整部と、
を含み、
前記センサは、モーションセンサであり、
前記センサ情報取得部は、
前記モーションセンサからのモーション情報を前記センサ情報として取得し、
前記移動距離情報算出部は、
前記モーション情報に基づいて、前記モーションセンサの移動距離情報を算出し、
前記画角調整部は、
前記移動距離情報算出部により算出された前記移動距離情報に基づいて、前記撮像部での画角を調整することを特徴とする携帯電子機器。
In claim 1,
A travel distance information calculation unit;
An imaging unit that captures an image;
An angle-of-view adjustment unit for adjusting an angle of view in the imaging unit;
Including
The sensor is a motion sensor;
The sensor information acquisition unit
Obtaining motion information from the motion sensor as the sensor information;
The movement distance information calculation unit
Based on the motion information, the movement distance information of the motion sensor is calculated,
The angle of view adjustment unit
A portable electronic device that adjusts an angle of view in the imaging unit based on the movement distance information calculated by the movement distance information calculation unit.
請求項2において、
前記モーションセンサにより感知されるモーションが、画角調整を指示するモーションであるか否かを判別するための感知閾値レベルを設定する感知閾値レベル設定部を含み、
前記画角調整部は、
前記移動距離情報により表される距離が前記感知閾値レベルよりも大きいと判断された場合には画角を調整し、前記移動距離情報により表される距離が前記感知閾値レベルよりも小さいと判断された場合には画角を非調整にすることを特徴とする携帯電子機器。
In claim 2,
A detection threshold level setting unit for setting a detection threshold level for determining whether or not the motion detected by the motion sensor is a motion for instructing angle of view adjustment;
The angle of view adjustment unit
When it is determined that the distance represented by the moving distance information is greater than the sensing threshold level, the angle of view is adjusted, and the distance represented by the moving distance information is determined to be smaller than the sensing threshold level. A portable electronic device characterized by non-adjusting the angle of view in the case of
請求項3において、
前記感知閾値レベル設定部は、
前記判別部によりユーザが携帯電子機器を利き手で把持していると判別された場合には、ユーザが携帯電子機器を非利き手で把持していると判別された場合に比べて、前記感知閾値レベルを低く設定することを特徴とする携帯電子機器。
In claim 3,
The sensing threshold level setting unit includes:
When the determination unit determines that the user is holding the portable electronic device with a dominant hand, the detection threshold level is higher than when the user is determined to be holding the portable electronic device with a non-dominant hand. Is set to a low value.
請求項2乃至4のいずれかにおいて、
前記画角調整部は、
前記判別部によりユーザが携帯電子機器を利き手で把持していると判別された場合には、ユーザが携帯電子機器を非利き手で把持していると判別された場合に比べて、前記移動距離情報に対する画角調整量を大きくすることを特徴とする携帯電子機器。
In any of claims 2 to 4,
The angle of view adjustment unit
When it is determined by the determination unit that the user is holding the portable electronic device with a dominant hand, the movement distance information is greater than when the user is determined to be holding the portable electronic device with a non-dominant hand. A portable electronic device characterized in that the angle of view adjustment with respect to is increased.
請求項1乃至5のいずれかにおいて、
前記処理部は、
前記処理として第1の処理及び第2の処理を行い、
前記第1の処理は、前記ユーザにより設定を変更される頻度が高いと設定された処理であり、
前記第2の処理は、前記ユーザにより設定を変更される頻度が低いと設定された処理であり、
前記処理部は、
前記判別部により前記ユーザが前記携帯電子機器を利き手で把持していると判別された場合には、前記ユーザにより設定を変更される頻度が高い処理として設定された前記第1の処理を行うとともに、前記ユーザが前記携帯電子機器を非利き手で把持していると判別された場合には、前記ユーザにより設定を変更される頻度が低い処理として設定された前記第2の処理を行うことを特徴とする携帯電子機器。
In any one of Claims 1 thru | or 5,
The processor is
As the process, a first process and a second process are performed.
The first process is a process that is set when the frequency of changing the setting by the user is high,
The second process is a process set when the frequency of changing the setting by the user is low,
The processor is
When it is determined by the determination unit that the user is holding the portable electronic device with a dominant hand, the first process set as a process whose setting is frequently changed by the user is performed. When it is determined that the user is holding the portable electronic device with a non-dominant hand, the second process set as a process with a low frequency of setting change by the user is performed. Mobile electronic devices.
請求項1乃至6のいずれかにおいて、
前記センサは、モーションセンサであり、
前記センサ情報取得部は、
前記モーションセンサからのモーション情報を前記センサ情報として取得し、
前記判別部は、
前記モーション情報に基づいて、前記ユーザが左右どちらの手で前記携帯電子機器を把持しているかを判別する処理を行うことを特徴とする携帯電子機器。
In any one of Claims 1 thru | or 6.
The sensor is a motion sensor;
The sensor information acquisition unit
Obtaining motion information from the motion sensor as the sensor information;
The discrimination unit
A portable electronic device that performs processing to determine whether the user is holding the portable electronic device with the left or right hand based on the motion information.
請求項7において、
前記判別部は、
前記モーション情報に基づいて前記モーションセンサの移動の軌跡を算出し、算出した前記軌跡に基づいて前記ユーザが左右どちらの手で前記携帯電子機器を把持しているかを判別する処理を行うことを特徴とする携帯電子機器。
In claim 7,
The discrimination unit
A motion trajectory of the motion sensor is calculated based on the motion information, and a process of determining whether the user is holding the portable electronic device with the left or right hand based on the calculated trajectory is performed. Mobile electronic devices.
請求項1乃至6のいずれかにおいて、
前記センサは、タッチセンサであり、
前記センサ情報取得部は、
前記ユーザが携帯電子機器に触れているか否かを示すタッチ情報を、前記タッチセンサから前記センサ情報として取得し、
前記判別部は、
前記タッチ情報に基づいて、前記ユーザが左右どちらの手で前記携帯電子機器を把持しているかを判別する処理を行うことを特徴とする携帯電子機器。
In any one of Claims 1 thru | or 6.
The sensor is a touch sensor,
The sensor information acquisition unit
Touch information indicating whether or not the user is touching the portable electronic device is acquired from the touch sensor as the sensor information,
The discrimination unit
A portable electronic device that performs processing to determine whether the user is holding the portable electronic device with the left or right hand based on the touch information.
請求項1乃至6のいずれかにおいて、
前記センサは、ユーザを撮像する撮像センサであり、
前記センサ情報取得部は、
前記撮像センサが撮像したユーザ画像を、前記センサ情報として取得し、
前記判別部は、
前記ユーザ画像に基づいて、前記ユーザが左右どちらの手で前記携帯電子機器を把持しているかを判別する処理を行うことを特徴とする携帯電子機器。
In any one of Claims 1 thru | or 6.
The sensor is an imaging sensor that images a user;
The sensor information acquisition unit
A user image captured by the imaging sensor is acquired as the sensor information,
The discrimination unit
A portable electronic device that performs processing to determine whether the user is holding the portable electronic device with the left or right hand based on the user image.
JP2010052990A 2010-03-10 2010-03-10 Portable electronic device Withdrawn JP2011188345A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010052990A JP2011188345A (en) 2010-03-10 2010-03-10 Portable electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010052990A JP2011188345A (en) 2010-03-10 2010-03-10 Portable electronic device

Publications (1)

Publication Number Publication Date
JP2011188345A true JP2011188345A (en) 2011-09-22

Family

ID=44794065

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010052990A Withdrawn JP2011188345A (en) 2010-03-10 2010-03-10 Portable electronic device

Country Status (1)

Country Link
JP (1) JP2011188345A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011258146A (en) * 2010-06-11 2011-12-22 Nec Corp Information processing terminal, holding hand discrimination method and program
JP2014112308A (en) * 2012-12-05 2014-06-19 Fuji Xerox Co Ltd Operation control program and information processing apparatus
JP2014229164A (en) * 2013-05-24 2014-12-08 コニカミノルタ株式会社 Setting device, portable mobile terminal, image formation system, setting device control method, and setting device control program
JP2015005197A (en) * 2013-06-21 2015-01-08 カシオ計算機株式会社 Information processing apparatus, information processing method, and program
JP2015510717A (en) * 2012-03-07 2015-04-09 ▲華▼▲為▼▲終▼端有限公司 Data transmission method and apparatus
JP2016153922A (en) * 2016-05-19 2016-08-25 株式会社ニコン Imaging device
JP2019522849A (en) * 2016-06-11 2019-08-15 株式会社ソニー・インタラクティブエンタテインメント Direction interface object

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011258146A (en) * 2010-06-11 2011-12-22 Nec Corp Information processing terminal, holding hand discrimination method and program
JP2015510717A (en) * 2012-03-07 2015-04-09 ▲華▼▲為▼▲終▼端有限公司 Data transmission method and apparatus
JP2014112308A (en) * 2012-12-05 2014-06-19 Fuji Xerox Co Ltd Operation control program and information processing apparatus
JP2014229164A (en) * 2013-05-24 2014-12-08 コニカミノルタ株式会社 Setting device, portable mobile terminal, image formation system, setting device control method, and setting device control program
JP2015005197A (en) * 2013-06-21 2015-01-08 カシオ計算機株式会社 Information processing apparatus, information processing method, and program
JP2016153922A (en) * 2016-05-19 2016-08-25 株式会社ニコン Imaging device
JP2019522849A (en) * 2016-06-11 2019-08-15 株式会社ソニー・インタラクティブエンタテインメント Direction interface object

Similar Documents

Publication Publication Date Title
US8797413B2 (en) Movement detection apparatus and movement detection method
JP6954414B2 (en) Imaging device
US9013585B2 (en) Image capture device
KR101528860B1 (en) Method and apparatus for correcting a shakiness in digital photographing apparatus
JP2011188345A (en) Portable electronic device
KR101856947B1 (en) Photographing apparatus, motion estimation apparatus, method for image compensation, method for motion estimation, computer-readable recording medium
US10419675B2 (en) Image pickup apparatus for detecting a moving amount of one of a main subject and a background, and related method and storage medium
US20140063279A1 (en) Image capture device and image processor
US20140146191A1 (en) Amount-of-shake sensing apparatus, imaging apparatus, and method for detecting the amount of shake
US8964046B2 (en) Amount-of-shake sensing apparatus, imaging apparatus, and method of detecting the amount of shake
JP2010021598A (en) Image capturing apparatus and method
JP2014056057A (en) Imaging device and control method therefor
CN113452914A (en) Optical anti-shake control device, optical anti-shake control method thereof and mobile terminal
JP2014016451A (en) Imaging device, method for calculating camera shake correction amount, and program for calculating camera shake correction amount
WO2022061541A1 (en) Control method, handheld gimbal, system, and computer-readable storage medium
JP5799179B2 (en) TERMINAL DEVICE, TERMINAL DEVICE CONTROL METHOD, PROGRAM, AND INFORMATION STORAGE MEDIUM
JP6126683B2 (en) Optimized image stabilization
JP2020020878A (en) Moving vehicle, focus control method, program, and recording medium
WO2021258308A1 (en) Zoom control method and apparatus, and handheld gimbal and computer-readable storage medium
JP2011234310A (en) Imaging apparatus
US11490009B2 (en) Optical image stabilization circuit and optical image stabilization device for object position correction using face tracking
JP7292145B2 (en) Radius of gyration calculation device and radius of gyration calculation method
JP2011259341A (en) Imaging apparatus
JP6565991B2 (en) Electronic device, subject detection method and program.
US20230209192A1 (en) Control device, imaging apparatus, control method, and control program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130604