JP2015032105A - Operation device and control method for the same - Google Patents

Operation device and control method for the same Download PDF

Info

Publication number
JP2015032105A
JP2015032105A JP2013160584A JP2013160584A JP2015032105A JP 2015032105 A JP2015032105 A JP 2015032105A JP 2013160584 A JP2013160584 A JP 2013160584A JP 2013160584 A JP2013160584 A JP 2013160584A JP 2015032105 A JP2015032105 A JP 2015032105A
Authority
JP
Japan
Prior art keywords
unit
touch
control unit
touch panel
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013160584A
Other languages
Japanese (ja)
Other versions
JP6157263B2 (en
Inventor
貴大 寺門
Takahiro Terakado
貴大 寺門
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2013160584A priority Critical patent/JP6157263B2/en
Priority to CN201480030310.6A priority patent/CN105379244B/en
Priority to PCT/JP2014/063624 priority patent/WO2014192640A1/en
Publication of JP2015032105A publication Critical patent/JP2015032105A/en
Priority to US14/933,682 priority patent/US9843727B2/en
Application granted granted Critical
Publication of JP6157263B2 publication Critical patent/JP6157263B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an operation device that is easily operable irrespective of a holding method and a control method for the same.SOLUTION: An operation device comprises: a touch panel that is held by a hand; and a control part that, when the touch panel is held by the hand, controls so as to provide an area of an operation touch part for performing a prescribed operation corresponding to the holding in a specific area corresponding to the holding in an area of the touch panel except for a holding area which is an area of the touch panel having the holding of the hand sensed.

Description

本発明は、操作装置及びその制御方法に関する。   The present invention relates to an operating device and a control method thereof.

従来、撮像装置の操作に関して、左手での操作など、想定外の撮影方法が要求されることがある。しかし、多くの機器は、典型的な使用状況のみを考慮した設計になっている。例えば、レリーズボタンなど操作部材は、例えばカメラ本体の上面右側のようなユーザがとっさに左手などで操作するには適しているとは言えない位置に配置されていることが多い。そこで、特許文献1に示す撮像装置は、左手又は右手での操作に応じて、タッチパネル上の左手又は右手の親指で操作可能な領域に操作ボタンを表示させている。   Conventionally, an unexpected imaging method such as an operation with the left hand may be required for the operation of the imaging apparatus. However, many devices are designed only for typical usage situations. For example, an operation member such as a release button is often arranged at a position that is not suitable for a user to operate with a left hand or the like, for example, on the upper right side of the camera body. In view of this, the imaging apparatus disclosed in Patent Literature 1 displays operation buttons in a region that can be operated with the left hand or the right thumb on the touch panel in accordance with the operation with the left hand or the right hand.

特開2004−340991号公報JP 2004-340991 A

しかしながら、状況によっては、ユーザは、撮像装置などの操作装置において予め定められた所定の握り方をできない場合がある。例えば、ロッククライミング中に崖に掴まっている状況で撮像装置を構えるとき、ユーザは、撮像装置を落とさないことに気を配るあまりにとっさに所定の握り方以外の握り方をしたまま撮影しようとしてしまうことが考えられる。   However, depending on the situation, the user may not be able to hold a predetermined grip on an operation device such as an imaging device. For example, when holding an imaging device while being held on a cliff during rock climbing, the user tries to shoot with a gripping method other than the predetermined gripping method being too careful not to drop the imaging device It is possible.

本発明は、前記の事情に鑑みてなされたものであり、保持方法に関わらずにユーザが容易に操作可能で誤操作を減らすことができる操作装置及びその制御方法を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an operating device that can be easily operated by a user regardless of the holding method and that can reduce erroneous operations, and a control method thereof.

手での把持がなされるタッチパネルと、前記手で前記タッチパネルの把持がなされたとき、前記手の把持が感知された前記タッチパネルの領域である把持領域を除く前記タッチパネルの領域における前記把持に対応した特定領域に、前記把持に対応した所定操作を行うための操作用タッチ部の領域を設けるように制御する制御部とを具備する。   Corresponding to the grip in the touch panel area excluding the touch panel that is gripped by a hand and the grip area that is the touch panel area in which the hand is gripped when the touch panel is gripped by the hand. A control unit that controls to provide a region of an operation touch unit for performing a predetermined operation corresponding to the gripping in the specific region.

保持方法に関わらずにユーザが容易に操作可能で誤操作を減らすことができる操作装置及びその制御方法を提供することができる。   It is possible to provide an operating device that can be easily operated by a user regardless of the holding method and that can reduce erroneous operations, and a control method therefor.

図1は、本発明の一実施形態に係る操作装置を備えた撮像装置の構成を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of an imaging apparatus including an operation device according to an embodiment of the present invention. 図2は、撮像装置の詳細を説明する正面図である。FIG. 2 is a front view illustrating details of the imaging apparatus. 図3は、撮像装置の使用例を示す図である。FIG. 3 is a diagram illustrating a usage example of the imaging apparatus. 図4は、全方位撮影を説明する図である。FIG. 4 is a diagram for explaining omnidirectional imaging. 図5は、撮像装置の動作を説明するフローチャートである。FIG. 5 is a flowchart for explaining the operation of the imaging apparatus. 図6は、撮像装置を左手で把持する状況の例を示す図である。FIG. 6 is a diagram illustrating an example of a situation where the imaging apparatus is held with the left hand. 図7は、左手把持の判定の詳細を説明するフローチャートである。FIG. 7 is a flowchart for explaining the details of the determination of the left hand grip. 図8は、左手把持の判定の詳細を説明する図である。FIG. 8 is a diagram for explaining the details of the determination of the left hand grip. 図9は、ガイド光の効果を説明する図である。FIG. 9 is a diagram for explaining the effect of the guide light. 図10は、左手操作の判定の動作を説明するフローチャートである。FIG. 10 is a flowchart for explaining the operation of determining the left hand operation. 図11は、左手操作の判定を説明する図である。FIG. 11 is a diagram illustrating determination of a left hand operation. 図12は、画像データの合成が必要な状況の例を示す図である。FIG. 12 is a diagram illustrating an example of a situation where image data synthesis is necessary. 図13Aは、画像データをその画像データの重力方向へ傾ける図である。FIG. 13A is a diagram in which the image data is tilted in the direction of gravity of the image data. 図13Bは、2枚の画像データを重ね合わせる図である。FIG. 13B is a diagram in which two pieces of image data are superimposed. 図13Cは、合成画像データ中央の余分の削除を説明する図である。FIG. 13C is a diagram for explaining extra deletion at the center of the composite image data. 図13Dは、合成画像データ端部周辺の余分の削除を説明する図である。FIG. 13D is a diagram for explaining extra deletion around the edge of the composite image data. 図14は、画像データの合成の詳細を説明するフローチャートである。FIG. 14 is a flowchart for explaining the details of the composition of the image data.

以下、図面を参照して本発明の実施形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係る操作装置を備えた撮像装置12の構成を示すブロック図である。   FIG. 1 is a block diagram illustrating a configuration of an imaging device 12 including an operation device according to an embodiment of the present invention.

撮像装置12は、撮影部13と、通信部1cと、補助光発光部7と、制御部2と、表示部3bと、記録部4と、タッチパネル3aと、操作判定部6と、フラッシュ5と、姿勢判定部9と、外部通信部11とを有する。   The imaging device 12 includes a photographing unit 13, a communication unit 1c, an auxiliary light emitting unit 7, a control unit 2, a display unit 3b, a recording unit 4, a touch panel 3a, an operation determination unit 6, and a flash 5. , Posture determination unit 9 and external communication unit 11.

撮影部13は、撮像光学系1aと、撮像部1bとを有する。撮像光学系1aは、魚眼レンズとしての機能を持つ複数枚のレンズを有し、光軸の周りの全周にわたる視野領域の光を捉える。撮像部1bは、撮像光学系1aが捉えた光をアナログ信号に変換し、そのアナログ信号をデジタル信号(画像データと言う)に変換する。通信部1cは、有線通信又は無線通信により画像データを本体10へ送る。   The imaging unit 13 includes an imaging optical system 1a and an imaging unit 1b. The imaging optical system 1a has a plurality of lenses having a function as a fish-eye lens, and captures light in a visual field region around the entire circumference around the optical axis. The imaging unit 1b converts the light captured by the imaging optical system 1a into an analog signal, and converts the analog signal into a digital signal (referred to as image data). The communication unit 1c sends image data to the main body 10 by wired communication or wireless communication.

補助光発光部7は、ガイド光を照射する。被写体が画角内に含まれているとき、ガイド光は、画角内の所定の位置に照射するように制御される。ユーザは、画角内に照射されたガイド光を見ることで、被写体が画角内に含まれていることを視認できる。例えば、ガイド光を画角内の際周辺部の被写体に投射することで、ユーザは表示部3を見ずとも画角を視認できる。ガイド光は、例えばレーザ光である。   The auxiliary light emitting unit 7 emits guide light. When the subject is included within the angle of view, the guide light is controlled to irradiate a predetermined position within the angle of view. The user can visually recognize that the subject is included in the angle of view by viewing the guide light emitted in the angle of view. For example, the user can visually recognize the angle of view without looking at the display unit 3 by projecting the guide light to the subject in the peripheral area within the angle of view. The guide light is, for example, laser light.

制御部2は、顔検出部2aと、画像処理部2bと、表示制御部2cと、画像合成部2eと、補助光制御部2fとを有する。顔検出部2aは、画像データから人の顔部分を検出する。画像処理部2bは、画像データにホワイトバランス補正やガンマ補正などの画像処理を施す。表示制御部2cは、画像処理部2bによって画像処理された画像データに基づく画像を表示部3bに表示させる。画像合成部2eは、画像の傾きの補正やトリミングを行い、更に撮影した画像データを他の画像データと合成する。補助光制御部2fは、補助光発光部7の発光を制御する。   The control unit 2 includes a face detection unit 2a, an image processing unit 2b, a display control unit 2c, an image composition unit 2e, and an auxiliary light control unit 2f. The face detection unit 2a detects a human face portion from the image data. The image processing unit 2b performs image processing such as white balance correction and gamma correction on the image data. The display control unit 2c causes the display unit 3b to display an image based on the image data image-processed by the image processing unit 2b. The image composition unit 2e corrects and trims the image inclination, and further synthesizes the captured image data with other image data. The auxiliary light control unit 2 f controls the light emission of the auxiliary light emitting unit 7.

表示部3bは、表示制御部2cの制御に従って画像データに基づく画像を表示する素子であり、ライブビュー表示を行う。ライブビュー表示では、撮像部1bが捉えた画像データをリアルタイムで表示する。また、表示部3は液晶ディスプレイ又は有機ELディスプレイを含む。   The display unit 3b is an element that displays an image based on image data in accordance with the control of the display control unit 2c, and performs live view display. In live view display, image data captured by the imaging unit 1b is displayed in real time. The display unit 3 includes a liquid crystal display or an organic EL display.

記録部4は、制御部2によって画像処理された画像データを記録し、メモリカードなどを含む。タッチパネル3aは、指などで押圧されたとき、押圧された位置情報を検出し、検出した位置情報を制御部2に入力する。操作判定部6は、レリーズボタンなどの操作部材を有し、ユーザによる操作部材の操作状態を示す情報を制御部2に入力する。フラッシュ5は、被写体が低輝度のときなどに発光する。姿勢判定部9は、撮像装置12の姿勢又は姿勢の変化を検出する。外部通信部11は、画像データを撮像装置12の外部の装置へ送信する。送信は、USBなどによる有線通信若しくはWi−fiなどによる無線通信を介して行われる。   The recording unit 4 records image data processed by the control unit 2 and includes a memory card and the like. When pressed with a finger or the like, the touch panel 3a detects the pressed position information and inputs the detected position information to the control unit 2. The operation determination unit 6 includes an operation member such as a release button, and inputs information indicating an operation state of the operation member by the user to the control unit 2. The flash 5 emits light when the subject has low brightness. The posture determination unit 9 detects the posture of the imaging device 12 or a change in the posture. The external communication unit 11 transmits image data to a device external to the imaging device 12. Transmission is performed via wired communication such as USB or wireless communication such as Wi-fi.

図2を用いて、撮像装置12の構成を詳細に説明する。図2は、本発明の一実施形態に係る撮像装置12の正面図である。撮像装置12は、詳細には、撮像光学系1aと、撮像素子101bと、AD変換回路101cと、支持部101dと、コネクタ104aと、フレキシブルプリント基板104bと、コネクタ104eと、基板119と、画像処理IC102aと、表示制御IC102bと、表示部3bと、メモリカード4と、電池109と、電源回路110と、グリップ部125と、メインコンデンサ107とを有する。
を有する。
The configuration of the imaging device 12 will be described in detail with reference to FIG. FIG. 2 is a front view of the imaging apparatus 12 according to an embodiment of the present invention. Specifically, the imaging device 12 includes an imaging optical system 1a, an imaging element 101b, an AD conversion circuit 101c, a support unit 101d, a connector 104a, a flexible printed circuit board 104b, a connector 104e, a board 119, an image The processing IC 102a, the display control IC 102b, the display unit 3b, the memory card 4, the battery 109, the power supply circuit 110, the grip unit 125, and the main capacitor 107 are included.
Have

撮像光学系1aは、詳細には、魚眼レンズ120と、ローパスフィルタ101eとを有する。魚眼レンズ120は、広視野にわたる光を捉える。ローパスフィルタ101eは、魚眼レンズ120から入射した光から高周波ノイズを取り除く。   Specifically, the imaging optical system 1a includes a fisheye lens 120 and a low-pass filter 101e. The fisheye lens 120 captures light over a wide field of view. The low pass filter 101e removes high frequency noise from the light incident from the fisheye lens 120.

撮像素子101bは、ローパスフィルタ101eによってノイズが取り除かれた光をアナログ信号に変換する。AD変換回路101cは、撮像素子で得られたアナログ信号をデジタル信号(画像データ)に変換する。基板108は、画像処理IC102aなどの電子部品を組み込むためのプリント基板である。コネクタ104aは、基板108と、フレキシブルプリント基板104bとの相互を接続する。   The image sensor 101b converts the light from which noise has been removed by the low-pass filter 101e into an analog signal. The AD conversion circuit 101c converts an analog signal obtained by the image sensor into a digital signal (image data). The board 108 is a printed board for incorporating electronic components such as the image processing IC 102a. The connector 104a connects the board 108 and the flexible printed board 104b to each other.

フレキシブルプリント基板104bは、AD変換回路101cから画像処理IC102a及び表示制御IC102bへ画像データを伝送するための配線がプリントされている可撓性の基板である。コネクタ104eは、フレキシブルプリント基板104bと、基板119との相互を接続する。   The flexible printed circuit board 104b is a flexible circuit board on which wiring for transmitting image data from the AD conversion circuit 101c to the image processing IC 102a and the display control IC 102b is printed. The connector 104e connects the flexible printed circuit board 104b and the circuit board 119 to each other.

基板119は、画像処理IC102aなどの電子部品を組み込むためのプリント基板である。画像処理IC102aは、画像処理部2bと対応しており、画像データにホワイトバランス補正やガンマ補正などの画像処理を施す。表示制御IC102bは、表示制御部2cと対応しており、デジタル変換された画像データを表示部3bに表示させる。   The board 119 is a printed board for incorporating electronic components such as the image processing IC 102a. The image processing IC 102a corresponds to the image processing unit 2b, and performs image processing such as white balance correction and gamma correction on the image data. The display control IC 102b corresponds to the display control unit 2c, and displays the digitally converted image data on the display unit 3b.

メモリカード4は画像データを保存する。電源回路110は電池から得た電圧を制御し、撮像装置12を動作させる。グリップ部125は、ユーザが撮像装置を安定して構えられるように本体10の外部に形成された補助部材である。メインコンデンサ107は、フラッシュ5を発光させるための充電を行う。電池109は、電源回路110へ電圧を印加する。   The memory card 4 stores image data. The power supply circuit 110 controls the voltage obtained from the battery and operates the imaging device 12. The grip portion 125 is an auxiliary member formed outside the main body 10 so that the user can stably hold the imaging device. The main capacitor 107 performs charging for causing the flash 5 to emit light. The battery 109 applies a voltage to the power supply circuit 110.

図3は、撮像装置12の使用例を示す。図3(a)は、ユーザが表示部3bを見ながら右手でレリーズ操作を行う使用例であり、すなわち通常の撮影を示している。図3(b)は、広角の自分撮り、すなわちユーザが表示部3を見ずに左手で撮像装置12を構えながら自らを撮影する使用例である。図3(c)は、魚眼レンズの光軸を天頂へ向けることで、全方位撮影を行う使用例である。   FIG. 3 shows a usage example of the imaging device 12. FIG. 3A shows a usage example in which the user performs a release operation with the right hand while looking at the display unit 3b, that is, shows normal photographing. FIG. 3B is a use example of wide-angle self-photographing, that is, a user photographing himself / herself while holding the imaging device 12 with his left hand without looking at the display unit 3. FIG. 3C shows a usage example in which omnidirectional imaging is performed by directing the optical axis of the fisheye lens toward the zenith.

図3(c)に示す撮像装置を使用した全方位撮影の課題について図4を使用して説明する。図4(a)は、図4(a)のユーザであるH1が、H1及びユーザ以外の2人の被写体H2の合計3人を全方位撮影によって撮影する図である。魚眼レンズによる撮影では、3人の被写体はすべて画角内に収まる。図4(b)は、図4(a)での撮影結果である。撮像光学系1aのイメージサークルが撮像素子の撮像範囲よりも小さく設定されているとき、図4(b)に示すような円形の撮影結果が得られる。なお、図4(b)の円形の撮影結果は、画像処理によって図4(c)に示すパノラマ画像に加工することも可能である。なお、図4(b)に示すような3人の被写体が画角内に収まるためには、撮像光学系1aの光軸が天頂を向くことが望ましい。   The problem of omnidirectional imaging using the imaging apparatus shown in FIG. 3C will be described with reference to FIG. FIG. 4A is a diagram in which the user H1 in FIG. 4A shoots a total of three subjects H1 and two subjects H2 other than the user by omnidirectional imaging. When shooting with a fisheye lens, all three subjects fall within the angle of view. FIG. 4B shows the result of photographing in FIG. When the image circle of the imaging optical system 1a is set to be smaller than the imaging range of the imaging device, a circular imaging result as shown in FIG. 4B is obtained. Note that the circular imaging result in FIG. 4B can be processed into a panoramic image shown in FIG. 4C by image processing. In order for three subjects as shown in FIG. 4B to fall within the angle of view, it is desirable that the optical axis of the imaging optical system 1a be directed to the zenith.

ここで、撮像装置12の動作について、図5のフローチャートを使用して説明する。撮像装置12の電源がONになったとき、制御部2は、ユーザによって撮影モードが選択されたか否かを判定する(ステップS100)。撮影モードが選択されたと判定するとき(ステップS100でYESのとき)、制御部2は、ユーザが撮像装置12を左手で握っているか否かを判定する(ステップS103)。   Here, the operation of the imaging apparatus 12 will be described using the flowchart of FIG. When the power of the imaging device 12 is turned on, the control unit 2 determines whether or not the shooting mode is selected by the user (step S100). When it is determined that the shooting mode is selected (YES in step S100), the control unit 2 determines whether the user is holding the imaging device 12 with the left hand (step S103).

ここで、撮像装置を左手で把持する状況の例を、図6に示すロッククライミング中の撮影例を使用して説明する。図6(a)では、ユーザは、左手で岩肌に掴まり、右手で撮像装置12を構えている。そのとき、ユーザは、レリーズボタンなどを使用して撮影を容易に行うことができる。一方、図6(b)では、ユーザは右手で岩肌に掴まっているため、左手で撮像装置12を構えている。撮像装置のレリーズボタンは、左手で操作し難い位置に配置されていることが多いため、撮影は困難である。   Here, an example of a situation where the imaging apparatus is held with the left hand will be described using an example of shooting during rock climbing shown in FIG. In FIG. 6A, the user holds the imaging apparatus 12 with the right hand while holding the rock surface with the left hand. At that time, the user can easily perform shooting using a release button or the like. On the other hand, in FIG. 6B, the user holds the imaging device 12 with the left hand because the user is holding the rock surface with the right hand. Since the release button of the image pickup apparatus is often arranged at a position where it is difficult to operate with the left hand, it is difficult to take a picture.

さらに、撮像装置12が左手把持しているか否か(ステップS103)の判定について、その動作を図7のフローチャート及び図8を使用して説明する。   Further, the operation of determining whether or not the imaging device 12 is gripping the left hand (step S103) will be described using the flowchart of FIG. 7 and FIG.

図7は、定義済み処理である左手把持の判定(ステップS103)を詳細に説明するフローチャートである。まず、制御部2は、撮像装置12の傾きが水平なままか否かを判定する(ステップS201)。すなわち、その傾きが水平であると判定するとき、制御部2は、ユーザが撮影しようとしていると判定する。一方、その傾きが水平でなかったと判定する時、制御部2は、ユーザが撮影しようとしていないと判定する。撮像装置12の傾きが水平なままであると判定するとき(ステップS201でYESのとき)、制御部2は、タッチパネル3aのタッチ位置を検出し始める(ステップS202)。ところで、撮像装置が水平のままではない、すなわち傾いていると判定したとき(ステップS201でNOのとき)、制御部2は、ユーザにより左手把持されなかった、すなわち図7である定義済み処理においてNOと判定する。タッチパネル3aのタッチ位置の検出(ステップS202)後、制御部2は、ユーザが撮像装置12を左手で握ったときユーザの左手が接触する部分であると考えられる図8(a)に示すタッチパネル3aの三角形状のタッチ部T5へのタッチが検出されるか否かを判定する(ステップS203)。このステップS203ではタッチが検出されるか否かを判定している。しかしながら、ステップS203の判定においては、厳密にタッチが検出されていなくともタッチと判定されるようにしてもよい。例えば、静電容量型又は光学式のタッチパネル3aであれば、対象物(ここでは手の一部や指)が接触していなくとも、対象物との距離が一定距離内であればタッチがなされていることが検出される。また、三角形状のタッチ部T5へのタッチを判定しているのは、ユーザが表示部3bの表示を見ようという意思を持ちつつ、撮像装置12を把持する場合、図8(a)のように、撮像装置12の端を把持し易いためである。近年、表示部の画面は大型化の傾向にある。このような大型の画面の表示部を有する撮像装置12をユーザが把持しようとした場合、ユーザは表示部の周辺を把持することになる。このとき、表示部3bの表示を見ることを考えた場合、ユーザが表示部の端を把持することは容易に予想される。また、表示部3bの表示を見ることを考えていなくとも、表示部の中央部に指紋や手垢が付くことを嫌うユーザは、表示部を鷲掴みせずに表示部の端を把持すると考えられる。したがって、三角形状のタッチ部T5へのタッチを判定することで、ユーザの把持の判定をし易い。三角形状のタッチ部T5へのタッチが検出されたと判定したとき(ステップS203でYESのとき)、制御部2は、図7の定義済み処理においてYESと判定する、すなわち、撮像装置12は左手で把持されたと判定する。ところで、三角形状のタッチ部T5へのタッチがなかったと判定したとき(ステップS203でNOのとき)、制御部2は、ユーザが別の態様で撮像装置12を左手で握った時にユーザの指と接触する部分であると考えられる図8(b)に示すタッチパネル3a上の二箇所のタッチ部T1への同時のタッチが検出されたか否かを判定する(ステップS205)。なお、ステップS205では、二箇所のタッチ部T1へのタッチが検出されたか否かを判定している。二箇所のタッチ部T1へのタッチを判定するようにしている理由について説明する。例えば、親指と小指での把持(この場合、人差し指、中指、薬指が画面上に来るのでこれらの指がタッチ操作に用いられ得る)の場合、小指には力を込めることが難しいので、ユーザは、撮像装置12を安定して把持することが難しい。また、親指と中指での把持の場合、ユーザは撮像装置12を安定して把持することができる。ただし、この場合、ユーザは、人差し指しか動かせない。人差し指しか動かすことができないと表示部3bの画面が見づらい。これらに対し、親指と薬指での把持(この場合、人差し指、中指が表示部3bの画面上に来るのでこれらの指がタッチ操作に用いられ得る)の場合、ユーザは撮像装置12を安定して把持することができる。さらに、人差し指と中指の二箇所タッチでは、この二本の指を曲
げたり開いたりすれば、表示部3bの画面を視認し易い。二箇所のタッチ部T1は、このような親指と薬指での把持を検出するためのものである。なお、三角形状のタッチ部T5は、中指と親指での把持を検出するものであり、この場合、人差し指を用いた一箇所タッチになる。ただし、ユーザは撮像装置12を浅く握っているために、表示部3bの画面を確認できる。タッチパネル3a上の二箇所のタッチ部T1への同時のタッチが検出されたと判定するとき(ステップS205でYESのとき)、制御部2は、撮像装置12は左手把持をされている、すなわち、図7の定義済み処理においてYESであると判定する。一方、タッチパネル3a上の二箇所のタッチ部T1への同時のタッチが検出されなかったと判定するとき(ステップS205でNOのとき)、制御部2は、撮像装置12は左手で把持されていない、すなわち図7である定義済み処理においてNOと判定する。
FIG. 7 is a flowchart for explaining in detail the left-handed gripping determination (step S103), which is a predefined process. First, the control unit 2 determines whether or not the inclination of the imaging device 12 remains horizontal (step S201). That is, when it is determined that the inclination is horizontal, the control unit 2 determines that the user is about to shoot. On the other hand, when it is determined that the inclination is not horizontal, the control unit 2 determines that the user is not shooting. When determining that the inclination of the imaging device 12 remains horizontal (YES in step S201), the control unit 2 starts to detect the touch position of the touch panel 3a (step S202). By the way, when it is determined that the imaging device does not remain horizontal, that is, is tilted (NO in step S201), the control unit 2 does not hold the left hand by the user, that is, in the predefined process shown in FIG. Determine NO. After detecting the touch position of the touch panel 3a (step S202), the control unit 2 is a touch panel 3a shown in FIG. 8A that is considered to be a portion that is touched by the user's left hand when the user grasps the imaging device 12 with the left hand. It is determined whether or not a touch on the triangular touch portion T5 is detected (step S203). In step S203, it is determined whether or not a touch is detected. However, in the determination in step S203, the touch may be determined even if the touch is not strictly detected. For example, in the case of the capacitive or optical touch panel 3a, even if the object (part of the hand or finger here) is not in contact, the touch is made if the distance from the object is within a certain distance. Is detected. In addition, the touch on the triangular touch portion T5 is determined when the user holds the imaging device 12 while holding the intention to view the display on the display portion 3b as shown in FIG. This is because it is easy to grip the end of the imaging device 12. In recent years, the screen of the display unit tends to be enlarged. When the user tries to hold the imaging apparatus 12 having such a large screen display unit, the user holds the periphery of the display unit. At this time, when considering the display on the display unit 3b, it is easily predicted that the user holds the edge of the display unit. Further, even if the user does not consider viewing the display on the display unit 3b, a user who does not want to have a fingerprint or a stain on the center of the display unit may grasp the end of the display unit without gripping the display unit. Therefore, it is easy to determine the user's grip by determining the touch on the triangular touch portion T5. When it is determined that a touch on the triangular touch portion T5 has been detected (YES in step S203), the control unit 2 determines YES in the predefined process of FIG. 7, that is, the imaging device 12 is in the left hand. It is determined that it has been gripped. By the way, when it is determined that there is no touch on the triangular touch portion T5 (NO in step S203), the control unit 2 determines that the user's finger is in a different mode when the user grips the imaging device 12 with the left hand. It is determined whether or not simultaneous touches on the two touch portions T1 on the touch panel 3a shown in FIG. 8B which are considered to be in contact with each other have been detected (step S205). In step S205, it is determined whether or not two touch portions T1 are detected. The reason why the touch on the two touch portions T1 is determined will be described. For example, in the case of gripping with the thumb and little finger (in this case, the index finger, middle finger, ring finger can be used for touch operation because the index finger, middle finger, and ring finger come on the screen) It is difficult to stably hold the imaging device 12. Further, in the case of gripping with the thumb and the middle finger, the user can stably grip the imaging device 12. However, in this case, the user can move only the index. It is difficult to see the screen of the display unit 3b unless the index can be moved. On the other hand, in the case of gripping with the thumb and the ring finger (in this case, the index finger and the middle finger come on the screen of the display unit 3b so that these fingers can be used for the touch operation), the user stably holds the imaging device 12 It can be gripped. Furthermore, in the two-point touch of the index finger and the middle finger, if the two fingers are bent or opened, it is easy to visually recognize the screen of the display unit 3b. The two touch portions T1 are for detecting gripping with such thumb and ring finger. Note that the triangular touch portion T5 detects gripping with the middle finger and the thumb, and in this case, a one-point touch using the index finger is performed. However, since the user is grasping the imaging device 12 shallowly, the user can check the screen of the display unit 3b. When it is determined that simultaneous touches on the two touch portions T1 on the touch panel 3a are detected (YES in step S205), the control unit 2 holds the imaging device 12 with the left hand, that is, FIG. 7 is determined to be YES. On the other hand, when it is determined that simultaneous touches to the two touch portions T1 on the touch panel 3a are not detected (NO in step S205), the control unit 2 does not hold the imaging device 12 with the left hand. That is, NO is determined in the predefined process shown in FIG.

以上の本実施形態では、左手把持での操作を例として説明している。なお、本実施形態の技術は右手把持の場合にも適用され得る。例えば、レリーズボタンを押すことが難しいような右手把持もタッチ部の設定をしておけば検出できる。このような右手把持のタッチ部の位置は、例えば左手把持のタッチ部の位置と左右方向で逆位置である。さらには、例えば、障害者の手又は足による把持に対応したタッチ部の設定がされてもよい。つまり、ユーザが好む特定の把持の仕方に応じたタッチ部を設定しておき、タッチ位置の分布からこのような特定の把持を検出してもよい。   In the above-described embodiment, the operation with the left hand grip is described as an example. Note that the technique of the present embodiment can also be applied to the case of right-hand gripping. For example, it is possible to detect right-hand grip that makes it difficult to press the release button if the touch unit is set. The position of such a right-hand grip touch unit is, for example, opposite to the left-hand grip touch unit in the left-right direction. Furthermore, for example, a touch unit corresponding to gripping with a hand or foot of a disabled person may be set. That is, it is possible to set a touch unit corresponding to a specific gripping method preferred by the user and detect such specific gripping from the distribution of touch positions.

ところで、図5において、左手把持判定の定義済み処理でNOと判定されたとき(ステップS103でNOのとき)、すなわち右手で把持されたと判定するとき、制御部2は、左手把持フラグを0にセットする(ステップS206)。左手把持フラグを0にセットした後、制御部2は、光軸の水平状態の継続時間が所定時間より短いか否かを判定する(ステップS104)。水平状態の継続時間が所定時間より短くなかったと判定したとき(ステップS104でNOのとき)、制御部2は、表示部3bにライブビューを表示させ、被写体の顔検出を行う(ステップS105)。制御部2は、レリーズボタン又はタッチパネル3aが操作されたか、すなわちレリーズ操作があったか否かを判定する(ステップS106)。レリーズボタン又はタッチパネル3aが操作されていないと判定するとき、制御部2は、電源操作によって処理をステップS100に戻す。レリーズボタン又はタッチパネル3aが操作されたと判定するとき(ステップS106でYesのとき)、制御部2は、タッチパネル3a上でのタッチ位置や顔検出の結果として検出された顔部に対してピントや露出を合わせて撮影させた後、その撮影で得られた画像データを記録部4に記録させる。(ステップS107)。画像データを記録させた後、制御部2は、ユーザにより電源がOFFされるか否かを判定する(ステップS108)。電源がOFFされたと判定したとき(ステップS108でYesのとき)、制御部2は、処理を終了させる。電源がOFFされなかったと判定したとき(ステップS108でNOのとき)、処理がステップS100に戻る。   By the way, in FIG. 5, when it is determined NO in the predefined left hand grip determination process (NO in step S103), that is, when it is determined that the right hand is gripped, the control unit 2 sets the left hand grip flag to 0. Set (step S206). After setting the left hand grip flag to 0, the control unit 2 determines whether or not the duration time of the horizontal state of the optical axis is shorter than a predetermined time (step S104). When it is determined that the duration of the horizontal state is not shorter than the predetermined time (NO in step S104), the control unit 2 displays a live view on the display unit 3b and detects the face of the subject (step S105). The control unit 2 determines whether the release button or the touch panel 3a has been operated, that is, whether there has been a release operation (step S106). When determining that the release button or the touch panel 3a is not operated, the control unit 2 returns the process to step S100 by a power operation. When it is determined that the release button or the touch panel 3a is operated (Yes in step S106), the control unit 2 focuses or exposes the touched position on the touch panel 3a or the face detected as a result of face detection. Then, the image data obtained by the shooting is recorded in the recording unit 4. (Step S107). After recording the image data, the control unit 2 determines whether or not the power is turned off by the user (step S108). When it is determined that the power is turned off (Yes in step S108), the control unit 2 ends the process. When it is determined that the power has not been turned off (NO in step S108), the process returns to step S100.

ところで、左手把持判定の定義済み処理でYESと判定されたとき(ステップS103でYesのとき)、左手把持フラグを1にセットする(ステップS204)。左手フラグが1にセットされたとき、又は、水平状態の継続時間が所定時間より短かったと判定したとき(ステップS104でYesのとき)、制御部2は、表示部3bにライブビューを表示させ、さらに、画像データから被写体の顔検出を行わせる(ステップS114)。その後、画像データから顔が検出されたか否かを判定する(ステップS115)。画像データから顔が検出されたと判定するとき(ステップS115でYesのとき)、補助光制御部2fは、補助光発光部7に被写体の体の一部へ向けてガイド光を照射させる(ステップS118)。   By the way, when it is determined YES in the predefined process of the left hand grip determination (Yes in step S103), the left hand grip flag is set to 1 (step S204). When the left hand flag is set to 1 or when it is determined that the duration time of the horizontal state is shorter than the predetermined time (Yes in step S104), the control unit 2 displays a live view on the display unit 3b, Further, the face of the subject is detected from the image data (step S114). Thereafter, it is determined whether or not a face is detected from the image data (step S115). When determining that a face has been detected from the image data (Yes in step S115), the auxiliary light control unit 2f causes the auxiliary light emitting unit 7 to emit guide light toward a part of the body of the subject (step S118). ).

ここで、ガイド光の効果について、図9を使用して説明する。ユーザは、被写体の顔部が検出されたと判定されたとき照射されるガイド光を見ることによって、表示部3bを見なくとも、被写体が画角内に収まっていることを容易に視認できる。ガイド光として用いる光には、指向性を有する光を使用し、例えば、レーザ光を用いる。なお、補助光制御部2fは、補助光発光部7にガイド光の照射位置を画角内の顔以外の被写体に限定するように照射させることで、被写体の目にガイド光を直接入射させない。図9(a)では、ユーザは、表示部3bに表示されたライブビューを見ることができるため、図9(b)に示す撮影結果のように、被写体を画角内に容易に収めることができる。一方、図9(c)は、ユーザがライブビューを見て被写体が画角内に収まっているか否かを確認し難い状況を示す。この状況では、ガイド光は、ユーザが画角内を見ることが難しい状況において、被写体が画角内に収まっていることをユーザに知らせる。例えば、補助光制御部2fは、図9(d)のB1が示すような被写体の一部へのガイド光を照射させる(ステップS118)。   Here, the effect of the guide light will be described with reference to FIG. By viewing the guide light emitted when it is determined that the face portion of the subject has been detected, the user can easily recognize that the subject is within the angle of view without looking at the display portion 3b. For the light used as the guide light, light having directivity is used, for example, laser light is used. The auxiliary light control unit 2f causes the auxiliary light emitting unit 7 to irradiate the guide light to the subject other than the face within the angle of view, so that the guide light is not directly incident on the subject. In FIG. 9A, since the user can see the live view displayed on the display unit 3b, the subject can be easily placed within the angle of view as in the shooting result shown in FIG. 9B. it can. On the other hand, FIG. 9C shows a situation in which it is difficult for the user to check whether the subject is within the angle of view when viewing the live view. In this situation, the guide light informs the user that the subject is within the angle of view in a situation where it is difficult for the user to see the angle of view. For example, the auxiliary light control unit 2f radiates guide light to a part of the subject as indicated by B1 in FIG. 9D (step S118).

なお、被写体が画角内に収まっていることの通知を目的としたガイド光の照射位置は、被写体の体の一部に限らず、画角の端部に相当する位置であってもよい。画角の両端部に照射されたガイド光を確認することで、ユーザは、表示部3bを見なくとも、画角や、画角内におけるユーザの位置などを確認することができる。被写体の上左右に壁やビルなどのガイド光の照射を受ける別の被写体が存在するとき、制御部2は、光の照射を受ける物体にガイド光を照射させる。   The guide light irradiation position for the purpose of notifying that the subject is within the angle of view is not limited to a part of the body of the subject, and may be a position corresponding to the end of the angle of view. By confirming the guide light emitted to both ends of the angle of view, the user can confirm the angle of view and the position of the user within the angle of view without looking at the display unit 3b. When there are other subjects to be irradiated with guide light such as walls and buildings on the left and right sides of the subject, the control unit 2 causes the object to be irradiated with light to irradiate the guide light.

また、顔検出部2aが被写体の顔を検出しなかったと判定するとき(ステップS115でNOのとき)、補助光制御部2fは、撮像装置12と被写体との距離が所定距離よりも近いか否かを判定する(ステップS116)。所定距離は、例えば3mである。撮像装置12と被写体との距離が所定距離よりも近いと判定されるとき(ステップS116でYesのとき)、補助光制御部2fは、被写体が画角内に収まってないことをユーザに知らせることを目的とした点滅するガイド光を被写体に照射させる。   When determining that the face detection unit 2a has not detected the face of the subject (NO in step S115), the auxiliary light control unit 2f determines whether the distance between the imaging device 12 and the subject is shorter than a predetermined distance. Is determined (step S116). The predetermined distance is 3 m, for example. When it is determined that the distance between the imaging device 12 and the subject is shorter than the predetermined distance (Yes in step S116), the auxiliary light control unit 2f notifies the user that the subject is not within the angle of view. Illuminate the subject with flashing guide light for the purpose of

ところで、補助光制御部2fは、補助光発光部7に被写体へガイド光を照射させた(ステップS118又はステップS117)後、制御部2は、撮像装置12の重力方向と、ライブビューで撮影した画像データの重力方向とが一致しているか否か判定する(ステップS119)。   By the way, after the auxiliary light control unit 2f irradiates the subject with guide light on the auxiliary light emitting unit 7 (step S118 or step S117), the control unit 2 captures an image in the gravity direction of the imaging device 12 and a live view. It is determined whether or not the gravity direction of the image data matches (step S119).

撮像装置12の重力方向がライブビュー用として得られた画像データの重力方向と一致するとき(ステップS119でYesのとき)、制御部2は、ライブビューの重力方向と、撮像装置12の重力方向が一致しているか否かを判定する。それぞれの重力方向が一致するとき(ステップS119でYESのとき)、制御部2は、画像データを仮記憶させる(ステップS120)。後述するが、仮記憶された画像データは画像の合成に用いられる。この仮記憶された画像データは水平画像データと対応している。一方、重力方向が一致していないとき(ステップS119でNOのとき)、制御部2は、仮記憶を行わせない。   When the gravity direction of the imaging device 12 matches the gravity direction of the image data obtained for the live view (Yes in step S119), the control unit 2 determines the gravity direction of the live view and the gravity direction of the imaging device 12. It is determined whether or not. When the respective gravity directions match (YES in step S119), the control unit 2 temporarily stores the image data (step S120). As will be described later, the temporarily stored image data is used for image synthesis. This temporarily stored image data corresponds to the horizontal image data. On the other hand, when the gravity directions do not match (NO in step S119), the control unit 2 does not perform temporary storage.

仮記憶(ステップS120)後、制御部2は、左手把持フラグが1にセットされているか否かを判定する(ステップS122)。左手把持フラグが1にセットされたと判定したとき、すなわち撮像装置12が左手で把持されたと判定するとき(ステップS122でYESのとき)、制御部2は、タッチ検出の位置に応じた左手操作の判定を行う(ステップS124)。   After temporary storage (step S120), the control unit 2 determines whether or not the left hand grip flag is set to 1 (step S122). When it is determined that the left hand grip flag is set to 1, that is, when it is determined that the imaging device 12 is gripped with the left hand (YES in step S122), the control unit 2 performs the left hand operation according to the touch detection position. A determination is made (step S124).

ここで、定義済み処理である左手でのレリーズ操作の判定(ステップS124)について、図10のフローチャート及び図11を使用して説明する。図10において、制御部2は、タッチパネル3a上の二箇所への同時のタッチが検出されたか否かを判定する(ステップS211)。タッチパネル3aの二箇所への同時タッチが検出されたと判定するとき(ステップS211でYESのとき)、制御部2は、二箇所同時タッチを検出することでレリーズ操作を行うためのレリーズ用タッチ部T7を、タッチ部T1とは異なる位置に設ける(ステップS212)、例えば、タッチ部T7の位置は、タッチ部T1よりタッチパネル3aの端部に近い位置に設けられる。本実施形態では、左手把持における操作のためのタッチ部は、左手把持の判定によって判定されたタッチ部をタッチしていると考えられる指が届く範囲に設けられる。すなわち、その指が届かない範囲にタッチ部は設けられないため、タッチ部以外の領域がユーザの意思に反して押圧された際の誤動作は少ない。一方、タッチパネル3a上の二箇所への同時にタッチが検出されなかったと判定するとき(ステップS211でNOのとき)、すなわち一箇所へのタッチが検出されたと判定するとき、図11(b)に示す、一箇所のタッチ部を左手の指でタッチすることでレリーズ操作を行うレリーズ用タッチ部T2、なおかつタッチ部T5とは異なる位置に設けられた押圧により所定操作を行うための三角形状タッチ部T6、又はタッチパネル3a上を指でスライドさせることで拡大ライブビュー操作を行うスライド部T3、又は露出補正操作を行うスライド部T4を、左手の指がタッチパネル3aに接触可能である範囲内に設ける。また、操作用のタッチ部T2、T3、T4、T6又はT7の各領域をタッチパネル3aに設けるとき、各領域をユーザが視認しやすいように各領域に対応した画像を表示部3bに表示させても良い。例えば、図11に示すような楕円や、矢印のような画像を表示部3bに表示させる。ここで、拡大ライブビュー操作とは、ライブビュー表示された画像データの一部を拡大した領域を、さらにライブビュー表示する動作を指す。この操作は、対象物を拡大して見ることが必要な撮影機器以外の装置においても有効である。また、露出補正のように、被写体の視認に関わる一般的な動作、例えばピント補正などの操作をタッチによって行ってもよい。なお、左手の指がタッチパネル3aの三角形状タッチ部T6を操作していても、ユーザは表示部3bの中央に表示された画像を確認することができる。つまり本発明の一実施形態による操作装置は、タッチパネル3aの手で把持された領域以外の領域も表示位置として有効利用した、すなわち、直感的なユーザーインターフェース(UI)である。   Here, the determination of the release operation with the left hand (step S124), which is a predefined process, will be described with reference to the flowchart of FIG. 10 and FIG. In FIG. 10, the control unit 2 determines whether or not simultaneous touches on two locations on the touch panel 3a are detected (step S211). When it is determined that simultaneous touches on two places on the touch panel 3a are detected (YES in step S211), the control unit 2 detects a two-part simultaneous touch to perform a release operation T7. Is provided at a position different from the touch part T1 (step S212). For example, the position of the touch part T7 is provided at a position closer to the end of the touch panel 3a than the touch part T1. In the present embodiment, the touch part for the operation in the left hand grip is provided in a range where a finger considered to be touching the touch part determined by the determination of the left hand grip reaches. That is, since the touch part is not provided in a range where the finger cannot reach, there are few malfunctions when an area other than the touch part is pressed against the user's intention. On the other hand, when it is determined that touches to two locations on the touch panel 3a are not detected simultaneously (NO in step S211), that is, when it is determined that a touch to one location is detected, FIG. A release touch part T2 that performs a release operation by touching one touch part with a finger of the left hand, and a triangular touch part T6 for performing a predetermined operation by pressing provided at a position different from the touch part T5. Alternatively, a slide portion T3 that performs an enlarged live view operation by sliding the touch panel 3a with a finger or a slide portion T4 that performs an exposure correction operation is provided within a range where the finger of the left hand can contact the touch panel 3a. When each area of the touch part T2, T3, T4, T6, or T7 for operation is provided on the touch panel 3a, an image corresponding to each area is displayed on the display unit 3b so that the user can easily see each area. Also good. For example, an ellipse as shown in FIG. 11 or an image like an arrow is displayed on the display unit 3b. Here, the enlarged live view operation refers to an operation for further displaying a live view of an area obtained by enlarging a part of image data displayed in live view. This operation is also effective in devices other than photographing equipment that require an object to be enlarged. Further, as in exposure correction, a general operation related to visual recognition of a subject, for example, an operation such as focus correction may be performed by touch. Even if the finger of the left hand is operating the triangular touch part T6 of the touch panel 3a, the user can check the image displayed at the center of the display part 3b. That is, the operating device according to the embodiment of the present invention is an intuitive user interface (UI) that effectively uses an area other than the area held by the hand of the touch panel 3a as a display position.

また、操作用タッチ部の領域の位置は、表示部3bに表示されている画像に対してタッチのための指が重ならないようすることと、タッチのための指によってタッチ部を自然にタッチできることとが考慮されて決定されている。例えば、タッチのための指が表示部3bの画像と重なることがあっても、操作用タッチ部の領域は、ユーザがその指を曲げたり広げたりすることによって画像を確認できるようなものであってもよい。すなわち、操作用タッチ部へのタッチにどの指が使用されるかによって、さらに、手の構造や手の可動範囲を考慮することによって、ユーザの指が自然にタッチ可能な操作用タッチ部の領域の位置は変わる。把持した手の一部の指は把持のために使用され、他の指は操作のために使用される。制御部1は、撮像装置12が特定の把持がされたと判定するとき、タッチパネル3aのタッチ位置の分布を判定することで、どの指で把持がされているかを判定する。なお、本発明の一実施形態では、撮像装置を左手で把持したときの操作用タッチ部の領域について説明している。しかし、本実施形態における操作用タッチ部は、左手によるタッチに限らず、他の身体部位によるタッチに対応しても良い。例えば、機器を鷲づかみで把持した際、制御部2が、操作のための指がないと判定するとき、ユーザの鼻又は別の四肢でタッチさせることを考慮した操作用タッチ部を改めて設けても良い。   In addition, the position of the operation touch unit area is such that the touch finger does not overlap the image displayed on the display unit 3b, and the touch unit can be touched naturally by the touch finger. And is determined in consideration. For example, even if a finger for touching overlaps with the image on the display unit 3b, the area of the operation touch unit is such that the user can confirm the image by bending or spreading the finger. May be. In other words, depending on which finger is used to touch the operation touch unit, and further considering the structure of the hand and the movable range of the hand, the region of the operation touch unit where the user's finger can touch naturally The position of changes. Some fingers of the gripped hand are used for gripping, and other fingers are used for operation. When the control unit 1 determines that the imaging apparatus 12 has held a specific grip, the control unit 1 determines which finger is gripped by determining the distribution of touch positions on the touch panel 3a. In the embodiment of the present invention, the region of the operation touch unit when the imaging apparatus is held with the left hand is described. However, the operation touch unit in the present embodiment is not limited to the touch with the left hand, and may correspond to a touch with another body part. For example, when the device is grasped with a pinch, when the control unit 2 determines that there is no finger for operation, a touch unit for operation that considers touching with the user's nose or another limb is newly provided. May be.

ところで、定義済み処理であるステップS124が終了後、制御部2は、タッチパネル3aがタッチ操作されたか否かを判定する(ステップS214)。タッチ部へのタッチが検出されたとき、すなわち、タッチパネル3aが指で押圧された、又は、図11(c)に示すようなスライド操作がなされたと判定するとき(ステップS214でYESのとき)、制御部2は、その操作がレリーズ操作であるか否かを判定する(ステップS217)。操作がレリーズ操作であると判定したとき(ステップS217でYESのとき)、制御部2は、ユーザの左手でのレリーズ操作がなされたと判定する。一方、操作がレリーズ操作ではなかったと判定したとき(ステップS217でNOのとき)、制御部2は、ズームや露出補正といった操作を押圧されたタッチ部に応じて行う(ステップS216)。ところで、押圧やスライドなどのタッチ操作がなかったと判定するとき(ステップS214でNOのとき)、制御部2は、ユーザの左手でのレリーズ操作がなされていなかったと判定する。このとき、ユーザにより電源がOFFに選択されるか否か(ステップS108)の判定に移る。   By the way, after step S124, which is a predefined process, is completed, the control unit 2 determines whether or not the touch panel 3a has been touched (step S214). When a touch on the touch part is detected, that is, when it is determined that the touch panel 3a is pressed with a finger or a slide operation as shown in FIG. 11C is performed (YES in step S214), The control unit 2 determines whether or not the operation is a release operation (step S217). When it is determined that the operation is a release operation (YES in step S217), the control unit 2 determines that a release operation has been performed with the user's left hand. On the other hand, when it is determined that the operation is not a release operation (NO in step S217), the control unit 2 performs operations such as zoom and exposure correction according to the pressed touch unit (step S216). By the way, when it determines with there being no touch operations, such as a press and a slide (when it is NO at step S214), the control part 2 determines with the release operation with the user's left hand not being performed. At this time, the process proceeds to determination of whether or not the user selects the power supply OFF (step S108).

ところで、左手把持フラグが1ではなかったとき(ステップS122でNOのとき)、ユーザがすなわち右手で撮像装置12を握っているとき、制御部2は、レリーズボタンを使用したレリーズ操作がなされたか否かを判定する(ステップS123)。すなわち、レリーズ操作がなされたとき(ステップS124でYESのとき又はステップS123でYESのとき)、制御部2は、被写体に向け照射しているガイド光を消灯させ撮影を行わせる(ステップS126)。   By the way, when the left hand grip flag is not 1 (NO in step S122), when the user is holding the imaging device 12 with the right hand, the control unit 2 determines whether or not the release operation using the release button has been performed. Is determined (step S123). That is, when a release operation is performed (YES in step S124 or YES in step S123), the control unit 2 turns off the guide light irradiated toward the subject and performs photographing (step S126).

ガイド光を消灯させ、撮影を行わせたとき(ステップS126)、制御部2は、仮記憶により得られた画像データと撮影により得られた画像データとの合成が必要かつ合成が可能か否かを判定する(ステップS127)。なお、合成が必要な状況とは、撮影時の重力方向と、画像データの重力方向とが一致しなかったときであり、また、合成が可能な状況とは、仮記憶された画像データ群の中に合成に使用可能と判定される画像データが含まれている状況などである。合成に使用可能と判定される画像データは、合成が必要な画像データに類似の画像データであり、例えば、合成に必要な画像データの直前又は直後に撮影された画像データである。仮記憶されている画像データ(ステップS120)と、撮影により得られた画像データとの合成が、必要かつ可能であると判定したとき(ステップS127でYESのとき)、制御部2は、両画像データを合成し(ステップS128)、合成により得られた画像データを記録部4に記録する(ステップS129)。   When the guide light is turned off and shooting is performed (step S126), the control unit 2 determines whether or not the image data obtained by temporary storage and the image data obtained by shooting are necessary and can be combined. Is determined (step S127). The situation where composition is necessary is when the gravitational direction at the time of shooting and the gravitational direction of the image data do not match, and the situation where composition is possible is that of the temporarily stored image data group. This includes a situation in which image data determined to be usable for composition is included. The image data determined to be usable for composition is image data similar to image data that needs to be composed, for example, image data taken immediately before or after the image data necessary for composition. When it is determined that it is necessary and possible to combine the temporarily stored image data (step S120) and the image data obtained by shooting (YES in step S127), the control unit 2 displays both images. The data is synthesized (step S128), and the image data obtained by the synthesis is recorded in the recording unit 4 (step S129).

ここで、画像データの合成の詳細について、図12、図13A、図13B、図13C、図13D及び図14を使用して説明する。図12は、画像データの合成が必要な状況の例として、ユーザがカヌーに乗り自分を撮影する状況を示す。ユーザは、図12(a)に示すように右手でオールを持っており、そのため、左手で撮像装置の操作を行う。図12(a)の状況下での理想的な撮影結果は、図12(b)に示すように、撮影時の重力方向と、画像データの重力方向とが一致している撮影結果である。しかしながら、前述の通り不安定な状況下のため、撮影結果は、図12(c)に示すような、撮影時の重力方向と画像データの重力方向とが一致していない撮影結果となることが多い。そこで、撮像装置12は、撮影時に得られた撮影時の重力方向と画像データの重力方向とが一致していない画像データを、撮影時の重力方向と画像データの重力方向とが一致している画像データとして取得できるように画像合成部2eに合成を行わせる。   Details of the composition of the image data will be described with reference to FIGS. 12, 13A, 13B, 13C, 13D, and 14. FIG. 12 shows a situation where a user takes a canoe and shoots himself as an example of a situation where image data synthesis is necessary. As shown in FIG. 12A, the user holds the oar with the right hand, and therefore operates the imaging apparatus with the left hand. As shown in FIG. 12B, the ideal shooting result under the situation of FIG. 12A is a shooting result in which the gravity direction at the time of shooting matches the gravity direction of the image data. However, because of the unstable situation as described above, the shooting result may be a shooting result in which the gravity direction at the time of shooting does not match the gravity direction of the image data as shown in FIG. Many. Therefore, the imaging device 12 matches the gravity direction at the time of shooting and the gravity direction of the image data for image data that does not match the gravity direction at the time of shooting and the gravity direction of the image data. The image composition unit 2e is made to perform composition so that it can be acquired as image data.

そこで、本発明の一実施形態である撮像装置12は、撮影時に得られた撮影時の重力方向と画像データの重力方向とが一致しない画像データを、撮影時の重力方向と画像データの重力方向とが一致する画像データに合成するため、撮像装置12が有する画像合成部2eを使用して画像データの合成を行う。   In view of this, the imaging device 12 according to an embodiment of the present invention obtains image data in which the gravitational direction at the time of photographing and the gravitational direction of the image data obtained at the time of photographing are the same as the gravitational direction at the time of photographing and the gravity direction of the image data. In order to synthesize image data that coincides with the image data, the image data is synthesized using the image synthesis unit 2e of the imaging device 12.

ここで、画像データの合成の動作について、図13A、図13B、図13C、図13D及び図14に示すフローチャートを使用して説明する。画像データの合成が必要かつ可能であると判定したとき(ステップS107でYESのとき)、制御部2は、撮影時に得られた画像データの重力方向(図12(c)のG)を撮影時の重力方向(例えば下方向)と一致させる、例えば、図13A(a)に示す画像データの重力方向が撮像時の重力方向と異なる画像データを、図13A(b)に示すようにして撮影画像データを傾ける(ステップS301)。続いて、制御部2は、図13B(a)に示すように、傾けた後の撮影画像データI1と仮記録させている水平画像データI2との間の一致度が最も高くなるように両画像データを重ね合わせて、図13B(b)に示す合成画像データI3を得る(ステップS302)。例えば、図13Bに示すように、両画像データの人物部Sの位置が合うように重ね合わせが行われる。画像データの重ね合わせを行った後、制御部2は、図13C(a)に示すように水平画像データと撮影画像データとが重なっている部分にある水平画像データ部分を削除する(ステップS303)。例えば図13C(b)に示すように、人物部Sにおける水平画像データが削除されることにより、人物部Sについては撮影画像データのみが残る。そして、制御部2は、図13D(a)に示すように、合成画像データを四角形状に切り出す。(ステップS304)その後、図14の処理が終了される。例えば、図13D(b)では、破線で示される部分が削除されて最終的な合成画像データが得られる。   Here, the image data combining operation will be described with reference to the flowcharts shown in FIGS. 13A, 13B, 13C, 13D, and 14. FIG. When it is determined that composition of image data is necessary and possible (YES in step S107), the controller 2 determines the gravitational direction (G in FIG. 12C) of the image data obtained at the time of photographing. For example, image data in which the gravity direction of the image data shown in FIG. 13A (a) is different from the gravity direction at the time of imaging is taken as shown in FIG. 13A (b). The data is tilted (step S301). Subsequently, as shown in FIG. 13B (a), the control unit 2 sets both images so that the degree of coincidence between the tilted captured image data I1 and the temporarily recorded horizontal image data I2 is the highest. By superimposing the data, composite image data I3 shown in FIG. 13B (b) is obtained (step S302). For example, as shown in FIG. 13B, superposition is performed so that the positions of the person portions S of both image data are aligned. After superimposing the image data, the control unit 2 deletes the horizontal image data portion in the portion where the horizontal image data and the captured image data overlap as shown in FIG. 13C (a) (step S303). . For example, as shown in FIG. 13C (b), the horizontal image data in the person part S is deleted, so that only the photographed image data remains in the person part S. Then, as illustrated in FIG. 13D (a), the control unit 2 cuts out the composite image data into a square shape. (Step S304) Thereafter, the process of FIG. 14 is terminated. For example, in FIG. 13D (b), the portion indicated by the broken line is deleted to obtain the final composite image data.

ところで、合成が不要若しくは不可能であったと判定したとき(ステップS127でNOのとき)、制御部2は、撮影により得られた画像データを記録部4にそのまま記録する(ステップS130)。その後、制御部2は、処理をステップS108に移行する。   By the way, when it is determined that the composition is unnecessary or impossible (NO in step S127), the control unit 2 records the image data obtained by photographing as it is in the recording unit 4 (step S130). Thereafter, the control unit 2 moves the process to step S108.

以上説明したように、本発明の一実施形態である撮像装置12は、まず、撮像装置12が左手で把持されているか否かの判定を行う。左手で操作されたと判定するとき、制御部2は、タッチパネル3aに左手での握り方に対応したタッチ部を設けさせる。握り方に対応したタッチ部を操作することによって、ユーザは、左手での操作を容易に行うことができる。   As described above, the imaging device 12 according to the embodiment of the present invention first determines whether or not the imaging device 12 is held with the left hand. When it determines with having operated with the left hand, the control part 2 makes the touch part corresponding to how to grasp with the left hand to the touch panel 3a. By operating the touch part corresponding to the grip, the user can easily perform the operation with the left hand.

また、本発明の一実施形態は、タッチパネルを使用して操作を可能とする操作装置であれば、撮像装置に限定されない。例えば、リモコンのような、ユーザに把持されたまま離されないように操作をしたい各種の操作装置へ応用される可能性がある。又は、産業用機器若しくは医療用機器の分野で使用されるコントロールボックスや据え置き機器の操作部材の握りの部分を有する操作装置へ応用される可能性がある。又は、車載機器のような、ブラインド操作を要する操作装置へ応用される可能性もある。さらに、本発明の一実施形態中では、操作装置の姿勢や撮像による顔検出結果について述べた。その操作装置の姿勢としては、レバーの傾きやリモコンの向けた方向などをこの範疇に含めても良い。さらに、撮像して検出されるものは、顔に限らず、リモコンやコントロールボックスを向けた方向のモニタ画面に移された対象物や機器そのものであっても良い。このような表示部確認と表示部上タッチを行う操作を前提とした機器で、本発明は効力を発揮する可能性がある。そこで、本発明は操作装置に属する。   In addition, the embodiment of the present invention is not limited to the imaging device as long as it is an operation device that can be operated using a touch panel. For example, it may be applied to various operation devices such as a remote controller that are desired to be operated so as not to be released while being held by the user. Alternatively, it may be applied to an operating device having a grip portion of an operating member of a control box or stationary device used in the field of industrial equipment or medical equipment. Alternatively, it may be applied to an operating device that requires a blind operation, such as an in-vehicle device. Further, in the embodiment of the present invention, the attitude of the controller device and the face detection result by imaging are described. The posture of the operating device may include the tilt of the lever or the direction of the remote controller in this category. Furthermore, what is detected by imaging is not limited to a face, but may be an object or a device itself that has been moved to a monitor screen in a direction in which a remote control or a control box is directed. There is a possibility that the present invention is effective in a device that is premised on such an operation for confirming the display portion and performing a touch on the display portion. Therefore, the present invention belongs to an operating device.

なお、上述した実施形態における撮像装置による各処理の手法、すなわち、各フローチャートに示す処理は、何れも制御部2に実行させることができるプログラムとして記憶される。このプログラムは、メモリカード(ROMカード、RAMカード等)、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の外部記憶装置の記憶媒体に記憶されたプログラムを読み込み、この読み込んだプログラムによって動作が制御されることにより、上述した処理を実行することができる。   Note that each processing method performed by the imaging apparatus according to the above-described embodiment, that is, the processing illustrated in each flowchart is stored as a program that can be executed by the control unit 2. This program is stored in a storage medium of an external storage device such as a memory card (ROM card, RAM card, etc.), magnetic disk (floppy (registered trademark) disk, hard disk, etc.), optical disk (CD-ROM, DVD, etc.), semiconductor memory, etc. The above-described processing can be executed by reading the stored program and controlling the operation by the read program.

1a…撮像光学系、 1b…撮像部、 1c…通信部、 2…制御部、 2a…顔検出部、 2b…画像処理部、 2c…表示制御部、 2e…画像合成部、 2f…補助光制御部、 3a…タッチパネル、 3b…表示部、 4…記録部、 5…フラッシュ、 6…操作判定部、 7…補助光発光部、 9…姿勢判定部、11…外部通信部、 12…撮像装置、 101b…撮像素子、 101c…AD変換回路、 101d…支持部、101e…ローパスフィルタ、 102a…画像処理IC、 102b…表示制御IC、104a…コネクタ、 104b…フレキシブルプリント基板、 104e…コネクタ、 107…メインコンデンサ、 108…基板、 109…電池、 110…電源回路、 119…基板、 120…魚眼レンズ DESCRIPTION OF SYMBOLS 1a ... Imaging optical system, 1b ... Imaging part, 1c ... Communication part, 2 ... Control part, 2a ... Face detection part, 2b ... Image processing part, 2c ... Display control part, 2e ... Image composition part, 2f ... Auxiliary light control 3a ... touch panel 3b ... display unit 4 ... recording unit 5 ... flash 6 ... operation determination unit 7 ... auxiliary light emitting unit 9 ... posture determination unit 11 ... external communication unit 12 ... imaging device DESCRIPTION OF SYMBOLS 101b ... Image pick-up element, 101c ... AD converter circuit, 101d ... Support part, 101e ... Low pass filter, 102a ... Image processing IC, 102b ... Display control IC, 104a ... Connector, 104b ... Flexible printed circuit board, 104e ... Connector, 107 ... Main Capacitor 108 ... Board 109 ... Battery 110 ... Power supply circuit 119 ... Board 120 ... Fisheye lens

Claims (9)

手での把持がなされるタッチパネルと、
前記手で前記タッチパネルの把持がなされたとき、前記手の把持が感知された前記タッチパネルの領域である把持領域を除く前記タッチパネルの領域における前記把持に対応した特定領域に、前記把持に対応した所定操作を行うための操作用タッチ部の領域を設けるように制御する制御部と、
を具備する操作装置。
A touch panel that is gripped by hand,
When the touch panel is gripped by the hand, a predetermined area corresponding to the grip is set in a specific area corresponding to the grip in the area of the touch panel excluding the grip area that is the area of the touch panel where the grip of the hand is detected. A control unit that performs control so as to provide an area of the operation touch unit for performing an operation;
An operating device comprising:
前記制御部は、前記特定領域として手のひらが触れる位置から決定される位置に前記操作用タッチ部の領域を設けるように制御する請求項1に記載の操作装置。   The operation device according to claim 1, wherein the control unit performs control so that an area of the operation touch unit is provided at a position determined from a position touched by a palm as the specific area. 前記制御部は、前記把持領域によって定まる可動な指に対応して前記操作用タッチ部の領域の位置を決定する請求項1に記載の操作装置。   The operation device according to claim 1, wherein the control unit determines a position of the region of the operation touch unit corresponding to a movable finger determined by the grip region. 前記操作装置は、画像を表示する表示部と、
前記表示部を制御する表示制御部を更に具備し、
前記表示制御部は、前記操作用タッチ部を示す画像を前記表示部に表示させる請求項1に記載の操作装置。
The operating device includes a display unit that displays an image;
A display control unit for controlling the display unit;
The operation device according to claim 1, wherein the display control unit displays an image showing the operation touch unit on the display unit.
前記制御部は、前記タッチパネルの少なくとも二箇所に同時に指が近接又は接触したときに前記手で前記タッチパネルが把持されたと判定する請求項1に記載の操作装置。   The operation device according to claim 1, wherein the control unit determines that the touch panel is gripped by the hand when a finger approaches or contacts at least two locations of the touch panel simultaneously. 前記操作装置は、画像を表示する表示部を有し、
前記制御部は、前記操作用タッチ部がスライド操作を感知したとき、前記スライド操作に応じて前記表示部に表示された前記画像の拡大率を変化させる前記所定操作を行い、前記拡大率を変化させた前記画像を前記表示部に表示させるように制御する請求項1に記載の操作装置。
The operating device has a display unit for displaying an image,
When the operation touch unit senses a slide operation, the control unit performs the predetermined operation for changing an enlargement ratio of the image displayed on the display unit according to the slide operation, and changes the enlargement ratio. The operating device according to claim 1, wherein control is performed so that the displayed image is displayed on the display unit.
前記操作装置は、前記画像の露出補正を行う画像処理部を有し、
前記制御部は、前記把持操作用タッチ部がスライド操作を検出したとき、前記スライド操作に応じて前記画像処理部によって前記画像データの露出度の変化である前記所定操作を行わせ、前記露出度を変化させられた前記画像データを前記表示部に表示させるように制御する請求項1に記載の操作装置。
The operating device has an image processing unit for correcting exposure of the image,
When the grip operation touch unit detects a slide operation, the control unit causes the image processing unit to perform the predetermined operation, which is a change in the exposure level of the image data, in response to the slide operation. The operating device according to claim 1, wherein control is performed such that the image data with the change in the display is displayed on the display unit.
前記操作装置は、被写体を撮影し前記画像データを取得する撮像部を有し、
前記制御部は、前記操作用タッチ部が前記手の把持を感知したとき、前記撮像部に撮影である前記所定操作を行わせるように制御する請求項1に記載の操作装置。
The operating device includes an imaging unit that captures an image of a subject and acquires the image data.
The operation device according to claim 1, wherein the control unit controls the imaging unit to perform the predetermined operation for photographing when the operation touch unit senses gripping of the hand.
手での把持がなされ、手の把持が感知するタッチパネルを具備する操作装置の制御方法において、
前記手で前記タッチパネルの把持がなされたか否かを判定することと、
タッチされた前記タッチパネルの領域である把持領域において、前記タッチ位置の情報に応じて、前記把持に対応した所定操作を行うための操作用タッチ部の領域を前記手の把持が感知された位置を除く前記タッチパネル上に設けることと、
を具備する操作装置の制御方法。
In the control method of the operating device having a touch panel that is gripped by a hand and sensed by the hand,
Determining whether the touch panel is gripped by the hand;
In the gripping area that is the touched touch panel area, the area of the touch part for operation for performing a predetermined operation corresponding to the gripping is determined based on the information on the touch position. Providing on the touch panel except,
A method for controlling an operating device comprising:
JP2013160584A 2013-05-28 2013-08-01 Operating device and control method thereof Active JP6157263B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013160584A JP6157263B2 (en) 2013-08-01 2013-08-01 Operating device and control method thereof
CN201480030310.6A CN105379244B (en) 2013-05-28 2014-05-22 Photographic device and image capture method
PCT/JP2014/063624 WO2014192640A1 (en) 2013-05-28 2014-05-22 Image-capturing device and method for capturing image
US14/933,682 US9843727B2 (en) 2013-05-28 2015-11-05 Image capturing apparatus and image capturing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013160584A JP6157263B2 (en) 2013-08-01 2013-08-01 Operating device and control method thereof

Publications (2)

Publication Number Publication Date
JP2015032105A true JP2015032105A (en) 2015-02-16
JP6157263B2 JP6157263B2 (en) 2017-07-05

Family

ID=52517373

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013160584A Active JP6157263B2 (en) 2013-05-28 2013-08-01 Operating device and control method thereof

Country Status (1)

Country Link
JP (1) JP6157263B2 (en)

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004364067A (en) * 2003-06-06 2004-12-24 Nippon Telegr & Teleph Corp <Ntt> Camera with indicator
JP2006279739A (en) * 2005-03-30 2006-10-12 Casio Comput Co Ltd Imaging apparatus comprising fisheye lens and program therefor
JP2007187970A (en) * 2006-01-16 2007-07-26 Sumitomo Mitsui Construction Co Ltd Wide-angle photographing device and image processing method
JP2007259164A (en) * 2006-03-24 2007-10-04 Fujifilm Corp Camera system
JP2007300353A (en) * 2006-04-28 2007-11-15 Fujifilm Corp Imaging device
JP2009015313A (en) * 2007-06-05 2009-01-22 Yamaha Corp Camera system
JP2011055246A (en) * 2009-09-02 2011-03-17 Panasonic Corp Telescopic imaging apparatus
JP2012133745A (en) * 2010-11-29 2012-07-12 Nec Corp Information processor and display size control method for the same
JP2012173904A (en) * 2011-02-21 2012-09-10 Sharp Corp Electronic apparatus, content display method, and content display program
JP2012199888A (en) * 2011-03-23 2012-10-18 Ntt Docomo Inc Portable terminal
JP2012209626A (en) * 2011-03-29 2012-10-25 Brother Ind Ltd Conference device, program for conference device and control method
WO2012176384A1 (en) * 2011-06-21 2012-12-27 株式会社ニコン Display program and display device
JP2013008196A (en) * 2011-06-24 2013-01-10 Ntt Docomo Inc Mobile information terminal, operation state determination method, program
JP2013041629A (en) * 2008-01-04 2013-02-28 Apple Inc Selective rejection of touch contacts in edge region of touch surface
JP2013078075A (en) * 2011-09-30 2013-04-25 Olympus Imaging Corp Imaging apparatus, imaging method, and program
WO2013061658A1 (en) * 2011-10-27 2013-05-02 シャープ株式会社 Portable information terminal
JP2013145944A (en) * 2012-01-13 2013-07-25 Olympus Imaging Corp Photographing system and lens barrel

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004364067A (en) * 2003-06-06 2004-12-24 Nippon Telegr & Teleph Corp <Ntt> Camera with indicator
JP2006279739A (en) * 2005-03-30 2006-10-12 Casio Comput Co Ltd Imaging apparatus comprising fisheye lens and program therefor
JP2007187970A (en) * 2006-01-16 2007-07-26 Sumitomo Mitsui Construction Co Ltd Wide-angle photographing device and image processing method
JP2007259164A (en) * 2006-03-24 2007-10-04 Fujifilm Corp Camera system
JP2007300353A (en) * 2006-04-28 2007-11-15 Fujifilm Corp Imaging device
JP2009015313A (en) * 2007-06-05 2009-01-22 Yamaha Corp Camera system
JP2013041629A (en) * 2008-01-04 2013-02-28 Apple Inc Selective rejection of touch contacts in edge region of touch surface
JP2011055246A (en) * 2009-09-02 2011-03-17 Panasonic Corp Telescopic imaging apparatus
JP2012133745A (en) * 2010-11-29 2012-07-12 Nec Corp Information processor and display size control method for the same
JP2012173904A (en) * 2011-02-21 2012-09-10 Sharp Corp Electronic apparatus, content display method, and content display program
JP2012199888A (en) * 2011-03-23 2012-10-18 Ntt Docomo Inc Portable terminal
JP2012209626A (en) * 2011-03-29 2012-10-25 Brother Ind Ltd Conference device, program for conference device and control method
WO2012176384A1 (en) * 2011-06-21 2012-12-27 株式会社ニコン Display program and display device
JP2013008196A (en) * 2011-06-24 2013-01-10 Ntt Docomo Inc Mobile information terminal, operation state determination method, program
JP2013078075A (en) * 2011-09-30 2013-04-25 Olympus Imaging Corp Imaging apparatus, imaging method, and program
WO2013061658A1 (en) * 2011-10-27 2013-05-02 シャープ株式会社 Portable information terminal
JP2013145944A (en) * 2012-01-13 2013-07-25 Olympus Imaging Corp Photographing system and lens barrel

Also Published As

Publication number Publication date
JP6157263B2 (en) 2017-07-05

Similar Documents

Publication Publication Date Title
JP6214238B2 (en) Imaging device
US9843727B2 (en) Image capturing apparatus and image capturing method
US11210796B2 (en) Imaging method and imaging control apparatus
EP3754422A1 (en) Electronic apparatus, method and storage medium for controlling the position of a frame based on eye tracking and manual inputs
JP2010213169A (en) Display device, display processing method, and imaging apparatus
JP2016139947A (en) Portable terminal
US20190141258A1 (en) Imaging apparatus
WO2010061850A1 (en) Device with camera
US20160054645A1 (en) External camera for a portable electronic device
JPWO2016006149A1 (en) Imaging control apparatus, imaging control method, and program
JP2017126980A (en) Information processing apparatus, imaging apparatus, display device, information processing method, imaging apparatus control method, display device control method, information processing program, imaging apparatus control program, and display device control program
JP2015033007A (en) Image processing apparatus
JP2004164559A (en) Portable terminal device
JP2008098954A (en) Imaging apparatus, method, and program
CN113364945A (en) Electronic apparatus, control method, and computer-readable medium
JP6157263B2 (en) Operating device and control method thereof
JP5109779B2 (en) Imaging device
US11442244B2 (en) Imaging device
JP5104517B2 (en) Imaging device
JP2015162822A (en) Electronic apparatus, imaging apparatus, and communication apparatus
JP2015031832A (en) Imaging device
JP2011035769A (en) Photographing apparatus
JP2010062706A (en) Imaging apparatus
JP7191592B2 (en) ELECTRONIC DEVICE, ELECTRONIC DEVICE CONTROL METHOD, PROGRAM AND RECORDING MEDIUM
JPWO2020129620A1 (en) Imaging control device, imaging device, imaging control method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150423

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170606

R151 Written notification of patent or utility model registration

Ref document number: 6157263

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250