JP2015032105A - Operation device and control method for the same - Google Patents
Operation device and control method for the same Download PDFInfo
- Publication number
- JP2015032105A JP2015032105A JP2013160584A JP2013160584A JP2015032105A JP 2015032105 A JP2015032105 A JP 2015032105A JP 2013160584 A JP2013160584 A JP 2013160584A JP 2013160584 A JP2013160584 A JP 2013160584A JP 2015032105 A JP2015032105 A JP 2015032105A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- touch
- control unit
- touch panel
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、操作装置及びその制御方法に関する。 The present invention relates to an operating device and a control method thereof.
従来、撮像装置の操作に関して、左手での操作など、想定外の撮影方法が要求されることがある。しかし、多くの機器は、典型的な使用状況のみを考慮した設計になっている。例えば、レリーズボタンなど操作部材は、例えばカメラ本体の上面右側のようなユーザがとっさに左手などで操作するには適しているとは言えない位置に配置されていることが多い。そこで、特許文献1に示す撮像装置は、左手又は右手での操作に応じて、タッチパネル上の左手又は右手の親指で操作可能な領域に操作ボタンを表示させている。 Conventionally, an unexpected imaging method such as an operation with the left hand may be required for the operation of the imaging apparatus. However, many devices are designed only for typical usage situations. For example, an operation member such as a release button is often arranged at a position that is not suitable for a user to operate with a left hand or the like, for example, on the upper right side of the camera body. In view of this, the imaging apparatus disclosed in Patent Literature 1 displays operation buttons in a region that can be operated with the left hand or the right thumb on the touch panel in accordance with the operation with the left hand or the right hand.
しかしながら、状況によっては、ユーザは、撮像装置などの操作装置において予め定められた所定の握り方をできない場合がある。例えば、ロッククライミング中に崖に掴まっている状況で撮像装置を構えるとき、ユーザは、撮像装置を落とさないことに気を配るあまりにとっさに所定の握り方以外の握り方をしたまま撮影しようとしてしまうことが考えられる。 However, depending on the situation, the user may not be able to hold a predetermined grip on an operation device such as an imaging device. For example, when holding an imaging device while being held on a cliff during rock climbing, the user tries to shoot with a gripping method other than the predetermined gripping method being too careful not to drop the imaging device It is possible.
本発明は、前記の事情に鑑みてなされたものであり、保持方法に関わらずにユーザが容易に操作可能で誤操作を減らすことができる操作装置及びその制御方法を提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an operating device that can be easily operated by a user regardless of the holding method and that can reduce erroneous operations, and a control method thereof.
手での把持がなされるタッチパネルと、前記手で前記タッチパネルの把持がなされたとき、前記手の把持が感知された前記タッチパネルの領域である把持領域を除く前記タッチパネルの領域における前記把持に対応した特定領域に、前記把持に対応した所定操作を行うための操作用タッチ部の領域を設けるように制御する制御部とを具備する。 Corresponding to the grip in the touch panel area excluding the touch panel that is gripped by a hand and the grip area that is the touch panel area in which the hand is gripped when the touch panel is gripped by the hand. A control unit that controls to provide a region of an operation touch unit for performing a predetermined operation corresponding to the gripping in the specific region.
保持方法に関わらずにユーザが容易に操作可能で誤操作を減らすことができる操作装置及びその制御方法を提供することができる。 It is possible to provide an operating device that can be easily operated by a user regardless of the holding method and that can reduce erroneous operations, and a control method therefor.
以下、図面を参照して本発明の実施形態を説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本発明の一実施形態に係る操作装置を備えた撮像装置12の構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of an
撮像装置12は、撮影部13と、通信部1cと、補助光発光部7と、制御部2と、表示部3bと、記録部4と、タッチパネル3aと、操作判定部6と、フラッシュ5と、姿勢判定部9と、外部通信部11とを有する。
The
撮影部13は、撮像光学系1aと、撮像部1bとを有する。撮像光学系1aは、魚眼レンズとしての機能を持つ複数枚のレンズを有し、光軸の周りの全周にわたる視野領域の光を捉える。撮像部1bは、撮像光学系1aが捉えた光をアナログ信号に変換し、そのアナログ信号をデジタル信号(画像データと言う)に変換する。通信部1cは、有線通信又は無線通信により画像データを本体10へ送る。
The
補助光発光部7は、ガイド光を照射する。被写体が画角内に含まれているとき、ガイド光は、画角内の所定の位置に照射するように制御される。ユーザは、画角内に照射されたガイド光を見ることで、被写体が画角内に含まれていることを視認できる。例えば、ガイド光を画角内の際周辺部の被写体に投射することで、ユーザは表示部3を見ずとも画角を視認できる。ガイド光は、例えばレーザ光である。
The auxiliary
制御部2は、顔検出部2aと、画像処理部2bと、表示制御部2cと、画像合成部2eと、補助光制御部2fとを有する。顔検出部2aは、画像データから人の顔部分を検出する。画像処理部2bは、画像データにホワイトバランス補正やガンマ補正などの画像処理を施す。表示制御部2cは、画像処理部2bによって画像処理された画像データに基づく画像を表示部3bに表示させる。画像合成部2eは、画像の傾きの補正やトリミングを行い、更に撮影した画像データを他の画像データと合成する。補助光制御部2fは、補助光発光部7の発光を制御する。
The control unit 2 includes a face detection unit 2a, an image processing unit 2b, a
表示部3bは、表示制御部2cの制御に従って画像データに基づく画像を表示する素子であり、ライブビュー表示を行う。ライブビュー表示では、撮像部1bが捉えた画像データをリアルタイムで表示する。また、表示部3は液晶ディスプレイ又は有機ELディスプレイを含む。
The display unit 3b is an element that displays an image based on image data in accordance with the control of the
記録部4は、制御部2によって画像処理された画像データを記録し、メモリカードなどを含む。タッチパネル3aは、指などで押圧されたとき、押圧された位置情報を検出し、検出した位置情報を制御部2に入力する。操作判定部6は、レリーズボタンなどの操作部材を有し、ユーザによる操作部材の操作状態を示す情報を制御部2に入力する。フラッシュ5は、被写体が低輝度のときなどに発光する。姿勢判定部9は、撮像装置12の姿勢又は姿勢の変化を検出する。外部通信部11は、画像データを撮像装置12の外部の装置へ送信する。送信は、USBなどによる有線通信若しくはWi−fiなどによる無線通信を介して行われる。
The
図2を用いて、撮像装置12の構成を詳細に説明する。図2は、本発明の一実施形態に係る撮像装置12の正面図である。撮像装置12は、詳細には、撮像光学系1aと、撮像素子101bと、AD変換回路101cと、支持部101dと、コネクタ104aと、フレキシブルプリント基板104bと、コネクタ104eと、基板119と、画像処理IC102aと、表示制御IC102bと、表示部3bと、メモリカード4と、電池109と、電源回路110と、グリップ部125と、メインコンデンサ107とを有する。
を有する。
The configuration of the
Have
撮像光学系1aは、詳細には、魚眼レンズ120と、ローパスフィルタ101eとを有する。魚眼レンズ120は、広視野にわたる光を捉える。ローパスフィルタ101eは、魚眼レンズ120から入射した光から高周波ノイズを取り除く。
Specifically, the imaging optical system 1a includes a
撮像素子101bは、ローパスフィルタ101eによってノイズが取り除かれた光をアナログ信号に変換する。AD変換回路101cは、撮像素子で得られたアナログ信号をデジタル信号(画像データ)に変換する。基板108は、画像処理IC102aなどの電子部品を組み込むためのプリント基板である。コネクタ104aは、基板108と、フレキシブルプリント基板104bとの相互を接続する。
The
フレキシブルプリント基板104bは、AD変換回路101cから画像処理IC102a及び表示制御IC102bへ画像データを伝送するための配線がプリントされている可撓性の基板である。コネクタ104eは、フレキシブルプリント基板104bと、基板119との相互を接続する。
The flexible printed
基板119は、画像処理IC102aなどの電子部品を組み込むためのプリント基板である。画像処理IC102aは、画像処理部2bと対応しており、画像データにホワイトバランス補正やガンマ補正などの画像処理を施す。表示制御IC102bは、表示制御部2cと対応しており、デジタル変換された画像データを表示部3bに表示させる。
The
メモリカード4は画像データを保存する。電源回路110は電池から得た電圧を制御し、撮像装置12を動作させる。グリップ部125は、ユーザが撮像装置を安定して構えられるように本体10の外部に形成された補助部材である。メインコンデンサ107は、フラッシュ5を発光させるための充電を行う。電池109は、電源回路110へ電圧を印加する。
The
図3は、撮像装置12の使用例を示す。図3(a)は、ユーザが表示部3bを見ながら右手でレリーズ操作を行う使用例であり、すなわち通常の撮影を示している。図3(b)は、広角の自分撮り、すなわちユーザが表示部3を見ずに左手で撮像装置12を構えながら自らを撮影する使用例である。図3(c)は、魚眼レンズの光軸を天頂へ向けることで、全方位撮影を行う使用例である。
FIG. 3 shows a usage example of the
図3(c)に示す撮像装置を使用した全方位撮影の課題について図4を使用して説明する。図4(a)は、図4(a)のユーザであるH1が、H1及びユーザ以外の2人の被写体H2の合計3人を全方位撮影によって撮影する図である。魚眼レンズによる撮影では、3人の被写体はすべて画角内に収まる。図4(b)は、図4(a)での撮影結果である。撮像光学系1aのイメージサークルが撮像素子の撮像範囲よりも小さく設定されているとき、図4(b)に示すような円形の撮影結果が得られる。なお、図4(b)の円形の撮影結果は、画像処理によって図4(c)に示すパノラマ画像に加工することも可能である。なお、図4(b)に示すような3人の被写体が画角内に収まるためには、撮像光学系1aの光軸が天頂を向くことが望ましい。 The problem of omnidirectional imaging using the imaging apparatus shown in FIG. 3C will be described with reference to FIG. FIG. 4A is a diagram in which the user H1 in FIG. 4A shoots a total of three subjects H1 and two subjects H2 other than the user by omnidirectional imaging. When shooting with a fisheye lens, all three subjects fall within the angle of view. FIG. 4B shows the result of photographing in FIG. When the image circle of the imaging optical system 1a is set to be smaller than the imaging range of the imaging device, a circular imaging result as shown in FIG. 4B is obtained. Note that the circular imaging result in FIG. 4B can be processed into a panoramic image shown in FIG. 4C by image processing. In order for three subjects as shown in FIG. 4B to fall within the angle of view, it is desirable that the optical axis of the imaging optical system 1a be directed to the zenith.
ここで、撮像装置12の動作について、図5のフローチャートを使用して説明する。撮像装置12の電源がONになったとき、制御部2は、ユーザによって撮影モードが選択されたか否かを判定する(ステップS100)。撮影モードが選択されたと判定するとき(ステップS100でYESのとき)、制御部2は、ユーザが撮像装置12を左手で握っているか否かを判定する(ステップS103)。
Here, the operation of the
ここで、撮像装置を左手で把持する状況の例を、図6に示すロッククライミング中の撮影例を使用して説明する。図6(a)では、ユーザは、左手で岩肌に掴まり、右手で撮像装置12を構えている。そのとき、ユーザは、レリーズボタンなどを使用して撮影を容易に行うことができる。一方、図6(b)では、ユーザは右手で岩肌に掴まっているため、左手で撮像装置12を構えている。撮像装置のレリーズボタンは、左手で操作し難い位置に配置されていることが多いため、撮影は困難である。
Here, an example of a situation where the imaging apparatus is held with the left hand will be described using an example of shooting during rock climbing shown in FIG. In FIG. 6A, the user holds the
さらに、撮像装置12が左手把持しているか否か(ステップS103)の判定について、その動作を図7のフローチャート及び図8を使用して説明する。
Further, the operation of determining whether or not the
図7は、定義済み処理である左手把持の判定(ステップS103)を詳細に説明するフローチャートである。まず、制御部2は、撮像装置12の傾きが水平なままか否かを判定する(ステップS201)。すなわち、その傾きが水平であると判定するとき、制御部2は、ユーザが撮影しようとしていると判定する。一方、その傾きが水平でなかったと判定する時、制御部2は、ユーザが撮影しようとしていないと判定する。撮像装置12の傾きが水平なままであると判定するとき(ステップS201でYESのとき)、制御部2は、タッチパネル3aのタッチ位置を検出し始める(ステップS202)。ところで、撮像装置が水平のままではない、すなわち傾いていると判定したとき(ステップS201でNOのとき)、制御部2は、ユーザにより左手把持されなかった、すなわち図7である定義済み処理においてNOと判定する。タッチパネル3aのタッチ位置の検出(ステップS202)後、制御部2は、ユーザが撮像装置12を左手で握ったときユーザの左手が接触する部分であると考えられる図8(a)に示すタッチパネル3aの三角形状のタッチ部T5へのタッチが検出されるか否かを判定する(ステップS203)。このステップS203ではタッチが検出されるか否かを判定している。しかしながら、ステップS203の判定においては、厳密にタッチが検出されていなくともタッチと判定されるようにしてもよい。例えば、静電容量型又は光学式のタッチパネル3aであれば、対象物(ここでは手の一部や指)が接触していなくとも、対象物との距離が一定距離内であればタッチがなされていることが検出される。また、三角形状のタッチ部T5へのタッチを判定しているのは、ユーザが表示部3bの表示を見ようという意思を持ちつつ、撮像装置12を把持する場合、図8(a)のように、撮像装置12の端を把持し易いためである。近年、表示部の画面は大型化の傾向にある。このような大型の画面の表示部を有する撮像装置12をユーザが把持しようとした場合、ユーザは表示部の周辺を把持することになる。このとき、表示部3bの表示を見ることを考えた場合、ユーザが表示部の端を把持することは容易に予想される。また、表示部3bの表示を見ることを考えていなくとも、表示部の中央部に指紋や手垢が付くことを嫌うユーザは、表示部を鷲掴みせずに表示部の端を把持すると考えられる。したがって、三角形状のタッチ部T5へのタッチを判定することで、ユーザの把持の判定をし易い。三角形状のタッチ部T5へのタッチが検出されたと判定したとき(ステップS203でYESのとき)、制御部2は、図7の定義済み処理においてYESと判定する、すなわち、撮像装置12は左手で把持されたと判定する。ところで、三角形状のタッチ部T5へのタッチがなかったと判定したとき(ステップS203でNOのとき)、制御部2は、ユーザが別の態様で撮像装置12を左手で握った時にユーザの指と接触する部分であると考えられる図8(b)に示すタッチパネル3a上の二箇所のタッチ部T1への同時のタッチが検出されたか否かを判定する(ステップS205)。なお、ステップS205では、二箇所のタッチ部T1へのタッチが検出されたか否かを判定している。二箇所のタッチ部T1へのタッチを判定するようにしている理由について説明する。例えば、親指と小指での把持(この場合、人差し指、中指、薬指が画面上に来るのでこれらの指がタッチ操作に用いられ得る)の場合、小指には力を込めることが難しいので、ユーザは、撮像装置12を安定して把持することが難しい。また、親指と中指での把持の場合、ユーザは撮像装置12を安定して把持することができる。ただし、この場合、ユーザは、人差し指しか動かせない。人差し指しか動かすことができないと表示部3bの画面が見づらい。これらに対し、親指と薬指での把持(この場合、人差し指、中指が表示部3bの画面上に来るのでこれらの指がタッチ操作に用いられ得る)の場合、ユーザは撮像装置12を安定して把持することができる。さらに、人差し指と中指の二箇所タッチでは、この二本の指を曲
げたり開いたりすれば、表示部3bの画面を視認し易い。二箇所のタッチ部T1は、このような親指と薬指での把持を検出するためのものである。なお、三角形状のタッチ部T5は、中指と親指での把持を検出するものであり、この場合、人差し指を用いた一箇所タッチになる。ただし、ユーザは撮像装置12を浅く握っているために、表示部3bの画面を確認できる。タッチパネル3a上の二箇所のタッチ部T1への同時のタッチが検出されたと判定するとき(ステップS205でYESのとき)、制御部2は、撮像装置12は左手把持をされている、すなわち、図7の定義済み処理においてYESであると判定する。一方、タッチパネル3a上の二箇所のタッチ部T1への同時のタッチが検出されなかったと判定するとき(ステップS205でNOのとき)、制御部2は、撮像装置12は左手で把持されていない、すなわち図7である定義済み処理においてNOと判定する。
FIG. 7 is a flowchart for explaining in detail the left-handed gripping determination (step S103), which is a predefined process. First, the control unit 2 determines whether or not the inclination of the
以上の本実施形態では、左手把持での操作を例として説明している。なお、本実施形態の技術は右手把持の場合にも適用され得る。例えば、レリーズボタンを押すことが難しいような右手把持もタッチ部の設定をしておけば検出できる。このような右手把持のタッチ部の位置は、例えば左手把持のタッチ部の位置と左右方向で逆位置である。さらには、例えば、障害者の手又は足による把持に対応したタッチ部の設定がされてもよい。つまり、ユーザが好む特定の把持の仕方に応じたタッチ部を設定しておき、タッチ位置の分布からこのような特定の把持を検出してもよい。 In the above-described embodiment, the operation with the left hand grip is described as an example. Note that the technique of the present embodiment can also be applied to the case of right-hand gripping. For example, it is possible to detect right-hand grip that makes it difficult to press the release button if the touch unit is set. The position of such a right-hand grip touch unit is, for example, opposite to the left-hand grip touch unit in the left-right direction. Furthermore, for example, a touch unit corresponding to gripping with a hand or foot of a disabled person may be set. That is, it is possible to set a touch unit corresponding to a specific gripping method preferred by the user and detect such specific gripping from the distribution of touch positions.
ところで、図5において、左手把持判定の定義済み処理でNOと判定されたとき(ステップS103でNOのとき)、すなわち右手で把持されたと判定するとき、制御部2は、左手把持フラグを0にセットする(ステップS206)。左手把持フラグを0にセットした後、制御部2は、光軸の水平状態の継続時間が所定時間より短いか否かを判定する(ステップS104)。水平状態の継続時間が所定時間より短くなかったと判定したとき(ステップS104でNOのとき)、制御部2は、表示部3bにライブビューを表示させ、被写体の顔検出を行う(ステップS105)。制御部2は、レリーズボタン又はタッチパネル3aが操作されたか、すなわちレリーズ操作があったか否かを判定する(ステップS106)。レリーズボタン又はタッチパネル3aが操作されていないと判定するとき、制御部2は、電源操作によって処理をステップS100に戻す。レリーズボタン又はタッチパネル3aが操作されたと判定するとき(ステップS106でYesのとき)、制御部2は、タッチパネル3a上でのタッチ位置や顔検出の結果として検出された顔部に対してピントや露出を合わせて撮影させた後、その撮影で得られた画像データを記録部4に記録させる。(ステップS107)。画像データを記録させた後、制御部2は、ユーザにより電源がOFFされるか否かを判定する(ステップS108)。電源がOFFされたと判定したとき(ステップS108でYesのとき)、制御部2は、処理を終了させる。電源がOFFされなかったと判定したとき(ステップS108でNOのとき)、処理がステップS100に戻る。
By the way, in FIG. 5, when it is determined NO in the predefined left hand grip determination process (NO in step S103), that is, when it is determined that the right hand is gripped, the control unit 2 sets the left hand grip flag to 0. Set (step S206). After setting the left hand grip flag to 0, the control unit 2 determines whether or not the duration time of the horizontal state of the optical axis is shorter than a predetermined time (step S104). When it is determined that the duration of the horizontal state is not shorter than the predetermined time (NO in step S104), the control unit 2 displays a live view on the display unit 3b and detects the face of the subject (step S105). The control unit 2 determines whether the release button or the
ところで、左手把持判定の定義済み処理でYESと判定されたとき(ステップS103でYesのとき)、左手把持フラグを1にセットする(ステップS204)。左手フラグが1にセットされたとき、又は、水平状態の継続時間が所定時間より短かったと判定したとき(ステップS104でYesのとき)、制御部2は、表示部3bにライブビューを表示させ、さらに、画像データから被写体の顔検出を行わせる(ステップS114)。その後、画像データから顔が検出されたか否かを判定する(ステップS115)。画像データから顔が検出されたと判定するとき(ステップS115でYesのとき)、補助光制御部2fは、補助光発光部7に被写体の体の一部へ向けてガイド光を照射させる(ステップS118)。
By the way, when it is determined YES in the predefined process of the left hand grip determination (Yes in step S103), the left hand grip flag is set to 1 (step S204). When the left hand flag is set to 1 or when it is determined that the duration time of the horizontal state is shorter than the predetermined time (Yes in step S104), the control unit 2 displays a live view on the display unit 3b, Further, the face of the subject is detected from the image data (step S114). Thereafter, it is determined whether or not a face is detected from the image data (step S115). When determining that a face has been detected from the image data (Yes in step S115), the auxiliary
ここで、ガイド光の効果について、図9を使用して説明する。ユーザは、被写体の顔部が検出されたと判定されたとき照射されるガイド光を見ることによって、表示部3bを見なくとも、被写体が画角内に収まっていることを容易に視認できる。ガイド光として用いる光には、指向性を有する光を使用し、例えば、レーザ光を用いる。なお、補助光制御部2fは、補助光発光部7にガイド光の照射位置を画角内の顔以外の被写体に限定するように照射させることで、被写体の目にガイド光を直接入射させない。図9(a)では、ユーザは、表示部3bに表示されたライブビューを見ることができるため、図9(b)に示す撮影結果のように、被写体を画角内に容易に収めることができる。一方、図9(c)は、ユーザがライブビューを見て被写体が画角内に収まっているか否かを確認し難い状況を示す。この状況では、ガイド光は、ユーザが画角内を見ることが難しい状況において、被写体が画角内に収まっていることをユーザに知らせる。例えば、補助光制御部2fは、図9(d)のB1が示すような被写体の一部へのガイド光を照射させる(ステップS118)。
Here, the effect of the guide light will be described with reference to FIG. By viewing the guide light emitted when it is determined that the face portion of the subject has been detected, the user can easily recognize that the subject is within the angle of view without looking at the display portion 3b. For the light used as the guide light, light having directivity is used, for example, laser light is used. The auxiliary
なお、被写体が画角内に収まっていることの通知を目的としたガイド光の照射位置は、被写体の体の一部に限らず、画角の端部に相当する位置であってもよい。画角の両端部に照射されたガイド光を確認することで、ユーザは、表示部3bを見なくとも、画角や、画角内におけるユーザの位置などを確認することができる。被写体の上左右に壁やビルなどのガイド光の照射を受ける別の被写体が存在するとき、制御部2は、光の照射を受ける物体にガイド光を照射させる。 The guide light irradiation position for the purpose of notifying that the subject is within the angle of view is not limited to a part of the body of the subject, and may be a position corresponding to the end of the angle of view. By confirming the guide light emitted to both ends of the angle of view, the user can confirm the angle of view and the position of the user within the angle of view without looking at the display unit 3b. When there are other subjects to be irradiated with guide light such as walls and buildings on the left and right sides of the subject, the control unit 2 causes the object to be irradiated with light to irradiate the guide light.
また、顔検出部2aが被写体の顔を検出しなかったと判定するとき(ステップS115でNOのとき)、補助光制御部2fは、撮像装置12と被写体との距離が所定距離よりも近いか否かを判定する(ステップS116)。所定距離は、例えば3mである。撮像装置12と被写体との距離が所定距離よりも近いと判定されるとき(ステップS116でYesのとき)、補助光制御部2fは、被写体が画角内に収まってないことをユーザに知らせることを目的とした点滅するガイド光を被写体に照射させる。
When determining that the face detection unit 2a has not detected the face of the subject (NO in step S115), the auxiliary
ところで、補助光制御部2fは、補助光発光部7に被写体へガイド光を照射させた(ステップS118又はステップS117)後、制御部2は、撮像装置12の重力方向と、ライブビューで撮影した画像データの重力方向とが一致しているか否か判定する(ステップS119)。
By the way, after the auxiliary
撮像装置12の重力方向がライブビュー用として得られた画像データの重力方向と一致するとき(ステップS119でYesのとき)、制御部2は、ライブビューの重力方向と、撮像装置12の重力方向が一致しているか否かを判定する。それぞれの重力方向が一致するとき(ステップS119でYESのとき)、制御部2は、画像データを仮記憶させる(ステップS120)。後述するが、仮記憶された画像データは画像の合成に用いられる。この仮記憶された画像データは水平画像データと対応している。一方、重力方向が一致していないとき(ステップS119でNOのとき)、制御部2は、仮記憶を行わせない。
When the gravity direction of the
仮記憶(ステップS120)後、制御部2は、左手把持フラグが1にセットされているか否かを判定する(ステップS122)。左手把持フラグが1にセットされたと判定したとき、すなわち撮像装置12が左手で把持されたと判定するとき(ステップS122でYESのとき)、制御部2は、タッチ検出の位置に応じた左手操作の判定を行う(ステップS124)。
After temporary storage (step S120), the control unit 2 determines whether or not the left hand grip flag is set to 1 (step S122). When it is determined that the left hand grip flag is set to 1, that is, when it is determined that the
ここで、定義済み処理である左手でのレリーズ操作の判定(ステップS124)について、図10のフローチャート及び図11を使用して説明する。図10において、制御部2は、タッチパネル3a上の二箇所への同時のタッチが検出されたか否かを判定する(ステップS211)。タッチパネル3aの二箇所への同時タッチが検出されたと判定するとき(ステップS211でYESのとき)、制御部2は、二箇所同時タッチを検出することでレリーズ操作を行うためのレリーズ用タッチ部T7を、タッチ部T1とは異なる位置に設ける(ステップS212)、例えば、タッチ部T7の位置は、タッチ部T1よりタッチパネル3aの端部に近い位置に設けられる。本実施形態では、左手把持における操作のためのタッチ部は、左手把持の判定によって判定されたタッチ部をタッチしていると考えられる指が届く範囲に設けられる。すなわち、その指が届かない範囲にタッチ部は設けられないため、タッチ部以外の領域がユーザの意思に反して押圧された際の誤動作は少ない。一方、タッチパネル3a上の二箇所への同時にタッチが検出されなかったと判定するとき(ステップS211でNOのとき)、すなわち一箇所へのタッチが検出されたと判定するとき、図11(b)に示す、一箇所のタッチ部を左手の指でタッチすることでレリーズ操作を行うレリーズ用タッチ部T2、なおかつタッチ部T5とは異なる位置に設けられた押圧により所定操作を行うための三角形状タッチ部T6、又はタッチパネル3a上を指でスライドさせることで拡大ライブビュー操作を行うスライド部T3、又は露出補正操作を行うスライド部T4を、左手の指がタッチパネル3aに接触可能である範囲内に設ける。また、操作用のタッチ部T2、T3、T4、T6又はT7の各領域をタッチパネル3aに設けるとき、各領域をユーザが視認しやすいように各領域に対応した画像を表示部3bに表示させても良い。例えば、図11に示すような楕円や、矢印のような画像を表示部3bに表示させる。ここで、拡大ライブビュー操作とは、ライブビュー表示された画像データの一部を拡大した領域を、さらにライブビュー表示する動作を指す。この操作は、対象物を拡大して見ることが必要な撮影機器以外の装置においても有効である。また、露出補正のように、被写体の視認に関わる一般的な動作、例えばピント補正などの操作をタッチによって行ってもよい。なお、左手の指がタッチパネル3aの三角形状タッチ部T6を操作していても、ユーザは表示部3bの中央に表示された画像を確認することができる。つまり本発明の一実施形態による操作装置は、タッチパネル3aの手で把持された領域以外の領域も表示位置として有効利用した、すなわち、直感的なユーザーインターフェース(UI)である。
Here, the determination of the release operation with the left hand (step S124), which is a predefined process, will be described with reference to the flowchart of FIG. 10 and FIG. In FIG. 10, the control unit 2 determines whether or not simultaneous touches on two locations on the
また、操作用タッチ部の領域の位置は、表示部3bに表示されている画像に対してタッチのための指が重ならないようすることと、タッチのための指によってタッチ部を自然にタッチできることとが考慮されて決定されている。例えば、タッチのための指が表示部3bの画像と重なることがあっても、操作用タッチ部の領域は、ユーザがその指を曲げたり広げたりすることによって画像を確認できるようなものであってもよい。すなわち、操作用タッチ部へのタッチにどの指が使用されるかによって、さらに、手の構造や手の可動範囲を考慮することによって、ユーザの指が自然にタッチ可能な操作用タッチ部の領域の位置は変わる。把持した手の一部の指は把持のために使用され、他の指は操作のために使用される。制御部1は、撮像装置12が特定の把持がされたと判定するとき、タッチパネル3aのタッチ位置の分布を判定することで、どの指で把持がされているかを判定する。なお、本発明の一実施形態では、撮像装置を左手で把持したときの操作用タッチ部の領域について説明している。しかし、本実施形態における操作用タッチ部は、左手によるタッチに限らず、他の身体部位によるタッチに対応しても良い。例えば、機器を鷲づかみで把持した際、制御部2が、操作のための指がないと判定するとき、ユーザの鼻又は別の四肢でタッチさせることを考慮した操作用タッチ部を改めて設けても良い。
In addition, the position of the operation touch unit area is such that the touch finger does not overlap the image displayed on the display unit 3b, and the touch unit can be touched naturally by the touch finger. And is determined in consideration. For example, even if a finger for touching overlaps with the image on the display unit 3b, the area of the operation touch unit is such that the user can confirm the image by bending or spreading the finger. May be. In other words, depending on which finger is used to touch the operation touch unit, and further considering the structure of the hand and the movable range of the hand, the region of the operation touch unit where the user's finger can touch naturally The position of changes. Some fingers of the gripped hand are used for gripping, and other fingers are used for operation. When the control unit 1 determines that the
ところで、定義済み処理であるステップS124が終了後、制御部2は、タッチパネル3aがタッチ操作されたか否かを判定する(ステップS214)。タッチ部へのタッチが検出されたとき、すなわち、タッチパネル3aが指で押圧された、又は、図11(c)に示すようなスライド操作がなされたと判定するとき(ステップS214でYESのとき)、制御部2は、その操作がレリーズ操作であるか否かを判定する(ステップS217)。操作がレリーズ操作であると判定したとき(ステップS217でYESのとき)、制御部2は、ユーザの左手でのレリーズ操作がなされたと判定する。一方、操作がレリーズ操作ではなかったと判定したとき(ステップS217でNOのとき)、制御部2は、ズームや露出補正といった操作を押圧されたタッチ部に応じて行う(ステップS216)。ところで、押圧やスライドなどのタッチ操作がなかったと判定するとき(ステップS214でNOのとき)、制御部2は、ユーザの左手でのレリーズ操作がなされていなかったと判定する。このとき、ユーザにより電源がOFFに選択されるか否か(ステップS108)の判定に移る。
By the way, after step S124, which is a predefined process, is completed, the control unit 2 determines whether or not the
ところで、左手把持フラグが1ではなかったとき(ステップS122でNOのとき)、ユーザがすなわち右手で撮像装置12を握っているとき、制御部2は、レリーズボタンを使用したレリーズ操作がなされたか否かを判定する(ステップS123)。すなわち、レリーズ操作がなされたとき(ステップS124でYESのとき又はステップS123でYESのとき)、制御部2は、被写体に向け照射しているガイド光を消灯させ撮影を行わせる(ステップS126)。
By the way, when the left hand grip flag is not 1 (NO in step S122), when the user is holding the
ガイド光を消灯させ、撮影を行わせたとき(ステップS126)、制御部2は、仮記憶により得られた画像データと撮影により得られた画像データとの合成が必要かつ合成が可能か否かを判定する(ステップS127)。なお、合成が必要な状況とは、撮影時の重力方向と、画像データの重力方向とが一致しなかったときであり、また、合成が可能な状況とは、仮記憶された画像データ群の中に合成に使用可能と判定される画像データが含まれている状況などである。合成に使用可能と判定される画像データは、合成が必要な画像データに類似の画像データであり、例えば、合成に必要な画像データの直前又は直後に撮影された画像データである。仮記憶されている画像データ(ステップS120)と、撮影により得られた画像データとの合成が、必要かつ可能であると判定したとき(ステップS127でYESのとき)、制御部2は、両画像データを合成し(ステップS128)、合成により得られた画像データを記録部4に記録する(ステップS129)。 When the guide light is turned off and shooting is performed (step S126), the control unit 2 determines whether or not the image data obtained by temporary storage and the image data obtained by shooting are necessary and can be combined. Is determined (step S127). The situation where composition is necessary is when the gravitational direction at the time of shooting and the gravitational direction of the image data do not match, and the situation where composition is possible is that of the temporarily stored image data group. This includes a situation in which image data determined to be usable for composition is included. The image data determined to be usable for composition is image data similar to image data that needs to be composed, for example, image data taken immediately before or after the image data necessary for composition. When it is determined that it is necessary and possible to combine the temporarily stored image data (step S120) and the image data obtained by shooting (YES in step S127), the control unit 2 displays both images. The data is synthesized (step S128), and the image data obtained by the synthesis is recorded in the recording unit 4 (step S129).
ここで、画像データの合成の詳細について、図12、図13A、図13B、図13C、図13D及び図14を使用して説明する。図12は、画像データの合成が必要な状況の例として、ユーザがカヌーに乗り自分を撮影する状況を示す。ユーザは、図12(a)に示すように右手でオールを持っており、そのため、左手で撮像装置の操作を行う。図12(a)の状況下での理想的な撮影結果は、図12(b)に示すように、撮影時の重力方向と、画像データの重力方向とが一致している撮影結果である。しかしながら、前述の通り不安定な状況下のため、撮影結果は、図12(c)に示すような、撮影時の重力方向と画像データの重力方向とが一致していない撮影結果となることが多い。そこで、撮像装置12は、撮影時に得られた撮影時の重力方向と画像データの重力方向とが一致していない画像データを、撮影時の重力方向と画像データの重力方向とが一致している画像データとして取得できるように画像合成部2eに合成を行わせる。
Details of the composition of the image data will be described with reference to FIGS. 12, 13A, 13B, 13C, 13D, and 14. FIG. 12 shows a situation where a user takes a canoe and shoots himself as an example of a situation where image data synthesis is necessary. As shown in FIG. 12A, the user holds the oar with the right hand, and therefore operates the imaging apparatus with the left hand. As shown in FIG. 12B, the ideal shooting result under the situation of FIG. 12A is a shooting result in which the gravity direction at the time of shooting matches the gravity direction of the image data. However, because of the unstable situation as described above, the shooting result may be a shooting result in which the gravity direction at the time of shooting does not match the gravity direction of the image data as shown in FIG. Many. Therefore, the
そこで、本発明の一実施形態である撮像装置12は、撮影時に得られた撮影時の重力方向と画像データの重力方向とが一致しない画像データを、撮影時の重力方向と画像データの重力方向とが一致する画像データに合成するため、撮像装置12が有する画像合成部2eを使用して画像データの合成を行う。
In view of this, the
ここで、画像データの合成の動作について、図13A、図13B、図13C、図13D及び図14に示すフローチャートを使用して説明する。画像データの合成が必要かつ可能であると判定したとき(ステップS107でYESのとき)、制御部2は、撮影時に得られた画像データの重力方向(図12(c)のG)を撮影時の重力方向(例えば下方向)と一致させる、例えば、図13A(a)に示す画像データの重力方向が撮像時の重力方向と異なる画像データを、図13A(b)に示すようにして撮影画像データを傾ける(ステップS301)。続いて、制御部2は、図13B(a)に示すように、傾けた後の撮影画像データI1と仮記録させている水平画像データI2との間の一致度が最も高くなるように両画像データを重ね合わせて、図13B(b)に示す合成画像データI3を得る(ステップS302)。例えば、図13Bに示すように、両画像データの人物部Sの位置が合うように重ね合わせが行われる。画像データの重ね合わせを行った後、制御部2は、図13C(a)に示すように水平画像データと撮影画像データとが重なっている部分にある水平画像データ部分を削除する(ステップS303)。例えば図13C(b)に示すように、人物部Sにおける水平画像データが削除されることにより、人物部Sについては撮影画像データのみが残る。そして、制御部2は、図13D(a)に示すように、合成画像データを四角形状に切り出す。(ステップS304)その後、図14の処理が終了される。例えば、図13D(b)では、破線で示される部分が削除されて最終的な合成画像データが得られる。 Here, the image data combining operation will be described with reference to the flowcharts shown in FIGS. 13A, 13B, 13C, 13D, and 14. FIG. When it is determined that composition of image data is necessary and possible (YES in step S107), the controller 2 determines the gravitational direction (G in FIG. 12C) of the image data obtained at the time of photographing. For example, image data in which the gravity direction of the image data shown in FIG. 13A (a) is different from the gravity direction at the time of imaging is taken as shown in FIG. 13A (b). The data is tilted (step S301). Subsequently, as shown in FIG. 13B (a), the control unit 2 sets both images so that the degree of coincidence between the tilted captured image data I1 and the temporarily recorded horizontal image data I2 is the highest. By superimposing the data, composite image data I3 shown in FIG. 13B (b) is obtained (step S302). For example, as shown in FIG. 13B, superposition is performed so that the positions of the person portions S of both image data are aligned. After superimposing the image data, the control unit 2 deletes the horizontal image data portion in the portion where the horizontal image data and the captured image data overlap as shown in FIG. 13C (a) (step S303). . For example, as shown in FIG. 13C (b), the horizontal image data in the person part S is deleted, so that only the photographed image data remains in the person part S. Then, as illustrated in FIG. 13D (a), the control unit 2 cuts out the composite image data into a square shape. (Step S304) Thereafter, the process of FIG. 14 is terminated. For example, in FIG. 13D (b), the portion indicated by the broken line is deleted to obtain the final composite image data.
ところで、合成が不要若しくは不可能であったと判定したとき(ステップS127でNOのとき)、制御部2は、撮影により得られた画像データを記録部4にそのまま記録する(ステップS130)。その後、制御部2は、処理をステップS108に移行する。 By the way, when it is determined that the composition is unnecessary or impossible (NO in step S127), the control unit 2 records the image data obtained by photographing as it is in the recording unit 4 (step S130). Thereafter, the control unit 2 moves the process to step S108.
以上説明したように、本発明の一実施形態である撮像装置12は、まず、撮像装置12が左手で把持されているか否かの判定を行う。左手で操作されたと判定するとき、制御部2は、タッチパネル3aに左手での握り方に対応したタッチ部を設けさせる。握り方に対応したタッチ部を操作することによって、ユーザは、左手での操作を容易に行うことができる。
As described above, the
また、本発明の一実施形態は、タッチパネルを使用して操作を可能とする操作装置であれば、撮像装置に限定されない。例えば、リモコンのような、ユーザに把持されたまま離されないように操作をしたい各種の操作装置へ応用される可能性がある。又は、産業用機器若しくは医療用機器の分野で使用されるコントロールボックスや据え置き機器の操作部材の握りの部分を有する操作装置へ応用される可能性がある。又は、車載機器のような、ブラインド操作を要する操作装置へ応用される可能性もある。さらに、本発明の一実施形態中では、操作装置の姿勢や撮像による顔検出結果について述べた。その操作装置の姿勢としては、レバーの傾きやリモコンの向けた方向などをこの範疇に含めても良い。さらに、撮像して検出されるものは、顔に限らず、リモコンやコントロールボックスを向けた方向のモニタ画面に移された対象物や機器そのものであっても良い。このような表示部確認と表示部上タッチを行う操作を前提とした機器で、本発明は効力を発揮する可能性がある。そこで、本発明は操作装置に属する。 In addition, the embodiment of the present invention is not limited to the imaging device as long as it is an operation device that can be operated using a touch panel. For example, it may be applied to various operation devices such as a remote controller that are desired to be operated so as not to be released while being held by the user. Alternatively, it may be applied to an operating device having a grip portion of an operating member of a control box or stationary device used in the field of industrial equipment or medical equipment. Alternatively, it may be applied to an operating device that requires a blind operation, such as an in-vehicle device. Further, in the embodiment of the present invention, the attitude of the controller device and the face detection result by imaging are described. The posture of the operating device may include the tilt of the lever or the direction of the remote controller in this category. Furthermore, what is detected by imaging is not limited to a face, but may be an object or a device itself that has been moved to a monitor screen in a direction in which a remote control or a control box is directed. There is a possibility that the present invention is effective in a device that is premised on such an operation for confirming the display portion and performing a touch on the display portion. Therefore, the present invention belongs to an operating device.
なお、上述した実施形態における撮像装置による各処理の手法、すなわち、各フローチャートに示す処理は、何れも制御部2に実行させることができるプログラムとして記憶される。このプログラムは、メモリカード(ROMカード、RAMカード等)、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の外部記憶装置の記憶媒体に記憶されたプログラムを読み込み、この読み込んだプログラムによって動作が制御されることにより、上述した処理を実行することができる。 Note that each processing method performed by the imaging apparatus according to the above-described embodiment, that is, the processing illustrated in each flowchart is stored as a program that can be executed by the control unit 2. This program is stored in a storage medium of an external storage device such as a memory card (ROM card, RAM card, etc.), magnetic disk (floppy (registered trademark) disk, hard disk, etc.), optical disk (CD-ROM, DVD, etc.), semiconductor memory, etc. The above-described processing can be executed by reading the stored program and controlling the operation by the read program.
1a…撮像光学系、 1b…撮像部、 1c…通信部、 2…制御部、 2a…顔検出部、 2b…画像処理部、 2c…表示制御部、 2e…画像合成部、 2f…補助光制御部、 3a…タッチパネル、 3b…表示部、 4…記録部、 5…フラッシュ、 6…操作判定部、 7…補助光発光部、 9…姿勢判定部、11…外部通信部、 12…撮像装置、 101b…撮像素子、 101c…AD変換回路、 101d…支持部、101e…ローパスフィルタ、 102a…画像処理IC、 102b…表示制御IC、104a…コネクタ、 104b…フレキシブルプリント基板、 104e…コネクタ、 107…メインコンデンサ、 108…基板、 109…電池、 110…電源回路、 119…基板、 120…魚眼レンズ
DESCRIPTION OF SYMBOLS 1a ... Imaging optical system, 1b ... Imaging part, 1c ... Communication part, 2 ... Control part, 2a ... Face detection part, 2b ... Image processing part, 2c ... Display control part, 2e ... Image composition part, 2f ...
Claims (9)
前記手で前記タッチパネルの把持がなされたとき、前記手の把持が感知された前記タッチパネルの領域である把持領域を除く前記タッチパネルの領域における前記把持に対応した特定領域に、前記把持に対応した所定操作を行うための操作用タッチ部の領域を設けるように制御する制御部と、
を具備する操作装置。 A touch panel that is gripped by hand,
When the touch panel is gripped by the hand, a predetermined area corresponding to the grip is set in a specific area corresponding to the grip in the area of the touch panel excluding the grip area that is the area of the touch panel where the grip of the hand is detected. A control unit that performs control so as to provide an area of the operation touch unit for performing an operation;
An operating device comprising:
前記表示部を制御する表示制御部を更に具備し、
前記表示制御部は、前記操作用タッチ部を示す画像を前記表示部に表示させる請求項1に記載の操作装置。 The operating device includes a display unit that displays an image;
A display control unit for controlling the display unit;
The operation device according to claim 1, wherein the display control unit displays an image showing the operation touch unit on the display unit.
前記制御部は、前記操作用タッチ部がスライド操作を感知したとき、前記スライド操作に応じて前記表示部に表示された前記画像の拡大率を変化させる前記所定操作を行い、前記拡大率を変化させた前記画像を前記表示部に表示させるように制御する請求項1に記載の操作装置。 The operating device has a display unit for displaying an image,
When the operation touch unit senses a slide operation, the control unit performs the predetermined operation for changing an enlargement ratio of the image displayed on the display unit according to the slide operation, and changes the enlargement ratio. The operating device according to claim 1, wherein control is performed so that the displayed image is displayed on the display unit.
前記制御部は、前記把持操作用タッチ部がスライド操作を検出したとき、前記スライド操作に応じて前記画像処理部によって前記画像データの露出度の変化である前記所定操作を行わせ、前記露出度を変化させられた前記画像データを前記表示部に表示させるように制御する請求項1に記載の操作装置。 The operating device has an image processing unit for correcting exposure of the image,
When the grip operation touch unit detects a slide operation, the control unit causes the image processing unit to perform the predetermined operation, which is a change in the exposure level of the image data, in response to the slide operation. The operating device according to claim 1, wherein control is performed such that the image data with the change in the display is displayed on the display unit.
前記制御部は、前記操作用タッチ部が前記手の把持を感知したとき、前記撮像部に撮影である前記所定操作を行わせるように制御する請求項1に記載の操作装置。 The operating device includes an imaging unit that captures an image of a subject and acquires the image data.
The operation device according to claim 1, wherein the control unit controls the imaging unit to perform the predetermined operation for photographing when the operation touch unit senses gripping of the hand.
前記手で前記タッチパネルの把持がなされたか否かを判定することと、
タッチされた前記タッチパネルの領域である把持領域において、前記タッチ位置の情報に応じて、前記把持に対応した所定操作を行うための操作用タッチ部の領域を前記手の把持が感知された位置を除く前記タッチパネル上に設けることと、
を具備する操作装置の制御方法。 In the control method of the operating device having a touch panel that is gripped by a hand and sensed by the hand,
Determining whether the touch panel is gripped by the hand;
In the gripping area that is the touched touch panel area, the area of the touch part for operation for performing a predetermined operation corresponding to the gripping is determined based on the information on the touch position. Providing on the touch panel except,
A method for controlling an operating device comprising:
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013160584A JP6157263B2 (en) | 2013-08-01 | 2013-08-01 | Operating device and control method thereof |
CN201480030310.6A CN105379244B (en) | 2013-05-28 | 2014-05-22 | Photographic device and image capture method |
PCT/JP2014/063624 WO2014192640A1 (en) | 2013-05-28 | 2014-05-22 | Image-capturing device and method for capturing image |
US14/933,682 US9843727B2 (en) | 2013-05-28 | 2015-11-05 | Image capturing apparatus and image capturing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013160584A JP6157263B2 (en) | 2013-08-01 | 2013-08-01 | Operating device and control method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015032105A true JP2015032105A (en) | 2015-02-16 |
JP6157263B2 JP6157263B2 (en) | 2017-07-05 |
Family
ID=52517373
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013160584A Active JP6157263B2 (en) | 2013-05-28 | 2013-08-01 | Operating device and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6157263B2 (en) |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004364067A (en) * | 2003-06-06 | 2004-12-24 | Nippon Telegr & Teleph Corp <Ntt> | Camera with indicator |
JP2006279739A (en) * | 2005-03-30 | 2006-10-12 | Casio Comput Co Ltd | Imaging apparatus comprising fisheye lens and program therefor |
JP2007187970A (en) * | 2006-01-16 | 2007-07-26 | Sumitomo Mitsui Construction Co Ltd | Wide-angle photographing device and image processing method |
JP2007259164A (en) * | 2006-03-24 | 2007-10-04 | Fujifilm Corp | Camera system |
JP2007300353A (en) * | 2006-04-28 | 2007-11-15 | Fujifilm Corp | Imaging device |
JP2009015313A (en) * | 2007-06-05 | 2009-01-22 | Yamaha Corp | Camera system |
JP2011055246A (en) * | 2009-09-02 | 2011-03-17 | Panasonic Corp | Telescopic imaging apparatus |
JP2012133745A (en) * | 2010-11-29 | 2012-07-12 | Nec Corp | Information processor and display size control method for the same |
JP2012173904A (en) * | 2011-02-21 | 2012-09-10 | Sharp Corp | Electronic apparatus, content display method, and content display program |
JP2012199888A (en) * | 2011-03-23 | 2012-10-18 | Ntt Docomo Inc | Portable terminal |
JP2012209626A (en) * | 2011-03-29 | 2012-10-25 | Brother Ind Ltd | Conference device, program for conference device and control method |
WO2012176384A1 (en) * | 2011-06-21 | 2012-12-27 | 株式会社ニコン | Display program and display device |
JP2013008196A (en) * | 2011-06-24 | 2013-01-10 | Ntt Docomo Inc | Mobile information terminal, operation state determination method, program |
JP2013041629A (en) * | 2008-01-04 | 2013-02-28 | Apple Inc | Selective rejection of touch contacts in edge region of touch surface |
JP2013078075A (en) * | 2011-09-30 | 2013-04-25 | Olympus Imaging Corp | Imaging apparatus, imaging method, and program |
WO2013061658A1 (en) * | 2011-10-27 | 2013-05-02 | シャープ株式会社 | Portable information terminal |
JP2013145944A (en) * | 2012-01-13 | 2013-07-25 | Olympus Imaging Corp | Photographing system and lens barrel |
-
2013
- 2013-08-01 JP JP2013160584A patent/JP6157263B2/en active Active
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004364067A (en) * | 2003-06-06 | 2004-12-24 | Nippon Telegr & Teleph Corp <Ntt> | Camera with indicator |
JP2006279739A (en) * | 2005-03-30 | 2006-10-12 | Casio Comput Co Ltd | Imaging apparatus comprising fisheye lens and program therefor |
JP2007187970A (en) * | 2006-01-16 | 2007-07-26 | Sumitomo Mitsui Construction Co Ltd | Wide-angle photographing device and image processing method |
JP2007259164A (en) * | 2006-03-24 | 2007-10-04 | Fujifilm Corp | Camera system |
JP2007300353A (en) * | 2006-04-28 | 2007-11-15 | Fujifilm Corp | Imaging device |
JP2009015313A (en) * | 2007-06-05 | 2009-01-22 | Yamaha Corp | Camera system |
JP2013041629A (en) * | 2008-01-04 | 2013-02-28 | Apple Inc | Selective rejection of touch contacts in edge region of touch surface |
JP2011055246A (en) * | 2009-09-02 | 2011-03-17 | Panasonic Corp | Telescopic imaging apparatus |
JP2012133745A (en) * | 2010-11-29 | 2012-07-12 | Nec Corp | Information processor and display size control method for the same |
JP2012173904A (en) * | 2011-02-21 | 2012-09-10 | Sharp Corp | Electronic apparatus, content display method, and content display program |
JP2012199888A (en) * | 2011-03-23 | 2012-10-18 | Ntt Docomo Inc | Portable terminal |
JP2012209626A (en) * | 2011-03-29 | 2012-10-25 | Brother Ind Ltd | Conference device, program for conference device and control method |
WO2012176384A1 (en) * | 2011-06-21 | 2012-12-27 | 株式会社ニコン | Display program and display device |
JP2013008196A (en) * | 2011-06-24 | 2013-01-10 | Ntt Docomo Inc | Mobile information terminal, operation state determination method, program |
JP2013078075A (en) * | 2011-09-30 | 2013-04-25 | Olympus Imaging Corp | Imaging apparatus, imaging method, and program |
WO2013061658A1 (en) * | 2011-10-27 | 2013-05-02 | シャープ株式会社 | Portable information terminal |
JP2013145944A (en) * | 2012-01-13 | 2013-07-25 | Olympus Imaging Corp | Photographing system and lens barrel |
Also Published As
Publication number | Publication date |
---|---|
JP6157263B2 (en) | 2017-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6214238B2 (en) | Imaging device | |
US9843727B2 (en) | Image capturing apparatus and image capturing method | |
US11210796B2 (en) | Imaging method and imaging control apparatus | |
EP3754422A1 (en) | Electronic apparatus, method and storage medium for controlling the position of a frame based on eye tracking and manual inputs | |
JP2010213169A (en) | Display device, display processing method, and imaging apparatus | |
JP2016139947A (en) | Portable terminal | |
US20190141258A1 (en) | Imaging apparatus | |
WO2010061850A1 (en) | Device with camera | |
US20160054645A1 (en) | External camera for a portable electronic device | |
JPWO2016006149A1 (en) | Imaging control apparatus, imaging control method, and program | |
JP2017126980A (en) | Information processing apparatus, imaging apparatus, display device, information processing method, imaging apparatus control method, display device control method, information processing program, imaging apparatus control program, and display device control program | |
JP2015033007A (en) | Image processing apparatus | |
JP2004164559A (en) | Portable terminal device | |
JP2008098954A (en) | Imaging apparatus, method, and program | |
CN113364945A (en) | Electronic apparatus, control method, and computer-readable medium | |
JP6157263B2 (en) | Operating device and control method thereof | |
JP5109779B2 (en) | Imaging device | |
US11442244B2 (en) | Imaging device | |
JP5104517B2 (en) | Imaging device | |
JP2015162822A (en) | Electronic apparatus, imaging apparatus, and communication apparatus | |
JP2015031832A (en) | Imaging device | |
JP2011035769A (en) | Photographing apparatus | |
JP2010062706A (en) | Imaging apparatus | |
JP7191592B2 (en) | ELECTRONIC DEVICE, ELECTRONIC DEVICE CONTROL METHOD, PROGRAM AND RECORDING MEDIUM | |
JPWO2020129620A1 (en) | Imaging control device, imaging device, imaging control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20150423 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160517 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170323 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170509 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170606 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6157263 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |