JP5670828B2 - A portable terminal capable of photographing a three-dimensional image, and a program for controlling the portable terminal - Google Patents

A portable terminal capable of photographing a three-dimensional image, and a program for controlling the portable terminal Download PDF

Info

Publication number
JP5670828B2
JP5670828B2 JP2011108436A JP2011108436A JP5670828B2 JP 5670828 B2 JP5670828 B2 JP 5670828B2 JP 2011108436 A JP2011108436 A JP 2011108436A JP 2011108436 A JP2011108436 A JP 2011108436A JP 5670828 B2 JP5670828 B2 JP 5670828B2
Authority
JP
Japan
Prior art keywords
image
camera
mode
portable terminal
exposure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011108436A
Other languages
Japanese (ja)
Other versions
JP2012239139A (en
Inventor
幸生 河本
幸生 河本
卓 梅本
卓 梅本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2011108436A priority Critical patent/JP5670828B2/en
Publication of JP2012239139A publication Critical patent/JP2012239139A/en
Application granted granted Critical
Publication of JP5670828B2 publication Critical patent/JP5670828B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Telephone Set Structure (AREA)
  • Telephone Function (AREA)

Description

本発明は携帯端末の制御に関し、より特定的には、3次元の画像を撮影可能な携帯端末の制御に関する。   The present invention relates to control of a mobile terminal, and more particularly to control of a mobile terminal that can capture a three-dimensional image.

3次元の画像を撮影できるカメラが知られている。このカメラは、二つのレンズを備えており、左目用の画像データと右目用の画像データとを取得する。   Cameras that can take a three-dimensional image are known. This camera is provided with two lenses, and acquires image data for the left eye and image data for the right eye.

たとえば、特開2010−288253号公報(特許文献1)は、「撮影者の指等の障害物により、撮影時における画角の一部が遮られていても、取得された視点画像から生成される立体視用画像を見やすくする」技術を開示している([要約]の[課題])。   For example, Japanese Patent Application Laid-Open No. 2010-288253 (Patent Document 1) states that “even if a part of the angle of view at the time of shooting is obstructed by an obstacle such as a photographer's finger, the generated viewpoint image is generated. The technology for making it easy to see stereoscopic images is disclosed ([Summary] [Problem]).

また、特開2010−114760号公報は、「複眼カメラの撮像光学系への指かかりをユーザに分かりやすく通知する」ための技術を開示している([要約]の[課題])。   Japanese Patent Application Laid-Open No. 2010-114760 discloses a technique for “notifying a user easily of fingering on an imaging optical system of a compound eye camera” ([Summary] [Problem]).

特開2010−288253号公報JP 2010-288253 A 特開2010−114760号公報JP 2010-114760 A

特許文献1または特許文献2に開示された技術によると、追加の画像処理が必要になりプロセッサの消費電力が増加することも考えられる。   According to the technique disclosed in Patent Document 1 or Patent Document 2, additional image processing is required, and the power consumption of the processor may be increased.

本発明は上述のような問題点を解決するためになされたものであって、その目的は、複数のカメラのうちのいずれかが指等によって遮られていることを通知する携帯端末を提供することである。他の目的は、いずれかのカメラが遮られた状態で撮影された画像を違和感なく再生表示できる携帯端末を提供することである。   The present invention has been made to solve the above-described problems, and an object thereof is to provide a mobile terminal that notifies that any of a plurality of cameras is blocked by a finger or the like. That is. Another object is to provide a portable terminal capable of reproducing and displaying an image shot with any camera blocked.

他の目的は、複数のカメラのうちのいずれかが指等によって遮られていることを通知するように携帯端末を制御するためのプログラムを提供することである。他の目的は、いずれかのカメラが遮られた状態で撮影された画像を違和感なく再生表示できるように携帯端末を制御するためのプログラムを提供することである。   Another object is to provide a program for controlling a mobile terminal so as to notify that any of a plurality of cameras is blocked by a finger or the like. Another object is to provide a program for controlling a portable terminal so that an image taken with any camera blocked can be reproduced and displayed without a sense of incongruity.

ある局面にしたがう、3次元で表示可能な画像を撮影するための携帯端末は、携帯端末の筐体の内側に配置された第1の撮像手段と、第1の撮像手段と筐体の側縁との間に配置された第2の撮像手段と、第1の撮像手段または第2の撮像手段による撮影の命令を受け付けるシャッタスイッチと、第1の撮像手段または第2の撮像手段からの画像を表示するための表示装置と、携帯端末の動作を制御するための制御手段とを備える。携帯端末の動作モードが2次元の画像を撮影するモードである場合には、制御手段は、第1の撮像手段からの画像を表示装置に表示させる。携帯端末の動作モードが3次元の画像を撮影するためのモードである場合には、制御手段は、第2の撮像手段からの画像を表示装置に表示させる。   According to a certain aspect, a portable terminal for photographing an image that can be displayed in three dimensions includes a first imaging unit disposed inside a casing of the portable terminal, a first imaging unit, and a side edge of the casing. A second imaging unit disposed between the first imaging unit and the second imaging unit, and a shutter switch that receives a command for imaging by the first imaging unit or the second imaging unit, and an image from the first imaging unit or the second imaging unit. A display device for displaying and a control means for controlling the operation of the mobile terminal are provided. When the operation mode of the portable terminal is a mode for capturing a two-dimensional image, the control unit displays the image from the first imaging unit on the display device. When the operation mode of the portable terminal is a mode for capturing a three-dimensional image, the control unit displays the image from the second imaging unit on the display device.

好ましくは、第1の撮像手段の露出と、第2の撮像手段の露出との差が予め規定された値を上回る場合に、制御手段は、予め定められた表示態様とは異なる態様で、画像を表示装置に表示する。   Preferably, when the difference between the exposure of the first imaging unit and the exposure of the second imaging unit exceeds a predetermined value, the control unit displays the image in a mode different from the predetermined display mode. Is displayed on the display device.

好ましくは、第1の撮像手段の露出と、第2の撮像手段の露出との差が予め規定された値を上回る場合に、制御手段は、大きな露出をもたらす撮像手段からの画像を、右目用の画像データおよび左目用の画像データとして、メモリに保存する。   Preferably, when the difference between the exposure of the first imaging unit and the exposure of the second imaging unit exceeds a predetermined value, the control unit uses the right eye for an image from the imaging unit that provides a large exposure. And the image data for the left eye are stored in the memory.

好ましくは、筐体において、シャッタスイッチの対角の位置には、ストラップを取り付けるための開口部が形成されている。   Preferably, in the housing, an opening for attaching a strap is formed at a diagonal position of the shutter switch.

好ましくは、第1の撮像手段および第2の撮像手段の近傍の筐体の厚みは、筐体の側縁部の近傍の厚みを上回り、近傍と側縁部との間における筐体の表面は、少なくとも二つの異なる曲率中心に基づく円弧を含む。   Preferably, the thickness of the casing in the vicinity of the first imaging unit and the second imaging unit exceeds the thickness in the vicinity of the side edge of the casing, and the surface of the casing between the vicinity and the side edge is , Including arcs based on at least two different centers of curvature.

他の実施の形態にしたがうと、3次元で表示可能な画像を撮影するための携帯端末を制御するためのプログラムが提供される。携帯端末は、携帯端末の筐体の内側に配置された第1のカメラと、第1のカメラと筐体の側縁との間に配置された第2のカメラと、第1のカメラまたは第2のカメラからの画像を表示するための表示装置と、携帯端末の動作を制御するためのプロセッサとを備えている。プログラムはプロセッサに、携帯端末の動作モードが2次元の画像を撮影するモードである場合には、第1のカメラからの画像を表示装置に表示するステップと、携帯端末の動作モードが3次元の画像を撮影するためのモードである場合には、第2のカメラからの画像を表示装置に表示するステップとを実行させる。   According to another embodiment, a program for controlling a portable terminal for capturing an image that can be displayed in three dimensions is provided. The portable terminal includes a first camera disposed inside the casing of the portable terminal, a second camera disposed between the first camera and a side edge of the casing, and the first camera or the first camera. A display device for displaying images from the two cameras and a processor for controlling the operation of the portable terminal. When the operation mode of the mobile terminal is a mode for capturing a two-dimensional image, the program displays the image from the first camera on the display device, and the operation mode of the mobile terminal is a three-dimensional operation mode. If it is a mode for taking an image, a step of displaying an image from the second camera on the display device is executed.

好ましくは、第1のカメラの露出と、第2のカメラの露出との差が予め規定された値を上回る場合に、プログラムはプロセッサに、予め定められた表示態様とは異なる態様で、画像を表示装置に表示するステップをさらに実行させる。   Preferably, when the difference between the exposure of the first camera and the exposure of the second camera exceeds a predetermined value, the program displays the image in a manner different from a predetermined display manner. The step of displaying on the display device is further executed.

好ましくは、第1のカメラの露出と、第2のカメラの露出との差が予め規定された値を上回る場合に、プログラムはプロセッサに、大きな露出をもたらすカメラからの画像を、右目用の画像データおよび左目用の画像データとして、メモリに保存するステップをさらに実行させる。   Preferably, if the difference between the exposure of the first camera and the exposure of the second camera exceeds a predefined value, the program causes the processor to display an image from the camera that produces a large exposure for the image for the right eye. The step of storing in the memory as data and image data for the left eye is further executed.

この発明の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解されるこの発明に関する次の詳細な説明から明らかとなるであろう。   The above and other objects, features, aspects and advantages of the present invention will become apparent from the following detailed description of the present invention taken in conjunction with the accompanying drawings.

携帯端末の一態様である携帯電話機10の外観を表わす図である。It is a figure showing the external appearance of the mobile telephone 10 which is one aspect | mode of a portable terminal. 携帯電話機10を斜め上方から表す図である。It is a figure showing the mobile telephone 10 from diagonally upward. 携帯電話機10のハードウェア構成を表わすブロック図である。3 is a block diagram showing a hardware configuration of mobile phone 10. FIG. ディスプレイ170におけるモニタ画面の表示を表す図である。It is a figure showing the display of the monitor screen in the display. 携帯電話機10のCPU100が実行する処理の一部を表すフローチャートである。4 is a flowchart showing a part of processing executed by CPU 100 of mobile phone 10. 本変形例に係る携帯電話機の制御構造を表すフローチャートである。It is a flowchart showing the control structure of the mobile telephone which concerns on this modification. 携帯電話機10のCPU100が実行する処理の一部を表すフローチャートである。4 is a flowchart showing a part of processing executed by CPU 100 of mobile phone 10. 湾曲部800の形状を表す図である。It is a figure showing the shape of the curved part 800. FIG.

以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

図1を参照して、本発明の実施の形態に係る携帯端末について説明する。図1は、携帯端末の一態様である携帯電話機10の外観を表わす図である。なお、以下の例では、携帯電話機10に基づいて本願発明の一実施の形態が説明されるが、本願発明に係る技術思想の適用は携帯電話機10に限られない。たとえば、本願発明は、携帯電話機、スマートフォンその他の携帯可能な情報処理端末であって、複数のレンズを用いたカメラ機能を有する端末にも適用可能である。   A mobile terminal according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 is a diagram illustrating an appearance of a mobile phone 10 that is one mode of a mobile terminal. In the following example, an embodiment of the present invention is described based on the mobile phone 10, but the application of the technical idea according to the present invention is not limited to the mobile phone 10. For example, the present invention can be applied to a portable information processing terminal such as a mobile phone, a smartphone, or the like that has a camera function using a plurality of lenses.

図1(A)を参照して、携帯電話機10は、その筐体にレンズ110,111と、シャッタースイッチ140とを備える。レンズ110,111が配置されている面の裏の面には、モニタ(図示しない)が配置されている。   Referring to FIG. 1A, mobile phone 10 includes lenses 110 and 111 and a shutter switch 140 in its housing. A monitor (not shown) is disposed on the back surface of the surface on which the lenses 110 and 111 are disposed.

図1(B)を参照して、携帯電話機10の断面A−Aから明らかなように、携帯電話機10の筐体の外形は、レンズ110,111の部分の厚みは、他の部分の厚みよりも上回る。より詳しくは、筐体の厚みは、レンズ110,111から周縁部に向けて湾曲している。ある局面において、湾曲は、二つの曲率円の円弧の一部の組み合わせとして規定される。たとえば、第1の曲率中心と、第2の曲率中心とは、湾曲部800を挟んで反対側に位置する。湾曲部800の構成は、図8において詳述する。   Referring to FIG. 1B, as is apparent from the cross section AA of the mobile phone 10, the outer shape of the casing of the mobile phone 10 is such that the thickness of the lenses 110 and 111 is greater than the thickness of other portions. Also exceeds. More specifically, the thickness of the housing is curved from the lenses 110 and 111 toward the peripheral edge. In one aspect, the curvature is defined as a combination of portions of two arcs of curvature. For example, the first center of curvature and the second center of curvature are located on opposite sides of the curved portion 800. The configuration of the bending portion 800 will be described in detail in FIG.

図1(C)を参照して、断面B−Bとして示されるように、携帯電話機10の筐体の長手方向の厚みは、ある局面において一定として構成される。   Referring to FIG. 1C, the longitudinal thickness of the casing of mobile phone 10 is configured to be constant in a certain aspect, as shown as section BB.

図2を参照して、携帯電話機10の構成についてさらに説明する。図2は、携帯電話機10を斜め上方から表す図である。携帯電話機10は、ストラップを取り付けるための開口部200をさらに備える。ある局面において、開口部200は、シャッタースイッチ140の対角の位置に形成されている。このような位置に配置されると、携帯電話機10のユーザが撮影を行なう場合には、ストラップ(図示しない)が筐体の下にぶら下がる態様となり、携帯電話機10を持ち易くなる。   The configuration of the mobile phone 10 will be further described with reference to FIG. FIG. 2 is a diagram illustrating the mobile phone 10 from obliquely above. The mobile phone 10 further includes an opening 200 for attaching a strap. In one aspect, the opening 200 is formed at a diagonal position of the shutter switch 140. When arranged at such a position, when the user of the mobile phone 10 takes a picture, a strap (not shown) hangs under the casing, and the mobile phone 10 can be easily held.

図3を参照して、本発明の実施の形態に係る携帯電話機100の構成について説明する。図3は、携帯電話機10のハードウェア構成を表わすブロック図である。   With reference to FIG. 3, a configuration of mobile phone 100 according to the embodiment of the present invention will be described. FIG. 3 is a block diagram illustrating a hardware configuration of the mobile phone 10.

携帯電話機10は、CPU(Central Processing Unit)100と、レンズ110,111と、絞り112,113と、CMOS(Complementary Metal-Oxide Semiconductor)114,115と、CDS(Correlated Double Sampling)116,117と、増幅器118,119と、A/D(Analog to Digital)変換器120,121と、レンズモータ130,131と、アイリスモータ132,133と、タイミングジェネレータ134,135と、シャッタースイッチ140と、モード選択ボタン142と、電源ボタン144と、RAM(Random Access Memory)150と、画像信号処理回路152と、YC変換処理回路154と、圧縮伸張処理回路158と、ROM(Read-Only Memory)160と、フラッシュメモリ162と、LCD(Liquid Crystal Display)ドライバ164と、メディアコントローラ166と、ディスプレイ170と、タッチセンサ172と、通信回路190と、アンテナ192とを備える。メディアコントローラ166には、メモリカード168が装着され得る。   The cellular phone 10 includes a CPU (Central Processing Unit) 100, lenses 110 and 111, diaphragms 112 and 113, CMOS (Complementary Metal-Oxide Semiconductor) 114 and 115, CDS (Correlated Double Sampling) 116 and 117, Amplifiers 118 and 119, A / D (Analog to Digital) converters 120 and 121, lens motors 130 and 131, iris motors 132 and 133, timing generators 134 and 135, a shutter switch 140, and a mode selection button 142, a power button 144, a RAM (Random Access Memory) 150, an image signal processing circuit 152, a YC conversion processing circuit 154, a compression / decompression processing circuit 158, a ROM (Read-Only Memory) 160, and a flash memory 162, LCD (Liquid Crystal Display) driver 164, It comprises a media controller 166, a display 170, a touch sensor 172, a communication circuit 190, and an antenna 192. A memory card 168 can be attached to the media controller 166.

ある局面において、携帯電話機10は、その本体が薄型の略直方体形状に形成されている。レンズ110は、本体の前面に設けられる。シャッタースイッチ140は、本体の上面あるいは本体の背面に設けられる。シャッタースイッチ140は、ハードウェアとして構成されるスイッチに限られず、ディスプレイ170に表示されるソフトウェアキーとして構成されてもよい。   In one aspect, the mobile phone 10 has a main body formed in a thin, substantially rectangular parallelepiped shape. The lens 110 is provided on the front surface of the main body. The shutter switch 140 is provided on the upper surface of the main body or the rear surface of the main body. The shutter switch 140 is not limited to a switch configured as hardware, and may be configured as a software key displayed on the display 170.

CPU100は、データバス180を介して携帯電話機10の各部に電気的に接続されている。CPU100は、シャッタースイッチ140、モード選択ボタン142、電源ボタン144、並びに、タッチセンサ172から入力される信号に基づいて接続された各部を駆動制御する。   The CPU 100 is electrically connected to each part of the mobile phone 10 via the data bus 180. The CPU 100 controls driving of each unit connected based on signals input from the shutter switch 140, the mode selection button 142, the power button 144, and the touch sensor 172.

携帯電話機10のユーザが、携帯電話機10の動作モードを撮影モードにセットしてシャッタースイッチ140を押下すると、レンズ110によって結像された被写体光が撮影画像として取得される。CPU100は、撮影画像を、メモリカード168に書き込む。撮影モードは、従来の2次元の写真を撮影するための2次元モードと、3次元の画像として視認され得る写真を撮影するための3次元モードとを含む。   When the user of the mobile phone 10 sets the operation mode of the mobile phone 10 to the shooting mode and presses the shutter switch 140, the subject light imaged by the lens 110 is acquired as a captured image. The CPU 100 writes the captured image in the memory card 168. The photographing mode includes a conventional two-dimensional mode for photographing a two-dimensional photograph and a three-dimensional mode for photographing a photograph that can be viewed as a three-dimensional image.

ある局面において、携帯電話機10の本体の側面には、モード選択ボタン142、電源ボタン144が設けられる。携帯電話機10は、上記撮影モードに加えて、メモリカード168に格納された撮影画像をディスプレイ170に再生表示するための再生モード、携帯電話機10の各種設定を行うためのメニューモード等の動作モードを有する。ユーザは、モード選択ボタン142を押下することにより、各モード間を切り替えることができる。また、他の局面において、ユーザは、電源ボタン144を押下する毎に、携帯電話機10の電源のオン/オフを切り替えることができる。   In one aspect, a mode selection button 142 and a power button 144 are provided on the side surface of the main body of the mobile phone 10. In addition to the above-described shooting mode, the mobile phone 10 has operation modes such as a playback mode for playing back and displaying captured images stored in the memory card 168 and a menu mode for performing various settings of the mobile phone 10. Have. The user can switch between the modes by pressing the mode selection button 142. In another aspect, the user can switch on / off the power of the mobile phone 10 each time the user presses the power button 144.

ディスプレイ170は、携帯電話機10の本体の背面に設けられる。ディスプレイ170は、液晶表示装置、有機EL(Electro Luminescence)ディスプレイ等によって実現されるが、これらの装置に限られない。ある局面において、ディスプレイ170は、その表示画面が本体の背面とほぼ等しい大きさに形成される。ディスプレイ170は、撮影モードにおいて、被写体の撮影画像をリアルタイムで表示する電子ビューファインダとして機能する。また、再生モードにおいて、ディスプレイ170は、メモリカード168に格納されている撮影画像を再生表示するためのモニタとして機能する。さらに、メニューモードにおいて、ディスプレイ170は、携帯電話機10の動作を規定するための入力を受け付ける設定画面を表示する。   The display 170 is provided on the back surface of the main body of the mobile phone 10. The display 170 is realized by a liquid crystal display device, an organic EL (Electro Luminescence) display, or the like, but is not limited to these devices. In one aspect, the display 170 has a display screen that is approximately the same size as the back of the main body. The display 170 functions as an electronic viewfinder that displays a captured image of a subject in real time in the shooting mode. In the playback mode, the display 170 functions as a monitor for playing back and displaying the captured image stored in the memory card 168. Further, in the menu mode, display 170 displays a setting screen for accepting an input for defining the operation of mobile phone 10.

また、ディスプレイ170には、パネル状のタッチセンサ172が設けられている。ユーザの手や指がディスプレイ170の表示画面に接触すると、タッチセンサ172は、この接触位置を検知するように構成されている。ユーザが携帯電話機10の本体を把持すると、タッチセンサ172は、グリップ領域を検知することもできる。また、タッチセンサ172は、ディスプレイ170へのタッチ操作によって各種操作指示の入力を受け付けるための操作部としても機能する。   Further, the display 170 is provided with a panel-like touch sensor 172. When the user's hand or finger touches the display screen of the display 170, the touch sensor 172 is configured to detect the contact position. When the user grips the main body of the mobile phone 10, the touch sensor 172 can also detect the grip area. The touch sensor 172 also functions as an operation unit for receiving input of various operation instructions by a touch operation on the display 170.

絞り112、CMOS114,115は、レンズ110の背後に並べて配置される。レンズ110は、レンズモータ130に接続される。絞り112は、アイリスモータ132に接続される。レンズモータ130は、ユーザの操作に応じて、レンズ110のズームレンズをワイド側に、またはテレ側に移動することによって、ズーム倍率を変更する。また、レンズモータ130は、CPU100からの信号に基づいて被写体距離やズームレンズの変倍に応じてレンズ110のフォーカスレンズを移動することにより、撮影条件が最適となるように焦点を調整する。アイリスモータ132は、絞り112を作動させることにより露出を調整する。   The aperture 112 and the CMOSs 114 and 115 are arranged side by side behind the lens 110. The lens 110 is connected to the lens motor 130. The diaphragm 112 is connected to the iris motor 132. The lens motor 130 changes the zoom magnification by moving the zoom lens of the lens 110 to the wide side or the tele side in accordance with a user operation. Further, the lens motor 130 adjusts the focal point so that the photographing condition is optimized by moving the focus lens of the lens 110 according to the subject distance and zoom lens magnification based on the signal from the CPU 100. The iris motor 132 adjusts the exposure by operating the diaphragm 112.

レンズ110、絞り112を透過した被写体光は、CMOS114,115の受光面で像を構成する。CMOS114,115の受光面には、受光量に応じた電荷を蓄積するための受光素子が複数配列されている。CMOS114,115は、撮像によって各受光素子に蓄積された電荷を撮像信号として出力する。CMOS114,115には、CPU100によって制御されるタイミングジェネレータ(TG)134,135が接続されている。CMOS114,115は、TG134,135から入力されるタイミング信号(クロックパルス)によって、それぞれ駆動される。   The subject light transmitted through the lens 110 and the aperture 112 forms an image on the light receiving surfaces of the CMOSs 114 and 115. A plurality of light receiving elements for accumulating charges corresponding to the amount of received light are arranged on the light receiving surfaces of the CMOSs 114 and 115. The CMOSs 114 and 115 output charges accumulated in the respective light receiving elements by imaging as imaging signals. Timing generators (TG) 134 and 135 controlled by the CPU 100 are connected to the CMOSs 114 and 115. The CMOSs 114 and 115 are driven by timing signals (clock pulses) input from the TGs 134 and 135, respectively.

CMOS114,115により取得された撮像信号は、相関二重サンプリング回路(CDS)116に入力され、CMOS114,115の各受光素子の蓄積電荷量に対応したR,G,Bの画像データとして出力される。CDS116から出力された画像データは、増幅器(AMP)118で増幅され、増幅後のデータは、A/D120によってデジタルの画像データに変換される。A/D120から出力される画像データは、ワークメモリであるRAM150に一時的に格納される。   The imaging signals acquired by the CMOSs 114 and 115 are input to a correlated double sampling circuit (CDS) 116, and output as R, G, and B image data corresponding to the accumulated charge amount of each light receiving element of the CMOSs 114 and 115. . The image data output from the CDS 116 is amplified by an amplifier (AMP) 118, and the amplified data is converted into digital image data by the A / D 120. Image data output from the A / D 120 is temporarily stored in the RAM 150 which is a work memory.

画像信号処理回路152は、RAM150に格納された画像データに基づいて、階調変換、ホワイトバランス補正、γ補正処理その他の画像処理を実行する。   The image signal processing circuit 152 executes gradation conversion, white balance correction, γ correction processing, and other image processing based on the image data stored in the RAM 150.

YC変換処理回路154は、画像処理後のデータを、輝度信号Yと、色差信号Cr,Cbとに変換する。   The YC conversion processing circuit 154 converts the data after image processing into a luminance signal Y and color difference signals Cr and Cb.

撮影モードにおいて、CMOS114,115は、所定のフレームレートで撮像処理を実行する。画像信号処理回路152は、撮像処理によって取得された画像データに対して上記画像処理を実行する。ディスプレイ170は、処理済みの撮影画像を現在の画像として表示する。   In the shooting mode, the CMOSs 114 and 115 execute an imaging process at a predetermined frame rate. The image signal processing circuit 152 performs the image processing on the image data acquired by the imaging processing. The display 170 displays the processed captured image as the current image.

LCDドライバ164は、ディスプレイ170を駆動する。LCDドライバ164は、画像メモリ、D/Aコンバータ等(図示しない)を有している。D/Aコンバータは、画像メモリに一時的に蓄積された撮影画像を、たとえば、NTSC(National Television System Committee)方式のアナログ信号に変換して、変換後の信号をディスプレイ170に出力する。   The LCD driver 164 drives the display 170. The LCD driver 164 has an image memory, a D / A converter, and the like (not shown). The D / A converter converts the captured image temporarily stored in the image memory into, for example, an NTSC (National Television System Committee) analog signal, and outputs the converted signal to the display 170.

撮影モードにおいて、シャッタースイッチ140が押下され、レリーズ操作が行われると、CMOS114,115は、所謂スルー画像表示のためのライブ画像よりも画素数の大きな画像データ(以下「オリジナル画像データ」という)を取得する。画像信号処理回路152は、オリジナル画像データに対して、上記の画像処理を実行する。圧縮伸張処理回路158は、予め定められた圧縮形式(たとえば、JPEG(Joint Photographic Experts Group)形式)に従って、当該画像処理後の撮影画像を圧縮する。圧縮された撮影画像は、メディアコントローラ166によってメモリカード168に書き込まれる。   In the shooting mode, when the shutter switch 140 is pressed and a release operation is performed, the CMOSs 114 and 115 store image data (hereinafter referred to as “original image data”) having a larger number of pixels than a live image for so-called through image display. get. The image signal processing circuit 152 performs the above image processing on the original image data. The compression / decompression processing circuit 158 compresses the captured image after the image processing according to a predetermined compression format (for example, JPEG (Joint Photographic Experts Group) format). The compressed captured image is written to the memory card 168 by the media controller 166.

一方、再生モードにおいて、メモリカード168に記録された撮影画像は、メディアコントローラ166によってRAM150に読み出される。圧縮伸張処理回路158は、RAM150に読み出された画像の伸張処理を実行する。LCDドライバ164は、その伸張処理後のデータを読み出し、そのデータに基づいて画像をディスプレイ170に再生表示する。   On the other hand, in the playback mode, the captured image recorded on the memory card 168 is read out to the RAM 150 by the media controller 166. The compression / decompression processing circuit 158 executes decompression processing of the image read to the RAM 150. The LCD driver 164 reads the decompressed data and reproduces and displays an image on the display 170 based on the data.

タッチセンサ172は、ユーザの手や指の接触を検知すると、この接触位置を示す信号をCPU100に対して出力する。ある局面において、タッチセンサ172は、その配置位置に応じて、ディスプレイ170の表示画面の下に配置される。他の局面において、タッチセンサ172は、透明なスクリーンで形成され、表示画面を覆うように構成される。また、ディスプレイ170への接触を検知するための方法として、たとえば、ディスプレイ170のパネル(図示しない)における圧力の変化を感知する感圧式と、静電気による電気信号を感知する静電式などのがあるが、いずれの方法も、本実施の形態に適用され得る。   When the touch sensor 172 detects contact of a user's hand or finger, the touch sensor 172 outputs a signal indicating the contact position to the CPU 100. In one aspect, the touch sensor 172 is disposed under the display screen of the display 170 in accordance with the arrangement position. In another aspect, touch sensor 172 is formed of a transparent screen and is configured to cover the display screen. In addition, as a method for detecting contact with the display 170, for example, there are a pressure-sensitive type that detects a change in pressure on a panel (not shown) of the display 170, and an electrostatic type that detects an electric signal due to static electricity. However, any method can be applied to the present embodiment.

ある局面において、CPU100が、撮影画像をディスプレイ170に表示すると、タッチセンサ172からの信号がCPU100にない場合、すなわち、ユーザがディスプレイ170に触れていない場合には、CPU100は、撮影画像をディスプレイ170の表示画面の全面に表示する。他の局面において、CPU100が、タッチセンサ172から出力された信号の入力を検知すると、CPU100は、タッチセンサ172によって検出された接触位置を避けるように撮影画像の表示領域を設定し、この表示領域に撮影画像を表示する。   In one aspect, when the CPU 100 displays a captured image on the display 170, when the signal from the touch sensor 172 is not in the CPU 100, that is, when the user is not touching the display 170, the CPU 100 displays the captured image on the display 170. Is displayed on the entire screen. In another aspect, when the CPU 100 detects the input of the signal output from the touch sensor 172, the CPU 100 sets a display area of the captured image so as to avoid the contact position detected by the touch sensor 172, and this display area The captured image is displayed on the screen.

図4を参照して、ディスプレイ170の表示態様についてさらに説明する。図4は、ディスプレイ170におけるモニタ画面の表示を表す図である。携帯電話機10の撮影モードが3次元撮影モードであるとき、CPU100は、レンズ111によって取得された画像をディスプレイ170に表示させる。ユーザが携帯電話機10を把持した時に、手や指によって遮られにくい場所にあるレンズ110からの画像は表示されない。   The display mode of the display 170 will be further described with reference to FIG. FIG. 4 is a diagram illustrating the display of the monitor screen on the display 170. When the shooting mode of the mobile phone 10 is the three-dimensional shooting mode, the CPU 100 causes the display 170 to display an image acquired by the lens 111. When the user holds the mobile phone 10, an image from the lens 110 that is not easily blocked by a hand or a finger is not displayed.

すなわち、画面(A)に示されるように、携帯電話機10の撮影モードが3次元撮影モードであるとき、ディスプレイ170は、その旨を画面上に表示する。画面(B)に示されるように、ユーザの指がレンズ111に重なっている場合には、ディスプレイ170は、モニタ画像として、その指の画像410を表示する。ユーザは、画像410を視認することにより、指がレンズ111に重なっていることを容易に知ることができるため、3次元画像の撮影の失敗が防止され得る。   That is, as shown in the screen (A), when the photographing mode of the mobile phone 10 is the three-dimensional photographing mode, the display 170 displays that fact on the screen. As shown in the screen (B), when the user's finger overlaps the lens 111, the display 170 displays the image 410 of the finger as a monitor image. By visually recognizing the image 410, the user can easily know that the finger is superimposed on the lens 111, so that a failure in capturing the three-dimensional image can be prevented.

図5を参照して、携帯電話機10の制御構造について説明する。図5は、携帯電話機10のCPU100が実行する処理の一部を表すフローチャートである。   With reference to FIG. 5, the control structure of the mobile phone 10 will be described. FIG. 5 is a flowchart showing a part of processing executed by CPU 100 of mobile phone 10.

ステップS510にて、CPU100は、ディスプレイ170に表示されるメニュー画面(図示しない)に対するユーザ操作に基づいて、カメラモードへの切換指令が入力されたことを検知する。   In step S510, CPU 100 detects that a command to switch to camera mode is input based on a user operation on a menu screen (not shown) displayed on display 170.

ステップS520にて、CPU100は、カメラ機能を起動する。CPU100は、フラッシュメモリ162に格納されている情報に従って、カメラの撮影モードを設定する。   In step S520, CPU 100 activates the camera function. The CPU 100 sets the shooting mode of the camera according to the information stored in the flash memory 162.

ステップS530にて、CPU100は、撮影モードが2次元撮影モードであるか、3次元撮影モードであるかを判断する。CPU100は、撮影モードが2次元撮影モードであると判断すると(ステップS530にてYES)、制御をステップS540に切り換える。一方、CPU100は、撮影モードが3次元撮影モードであると判断すると(ステップS530にてNO)、制御をステップS550に切り換える。   In step S530, CPU 100 determines whether the shooting mode is the two-dimensional shooting mode or the three-dimensional shooting mode. When CPU 100 determines that the shooting mode is the two-dimensional shooting mode (YES in step S530), CPU 100 switches control to step S540. On the other hand, when CPU 100 determines that the shooting mode is the three-dimensional shooting mode (NO in step S530), CPU 100 switches control to step S550.

ステップS540にて、CPU100は、右目用カメラ(レンズ110)からの画像をディスプレイ170にモニタ画像として表示する。   In step S540, CPU 100 displays the image from right-eye camera (lens 110) on monitor 170 as a monitor image.

ステップS550にて、CPU100は、左目用カメラ(レンズ111)からの画像をディスプレイ170にモニタ画像として表示する。このとき、ユーザの指がレンズ111にかぶさっていれば(図4の画面(B)参照)、ユーザは、そのことを直ぐに知ることができるため、携帯電話機10の持ち方を変えて指がレンズ111を遮らないようにすることができる。   In step S550, CPU 100 displays an image from left-eye camera (lens 111) on monitor 170 as a monitor image. At this time, if the user's finger is covering the lens 111 (see screen (B) in FIG. 4), the user can know this immediately, so the user can change the way of holding the mobile phone 10 and the 111 can be prevented from being blocked.

ステップS560にて、CPU100は、シャッタースイッチ140に対する操作に基づいて、撮影を実行する。   In step S560, CPU 100 executes shooting based on an operation on shutter switch 140.

以上のようにして、本発明の実施の形態に係る携帯電話機10によると、その撮影モードが3次元撮影モードである場合には、モニタ画像として、筐体の外側に近いレンズ111からの画像をディスプレイ170に表示する。筐体の外側の部分は、ユーザの手や指が重なりやすい部分であるため、仮に、手や指が重なっていた場合には、ディスプレイ170は、その画像を表示する。ユーザは、その画像を認識すると、携帯電話機10を持ち帰ることにより、レンズ111に指が重なることを防止できる。これにより、3次元撮影における撮影の失敗を防止することができる。   As described above, according to the mobile phone 10 according to the embodiment of the present invention, when the shooting mode is the three-dimensional shooting mode, an image from the lens 111 close to the outside of the housing is displayed as a monitor image. Displayed on the display 170. Since the outer portion of the housing is a portion where the user's hand and fingers are likely to overlap, the display 170 displays the image if the hands and fingers overlap. When the user recognizes the image, the user can prevent the finger from overlapping the lens 111 by bringing the mobile phone 10 home. Thereby, the failure of imaging | photography in three-dimensional imaging | photography can be prevented.

<変形例>
以下、本発明の実施の形態の変形例について説明する。図6は、本変形例に係る携帯電話機の制御構造を表すフローチャートである。なお、本変形例に係る携帯電話機のハードウェア構成は、前述の携帯電話機10のハードウェア構成と同じである。したがってハードウェア構成の説明は繰り返さない。
<Modification>
Hereinafter, modifications of the embodiment of the present invention will be described. FIG. 6 is a flowchart showing the control structure of the mobile phone according to the present modification. The hardware configuration of the mobile phone according to this modification is the same as the hardware configuration of the mobile phone 10 described above. Therefore, the description of the hardware configuration will not be repeated.

ステップS610にて、CPU100は、シャッタースイッチ140に対するユーザ操作に基づいて、3次元撮影モードへの切換指令が与えられたことを検知する。   In step S610, CPU 100 detects that a command to switch to the three-dimensional imaging mode is given based on a user operation on shutter switch 140.

ステップS620にて、CPU100は、右目用カメラのレンズ110の露出と、左目用カメラのレンズ111の露出との差が、予め規定された値以上であるか否かを判断する。CPU100は、当該差が予め規定された値以上であると判断すると(ステップS620にてYES)、制御をステップS630に切り換える。この場合、レンズ111またはレンズ110のいずれかがユーザの指または手によって遮られていることになる。そうでない場合には、CPU100は(ステップS630にてNO)、制御をステップS640に切り換える。   In step S620, CPU 100 determines whether the difference between the exposure of lens 110 of the right-eye camera and the exposure of lens 111 of the left-eye camera is equal to or greater than a predetermined value. When CPU 100 determines that the difference is equal to or greater than a predetermined value (YES in step S620), CPU 100 switches control to step S630. In this case, either the lens 111 or the lens 110 is blocked by the user's finger or hand. If not (NO in step S630), CPU 100 switches control to step S640.

ステップS630にて、CPU100は、モニタ画面を表示する通常の態様とは異なる態様で、左目用カメラのレンズ111からの画像と、右目用カメラのレンズ110からの画像とを表示する。これにより、ユーザは、いずれかのレンズが指や手などによって遮られていることを知ることができる。   In step S630, CPU 100 displays an image from lens 111 of the left-eye camera and an image from lens 110 of the right-eye camera in a mode different from the normal mode of displaying the monitor screen. Thereby, the user can know that one of the lenses is blocked by a finger or a hand.

ステップS640にて、CPU100は、モニタ画面を表示するために規定された通常の態様で、レンズ111からの画像をディスプレイ170に表示させる。   In step S640, CPU 100 causes display 170 to display an image from lens 111 in a normal manner defined for displaying a monitor screen.

以上のようにして、本変形例に係る携帯電話機10は、二つのレンズの露出の差を計算し、その差が予め規定された値以上である場合には、いずれかのレンズが遮られていると判断し、その旨を通知する。ユーザはそれにより携帯電話機10の持ち方を変えることができるため、3次元の写真を撮影する際の失敗が防止され得る。   As described above, the mobile phone 10 according to the present modification calculates the difference in exposure between the two lenses, and if the difference is equal to or greater than a predetermined value, one of the lenses is blocked. And notify that. As a result, the user can change the way the mobile phone 10 is held, so that failure when taking a three-dimensional photograph can be prevented.

なお、通常の態様と異なる態様は、たとえば、以下のような動作を含む。たとえば、CPU100は、レンズ110からの画像と、レンズ111からの画像とをディスプレイ170に並べて表示してもよい。他の局面において、CPU100は、レンズ110からの画像と、レンズ111からの画像とを、交互に、ディスプレイ170に表示してもよい。さらに他の局面において、CPU100は、ディスプレイ170に表示される画像を、通常の色と、赤色のような別の色とで、交互に表示してもよい。いずれの表示態様によっても、ユーザは、レンズ110またはレンズ111が指や手等によって遮られていることを知ることができる。   Note that aspects different from the normal aspects include the following operations, for example. For example, the CPU 100 may display the image from the lens 110 and the image from the lens 111 side by side on the display 170. In another aspect, the CPU 100 may alternately display the image from the lens 110 and the image from the lens 111 on the display 170. In yet another aspect, the CPU 100 may alternately display the image displayed on the display 170 in a normal color and another color such as red. In any display mode, the user can know that the lens 110 or the lens 111 is blocked by a finger or a hand.

<画像の保存>
次に、本発明の実施の形態のさらに他の局面について説明する。この局面に従う携帯電話機は、3次元撮影モードでいずれかのレンズが指等によって覆われた状態で撮影が行われた場合に画像を保存する態様を切り替える機能を有する。なお、この局面に従う携帯電話機は、前述の携帯電話機10のハードウェア構成を用いて実現される。したがって、ハードウェア構成の説明は繰り返さない。
<Save image>
Next, still another aspect of the embodiment of the present invention will be described. The mobile phone according to this aspect has a function of switching a mode of storing an image when shooting is performed in a state where any lens is covered with a finger or the like in the three-dimensional shooting mode. Note that the mobile phone according to this aspect is realized by using the hardware configuration of the mobile phone 10 described above. Therefore, the description of the hardware configuration will not be repeated.

図7を参照して、この局面に従う携帯電話機10の制御構造について説明する。図7は、携帯電話機10のCPU100が実行する処理の一部を表すフローチャートである。   With reference to FIG. 7, a control structure of mobile phone 10 according to this aspect will be described. FIG. 7 is a flowchart showing a part of processing executed by CPU 100 of mobile phone 10.

ステップS610にて、CPU100は、シャッタースイッチ140に対するユーザ操作に基づいて、3次元撮影モードへの切換指令が与えられたことを検知する。   In step S610, CPU 100 detects that a command to switch to the three-dimensional imaging mode is given based on a user operation on shutter switch 140.

ステップS620にて、CPU100は、右目用カメラのレンズ110の露出と、左目用カメラのレンズ111の露出との差が、予め規定された値以上であるか否かを判断する。CPU100は、当該差が予め規定された値以上であると判断すると(ステップS620にてYES)、制御をステップS730に切り換える。この場合、レンズ111またはレンズ110のいずれかがユーザの指または手によって遮られていることになる。そうでない場合には、CPU100は(ステップS630にてNO)、制御をステップS740に切り換える。   In step S620, CPU 100 determines whether the difference between the exposure of lens 110 of the right-eye camera and the exposure of lens 111 of the left-eye camera is equal to or greater than a predetermined value. When CPU 100 determines that the difference is equal to or greater than a predetermined value (YES in step S620), CPU 100 switches control to step S730. In this case, either the lens 111 or the lens 110 is blocked by the user's finger or hand. If not (NO in step S630), CPU 100 switches control to step S740.

ステップS730にて、CPU100は、右目用カメラのレンズ110からの画像データを、右目用画像データおよび左目用画像データとして、RAM150に格納する。その後、ユーザが保存の指令を携帯電話機100に与えると、CPU100は、当該画像データを、フラッシュメモリ162またはメモリカード168に書き込む。   In step S730, CPU 100 stores, in RAM 150, image data from lens 110 of the right-eye camera as right-eye image data and left-eye image data. Thereafter, when the user gives a save command to the mobile phone 100, the CPU 100 writes the image data in the flash memory 162 or the memory card 168.

ステップS740にて、CPU100は、右目用カメラのレンズ110からの画像データを、右目用画像データとして、および、左目用カメラのレンズ111からの画像データを左目用画像データとして、RAM150にそれぞれ格納する。その後、ユーザが保存の指令を携帯電話機100に与えると、CPU100は、当該画像データを、フラッシュメモリ162またはメモリカード168に書き込む。   In step S740, CPU 100 stores image data from right-eye camera lens 110 in RAM 150 as right-eye image data and left-eye camera lens 111 as left-eye image data. . Thereafter, when the user gives a save command to the mobile phone 100, the CPU 100 writes the image data in the flash memory 162 or the memory card 168.

ステップS750にて、CPU100は、撮影モードを終了する指令が入力されたか否かを判断する。CPU100は、その指令が入力されたと判断すると(ステップS750にてYES)、撮影モードを終了し、待ち受けモードその他の標準の動作モードに切り替える。そうでない場合には(ステップS750にてNO)、CPU100は、制御をステップS620に戻す。   In step S750, CPU 100 determines whether an instruction to end the shooting mode has been input or not. When CPU 100 determines that the command has been input (YES in step S750), CPU 100 ends the shooting mode and switches to standby mode or another standard operation mode. If not (NO in step S750), CPU 100 returns control to step S620.

以上の次第で、この局面に従う携帯電話機10は、3次元撮影モードにおいて一部のレンズが指等によって遮られている場合には、指によって遮られていない他のレンズからの画像データを両目用の画像データとして保存する。したがって、画像が再生される場合には、3次元の表示は実現されないけれども、2次元の画像として表示される。   Depending on the above, the mobile phone 10 according to this aspect uses image data from other lenses that are not blocked by the fingers when both lenses are blocked by the fingers or the like in the three-dimensional shooting mode. Save as image data. Therefore, when an image is reproduced, a three-dimensional display is not realized, but a two-dimensional image is displayed.

<レンズ周りの構成>
ここで、図8を参照して、本実施の形態に係る携帯電話機10の形状についてさらに説明する。図8は、湾曲部800の形状を表す図である。前述のとおり、湾曲部800は、少なくとも二つの円弧を含む。図8からも明らかなように、一つの円弧の曲率中心810と、他の円弧の曲率中心820とは、それぞれ、筐体の反対側に位置する。このような構成によれば、ユーザが携帯電話機10を把持した場合にグリップ感が実現されるとともに、レンズが配置されている部分まで指がずり上がることが防止され得る。これにより、3次元の画像を撮影する場合に、レンズが指によって遮られにくくなるため、撮影の失敗を予防できる。
<Configuration around the lens>
Here, the shape of the mobile phone 10 according to the present embodiment will be further described with reference to FIG. FIG. 8 is a diagram illustrating the shape of the bending portion 800. As described above, the bending portion 800 includes at least two arcs. As is clear from FIG. 8, the center of curvature 810 of one arc and the center of curvature 820 of the other arc are respectively located on the opposite sides of the casing. According to such a configuration, when the user grips the mobile phone 10, a grip feeling can be realized, and a finger can be prevented from sliding up to a portion where the lens is disposed. Thereby, when taking a three-dimensional image, it is difficult for the lens to be blocked by the finger, so that shooting failure can be prevented.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

本発明は、携帯電話機、スマートフォンその他の携帯端末であって、3次元の画像として撮影できる機能を有する携帯端末に適用可能である。   The present invention is applicable to mobile terminals such as mobile phones, smartphones, and other mobile terminals having a function capable of capturing a three-dimensional image.

10,100 携帯電話機、10,111 レンズ、118,119 増幅器、120,121 変換器、130,131 レンズモータ、132,133 アイリスモータ、134,135 タイミングジェネレータ、140 シャッタースイッチ、142 モード選択ボタン、144 電源ボタン、150 RAM、152 画像信号処理回路、154 変換処理回路、158 圧縮伸張処理回路、162 フラッシュメモリ、164 ドライバ、166 メディアコントローラ、168 メモリカード、170 ディスプレイ、172 タッチセンサ、180 データバス、190 通信回路、192 アンテナ、200 開口部、410 画像、800 湾曲部、810,820 曲率中心。   10,100 mobile phone, 10,111 lens, 118,119 amplifier, 120,121 converter, 130,131 lens motor, 132,133 iris motor, 134,135 timing generator, 140 shutter switch, 142 mode selection button, 144 Power button, 150 RAM, 152 Image signal processing circuit, 154 Conversion processing circuit, 158 Compression / decompression processing circuit, 162 Flash memory, 164 driver, 166 Media controller, 168 Memory card, 170 Display, 172 Touch sensor, 180 Data bus, 190 Communication circuit, 192 antenna, 200 aperture, 410 images, 800 bend, 810,820 center of curvature.

Claims (8)

3次元で表示可能な画像を撮影するための携帯端末であって、
前記携帯端末の筐体の内側に配置された第1の撮像手段と、
前記第1の撮像手段と前記筐体の側縁との間に配置された第2の撮像手段と、
前記第1の撮像手段または前記第2の撮像手段による撮影の命令を受け付けるシャッタスイッチと、
前記第1の撮像手段または前記第2の撮像手段からの画像を表示するための表示装置と、
前記携帯端末の動作を制御するための制御手段とを備え、
前記携帯端末の動作モードが2次元の画像を撮影するモードである場合には、前記制御手段は、前記第1の撮像手段からの画像を前記表示装置に表示させ、
前記携帯端末の動作モードが3次元の画像を撮影するためのモードである場合には、前記制御手段は、前記第2の撮像手段からの画像を前記表示装置に表示させる、携帯端末。
A portable terminal for taking images that can be displayed in three dimensions,
First imaging means disposed inside a casing of the mobile terminal;
A second imaging means disposed between the first imaging means and a side edge of the housing;
A shutter switch that accepts an instruction to shoot by the first imaging means or the second imaging means;
A display device for displaying an image from the first imaging means or the second imaging means;
Control means for controlling the operation of the mobile terminal,
When the operation mode of the portable terminal is a mode for taking a two-dimensional image, the control means displays the image from the first imaging means on the display device,
When the operation mode of the portable terminal is a mode for taking a three-dimensional image, the control unit displays the image from the second imaging unit on the display device.
前記第1の撮像手段の露出と、前記第2の撮像手段の露出との差が予め規定された値を上回る場合に、前記制御手段は、予め定められた表示態様とは異なる態様で、画像を表示装置に表示する、請求項1に記載の携帯端末。   When the difference between the exposure of the first imaging unit and the exposure of the second imaging unit exceeds a predetermined value, the control unit displays the image in a mode different from a predetermined display mode. The mobile terminal according to claim 1, wherein the mobile terminal is displayed on a display device. 前記第1の撮像手段の露出と、前記第2の撮像手段の露出との差が予め規定された値を上回る場合に、前記制御手段は、大きな露出をもたらす撮像手段からの画像を、右目用の画像データおよび左目用の画像データとして、メモリに保存する、請求項1または2に記載の携帯端末。   When the difference between the exposure of the first imaging unit and the exposure of the second imaging unit exceeds a predetermined value, the control unit uses the right eye for an image from the imaging unit that provides a large exposure. The portable terminal according to claim 1, wherein the image data and the image data for the left eye are stored in a memory. 前記筐体において、前記シャッタスイッチの対角の位置には、ストラップを取り付けるための開口部が形成されている、請求項1〜3のいずれかに記載の携帯端末。   The portable terminal according to any one of claims 1 to 3, wherein an opening for attaching a strap is formed at a diagonal position of the shutter switch in the housing. 前記第1の撮像手段および前記第2の撮像手段の近傍の筐体の厚みは、前記筐体の側縁部の近傍の厚みを上回り、前記近傍と前記側縁部との間における前記筐体の表面は、少なくとも二つの異なる曲率中心に基づく円弧を含む、請求項1〜4のいずれかに記載の携帯端末。   The thickness of the casing near the first imaging means and the second imaging means exceeds the thickness near the side edge of the casing, and the casing between the vicinity and the side edge The mobile terminal according to any one of claims 1 to 4, wherein the surface of the mobile phone includes an arc based on at least two different centers of curvature. 3次元で表示可能な画像を撮影するための携帯端末を制御するためのプログラムであって、前記携帯端末は、前記携帯端末の筐体の内側に配置された第1のカメラと、前記第1のカメラと前記筐体の側縁との間に配置された第2のカメラと、前記第1のカメラまたは前記第2のカメラからの画像を表示するための表示装置と、前記携帯端末の動作を制御するためのプロセッサとを備えており、
前記プログラムは前記プロセッサに、
前記携帯端末の動作モードが2次元の画像を撮影するモードである場合には、前記第1のカメラからの画像を前記表示装置に表示するステップと、
前記携帯端末の動作モードが3次元の画像を撮影するためのモードである場合には、前記第2のカメラからの画像を前記表示装置に表示するステップとを実行させる、プログラム。
A program for controlling a portable terminal for photographing an image that can be displayed in three dimensions, wherein the portable terminal includes a first camera disposed inside a casing of the portable terminal, and the first A second camera disposed between the camera and a side edge of the housing, a display device for displaying an image from the first camera or the second camera, and an operation of the portable terminal And a processor for controlling the
The program is stored in the processor.
When the operation mode of the mobile terminal is a mode for taking a two-dimensional image, displaying the image from the first camera on the display device;
When the operation mode of the portable terminal is a mode for taking a three-dimensional image, a program that executes a step of displaying an image from the second camera on the display device.
前記第1のカメラの露出と、前記第2のカメラの露出との差が予め規定された値を上回る場合に、前記プログラムは前記プロセッサに、予め定められた表示態様とは異なる態様で、画像を表示装置に表示するステップをさらに実行させる、請求項6に記載のプログラム。   When the difference between the exposure of the first camera and the exposure of the second camera exceeds a predetermined value, the program causes the processor to display an image in a mode different from a predetermined display mode. The program according to claim 6, further comprising the step of displaying the message on a display device. 前記第1のカメラの露出と、前記第2のカメラの露出との差が予め規定された値を上回る場合に、前記プログラムは前記プロセッサに、大きな露出をもたらすカメラからの画像を、右目用の画像データおよび左目用の画像データとして、メモリに保存するステップをさらに実行させる、請求項6または7に記載のプログラム。   If the difference between the exposure of the first camera and the exposure of the second camera exceeds a predefined value, the program causes the processor to generate an image from the camera that produces a large exposure for the right eye. The program according to claim 6 or 7, further comprising a step of storing the image data and the image data for the left eye in a memory.
JP2011108436A 2011-05-13 2011-05-13 A portable terminal capable of photographing a three-dimensional image, and a program for controlling the portable terminal Expired - Fee Related JP5670828B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011108436A JP5670828B2 (en) 2011-05-13 2011-05-13 A portable terminal capable of photographing a three-dimensional image, and a program for controlling the portable terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011108436A JP5670828B2 (en) 2011-05-13 2011-05-13 A portable terminal capable of photographing a three-dimensional image, and a program for controlling the portable terminal

Publications (2)

Publication Number Publication Date
JP2012239139A JP2012239139A (en) 2012-12-06
JP5670828B2 true JP5670828B2 (en) 2015-02-18

Family

ID=47461623

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011108436A Expired - Fee Related JP5670828B2 (en) 2011-05-13 2011-05-13 A portable terminal capable of photographing a three-dimensional image, and a program for controlling the portable terminal

Country Status (1)

Country Link
JP (1) JP5670828B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021150880A (en) * 2020-03-23 2021-09-27 株式会社リコー Image capture device and image capture processing method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002253328A (en) * 2001-03-01 2002-09-10 Sharp Corp Mobile device with camera which has attaching part to hand strap
JP5088230B2 (en) * 2008-05-16 2012-12-05 日本電気株式会社 Camera built-in terminal and method for manufacturing camera built-in terminal
JP2011101244A (en) * 2009-11-06 2011-05-19 Fujifilm Corp 3d camera
JP4957850B2 (en) * 2010-02-04 2012-06-20 カシオ計算機株式会社 Imaging apparatus, warning method, and program

Also Published As

Publication number Publication date
JP2012239139A (en) 2012-12-06

Similar Documents

Publication Publication Date Title
JP4510713B2 (en) Digital camera
JP5173453B2 (en) Imaging device and display control method of imaging device
JP5937767B2 (en) Imaging apparatus and imaging method
US9473725B2 (en) Image-processing and encoded aperture pattern setting device and method, and image pickup device comprising same
US9641751B2 (en) Imaging apparatus, imaging method thereof, and computer readable recording medium
JP5931206B2 (en) Image processing apparatus, imaging apparatus, program, and image processing method
EP2961153B1 (en) Image pickup device
JP2012253674A (en) Moving image generation device, moving image generation method, and program
JP4446787B2 (en) Imaging apparatus and display control method
JP2012222495A (en) Image processor, image processing method, and program
JP2014007653A (en) Imaging device, imaging method, imaging system, and program
JP2011114487A (en) Imaging apparatus
WO2017221664A1 (en) Mobile terminal
WO2014106916A1 (en) Image processing device, imaging device, program, and image processing method
CN105850110B (en) Image pickup apparatus, control method thereof, control method of display control apparatus, and control method of recording apparatus
WO2020158070A1 (en) Imaging device, imaging method, and program
JP2006344168A (en) Image display apparatus and photographing apparatus
JP4732387B2 (en) Display device, display control method thereof, and imaging device
JPH11168650A (en) Device, card system and camera
JP5670828B2 (en) A portable terminal capable of photographing a three-dimensional image, and a program for controlling the portable terminal
JP5366693B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
JP4511417B2 (en) Digital camera
JP2010177898A (en) Mobile terminal and control method of mobile terminal
KR20130092213A (en) Digital photographing apparatus and control method thereof
JP2004201101A (en) Digital camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141218

R150 Certificate of patent or registration of utility model

Ref document number: 5670828

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees