JP2012054836A - Imaging apparatus and image communication system - Google Patents
Imaging apparatus and image communication system Download PDFInfo
- Publication number
- JP2012054836A JP2012054836A JP2010196996A JP2010196996A JP2012054836A JP 2012054836 A JP2012054836 A JP 2012054836A JP 2010196996 A JP2010196996 A JP 2010196996A JP 2010196996 A JP2010196996 A JP 2010196996A JP 2012054836 A JP2012054836 A JP 2012054836A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- display
- imaging
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、画像を撮像して表示する撮像装置、および該撮像装置を含み、所定の通信規格にしたがって画像の通信を行う画像通信システムに関する。 The present invention relates to an imaging device that captures and displays an image, and an image communication system that includes the imaging device and performs image communication according to a predetermined communication standard.
近年、同一の被写体に対して複数の画像データを取得し、この取得した複数の画像データに含まれる被写体の視差を利用することにより、ユーザが立体的に見ることができる3次元画像(以下、「3D画像」という)を撮像するデジタルステレオカメラ等の撮像装置が普及してきつつある。従来より、このような撮像装置を、3D画像が表示可能な表示装置と接続する技術が開示されている(例えば、特許文献1を参照)。この技術において、ユーザは専用の液晶シャッタメガネをかけることにより、表示装置が表示する3D画像を見ることができる。 In recent years, by acquiring a plurality of image data for the same subject and using the parallax of the subject included in the acquired plurality of image data, a three-dimensional image (hereinafter, referred to as a three-dimensional image) that can be viewed three-dimensionally by a user. An imaging apparatus such as a digital stereo camera that captures a “3D image”) is becoming widespread. Conventionally, a technique for connecting such an imaging device to a display device capable of displaying a 3D image has been disclosed (see, for example, Patent Document 1). In this technique, a user can view a 3D image displayed on the display device by wearing dedicated liquid crystal shutter glasses.
ところで、上述した従来技術では、ユーザが液晶シャッタメガネをかけたままで、撮像装置の表示部と表示装置の表示画面とを交互に見るような状況が生じうる。このような状況下において、撮像装置の表示部における表示形式が表示装置における表示形式と異なっていると、ユーザは撮像装置の表示部に表示される3D画像に対して違和感を感じざるを得なかった。 By the way, in the above-described conventional technology, a situation may occur in which the user watches the display unit of the imaging device and the display screen of the display device alternately while wearing the liquid crystal shutter glasses. Under such circumstances, when the display format on the display unit of the imaging device is different from the display format on the display device, the user has to feel uncomfortable with the 3D image displayed on the display unit of the imaging device. It was.
本発明は、上記に鑑みてなされたものであって、3D画像を表示可能な外部機器と通信可能に接続された状態で、ユーザが外部機器で3D画像を見る状況下においても、そのユーザに違和感を感じさせない画像を表示することができる撮像装置、および当該撮像装置を含み、画像の通信を行う画像通信システムを提供することを目的とする。 The present invention has been made in view of the above, and even when a user views a 3D image on an external device in a state in which the user can communicate with the external device capable of displaying a 3D image, It is an object of the present invention to provide an imaging device capable of displaying an image that does not give a sense of incongruity, and an image communication system that includes the imaging device and performs image communication.
上述した課題を解決し、目的を達成するために、本発明に係る撮像装置は、被写体を撮像して画像データを生成する撮像部を有し、3次元画像を表示可能な外部機器と所定の通信規格にしたがって通信可能な撮像装置であって、2つの画像に基づく3次元画像を表示可能な表示部と、前記2つの画像の少なくとも一方を用いることによって前記表示部が表示する表示用画像を生成する表示用画像生成部と、前記2つの画像を用いることによって前記外部機器で表示させるために送信する送信用画像を生成する送信用画像生成部と、前記送信用画像生成部が生成した送信用画像を前記外部機器へ送信する通信部と、を備えたことを特徴とする。 In order to solve the above-described problems and achieve the object, an imaging apparatus according to the present invention includes an imaging unit that captures an image of a subject and generates image data, and an external device capable of displaying a three-dimensional image and a predetermined unit. An imaging apparatus capable of communicating according to a communication standard, a display unit capable of displaying a three-dimensional image based on two images, and a display image displayed on the display unit by using at least one of the two images A display image generation unit to generate, a transmission image generation unit that generates a transmission image to be transmitted for display on the external device by using the two images, and a transmission generated by the transmission image generation unit. And a communication unit that transmits a trusted image to the external device.
また、本発明に係る撮像装置は、上記発明において、前記表示用画像生成部は、前記通信部が前記送信用画像を送信するか否かに応じて異なる表示用画像を生成することを特徴とする。 Moreover, the imaging device according to the present invention is characterized in that, in the above invention, the display image generation unit generates different display images depending on whether or not the communication unit transmits the transmission image. To do.
また、本発明に係る撮像装置は、上記発明において、前記表示用画像生成部は、前記通信部が前記送信用画像を送信する場合、表示用画像として、前記2つの画像を重ねた合成画像を生成することを特徴とする。 Moreover, in the imaging device according to the present invention, in the above invention, the display image generation unit, when the communication unit transmits the transmission image, displays a composite image obtained by superimposing the two images as a display image. It is characterized by generating.
また、本発明に係る撮像装置は、上記発明において、前記表示部の表示画面上に設けられ、外部から接触する物体の位置に応じた信号の入力を受け付けるタッチパネルと、前記表示部が表示する前記合成画像に対し、前記タッチパネルに接触した物体の軌跡に応じて前記合成画像に含まれる被写体の視差を調整する視差調整部と、前記視差調整部が視差を調整した前記合成画像を前記表示部に表示させる制御を行う表示制御部と、をさらに備え、前記送信用画像生成部は、前記視差調整部が調整した視差を有する前記2つの画像を用いることを特徴とする。 The imaging device according to the present invention is the above-described invention, wherein the imaging device according to the present invention is provided on the display screen of the display unit and receives a signal input according to the position of an object in contact with the outside, and the display unit displays the touch panel. A parallax adjustment unit that adjusts the parallax of a subject included in the synthetic image according to a trajectory of an object that touches the touch panel with respect to the synthetic image, and the synthetic image that the parallax adjustment unit has adjusted the parallax is displayed on the display unit. A display control unit that performs display control, and the transmission image generation unit uses the two images having the parallax adjusted by the parallax adjustment unit.
また、本発明に係る撮像装置は、上記発明において、前記合成画像は、前記2つの画像から所定の領域を切り出して重ねた画像であり、前記視差調整部は、前記2つの画像の切り出し領域を変更することを特徴とする。 In the imaging device according to the present invention, in the above invention, the composite image is an image obtained by cutting out and overlapping a predetermined region from the two images, and the parallax adjustment unit includes a cut-out region of the two images. It is characterized by changing.
また、本発明に係る撮像装置は、上記発明において、前記表示用画像生成部は、前記通信部が前記送信用画像を送信しない場合、表示用画像として、前記2つの画像に基づく3次元画像を生成することを特徴とする。 In the imaging device according to the present invention, in the above invention, the display image generation unit may display a three-dimensional image based on the two images as a display image when the communication unit does not transmit the transmission image. It is characterized by generating.
また、本発明に係る撮像装置は、上記発明において、前記撮像部は、前記2つの画像として、互いの視野の左右方向の一端部同士が重なりを有する2つの画像を撮像し、各画像に対応する2つの画像データを生成することを特徴とする。 In the imaging device according to the present invention, in the above invention, the imaging unit captures, as the two images, two images in which one end in the horizontal direction of each field of view overlaps and corresponds to each image. Two image data to be generated is generated.
また、本発明に係る撮像装置は、上記発明において、前記撮像部は、前記2つの画像をそれぞれ撮像する2つの光学系を有することを特徴とする。 Moreover, the imaging device according to the present invention is characterized in that, in the above invention, the imaging unit includes two optical systems that respectively capture the two images.
また、本発明に係る撮像装置は、上記発明において、前記撮像部は、当該撮像装置が移動する間に所定の間隔で連続的に画像を撮像する機能を有し、前記送信用画像生成部および前記表示用画像生成部は、前記撮像部が連続的に撮像した画像の中から前記2つの画像を抽出することを特徴とする。 The imaging device according to the present invention is the imaging device according to the above invention, wherein the imaging unit has a function of continuously capturing images at a predetermined interval while the imaging device moves, and the transmission image generation unit and The display image generation unit extracts the two images from images continuously captured by the imaging unit.
また、本発明に係る撮像装置は、上記発明において、前記表示制御部は、前記2つの画像にそれぞれ対応する2つの画像データを、前記表示画面における水平方向の1画素ごとに交互に並べて前記表示部に出力する制御を行うことを特徴とする。 In the imaging device according to the present invention, in the above invention, the display control unit alternately arranges the two image data respectively corresponding to the two images for each pixel in the horizontal direction on the display screen. Control to output to the unit is performed.
また、本発明に係る画像通信システムは、上記発明に記載の撮像装置と、前記撮像装置と通信可能に接続され、前記撮像装置から受信した前記送信用画像に基づいて3次元画像を表示する表示装置と、を備えたことを特徴とする。 Further, an image communication system according to the present invention is a display that displays a three-dimensional image based on the image for transmission received from the image pickup apparatus and connected to the image pickup apparatus according to the invention described above. And a device.
本発明によれば、撮像装置側で表示する表示用画像と外部機器側で表示するために外部機器へ送信する送信用画像とを個別に生成するため、3D画像を表示可能な外部機器と通信可能に接続された状態で、ユーザが外部機器で3D画像を見る状況下においても、そのユーザに違和感を感じさせない画像を表示することができる。 According to the present invention, since a display image displayed on the imaging device side and a transmission image transmitted to the external device for display on the external device side are individually generated, communication with an external device capable of displaying a 3D image is performed. An image that does not make the user feel uncomfortable can be displayed even when the user views a 3D image with an external device while being connected.
以下に、図面を参照して、本発明を実施するための形態(以下、「実施の形態」という)について説明する。 DESCRIPTION OF EMBODIMENTS Hereinafter, modes for carrying out the present invention (hereinafter referred to as “embodiments”) will be described with reference to the drawings.
(実施の形態1)
図1は、本発明の実施の形態1に係る画像通信システムの構成を示す図である。同図に示す画像通信システム100は、デジタルステレオカメラである撮像装置1と、撮像装置1と電気的に接続され、撮像装置1からの画像データを受信し、3D画像を表示することが可能な外部機器としての表示装置200と、を備える。
(Embodiment 1)
FIG. 1 is a diagram showing a configuration of an image communication system according to
本実施の形態1では、表示装置200として、表示画面201で表示する右目用の画像と左目用の画像を高速で切換えるフレームシーケンシャル方式、または液晶パネルからなる表示画面201に偏光フィルムが組み込まれた偏光フィルム方式によって3D画像を表示する3Dテレビなどが適用される。このような3Dテレビが表示する3D画像をユーザが見る場合には、方式に応じた専用のメガネ300をかける必要がある。フレームシーケンシャル方式の場合に適用されるメガネ300は、画像の切り換えに同期して、表示される画像を見るための目と逆の目を閉じることが可能な構成を有する液晶シャッタメガネである。また、偏光方式の場合に適用されるメガネ300は、左目には左目用の画像(以下、「左目画像」という)のみが届き、右目には右目用の画像(以下、「右目画像」という)のみが届くように偏光フィルタが貼付された構成を有する。
In the first embodiment, as the
図2は、撮像装置1の構成を示すブロック図である。図2に示すように、撮像装置1は、異なる位置から撮影し、互いの視野の左右方向の一端部同士が重なりを有する2つの画像データを生成する撮像部2と、撮像装置1の姿勢を検出する姿勢検出部3と、撮像装置1の各種情報の入力を受け付ける操作入力部4と、撮影日時の判定機能やタイマー機能を有する時計5と、2次元画像(以下、「2D画像」という)または3D画像を表示する表示部6と、外部からの接触位置や軌跡に応じた信号の入力を受け付けるタッチパネル7と、撮像部2によって生成された画像データを含む各種情報を記憶する記憶部8と、撮像装置1の動作を制御する制御部9と、表示装置200との間でデータの送受信を行う通信部10と、を備える。
FIG. 2 is a block diagram illustrating a configuration of the
撮像部2は、互いに異なる光学系を有する第1撮像部21および第2撮像部22を備える。第1撮像部21および第2撮像部22は、互いの光軸L1,L2が平行または所定の角度をなすように同一平面上で並設される。
The
第1撮像部21は、レンズ部21aと、レンズ駆動部21bと、絞り21cと、絞り駆動部21dと、シャッタ21eと、シャッタ駆動部21fと、撮像素子21gと、信号処理部21hとを有する。
The
レンズ部21aは、フォーカスレンズやズームレンズ等によって構成され、所定の視野領域からの光を集光する。レンズ駆動部21bは、DCモータ等によって構成され、レンズ部21aのフォーカスレンズやズームレンズ等を光軸L1上で移動させることにより、レンズ部21aのピント位置や焦点距離の変更を行う。
The
絞り21cは、レンズ部21aが集光した光の入射量を制限することにより露出の調整を行う。絞り駆動部21dは、ステッピングモータ等によって構成され、絞り21cを駆動する。
The diaphragm 21c adjusts the exposure by limiting the amount of incident light collected by the
シャッタ21eは、撮像素子21gの状態を露光状態または遮光状態に設定する。シャッタ駆動部21fは、ステッピングモータ等によって構成され、レリーズ信号に応じてシャッタ21eを駆動する。
The shutter 21e sets the state of the
撮像素子21gは、レンズ部21aが集光した光を受光して電気信号(アナログ信号)に変換するCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等によって実現され、変換した電気信号を信号処理部21hに出力する。
The
信号処理部21hは、撮像素子21gから出力される電気信号に増幅等の信号処理を施した後、A/D変換を行うことによってデジタルの画像データに変換して制御部9に出力する。
The
第2撮像部22は、第1撮像部21と同一の構成によって実現され、レンズ部22aと、レンズ駆動部22bと、絞り22cと、絞り駆動部22dと、シャッタ22eと、シャッタ駆動部22fと、撮像素子22gと、信号処理部22hとを有する。
The
姿勢検出部3は、加速度センサによって構成され、撮像装置1の加速度を検出することにより、撮像装置1の姿勢を検出する。具体的には、姿勢検出部3は、水平面を基準としたときの撮像装置1の姿勢を検出する。
The
操作入力部4は、撮像装置1の電源状態をオン状態またはオフ状態に切換える電源スイッチ41と、静止画撮影の指示を与えるレリーズ信号を入力するレリーズスイッチ42と、撮像装置1の各種撮影モードや各種設定の切換える切換スイッチ43と、撮像部2のズーム操作を行うズームスイッチ44とを有する。
The
時計5は、撮像装置1の動作の基準となる時間信号を生成する。これにより、制御部9は、画像データの取得時間や撮像素子21g,22gの露光時間等を設定することができる。時計5は、時間計測用のタイマとしての機能も有する。
The
図3は、表示部6の概略構成を示す模式図である。図2に示すように、表示部6は、バックライト61と、表示パネル62と、視差バリア63とを有する。バックライト61は、LED(Light Emitting Diode)等によって構成され、画像を表示するための光を背面から照射する。表示パネル62は、液晶または有機EL(Electro Luminescence)等の表示パネルによって構成される。視差バリア63は、液晶等によって構成され、表示パネル62の上面に積層されてなる。視差バリア63は、表示パネル62の各画素の間隔よりも狭い間隔でスリットが設けられ、ユーザの右目ERと左目ELとにそれぞれ対応した画像を分離する。このような視差バリア63として、例えばパララックバリア方式が適用される。なお、視差バリア63の代わりに、レンティキュラレンズを積層したレンズシートを表示パネル62の上面に設けてもよい。
FIG. 3 is a schematic diagram illustrating a schematic configuration of the
以上の構成を有する表示部6は、制御部9から3D画像データが入力された場合、制御部9の制御のもとで表示パネル62が左端の画素から水平方向に右目画像と左目画像との順で交互に表示し、視差バリア63が表示パネル62の各画素から出た光を分離する。このため、右目画像が右目ERのみ、左目画像が左目ELのみにそれぞれ届く。これにより、ユーザは、表示部6が表示する3D画像を立体視することができる。また、表示部6が表示態様を3D画像から2D画像に切り換える際には、視差バリア63に印加される電圧がオン状態からオフ状態に変化することによって視差バリア63が遮光状態から透過状態に遷移し、右目画像または左目画像のどちらか一方が表示パネル62に出力される。
In the
タッチパネル7は、表示部6の表示画面上に重ねて設けられる。タッチパネル7は、ユーザが表示部6で表示される情報や画像に基づいて接触した(タッチした)位置や軌跡を検出し、この接触位置や軌跡に応じた操作信号の入力を受け付ける。一般に、タッチパネルとしては、抵抗膜方式、静電容量方式、光学式等がある。本実施の形態1では、いずれの方式のタッチパネルであっても適用可能である。
The touch panel 7 is provided so as to overlap the display screen of the
記憶部8は、撮像部2が撮影した画像データを記憶する画像データ記憶部81と、撮像装置1が実行する各種プログラムを記憶するプログラム記憶部82と、表示部6が表示する3D画像の快適視差範囲を記憶した視差記憶部83とを有する。記憶部8は、撮像装置1の内部に固定的に設けられるフラッシュメモリやRAM(Random Access Memory)等の半導体メモリを用いて実現される。なお、記憶部8に対し、外部から装着されるメモリカード等の記憶媒体に対して情報を記憶する一方、記憶媒体が記憶する情報を読み出す記録媒体インターフェースとしての機能を具備させてもよい。
The
制御部9は、CPU(Central Processing Unit)等によって実現される。制御部9は、操作入力部4からの操作信号等に応じて記憶部8のプログラム記憶部82から各種プログラムを読み出し、撮像装置1を構成する各部に対して制御信号を送信したりデータを転送したりすることにより、撮像装置1の動作を制御する。制御部9は、画像処理部91と、送信用画像生成部92と、表示用画像生成部93と、視差調整部94と、表示制御部95と、通信状態検出部96とを有する。
The
画像処理部91は、信号処理部21h,22hからそれぞれ出力された左目画像データおよび右目画像データに対して各種の画像処理を施し、記憶部8の画像データ記憶部81へ出力する。具体的には、画像処理部91は、信号処理部21h,22hからそれぞれ出力された左目画像データおよび右目画像データに対して、エッジ強調、色補正およびγ補正等の処理を施す。
The
送信用画像生成部92は、通信部10を介して外部接続された表示装置200の表示画面201で表示させるために表示装置200へ送信する送信用画像の画像データを生成する。具体的には、送信用画像生成部92は、画像処理部91によって画像処理された左目画像データおよび右目画像データを所定の縦横比率(例えばアスペクト比3:4)でそれぞれ切り出すことによって3D画像を生成する。なお、送信用画像生成部92が左目画像データおよび右目画像データからそれぞれ切り出す縦横比率を切換スイッチ43で変更できるようにしてもよい。
The transmission
表示用画像生成部93は、表示部6が表示する表示用画像の画像データを生成する。具体的には、表示用画像生成部93は、表示用画像として3D画像または2D画像に対応する画像データを生成する。このうち3D画像の画像データを生成する際には、送信用画像生成部92と同様に左目画像データおよび右目画像データを所定の縦横比率で切り出す。
The display image generation unit 93 generates image data of a display image displayed on the
表示用画像生成部93が2D画像の画像データを生成する場合には、送信用画像生成部92が生成した左目画像と右目画像とを重ねた合成画像を生成するか、または左目画像データおよび右目画像データのうち一方を表示用画像として生成する。このうち、送信用画像生成部92が合成画像を生成する場合、表示用画像生成部93は、左目画像の画像領域内で鮮鋭度が最大となる領域と右目画像の画像領域内で鮮鋭度が最大となる領域とを一致させて重ねることによって合成画像を生成する。これにより、表示用画像生成部93は、左目画像および右目画像それぞれの画像領域内でピントが合った被写体を基準にした合成画像を生成することができる。このため、ユーザは、合成画像に含まれる近被写体の視差が小さい状態から3D画像の変化量の調整を開始することができる。
When the display image generation unit 93 generates 2D image data, the display image generation unit 93 generates a composite image in which the left eye image and the right eye image generated by the transmission
視差調整部94は、タッチパネル7に外部から接触した物体の軌跡に応じて、送信用画像生成部92による左目画像データおよび右目画像データの切り出し領域をそれぞれ変更して合成画像に含まれる被写体の視差を調整する。具体的には、視差調整部94は、合成画像内で左目画像と右目画像とが互いに重なっている左右方向の一端部の領域に対し、タッチパネル7に接触した物体の軌跡に応じて、例えば右目画像の領域を右方向にずらすことで合成画像に含まれる被写体の視差を調整する。
The
表示制御部95は、表示用画像生成部93が表示用画像として生成した画像データに対応する3D画像または2D画像を表示部6に表示させる制御を行う。具体的には、表示制御部95は、表示部6に3D画像を表示させる場合、送信用画像生成部92が生成した3D画像の左目画像と右目画像とを表示部6の表示画面における水平方向の1画素毎に交互に並べた3D画像を表示部6に出力する制御を行う。
The
これに対し、表示部6に2D画像を表示させる場合、表示制御部95は、視差バリア63に印加する電源をオン状態からオフ状態にすることによって視差バリア63を遮光状態から透過状態にするとともに、表示用画像生成部93によって生成された表示用画像としての左目画像または右目画像を表示部6に出力させる制御を行う。
On the other hand, when displaying a 2D image on the
表示制御部95は、視差調整部94が調整した合成画像および合成画像に含まれる被写体の視差に関する視差情報を表示部6に表示させる制御を行う場合もある。また、表示制御部95は、視差調整部94が調整した合成画像に含まれる被写体の視差が所定の視差を超えた場合、表示部6に警告を表示させる制御を行うとともに、合成画像に含まれる被写体の視差を所定の視差に固定して表示させる制御を行う。
The
通信状態検出部96は、撮像装置1と表示装置200との通信状態を検出する。例えば、撮像装置1と表示装置200との間がHDMI(登録商標)を介して接続される場合、通信状態検出部96は、CECプロトコルにしたがって撮像装置1と表示装置200との通信状態を検出する。また、撮像装置1と表示装置200との間がインターネットを介して接続される場合、通信状態検出部96は、TCP/IPプロトコルにしたがって撮像装置1と表示装置200との通信状態を検出する。なお、撮像装置1と表示装置200との間の通信は、無線通信であってもよい。
The communication
以上の構成を有する撮像装置1において、撮像部2が互いの視野の左右方向の一端部同士が重なりを有する2つの画像データを生成する際の状況について説明する。図4は、撮像部2が、互いの視野の左右方向の一端部同士が重なりを有する2つの画像データを生成する際の状況を示す模式図である。図4に示すように、まず撮像部2は、撮像部2からの距離が異なる被写体A1(距離d1)および被写体A2(距離d2)に対して、距離B1だけ離れて並設された第1撮像部21および第2撮像部22で撮影することにより、右目画像データと左目画像データとを生成する。
In the
その後、送信用画像生成部92は、第1撮像部21および第2撮像部22によって生成された右目画像データおよび左目画像データそれぞれを所定の縦横比率で切り出すことによって右目画像WR1および左目画像WL1を生成する。図5は、図4に示す状況下で撮像部2が生成する2つの画像データにそれぞれ対応する2つの画像の一例を示す図である。図5において、画像WR1は、送信用画像生成部92が第1撮像部21によって生成された右目画像データに対応する画像から切り出して生成した右目画像である。また、図5において、画像WL1は、送信用画像生成部92が第2撮像部22によって生成された左目画像データに対応する画像から切り出して生成した左目画像である。図6は、図4に示す状況下で送信用画像生成部92が生成した右目画像と左目画像とを仮想的に重ねた画像の一例を示す図である。
Thereafter, the transmission
図5および図6に示す破線および一点鎖線は、第1撮像部21および第2撮像部22がそれぞれ生成する画像データに対応する画像領域を示す。以下、図8および図9においても、破線および一点鎖線は、図5等と同様の画像領域を意味する。
5 and 6 indicate image areas corresponding to the image data generated by the
図7は、図4に示す状況下で撮像部2と被写体との撮影距離の関係を示す図である。図7では、横軸が左端を原点としたときの画像W1内の被写体位置であり、縦軸が撮像部2と被写体との距離である。図7に示すように、撮像部2と被写体A2との距離は、撮像部2と被写体A1との距離より大きい。このため、被写体A2の領域がほぼ重なる。具体的には、図6に示すように、画像W1内では、被写体A2の領域がほぼ重なる。一方、被写体A1の領域は重ならない(視差a1)。このように、右目画像WR1と左目画像WL1では、撮像部2からの距離が近い被写体(被写体A1)ほど画像内での視差が大きく、撮像部2からの距離が遠い被写体(被写体A2)ほど画像内での視差が小さい。
FIG. 7 is a diagram illustrating the relationship between the imaging distances between the
次に、視差調整部94が行う処理の概要について説明する。図8は、視差調整部94が行う処理の概要を示す模式図である。図8(a)に示す画像WR21および図8(b)に示す画像WR22は、送信用画像生成部92が第1撮像部21によって生成された右目画像データから所定の縦横比率で切り出して生成した右目画像である。また、図8(a)に示す画像WL21および図8(b)に示す画像WL22は、送信用画像生成部92が第2撮像部22によって生成された左目画像データから所定の縦横比率で切り出した生成した左目画像である。
Next, an outline of processing performed by the
図9は、右目画像と左目画像とを合成した合成画像の一例を示す図である。同図に示す合成画像W2(実線で囲まれた領域)は、表示用画像生成部93が、送信用画像生成部92によって生成された右目画像と左目画像とを重ねて合成した画像である。 FIG. 9 is a diagram illustrating an example of a composite image obtained by combining the right eye image and the left eye image. A composite image W2 (region surrounded by a solid line) shown in FIG. 6 is an image obtained by superimposing the right-eye image and the left-eye image generated by the display image generation unit 93 on each other.
ここまで、送信用画像生成部92における3D画像用の右目画像および左目画像の生成処理の概要を説明したが、表示用画像生成部93が3D画像用の右目画像および左目画像を生成する処理も同様である。
Up to this point, the outline of the processing for generating the right-eye image and the left-eye image for the 3D image in the transmission
視差調整部94は、タッチパネル7に接触した物体の軌跡に応じて、送信用画像生成部92が右目画像データおよび左目画像データからそれぞれ切り出して生成する右目画像および左目画像の切り出し領域を変更して被写体の視差を調整する。
The
具体的には、視差調整部94は、被写体A1を表示部6の表示画面と直交する垂直な方向に仮想的に飛び出させる場合、右目画像WR1と左目画像WL1とに含まれる被写体A1の視差(領域の重なり具合)を大きくすることにより、被写体が表示画面と直交する垂直な方向に仮想的に飛び出す距離(以下、「飛び出し距離」という)を調整する(図6の画像W1を参照)。これに対して、視差調整部94は、被写体A1を表示部6の表示画面と直交する垂直な方向に仮想的に引っ込ませる場合、右目画像WR1と左目画像WL1とに含まる被写体A1の視差を小さくすることにより、被写体A1が表示画面と直交する方向に仮想的に引っ込む距離(以下、「引っ込み距離」という)を調整する(図9の画像W2を参照)。
Specifically, when the
本実施の形態1では、撮像装置1と表示装置200とが連携しているため、ユーザは、表示装置200で表示される3D画像の立体感(飛び出し距離や引っ込み距離)を、撮像装置1に設けられたタッチパネル7等の操作部材を用いて調整することができる。したがって、ユーザは、表示装置200が表示する3D画像を見ながら容易に調整を行うことができる。
In the first embodiment, since the
なお、図8では、視差調整部94は、右目画像の切り出し領域のみ変更しているが、右目画像および左目画像それぞれを同期させながら、右目画像および左目画像それぞれの切り出し領域を変更してもよい。
In FIG. 8, the
図10は、視差調整部94によって調整された右目画像と左目画像とを用いて表示部6または表示装置200で表示され、ユーザが認識する仮想的な3D画像の表示例を示す図である。図10においては、被写体A1が仮想的に飛び出して見える場合を示している。
FIG. 10 is a diagram illustrating a display example of a virtual 3D image displayed on the
次に、撮像装置1が行う処理について説明する。図11は、撮像装置1が行う処理の概要を示すフローチャートである。図11において、まず、制御部9は、撮像装置1の電源がオンになっているか否かを判断する(ステップS101)。撮像装置1の電源がオンになっている場合(ステップS101:Yes)、撮像装置1はステップS102に移行する。一方、撮像装置1の電源がオンになっていない場合(ステップS101:No)、撮像装置1は本処理を終了する。
Next, processing performed by the
続いて、制御部9は、撮像装置1が撮影モードに設定されているか否かを判断する(ステップS102)。撮像装置1が撮影モードに設定されている場合(ステップS102:Yes)、表示制御部95は、撮像部2が一定の微小な時間間隔で連続的に生成する画像データに対応するスルー画を表示部6に表示させる(ステップS103)。この場合のスルー画は、2D画像および3D画像のどちらでも構わない。
Subsequently, the
続いて、制御部9は、ユーザによってレリーズスイッチ42が操作されて撮影を指示するレリーズ信号が入力されたか否かを判断する(ステップS104)。表示部6がスルー画を表示し始めてから所定時間内に撮影を指示するレリーズ信号が入力された場合(ステップS104:Yes)、撮像部2は撮影を行い、得られた画像データを記憶部8の画像データ記憶部81に記憶する(ステップS105)。
Subsequently, the
通信状態検出部96による検出の結果、撮像装置1と表示装置200とが接続されて通信可能な状態にある場合(ステップS106:Yes)、制御部9は、送信用画像生成部92が生成した表示用画像を、通信部10を介して送信する制御を行う(ステップS107)。その後、制御部9は、表示用画像として2D画像を時間t1だけ表示部6に表示させる制御を行う(ステップS108)。なお、ステップS107とステップS108は、並行して行うようにしてもよい。
As a result of detection by the communication
一方、通信状態検出部96による検出の結果、撮像装置1と表示装置200とが接続されていない場合(ステップS106:No)、制御部9は、表示用画像として3D画像を時間t2だけレックビュー表示する(ステップS109)。この時間t2は、上述した時間t1よりも短い(t2<t1)方がより好ましい。これにより、ユーザは、表示部6と表示装置200の双方に画像が表示される場合、表示部6にのみ画像が表示される場合よりも長くレックビュー表示を見ることができる。
On the other hand, in the case of detection by the communication
次に、ステップS104において、スルー画を表示し始めてから所定時間レリーズ信号が入力されない場合(ステップS104:No)を説明する。この場合において、通信状態検出部96が表示装置200との接続を検出したとき(ステップS110:Yes)、制御部9は、送信用画像生成部92が生成した送信用画像を、通信部10を介して表示装置200へ送信する制御を行う(ステップS111)。その後、制御部9は、表示用画像として表示用画像生成部93が生成した合成画像を表示部6に表示させる(ステップS112)。
Next, the case where the release signal is not input for a predetermined time after starting to display the through image in step S104 (step S104: No) will be described. In this case, when the communication
続いて、制御部9は、タッチパネル7の外部からの接触位置に応じた信号が入力されたか否かを判断する(ステップS113)。外部からの接触位置に応じた信号が入力された場合(ステップS113:Yes)、撮像装置1は、合成画像に含まれる被写体の飛び出し距離または引っ込み距離を調整する視差調整処理を行う(ステップS114)。視差調整処理を完了した時点で撮像装置1が表示装置200と接続されている場合(ステップS115:Yes)、制御部9は、視差調整を行った後の送信用画像を、通信部10を介して表示装置200へ送信する制御を行う(ステップS116)。この後、撮像装置1は、ステップS101に戻る。
Subsequently, the
ステップS113において、外部からの接触位置に応じた信号が入力されない場合(ステップS113:No)、所定時間経過していれば(ステップS117:Yes)、撮像装置1はステップS101へ戻る。これに対して、ステップS117において所定時間経過していなければ(ステップS117:No)、撮像装置1はステップS113に戻る。
In step S113, when the signal according to the contact position from the outside is not input (step S113: No), if the predetermined time has passed (step S117: Yes), the
ステップS110において、表示装置200との接続が検出されない場合(ステップS110:No)、制御部9は、表示用画像として3D画像を表示部6に表示させる(ステップS118)。その後、ユーザによってタッチパネル7がタッチされた場合(ステップS119:Yes)、撮像装置1はステップS112へ移行する。一方、ユーザによってタッチパネル7が所定時間タッチされない場合(ステップS119:No)、撮像装置1はステップS101へ戻る。
When connection with the
次に、ステップS102において、撮像装置1が撮影モードに設定されていない場合を説明する(ステップS102:No)。この場合、撮像装置1は、撮影した画像データを表示部6に表示する再生表示処理を実行し(ステップS120)、ステップS101に戻る。
Next, the case where the
次に、ステップS114の視差調整処理について説明する。図12は、視差調整処理の概要を示すフローチャートである。図12において、まず、制御部9は、タッチパネル7に接触した物体の軌跡が合成画像内に含まれる被写体の視差を大きくする動作に対応するか否かを判断する(ステップS201)。タッチパネル7に接触した物体の軌跡が合成画像内に含まれる被写体の視差を大きくする動作に対応する場合(ステップS201:Yes)、撮像装置1は後述するステップS202に移行する。一方、タッチパネル7に接触した物体の軌跡が合成画像内に含まれる被写体の視差を大きくする動作に対応しない場合(ステップS201:No)、撮像装置1はステップS211に移行する。
Next, the parallax adjustment processing in step S114 will be described. FIG. 12 is a flowchart illustrating an outline of the parallax adjustment processing. In FIG. 12, first, the
図13は、ユーザによって合成画像内に含まれる被写体の視差を大きくする動作を説明する図である。図13に示すように、制御部9は、表示部6が現在表示する画像W4内において視差を持たない被写体A1の領域で、ユーザが人差し指F1をタッチパネル7に接触させながら画像W4の左側から右側に向けて移動させた場合(図13(a)→図13(b))、この動作を被写体の視差を大きくする動作として判断する。
FIG. 13 is a diagram for explaining an operation of increasing the parallax of the subject included in the composite image by the user. As shown in FIG. 13, the
ステップS202において、制御部9は、ユーザが人差し指でタッチパネル7に最初に接触した領域に対応する画像内に近被写体が含まれているか否かを判断する。ここで、近被写体とは、ユーザが撮像装置1を用いて複数の被写体を撮影する際に撮像部2と被写体との撮影距離が最も近い被写体である(図7を参照)。具体的には、図13に示すように、ユーザが人差し指F1でタッチパネル7に最初に接触した領域に対応する画像内に被写体A1が含まれているか否かを判断する。ユーザが人差し指F1でタッチパネル7に最初に接触した領域に対応する画像内に近被写体が含まれている場合(ステップS202:Yes)、撮像装置1はステップS203に移行する。
In step S202, the
ステップS203において、制御部9は、表示部6が表示する合成画像に対し、タッチパネル7に接触した物体の軌跡に応じて、視差調整部94が合成画像に含まれる被写体の視差を調整することにより、被写体の飛び出し距離が視差記憶部83に記憶された飛び出しの距離の限界値を超えたか否かを判断する。視差調整部94が設定する被写体の飛び出し距離が飛び出し距離の限界値を超えた場合(ステップS203:Yes)、視差調整部94は、合成画像に含まれる被写体の視差が限界値で固定されるように、送信用画像生成部92による右目画像データおよび左目画像データそれぞれの切り出し領域を変更し、被写体の飛び出し距離を限界値で調整する(ステップS204)。
In step S203, the
続いて、表示制御部95は、表示部6が表示する合成画像内に被写体の飛び出し距離が限界値を超えた旨の警告を表示部6に表示させる(ステップS205)。具体的には、図14に示すように、表示制御部95は、画像W5内に視差が限界である旨をユーザに警告するためのアイコンQ1を表示部6に表示させる。これにより、ユーザは、被写体の飛び出し距離の限界を知ることができるうえ、鑑賞時に飛び出し過ぎた被写体画像による人間の目の対応限界を超えることを未然に防止することができる。なお、表示制御部95は、ユーザが誤操作、例えば被写体の視差を調整する方向が逆向きの場合に警告を表示するようにしてもよい。その後、撮像装置1は、図11に示すメインルーチンに戻る。
Subsequently, the
次に、ステップS203において、表示部6が表示する合成画像に対し、タッチパネル7に接触した物体の軌跡に応じて、視差調整部94が調整する右目画像データおよび左目画像データそれぞれの切り出し領域を変更して合成画像に含まれる被写体の視差が視差記憶部83に記憶された視差の限界値を超えない場合(ステップS203:No)について説明する。この場合、視差調整部94は、タッチパネル7に接触した物体の軌跡に応じて、送信用画像生成部92による右目画像データおよび左目画像データそれぞれの切り出し領域を変更し、合成画像に含まれる被写体の視差を調整することにより、被写体の飛び出し距離を調整する(ステップS206)。
Next, in step S203, the cut-out areas of the right-eye image data and the left-eye image data adjusted by the
その後、表示制御部95は、表示部6が表示する合成画像内に視差調整部94が調整した被写体の視差情報を表示させる(ステップS207)。具体的には、図15に示すように、表示制御部95は、画像W6にアイコンQ2を表示部6に表示させる。アイコンQ2は、ユーザに視差調整部94が調整した被写体の視差情報に対応する被写体の飛び出し距離情報を知らせるためのアイコンである。これにより、ユーザは、操作によって調整した被写体の視差を容易に認識することができる。この後、撮像装置1は、図11に示すメインルーチンへ戻る。
Thereafter, the
次に、ステップS202において、ユーザが人差し指F1でタッチパネル7に最初に接触した領域に対応する画像内に近被写体が含まれていない場合(ステップS202:No)について説明する。この場合、視差調整部94は、タッチパネル7に接触した物体の軌跡に応じて、送信用画像生成部92による右目画像データおよび左目画像データそれぞれの切り出し領域を変更し、合成画像に含まれる被写体の視差を調整することにより、被写体の引っ込み距離を調整する(ステップS208)。
Next, in step S202, if in the image corresponding to the user first touches the touch panel 7 with the index finger F 1 region contains no near-object (step S202: No) will be described. In this case, the
その後、表示制御部95は、表示部6が表示する合成画像内に視差調整部94が設定した被写体の視差を表示部6に表示させ(ステップS209)、撮像装置1は図11に示すメインルーチンへ戻る。
Thereafter, the
次に、ステップS201において、タッチパネル7に接触した物体の軌跡が合成画像に含まれる被写体の視差を大きくする動作でない場合(ステップS201:No)について説明する。この場合、制御部9は、タッチパネル7に接触した物体の軌跡が合成画像に含まれる被写体の視差を小さくする動作であるか否かを判断する(ステップS210)。タッチパネル7に接触した物体の軌跡が合成画像に含まれる被写体の視差を小さくする動作に対応しない場合(ステップS210:No)、撮像装置1は図10に示すメインルーチンへ戻る。一方、タッチパネル7に接触した物体の軌跡が合成画像に含まれる被写体の視差を小さくする動作に対応する場合(ステップS210:Yes)、撮像装置1はステップS211へ移行する。
Next, a case where the locus of the object that has touched the touch panel 7 is not an operation for increasing the parallax of the subject included in the composite image in step S201 (step S201: No) will be described. In this case, the
図16は、ユーザによって合成画像内に含まれる被写体の視差を小さくする動作を説明する図である。図16に示すように、制御部9は、表示部6が現在表示している画像内において視差を持つ被写体の領域で、ユーザが人差し指F1をタッチパネル7に接触させながら画像W7の右側から左側に向けて移動させた場合(図16(a)→図16(b))、この動作を被写体の視差を小さくする動作として判断する。
FIG. 16 is a diagram for explaining an operation of reducing the parallax of the subject included in the composite image by the user. As shown in FIG. 16, the
ステップS211において、制御部9は、ユーザが人差し指F1でタッチパネル7に最初に接触した領域に対応する画像内に近被写体が含まれているか否かを判断する。ユーザが人指し指F1でタッチパネル7に最初に接触した領域に対応する画像内に近被写体が含まれている場合(ステップS211:Yes)、視差調整部94は、タッチパネル7に接触した物体の軌跡に応じて、送信用画像生成部92による右目画像データおよび左画像データそれぞれの切り出し領域を変更し、合成画像に含まれる被写体の視差を調整することにより、被写体の引っ込み距離を調整する(ステップS212)。
In step S211, the
その後、表示制御部95は、表示部6が表示する合成画像内に視差調整部94が設定した被写体の視差情報に対応する引っ込み距離情報を表示させる(ステップS213)。ステップS213の後、撮像装置1は図11に示すメインルーチンへ戻る。
Thereafter, the
次に、ステップS211において、ユーザが人指し指F1でタッチパネル7に最初に接触した領域に対応する画像内に近被写体が含まれていない場合(ステップS211:No)について説明する。この場合、制御部9は、表示部6が表示する合成画像に対し、タッチパネル7に接触した物体の軌跡に応じて、視差調整部94が調整する合成画像に含まれる被写体の視差が視差記憶部83に記憶された視差の限界値を超えたか否かを判断する(ステップS214)。
Next, in step S211, if in the image corresponding to the user first touches the touch panel 7 with the index finger F 1 region contains no near-object (step S211: No) will be described. In this case, with respect to the composite image displayed on the
視差調整部94が調整する合成画像に含まれる被写体の視差が視差記憶部83に記載された視差の限界値を超えた場合(ステップS214:Yes)、視差調整部94は、合成画像に含まれる被写体の視差を限界値で固定し、送信用画像生成部92による右目画像データおよび左目画像データそれぞれの切り出し領域を変更して合成画像に含まれる被写体の視差を調整することにより、被写体の飛び出し距離を限界値で調整する(ステップS215)。
When the parallax of the subject included in the synthesized image adjusted by the
続いて、表示制御部95は、表示部6が表示する合成画像内に被写体の視差が限界値である旨の警告を表示部6に表示させる(ステップS216)。この後、撮像装置1は、図11に示すメインルーチンへ戻る。
Subsequently, the
ステップS214において、視差調整部94が調整する合成画像に含まれる被写体の視差が視差記憶部83に記載された視差の限界値を超えない場合(ステップS214:No)、視差調整部94は、タッチパネル7に接触した物体の軌跡に応じて、送信用画像生成部92による右目画像データおよび左目画像データそれぞれの切り出し領域を変更し、合成画像に含まれる被写体の視差を調整することにより、被写体の飛び出し距離を調整する(ステップS217)。
In step S214, when the parallax of the subject included in the composite image adjusted by the
その後、表示制御部95は、表示部6が表示する合成画像内に視差調整部94が設定した被写体の飛び出し距離を視差情報として表示部6に表示させる(ステップS218)。ステップS218の後、撮像装置1は、図11に示すメインルーチンへ戻る。
After that, the
次に、図11のステップS120の再生表示処理について説明する。図17は、再生表示処理の概要を示すフローチャートである。図17において、まず、表示制御部95は、画像データ記憶部81に記憶された複数の画像をまとめて表示した画像選択画面を表示部6に表示させる(ステップS301)。ここで、表示部6に表示される画像は2D画像である。
Next, the reproduction display process in step S120 of FIG. 11 will be described. FIG. 17 is a flowchart showing an outline of the reproduction display process. In FIG. 17, first, the
続いて、制御部9は、ユーザがタッチパネル7を操作することによって表示部6が表示する画像選択画面の中から画像が選択されたか否かを判断する(ステップS302)。ユーザによって画像選択画面の中から画像が選択されない場合(ステップS302:No)、撮像装置1はステップS301へ戻る。一方、ユーザによって画像選択画面の中から画像が選択された場合(ステップS302:Yes)において、撮像装置1が表示装置200と接続されているとき(ステップS303:Yes)、制御部9は、選択された画像に対応する送信用画像を、通信部10を介して表示装置200へ送信する(ステップS304)。その後、制御部9は、表示用画像として、選択された画像に対応する合成画像を表示部6に全画面表示させる(ステップS305)。
Subsequently, the
続いて、制御部9は、タッチパネル7の外部からの接触位置に応じた信号が入力されたか否かを判断する(ステップS306)。タッチパネル7の外部からの接触位置に応じた信号が入力された場合(ステップS306:Yes)、撮像装置1は、視差調整処理(図12を参照)を行う(ステップS307)。撮像装置1が表示装置200と接続されている場合(ステップS308:Yes)、制御部9は、視差調整後の送信用画像を、通信部10を介して表示装置200へ送信する(ステップS309)。ステップS308で撮像装置1が表示装置200と接続されていない場合(ステップS308:No)、撮像装置1は後述するステップS310へ移行する。
Subsequently, the
ステップS309の後、画像再生の終了指示が操作入力部4によって入力された場合(ステップS310:Yes)、撮像装置1は図11に示すメインルーチンに戻る。一方、ステップS309の後、画像再生の終了指示が操作入力部4によって入力されない場合( ステップS310:No)、撮像装置1はステップS301へ戻る。
After step S309, when an instruction to end image reproduction is input by the operation input unit 4 (step S310: Yes), the
ステップS306において、タッチパネル7の外部からの物体の接触位置に応じた信号の入力がない場合(ステップS306:No)、所定時間が経過していれば(ステップS311:Yes)、撮像装置1はステップS310へ進む。これに対し、ステップS311において所定時間が経過していなければ(ステップS311:No)、撮像装置1はステップS306へ戻る。
In step S306, when there is no input of a signal corresponding to the contact position of the object from the outside of the touch panel 7 (step S306: No), if the predetermined time has elapsed (step S311: Yes), the
ステップS303において、撮像装置1が表示装置200と接続されていない場合(ステップS303:No)、制御部9は、表示用画像として選択された画像に対応する3D画像を表示部6に表示させる(ステップS312)。この後、表示部6が表示している2D表示アイコンが選択された場合(ステップS313:Yes)、制御部9は、表示用画像生成部93が生成した合成画像を表示部67に表示させる(ステップS314)。その後、撮像装置1は、ステップS306へ移行する。一方、表示部6が表示している2D表示アイコンが選択されない場合(ステップS313:No)、撮像装置1はステップS310へ移行する。
If the
以上説明した本発明の実施の形態1によれば、撮像装置側で表示する表示用画像と外部機器側で表示するために外部機器(表示装置)へ送信する送信用画像とを個別に生成するため、3D画像を表示可能な外部機器と通信可能に接続された状態で、ユーザが外部機器で3D画像を見る状況下においても、そのユーザに違和感を感じさせない画像を表示することができる。 According to the first embodiment of the present invention described above, the display image to be displayed on the imaging device side and the transmission image to be transmitted to the external device (display device) for display on the external device side are individually generated. Therefore, an image that does not make the user feel uncomfortable can be displayed even when the user views the 3D image on the external device while being connected to an external device capable of displaying the 3D image.
また、本実施の形態1によれば、撮像装置と表示装置が連携しているため、ユーザが表示装置で表示する3D画像の立体感を撮像装置に設けたタッチパネル等の操作部材を利用して容易に調整することができる。したがって、本実施の形態1によれば、撮像装置と表示装置とを通信によって連携させることにより、システム全体としての操作性を向上させることができる。 Further, according to the first embodiment, since the imaging device and the display device are linked, the operation member such as a touch panel provided on the imaging device has a stereoscopic effect of a 3D image displayed by the user on the display device. It can be adjusted easily. Therefore, according to the first embodiment, the operability of the entire system can be improved by linking the imaging device and the display device through communication.
なお、本実施の形態1では、撮像装置1と表示装置200とが通信可能に接続されている場合、表示装置200で3D表示を行う一方、撮像装置1の表示部6では2D表示を行っていたが、撮像装置1の表示部6において、表示装置200とは異なる立体感を有する3D表示を行うようにしてもよい。この場合、例えば被写体の表示画面からの仮想的な飛び出し量を、表示部6の方が表示画面201よりも大きくなるようにすることができる。
In the first embodiment, when the
また、本実施の形態1において、視差調整部94が、タッチパネル7における外部からの2つの物体の軌跡に応じて、2つの画像データの切り出し領域を変更して合成画像に含まれる被写体の視差を調整するようにしてもよい。具体的には、視差調整部94が、図18に示すように、ユーザの人差し指F1および親指F2の軌跡に応じて、画像W9に含まれる被写体A1の視差を調整してもよい。この場合、制御部9は、人差し指F1と親指F2とがそれぞれ最初にタッチパネル7に接触した位置と動作があった後のタッチパネル7の位置とを比較することにより、開く動作(視差を大きくする動作に対応)または閉じる動作(視差を小さくする動作に対応)に対応するか否かを判断する。その後、視差調整部94は、開く動作に対応する場合、合成画像に含まれる被写体の視差を大きくする(図18(a)→図18(b))。これに対して、視差調整部94は、閉じる動作に対応する場合、合成画像に含まれる被写体の視差を小さくする。なお、操作可能範囲に制限を設けてもよい。
Further, in the first embodiment, the
また、本実施の形態1において、視差調整部94が、図19に示すように、ユーザの両手の親指F1L、F1Rの軌跡を用いて調整することができるようにしてもよい。この場合、制御部9は、左親指F1Lと右親指F1Rとがそれぞれ最初にタッチパネル7に接触した位置と動作があった後のタッチパネル7の位置とを比較することにより、開く動作または閉じる動作に対応するか否かを判断する。判断後の処理は、図18に示す場合と同様である。
Further, in the first embodiment, the
また、本実施の形態1において、レンズ駆動部21b,22bをそれぞれ同期させながら駆動し、第1撮像部21および第2撮像部22それぞれの視野領域を変更することにより、合成画像に含まれる被写体の視差を調整するようにしてもよい。
In the first embodiment, the
また、本実施の形態1において、例えば撮像部2による撮影直後に、表示部6がレックビュー表示する画像に対して視差調整処理を行うことができるようにしてもよい。
In the first embodiment, for example, immediately after shooting by the
(実施の形態2)
図20は、本発明の実施の形態2に係る撮像装置の構成を示すブロック図である。同図に示す撮像装置11は、単眼の撮像部111と、撮像装置11の動きを検出する動き検出部112と、制御部113とを備える。撮像部111の構成は、上述した撮像装置1の第1撮像部21の構成と同様である。これら以外の撮像装置11の構成は、実施の形態1で説明した撮像装置1の構成と同じである。このため撮像装置1の構成要素と対応する構成要素には、撮像装置1と同じ符号を付してある。
(Embodiment 2)
FIG. 20 is a block diagram showing the configuration of the imaging apparatus according to
動き検出部112は、例えば速度センサを有し、撮像装置11が運動する時の速度を検出し、検出結果であるセンサ信号を制御部113へ出力する。
The motion detection unit 112 includes, for example, a speed sensor, detects a speed when the
制御部113は、画像処理部91、送信用画像生成部92、表示用画像生成部93、視差調整部94、表示制御部95、通信状態検出部96に加え、動き検出部112から受信したセンサ信号を用いて撮像装置11の動きを判定する動き判定部114を有する。
The control unit 113 includes a sensor received from the motion detection unit 112 in addition to the
図21は、撮像装置11を用いた撮影の概要を示す図である。図21に示すように、撮像装置11は、ユーザが水平方向に沿ってほぼ直線的に移動させる間、所定の間隔で連続的に画像を撮像する。本実施の形態2において、送信用画像生成部92および表示用画像生成部93は、撮像装置11が移動しながら連続的に撮影した複数の画像から、2枚の画像を適宜抽出することによって3D画像用の右目画像と左目画像にそれぞれ対応する画像データを生成する。
FIG. 21 is a diagram illustrating an outline of photographing using the
図22は、図21に示す状況下で撮像部111が生成する2つの画像データにそれぞれ対応する2つの画像の一例を示す図であり、表示用画像生成部93が生成する表示用画像としての3D画像を構成する一対の画像の例を示す図である。画像WL11は、表示用画像生成部93が、撮像装置11が図21の左端に位置する場合に撮像部111によって生成された画像データに対応する画像から切り出して生成した画像である。また、画像WR11は、表示用画像生成部93が、撮像部111が図21の右端に位置する場合に撮像部111によって生成された画像データに対応する画像から切り出して生成した画像である。このため、画像WL11は左目画像に相当し、画像WR11は右目画像に相当している。なお、図22に示す破線および一点鎖線は、撮像部111がそれぞれ生成する画像データに対応する画像領域を示す。
FIG. 22 is a diagram illustrating an example of two images respectively corresponding to two image data generated by the
左目画像WL11における被写体A1の中心と被写体A2の中心との視差L1は、右目画像WR11における被写体A1の中心と被写体A2との視差L2より小さい(L1<L2)。したがって、2つの画像WL11およびWR11を用いることにより、3D画像を表示することが可能となる。 The parallax L 1 between the center of the subject A1 and the center of the subject A2 in the left-eye image WL11 is smaller than the parallax L 2 between the center of the subject A1 and the subject A2 in the right-eye image WR11 (L 1 <L 2 ). Therefore, a 3D image can be displayed by using the two images WL11 and WR11.
図23は、図21に示す状況下で撮像部111が生成する2つの画像データにそれぞれ対応する2つの画像の別な例を示す図であり、送信用画像生成部92が生成する送信用画像の例を示す図である。画像WL11は、送信用画像生成部92が、撮像装置11が図21の左端に位置する場合に撮像部111によって生成された画像データに対応する画像から切り出して生成した画像である。また、画像WR12は、表示用画像生成部93が、撮像部111が図21の中央部に位置する場合に撮像部111によって生成された画像データに対応する画像から切り出して生成した画像である。このため、画像WL11は左目画像に相当し、画像WR12は右目画像に相当している。なお、図23に示す破線および一点鎖線は、撮像部111がそれぞれ生成する画像データに対応する画像領域を示す。
FIG. 23 is a diagram illustrating another example of two images respectively corresponding to two image data generated by the
画像WL11における被写体A1の中心と被写体A2の中心との視差L1は、画像WR12における被写体A1の中心と被写体A2との視差L3より小さい(L1<L3)。したがって、2つの画像WL11およびWR13を用いることによって3D画像を表示することが可能となる。また、右目画像WR12における被写体A1の中心と被写体A2との視差L3は、右目画像WR12における被写体A1の中心と被写体A2との視差L2より小さい(L2<L3)。このため、画像WL11およびWR12を用いで3D表示した場合の仮想的な飛び出し量は、画像WL11およびWR11を用いて3D表示した場合の仮想的な飛び出し量よりも小さい。このようにして、送信用画像における仮想的な飛び出し量を表示用画像における仮想的な飛び出し量よりも小さくすることにより、表示装置200のように大画面で3D表示する場合の飛び出し量を抑制して、ユーザが視聴しやすい状況を作り出すことができる。
Parallax L 1 between the centers of the object A2 of the object A1 in the image WL11 is parallax L 3 is smaller than the center and the object A2 of the object A1 in the image WR12 (L 1 <L 3). Therefore, a 3D image can be displayed by using the two images WL11 and WR13. Further, the parallax L 3 between the center of the subject A1 and the subject A2 in the right eye image WR12 is smaller than the parallax L 2 between the center of the subject A1 and the subject A2 in the right eye image WR12 (L 2 <L 3 ). For this reason, the virtual pop-out amount when 3D display is performed using the images WL11 and WR12 is smaller than the virtual pop-out amount when 3D display is performed using the images WL11 and WR11. In this way, by making the virtual pop-out amount in the transmission image smaller than the virtual pop-out amount in the display image, the pop-out amount in the case of 3D display on a large screen like the
なお、連続的に撮像した複数の画像の中からどの2枚を抽出して3D画像を構成するかについては、ユーザが適宜設定できるようにしてもよい。 Note that the user may be able to appropriately set which two images are extracted from a plurality of continuously captured images to form a 3D image.
図24は、撮像装置11が行う処理の概要を示すフローチャートである。図24において、まず、制御部113は、撮像装置11の電源がオンになっているか否かを判断する(ステップS401)。撮像装置11の電源がオンになっている場合(ステップS401:Yes)、撮像装置11はステップS402に移行する。一方、撮像装置1の電源がオンになっていない場合(ステップS401:No)、撮像装置11は本処理を終了する。
FIG. 24 is a flowchart illustrating an outline of processing performed by the
続いて、制御部113は、撮像装置11が撮影モードに設定されているか否かを判断する(ステップS402)。撮像装置11が撮影モードに設定されている場合(ステップS402:Yes)、表示制御部95は、撮像部111が一定の微小な時間間隔で連続的に生成する画像データに対応するスルー画を表示部6に表示させる(ステップS403)。この場合のスルー画は、2D画像および3D画像のどちらでも構わない。
Subsequently, the control unit 113 determines whether or not the
続いて、制御部113は、ユーザによってレリーズスイッチ42が操作されて撮影を指示するレリーズ信号が入力されたか否かを判断する(ステップS404)。撮影を指示するレリーズ信号が入力された場合(ステップS404:Yes)において、動き判定部114が撮像装置11の動きを判定した結果、撮像装置11が動いていないと判定したとき(ステップS405:No)、撮像部111は撮影を行い、得られた画像データを記憶部8の画像データ記憶部81に記憶する(ステップS405)。この画像データは、スルー画に対応しており、2D画像または3D画像である。
Subsequently, the control unit 113 determines whether or not a release signal instructing photographing is input by operating the
その後、表示制御部95は、撮像部111が撮影した画像データに対応する画像を表示部6にレックビュー表示させる(ステップS407)。
After that, the
ステップS404においてレリーズ信号が所定時間内に入力されない場合(ステップS405:No)、撮像装置11はステップS401に戻る。
If the release signal is not input within the predetermined time in step S404 (step S405: No), the
次に、ステップS405で動き検出部112が撮像装置11の動きを検出した場合、すなわち撮像装置11が移動している場合(ステップS405:Yes)を説明する。この場合、撮像部111は所定の間隔で連続撮影を行い、得られた画像データを記憶部8の画像データ記憶部81に記憶する(ステップS408)。撮像部111は、撮像装置11が静止しなければ(ステップS409:No)、継続して連続撮影処理(ステップS408)を実行する。
Next, the case where the motion detection unit 112 detects the motion of the
以下、撮像装置11が静止した場合(ステップS409:Yes)を説明する。この場合、通信状態検出部96が表示装置200との接続を検出したとき(ステップS410:Yes)、制御部113は、通信部10を介して、送信用画像を表示装置200へ送信する(ステップS411)。ここで送信する送信用画像は、図23を参照して説明したように、表示用画像生成部93が生成する一組の画像よりも被写体間の視差が小さい画像である。
Hereinafter, the case where the
その後、制御部113は、表示用画像生成部93が生成した合成画像を表示用画像として表示部6に表示させる(ステップS412)。本実施の形態2においても、ステップS411とステップS412の処理は並行して実行するようにしてもよい。
Thereafter, the control unit 113 causes the
続いて、制御部113は、タッチパネル7の外部からの接触位置に応じた信号が入力されたか否かを判断する(ステップS413)。外部からの接触位置に応じた信号が入力された場合(ステップS413:Yes)、撮像装置1は、合成画像に含まれる被写体の飛び出し距離または引っ込み距離を調整する視差調整処理を行う(ステップS414)。視差調整処理が完了した時点で、撮像装置1が表示装置200と通信可能に接続されていることを通信状態検出部96が検出した場合(ステップS415:Yes)、制御部113は、視差調整を行った後の送信用画像を、通信部10を介して表示装置200へ送信する制御を行う(ステップS416)。この後、撮像装置1は、ステップS401に戻る。
Subsequently, the control unit 113 determines whether or not a signal corresponding to the contact position from the outside of the touch panel 7 has been input (step S413). When a signal corresponding to the contact position from the outside is input (step S413: Yes), the
ステップS413において、外部からの接触位置に応じた信号が入力されない場合(ステップS413:No)、所定時間経過していれば(ステップS417:Yes)、撮像装置11はステップS401へ戻る。これに対して、ステップS417において所定時間経過していなければ(ステップS417:No)、撮像装置11はステップS413に戻る。
In step S413, when the signal according to the contact position from the outside is not input (step S413: No), if the predetermined time has passed (step S417: Yes), the
ステップS410において、表示装置200との接続が検出されない場合(ステップS410:No)、制御部113は、表示用画像として3D画像を表示部6に表示させる(ステップS418)。その後、ユーザによってタッチパネル7がタッチされた場合(ステップS419:Yes)、撮像装置11はステップS412へ移行する。一方、ユーザによってタッチパネル7が所定時間タッチされない場合(ステップS419:No)、撮像装置11はステップS401へ戻る。
In step S410, when the connection with the
ステップS402において、撮像装置11が撮影モードに設定されていない場合(ステップS402:No)、撮像装置11は、撮影した画像データを表示部6に表示する再生表示処理を実行し(ステップS420)、ステップS401に戻る。ステップS420の再生表示処理は、実施の形態1で説明した再生表示処理と同様である(図17を参照)。
In step S402, when the
図25および図26は、撮像装置11を用いて3D画像を生成する際の好ましい移動距離を説明するための図である。このうち、図25は、ユーザが表示装置200の表示画面201を見るときの状況を示す図である。図25において、ユーザが表示画面201をみるときの距離をLtとし、右目ERと左目ELとの間隔をWtとしている。このとき、被写体(図25では顔を想定)を表示画面201から仮想的に飛び出させることによって立体感を与えるための視差は、両目の間隔Wt程度でよい。
FIGS. 25 and 26 are diagrams for explaining a preferable moving distance when a 3D image is generated using the
これに対し、図26は、ユーザが表示部6を見るときの状況を示す図である。図26において、ユーザが表示部6を見るときの距離をLcとしている。ユーザが人物等を撮影する場合の撮像装置11から被写体までの距離は、ユーザが表示画面201を見るときの距離Ltと同じ程度と仮定することができる。このような仮定のもとで、表示部6で被写体を仮想的に飛び出させて立体感を出すためには、撮像装置11を図26のWc〜(Lt/Lc)×Wt程度動かす必要がある。具体的には、例えばLt=2(m)、Wt=50(cm)とすると、Wc〜4×Wtとなる。ここで、記号「〜」は、ほぼ等しいことを意味している。
On the other hand, FIG. 26 is a diagram illustrating a situation when the user views the
以上説明した本発明の実施の形態2によれば、撮像装置側で表示する表示用画像と外部機器側で表示するために外部機器(表示装置)へ送信する送信用画像とを個別に生成するため、3D画像を表示可能な外部機器と通信可能に接続された状態で、ユーザが外部機器で3D画像を見る状況下においても、そのユーザに違和感を感じさせない画像を表示することができる。 According to the second embodiment of the present invention described above, the display image displayed on the imaging device side and the transmission image transmitted to the external device (display device) for display on the external device side are individually generated. Therefore, an image that does not make the user feel uncomfortable can be displayed even when the user views the 3D image on the external device while being connected to an external device capable of displaying the 3D image.
また、本実施の形態2によれば、実施の形態1と同様、システム全体としての操作性を向上させることができる。 Further, according to the second embodiment, the operability of the entire system can be improved as in the first embodiment.
ここまで、本発明を実施するための形態として2つの実施の形態を説明してきたが、本発明は上述した実施の形態1、2によって限定されるべきものではない。例えば、上述した実施の形態において、メガネ300をかけた状態ではユーザの視界が暗くなるため、表示部6で撮影時のフレーミング確認を行ったり操作時の表示確認を行ったりする際にユーザが表示部6の表示画面を見にくくなってしまう恐れがある。そこで、メガネ300で暗くなった分を補うため、表示部6における表示の明るさを明るくしたり、特定の色を強調したり、コントラストを高めたりするような工夫を施せばより好ましい。
Up to this point, two embodiments have been described as modes for carrying out the present invention. However, the present invention should not be limited to the above-described first and second embodiments. For example, in the above-described embodiment, since the user's field of vision is dark when
また、本発明において、タッチパネルの構成は上述したものに限られるわけではない。図27は、タッチパネルの別な構成例を示す模式図である。図27に示すように、タッチパネル70は、フロントパネル71と、駆動部72と、駆動電極73と、受信電極74と、検出部75とを有する。
In the present invention, the configuration of the touch panel is not limited to that described above. FIG. 27 is a schematic diagram illustrating another configuration example of the touch panel. As illustrated in FIG. 27, the
フロントパネル71は、所定の厚みを有し、平面的に見て矩形状に形成されたガラスまたはPET(Polyethylene Terephthalate)で構成される。駆動部72は、駆動電極73に駆動パルス(例えば印加電圧5V)を出力し、駆動電極73と受信電極74との間で静電容量を形成させる。駆動電極73および受信電極74は、ITO(Indium Tin Oxide)電極によって構成され、フロントパネル71の下面に対して所定のピッチ(例えば5mm程度)で交互に設けられる。検出部75は、静電容量センサによって構成され、ユーザの手Hが電界400に接近することにより、駆動電極73と受信電極74との間で形成された静電容量の微細な変化量、例えばユーザの手Hがフロントパネル71に接触したときの変化量として1pF程度の値を検出する。この検出部75のより詳細な構成は、例えば米国特許7148704号明細書に開示されている。
The
以上の構成を有するタッチパネル70において、検出部75は、ユーザの手Hがフロントパネル71に触れる前から駆動電極73と受信電極74との間で形成された静電容量の微細な変化を検出することができる。具体的には、検出部75は、図27に示すように、距離h1(例えば0.5cm)の位置と距離h2(例えば1cm)の位置とにユーザの手Hがある場合のように、微小な距離しか離れていない2箇所を移動する場合の駆動電極73と受信電極74との間で形成された静電容量の変化を検出することができる。その結果、タッチパネル70は、外部からの直接的な接触がなくても操作信号の入力を受け付けることができる。
In the
本発明に係る撮像装置は、デジタルステレオカメラ以外にも、例えばデジタルビデオカメラ、カメラ付き携帯電話等の撮影機能および表示機能を備えた各種電子機器に適用することができる。 The image pickup apparatus according to the present invention can be applied to various electronic devices having a photographing function and a display function such as a digital video camera and a camera-equipped mobile phone, in addition to the digital stereo camera.
また、本発明において、外部機器としての表示装置は3Dテレビに限られるわけではなく、3D画像を表示可能な表示部を有していれば、いかなる電子機器であってもかまわない。 In the present invention, the display device as an external device is not limited to a 3D television, and any electronic device may be used as long as it has a display unit capable of displaying a 3D image.
1、11 撮像装置
2、111 撮像部
3 姿勢検出部
4 操作入力部
5 時計
6 表示部
7、70 タッチパネル
8 記憶部
9、113 制御部
10 通信部
21 第1撮像部
21a、22a レンズ部
21b、22b レンズ駆動部
21c、22c 絞り
21d、22d 絞り駆動部
21e、22e シャッタ
21f、22f シャッタ駆動部
21g、22g 撮像素子
21h、22h 信号処理部
22 第2撮像部
41 電源スイッチ
42 レリーズスイッチ
43 切換スイッチ
44 ズームスイッチ
61 バックライト
62 表示パネル
63 視差バリア
71 フロントパネル
72 駆動部
73 駆動電極
74 受信電極
75 検出部
81 画像データ記憶部
82 プログラム記憶部
83 視差記憶部
91 画像処理部
92 送信用画像生成部
93 表示用画像生成部
94 視差調整部
95 表示制御部
96 通信状態検出部
100 画像通信システム
112 動き検出部
114 動き判定部
200 表示装置
201 表示画面
DESCRIPTION OF
Claims (11)
2つの画像に基づく3次元画像を表示可能な表示部と、
前記2つの画像の少なくとも一方を用いることによって前記表示部が表示する表示用画像を生成する表示用画像生成部と、
前記2つの画像を用いることによって前記外部機器で表示させるために送信する送信用画像を生成する送信用画像生成部と、
前記送信用画像生成部が生成した送信用画像を前記外部機器へ送信する通信部と、
を備えたことを特徴とする撮像装置。 An imaging apparatus having an imaging unit that images a subject and generates image data, and capable of communicating with an external device capable of displaying a three-dimensional image according to a predetermined communication standard,
A display unit capable of displaying a three-dimensional image based on the two images;
A display image generation unit that generates a display image to be displayed by the display unit by using at least one of the two images;
A transmission image generation unit that generates a transmission image to be transmitted for display on the external device by using the two images;
A communication unit that transmits the transmission image generated by the transmission image generation unit to the external device;
An imaging apparatus comprising:
前記通信部が前記送信用画像を送信するか否かに応じて異なる表示用画像を生成することを特徴とする請求項1に記載の撮像装置。 The display image generation unit
The imaging apparatus according to claim 1, wherein a different display image is generated according to whether the communication unit transmits the transmission image.
前記通信部が前記送信用画像を送信する場合、表示用画像として、前記2つの画像を重ねた合成画像を生成することを特徴とする請求項2に記載の撮像装置。 The display image generation unit
The imaging apparatus according to claim 2, wherein when the communication unit transmits the transmission image, a composite image in which the two images are superimposed is generated as a display image.
前記表示部が表示する前記合成画像に対し、前記タッチパネルに接触した物体の軌跡に応じて前記合成画像に含まれる被写体の視差を調整する視差調整部と、
前記視差調整部が視差を調整した前記合成画像を前記表示部に表示させる制御を行う表示制御部と、
をさらに備え、
前記送信用画像生成部は、
前記視差調整部が調整した視差を有する前記2つの画像を用いることを特徴とする請求項3に記載の撮像装置。 A touch panel that is provided on the display screen of the display unit and receives an input of a signal according to the position of an object that comes into contact with the outside;
A parallax adjustment unit that adjusts a parallax of a subject included in the composite image according to a trajectory of an object that has touched the touch panel with respect to the composite image displayed by the display unit;
A display control unit that performs control for causing the display unit to display the composite image in which the parallax adjustment unit has adjusted the parallax;
Further comprising
The transmission image generation unit includes:
The imaging apparatus according to claim 3, wherein the two images having the parallax adjusted by the parallax adjusting unit are used.
前記視差調整部は、前記2つの画像の切り出し領域を変更することを特徴とする請求項4に記載の撮像装置。 The composite image is an image obtained by cutting out and overlapping a predetermined area from the two images,
The imaging apparatus according to claim 4, wherein the parallax adjustment unit changes a cut-out region of the two images.
前記通信部が前記送信用画像を送信しない場合、表示用画像として、前記2つの画像に基づく3次元画像を生成することを特徴とする請求項2〜5のいずれか一項に記載の撮像装置。 The display image generation unit
6. The imaging apparatus according to claim 2, wherein when the communication unit does not transmit the transmission image, a three-dimensional image based on the two images is generated as a display image. .
前記2つの画像として、互いの視野の左右方向の一端部同士が重なりを有する2つの画像を撮像し、各画像に対応する2つの画像データを生成することを特徴とする請求項1〜6のいずれか一項に記載の撮像装置。 The imaging unit
The two images are obtained by capturing two images in which one end in the horizontal direction of each field of view overlaps as the two images, and generating two image data corresponding to each image. The imaging device according to any one of the above.
前記2つの画像をそれぞれ撮像する2つの光学系を有することを特徴とする請求項7に記載の撮像装置。 The imaging unit
The imaging apparatus according to claim 7, further comprising two optical systems that respectively capture the two images.
前記送信用画像生成部および前記表示用画像生成部は、前記撮像部が連続的に撮像した画像の中から前記2つの画像を抽出することを特徴とする請求項7に記載の撮像装置。 The imaging unit has a function of continuously capturing images at a predetermined interval while the imaging device moves,
The imaging apparatus according to claim 7, wherein the transmission image generation unit and the display image generation unit extract the two images from images continuously captured by the imaging unit.
前記2つの画像にそれぞれ対応する2つの画像データを、前記表示画面における水平方向の1画素ごとに交互に並べて前記表示部に出力する制御を行うことを特徴とする請求項4〜9のいずれか一項に記載の撮像装置。 The display control unit
10. The control of performing two-sided image data respectively corresponding to the two images alternately to each horizontal pixel on the display screen and outputting the data to the display unit is performed. The imaging device according to one item.
前記撮像装置と前記通信規格にしたがって通信可能に接続され、前記撮像装置から受信した前記送信用画像に基づいて3次元画像を表示する表示装置と、
を備えたことを特徴とする画像通信システム。 The imaging device according to any one of claims 1 to 10,
A display device that is communicably connected to the imaging device according to the communication standard and displays a three-dimensional image based on the transmission image received from the imaging device;
An image communication system comprising:
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010196996A JP5750779B2 (en) | 2010-09-02 | 2010-09-02 | Imaging apparatus, image communication system, and image communication method |
CN201110256196.7A CN102387392B (en) | 2010-09-02 | 2011-08-31 | Shooting device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010196996A JP5750779B2 (en) | 2010-09-02 | 2010-09-02 | Imaging apparatus, image communication system, and image communication method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2012054836A true JP2012054836A (en) | 2012-03-15 |
JP2012054836A5 JP2012054836A5 (en) | 2013-10-17 |
JP5750779B2 JP5750779B2 (en) | 2015-07-22 |
Family
ID=45826268
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010196996A Expired - Fee Related JP5750779B2 (en) | 2010-09-02 | 2010-09-02 | Imaging apparatus, image communication system, and image communication method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP5750779B2 (en) |
CN (1) | CN102387392B (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5655862B2 (en) * | 2010-12-17 | 2015-01-21 | 富士通株式会社 | Stereoscopic moving image generating apparatus, stereoscopic moving image generating method, stereoscopic moving image generating program |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5603732B2 (en) * | 2010-10-19 | 2014-10-08 | オリンパスイメージング株式会社 | Imaging device |
JP5909147B2 (en) * | 2012-05-08 | 2016-04-26 | キヤノン株式会社 | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM |
CN103841311A (en) * | 2012-11-20 | 2014-06-04 | 广州三星通信技术研究有限公司 | Method for generating 3D image and portable terminals |
JP2017126980A (en) * | 2016-01-08 | 2017-07-20 | オリンパス株式会社 | Information processing apparatus, imaging apparatus, display device, information processing method, imaging apparatus control method, display device control method, information processing program, imaging apparatus control program, and display device control program |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10105735A (en) * | 1996-09-30 | 1998-04-24 | Terumo Corp | Input device and picture display system |
JP2008306739A (en) * | 2002-09-27 | 2008-12-18 | Sharp Corp | 3-d image display unit |
JP2009049509A (en) * | 2007-08-14 | 2009-03-05 | Fujifilm Corp | Image processing system, image processing apparatus, and image processing method |
JP2009094726A (en) * | 2007-10-05 | 2009-04-30 | Fujifilm Corp | Image recording apparatus and image recording method |
JP2010102137A (en) * | 2008-10-24 | 2010-05-06 | Fujifilm Corp | Three-dimensional photographing device, method and program |
JP2010109904A (en) * | 2008-10-31 | 2010-05-13 | Fujifilm Corp | Imaging apparatus and parameter setting method of imaging apparatus |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6549650B1 (en) * | 1996-09-11 | 2003-04-15 | Canon Kabushiki Kaisha | Processing of image obtained by multi-eye camera |
US8077964B2 (en) * | 2007-03-19 | 2011-12-13 | Sony Corporation | Two dimensional/three dimensional digital information acquisition and display device |
CN201345711Y (en) * | 2008-12-16 | 2009-11-11 | 胡超 | Portable multi-functional stereo image device |
-
2010
- 2010-09-02 JP JP2010196996A patent/JP5750779B2/en not_active Expired - Fee Related
-
2011
- 2011-08-31 CN CN201110256196.7A patent/CN102387392B/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10105735A (en) * | 1996-09-30 | 1998-04-24 | Terumo Corp | Input device and picture display system |
JP2008306739A (en) * | 2002-09-27 | 2008-12-18 | Sharp Corp | 3-d image display unit |
JP2009049509A (en) * | 2007-08-14 | 2009-03-05 | Fujifilm Corp | Image processing system, image processing apparatus, and image processing method |
JP2009094726A (en) * | 2007-10-05 | 2009-04-30 | Fujifilm Corp | Image recording apparatus and image recording method |
JP2010102137A (en) * | 2008-10-24 | 2010-05-06 | Fujifilm Corp | Three-dimensional photographing device, method and program |
JP2010109904A (en) * | 2008-10-31 | 2010-05-13 | Fujifilm Corp | Imaging apparatus and parameter setting method of imaging apparatus |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5655862B2 (en) * | 2010-12-17 | 2015-01-21 | 富士通株式会社 | Stereoscopic moving image generating apparatus, stereoscopic moving image generating method, stereoscopic moving image generating program |
Also Published As
Publication number | Publication date |
---|---|
JP5750779B2 (en) | 2015-07-22 |
CN102387392B (en) | 2014-03-19 |
CN102387392A (en) | 2012-03-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5704854B2 (en) | Display device | |
US20120019528A1 (en) | Display apparatus, display method, and computer-readable recording medium | |
JP5530322B2 (en) | Display device and display method | |
WO2013091201A1 (en) | Method and device for adjusting viewing area, and device for displaying three-dimensional video signal | |
JP5750779B2 (en) | Imaging apparatus, image communication system, and image communication method | |
CN111432201A (en) | Display system, control method thereof, information processing apparatus, and recording medium | |
JPH10105735A (en) | Input device and picture display system | |
JP5675197B2 (en) | Display device | |
JP2011250368A (en) | Three-dimensional display device, display control circuit, and display method | |
US20120307016A1 (en) | 3d camera | |
JP5754044B2 (en) | Imaging apparatus and image communication system | |
JP2012032964A (en) | Display device | |
TWI505708B (en) | Image capture device with multiple lenses and method for displaying stereo image thereof | |
US9325975B2 (en) | Image display apparatus, parallax adjustment display method thereof, and image capturing apparatus | |
JP5603732B2 (en) | Imaging device | |
CN114898440A (en) | Driving method of liquid crystal grating, display device and display method thereof | |
JP2010267192A (en) | Touch control device for three-dimensional imaging | |
JP5586377B2 (en) | Display device | |
EP2369848A1 (en) | Apparatus and method for capturing three-dimensional image | |
JP5646252B2 (en) | Display device | |
JP5638985B2 (en) | Imaging apparatus and imaging program | |
JP2023117615A (en) | Electronic apparatus, method for controlling electronic apparatus, program, and storage medium | |
CN115250330A (en) | Electronic device, control method thereof, and storage medium | |
JP5733746B2 (en) | Image processing apparatus and image processing program | |
JP5733746B6 (en) | Image processing apparatus and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130902 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130902 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140128 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140324 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140924 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150414 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20150423 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150430 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5750779 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |