JP2013258583A - Captured image display, captured image display method, and program - Google Patents
Captured image display, captured image display method, and program Download PDFInfo
- Publication number
- JP2013258583A JP2013258583A JP2012133718A JP2012133718A JP2013258583A JP 2013258583 A JP2013258583 A JP 2013258583A JP 2012133718 A JP2012133718 A JP 2012133718A JP 2012133718 A JP2012133718 A JP 2012133718A JP 2013258583 A JP2013258583 A JP 2013258583A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- distance
- captured image
- horizontal
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 30
- 238000004364 calculation method Methods 0.000 claims abstract description 110
- 238000009966 trimming Methods 0.000 claims abstract description 110
- 230000009467 reduction Effects 0.000 claims abstract description 20
- 238000003384 imaging method Methods 0.000 claims description 56
- 210000005252 bulbus oculi Anatomy 0.000 claims description 31
- 238000001514 detection method Methods 0.000 claims description 16
- 244000144985 peep Species 0.000 claims description 13
- 230000008859 change Effects 0.000 claims description 10
- 210000001508 eye Anatomy 0.000 claims description 9
- 208000008918 voyeurism Diseases 0.000 claims description 7
- 238000012545 processing Methods 0.000 abstract description 13
- 230000003247 decreasing effect Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 33
- 230000014509 gene expression Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 230000001154 acute effect Effects 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 229920001690 polydopamine Polymers 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000012850 discrimination method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2621—Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2628—Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明はカメラとディスプレイとを備える撮像画像表示装置、撮像画像表示装置を用いる撮像画像表示方法、およびそのプログラムに関する。 The present invention relates to a captured image display device including a camera and a display, a captured image display method using the captured image display device, and a program thereof.
従来、カメラと、カメラの撮像画像をライブビュー映像として連続的かつリアルタイムに表示するディスプレイ(ライブビュー機能付き電子ファインダ、液晶ファインダ)とを備えるディジタルカメラや、ディジタルカメラ付き電子機器(携帯端末、タブレット型端末、PDA、携帯ゲーム機など)が開発されている(例えば、特許文献1のライブビュー機能付き携帯端末)。図1に従来のディジタルカメラ付き携帯端末におけるディスプレイへのライブビュー映像表示例を示す。図1のように、ディジタルカメラ付き携帯端末9は、被写体1を、カメラが備える画角内においてリアルタイムに撮像し、当該撮像画像全体がディジタルカメラ付き携帯端末9のディスプレイのサイズに丁度収まる程度にサイズを調整してライブビュー映像2として表示する。
Conventionally, a digital camera provided with a camera and a display (electronic viewfinder with live view function, liquid crystal finder) that continuously and in real time displays a captured image of the camera as a live view video, or an electronic device with a digital camera (mobile terminal, tablet) Type terminals, PDAs, portable game machines, etc.) have been developed (for example, portable terminals with a live view function of Patent Document 1). FIG. 1 shows an example of live view video display on a display in a conventional portable terminal with a digital camera. As shown in FIG. 1, the mobile terminal 9 with a digital camera captures the
しかしながら、従来のディジタルカメラ付き携帯端末9では、ユーザはディスプレイを素通しファインダ(覗き窓)のように使用することは出来ない。ディスプレイに表示されるライブビュー映像は通常、予め決められたカメラ画角内において撮像された画像全体を、ディスプレイ内になるべく大きく表示する性格のものであり、ユーザは、ディスプレイを観察したとしても、ディスプレイサイズの覗き窓を通して被写体を観察したことにはならない。これについて、図2を参照して詳細に説明する。図2は、ディジタルカメラ付き携帯端末のディスプレイを覗き窓として使用した場合のライブビュー映像表示例を示す図である。ライブビュー映像をあたかもディスプレイサイズの覗き窓を通して観察される風景のように構成するためには、ユーザ眼球位置(便宜上一点とする)と被写体1の任意の点(点Rと呼ぶ)とを結ぶ直線とディスプレイ面との交点にあたる座標に当該被写体1の点Rが表示されるように、ライブビュー映像を表示しなければならない。具体的には図2に示すライブビュー映像3のように映像を表示しなければならない。
However, in the conventional mobile terminal 9 with a digital camera, the user cannot use the display as a finder (view window). The live view video displayed on the display is usually of the nature of displaying the entire image captured within a predetermined camera angle of view as large as possible in the display, and even if the user observes the display, It does not mean that the subject is observed through the viewing window of the display size. This will be described in detail with reference to FIG. FIG. 2 is a diagram showing a live view video display example when the display of the mobile terminal with a digital camera is used as a viewing window. In order to configure a live view image as if it is a landscape observed through a viewing window of a display size, a straight line connecting the user eyeball position (for convenience, one point) and an arbitrary point on the subject 1 (referred to as point R) The live view video must be displayed so that the point R of the
従来のディジタルカメラ付き携帯端末9では、前述のライブビュー映像3のような表示をすることが出来ないため、ユーザはディスプレイを覗き窓として使用することができない。このため、従来のディジタルカメラ付き携帯端末9において撮影される画像や映像はユーザ視点からみた被写体の占有立体角を正しく再現するものでなく、被写体のサイズ感を反映したものにならない。また、従来のディジタルカメラ付き携帯端末9では、ディスプレイを風景を切り取る枠として使用したいというユーザのニーズに応えることは出来ない。そこで本発明では、ディスプレイが覗き窓であるかのように、撮像画像を加工してディスプレイに表示することができる撮像画像表示装置を提供することを目的とする。
In the conventional mobile terminal 9 with a digital camera, the user cannot use the display as a viewing window because it cannot display the
本発明の撮像画像表示装置は、カメラと、カメラの撮像方向と反対方向に画像を提示するディスプレイと、第1距離センサと、第1距離計算部と、校正値記憶部と、画像縮小部と、トリミング位置計算部と、トリミング部と、ディスプレイ制御部とを備える。 A captured image display device of the present invention includes a camera, a display that presents an image in a direction opposite to the imaging direction of the camera, a first distance sensor, a first distance calculation unit, a calibration value storage unit, and an image reduction unit. A trimming position calculation unit, a trimming unit, and a display control unit.
第1距離センサは、カメラの撮像方向と反対方向に存在する物体との距離を測定するためのデータを出力する。第1距離計算部は、第1距離センサの出力に基づいて、撮像方向と反対方向に存在する物体との距離(以下、第1距離という)を計算する。校正値記憶部は、カメラと被写体との撮像方向距離の変化量と、被写体の撮像画像中における占有画素の変化量との関係に基づいて定められる校正値を予め記憶する。画像縮小部は、第1距離と校正値とに基づいて、カメラの撮像画像の水平、鉛直方向それぞれの画素数を少なくして縮小し、縮小画像を生成する。トリミング位置計算部は、ディスプレイの水平、鉛直方向それぞれのサイズと、第1距離と、カメラの水平、鉛直方向それぞれの画素数と、カメラの水平、鉛直方向それぞれの画角とに基づいて、水平、鉛直方向それぞれの始点画素と、終点画素の位置を計算する。トリミング部は、縮小画像を始点画素、および終点画素の位置に基づいて切り抜く。ディスプレイ制御部は、切り抜かれた画像をディスプレイに表示する。 The first distance sensor outputs data for measuring a distance from an object that exists in a direction opposite to the imaging direction of the camera. The first distance calculation unit calculates a distance (hereinafter referred to as a first distance) from an object that exists in a direction opposite to the imaging direction based on the output of the first distance sensor. The calibration value storage unit stores in advance a calibration value that is determined based on the relationship between the change amount of the imaging direction distance between the camera and the subject and the change amount of the occupied pixel in the captured image of the subject. Based on the first distance and the calibration value, the image reduction unit reduces the number of pixels in the horizontal and vertical directions of the captured image of the camera to generate a reduced image. The trimming position calculation unit calculates the horizontal position based on the horizontal and vertical sizes of the display, the first distance, the number of pixels of the horizontal and vertical directions of the camera, and the angle of view of the horizontal and vertical directions of the camera. The positions of the start pixel and the end pixel in the vertical direction are calculated. The trimming unit cuts out the reduced image based on the positions of the start point pixel and the end point pixel. The display control unit displays the clipped image on the display.
本発明の撮像画像表示装置によれば、ディスプレイが覗き窓であるかのように、撮像画像を加工してディスプレイに表示することができる。 According to the captured image display device of the present invention, the captured image can be processed and displayed on the display as if the display were a viewing window.
以下、本発明の実施の形態について、詳細に説明する。なお、同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。 Hereinafter, embodiments of the present invention will be described in detail. In addition, the same number is attached | subjected to the structure part which has the same function, and duplication description is abbreviate | omitted.
<撮像画像表示装置>
本発明では、カメラと、カメラの撮像画像をライブビュー映像として連続的かつリアルタイムに表示するディスプレイとを備える電子機器を撮像画像表示装置と総称する。撮像画像表示装置には、携帯端末、タブレット型端末、PDA、携帯ゲーム機、ノート型PCが含まれる。
<Captured image display device>
In the present invention, electronic devices including a camera and a display that continuously and in real time displays captured images of the camera as a live view video are collectively referred to as a captured image display device. The captured image display device includes a portable terminal, a tablet terminal, a PDA, a portable game machine, and a notebook PC.
以下、図3、図4を参照して本発明の実施例1の撮像画像表示装置について説明する。図3は本実施例の撮像画像表示装置100の構成を示すブロック図である。図4は本実施例の撮像画像表示装置100の動作を示すフローチャートである。図3に示すように、本実施例の撮像画像表示装置100は、カメラ105と、カメラ制御部110と、画像記憶部115と、校正部120と、校正値記憶部125と、第1距離センサ130と、第1距離センサ制御部135と、第1距離計算部140と、画像縮小部145と、トリミング位置計算部150と、トリミング部155と、ディスプレイ制御部160と、ディスプレイ165とを備える。ディスプレイ165は、カメラ105の撮像方向と反対方向に画像を提示できるように、撮像画像表示装置100本体に設けられている。
Hereinafter, the captured image display apparatus according to the first embodiment of the present invention will be described with reference to FIGS. 3 and 4. FIG. 3 is a block diagram showing the configuration of the captured
以下、図4を参照しながら各構成部の動作の概略について説明する。カメラ制御部110は、ユーザ入力に従ってカメラ105の起動、カメラ105の動作(撮像、画像記録など)を制御する。カメラ105の撮像画像は画像記憶部115に記憶される。校正部120は、カメラ105と被写体との撮像方向距離の変化量と、被写体の撮像画像中における占有画素の変化量との関係に基づいて定められる校正値を計算し、計算された校正値を校正値記憶部125に記憶する(S120)。ステップS120について詳細は後述する。第1距離センサ130は、カメラ105の撮像方向と反対方向に存在する物体との距離を測定するためのデータを出力する。第1距離センサ130について詳細は後述する。第1距離センサ制御部135は、カメラ105の起動を検知して(S105Y)、第1距離センサ130を起動する(S135)。第1距離計算部140は、第1距離センサ130の出力に基づいて、撮像方向と反対方向に存在する物体との距離(以下、第1距離という)を計算する(S140)。ステップS140について詳細は後述する。画像縮小部145は、第1距離と校正値とに基づいて、カメラ105の撮像画像の水平、鉛直方向それぞれの画素数を少なくして縮小し、縮小画像を生成する(S145)。ステップS145について詳細は後述する。トリミング位置計算部150は、ディスプレイ165の水平、鉛直方向それぞれのサイズと、第1距離と、カメラ105の水平、鉛直方向それぞれの画素数と、カメラ105の水平、鉛直方向それぞれの画角とに基づいて、水平、鉛直方向それぞれの始点画素と、終点画素の位置を計算する(S150)。ステップS150について詳細は後述する。トリミング部155は、縮小画像を始点画素、および終点画素の位置に基づいて切り抜く(S155)。ディスプレイ制御部160は、切り抜かれた画像をディスプレイ165に表示する(S160)。
The outline of the operation of each component will be described below with reference to FIG. The
<校正部120の動作(ステップS120)について>
以下、校正部120の動作(ステップS120)について図5から図8を参照して詳細に説明する。図5は、本実施例の校正部120の構成を示すブロック図である。図6は、本実施例の校正部120の動作を示すフローチャートである。図7は、本実施例の校正部120が校正値の計算に用いる第1画像10、第2画像20を説明する図である。図7(a)は第1画像10の例、図7(b)は第2画像20の例である。図8は、カメラ105と基準30との撮像方向距離の変化量と、基準30の撮像画像中における占有画素(ピクセル)の変化量との関係を表す図である。
<Operation of Calibration Unit 120 (Step S120)>
Hereinafter, the operation of the calibration unit 120 (step S120) will be described in detail with reference to FIGS. FIG. 5 is a block diagram showing the configuration of the
図5に示すように、本実施例の校正部120は、第1画像取得手段121と、第2画像取得手段122と、領域特定手段123と、校正値計算手段124とを備える。なお、校正部120の各構成手段121〜124などはアプリケーションソフトウェアで実現される。また、校正部120が行う校正動作には、予めサイズを定めてユーザに配布した基準30を使用する。図7の例では、基準30は長手方向の長さがaの棒形状である。基準30は、例えば本実施例の撮像画像変換装置100の製品パッケージ等に同封しておけばよい。以下、図6を参照しながら校正部120の動作について説明する。まず、第1画像取得手段121は、基準30を画面の幅(水平)方向一杯に撮影する旨の指示をディスプレイに提示して、指示提示の後、最初に撮影された画像(第1画像10)に第1画像10を示す固有のフラグ値を付加する。ユーザが第1画像取得手段121の指示に従って基準30を撮影した場合、第1画像10は図7(a)に例示したような画像となる。次に、第2画像取得手段121は、第1画像10の撮影位置から所定の距離b(例えばb=1メートル)基準30から撮影方向遠ざかった位置において、基準30を再度撮影する旨の指示をディスプレイに提示して、指示提示の後、最初に撮影された画像(第2画像20)に第2画像20を示す固有のフラグ値を付加する。ユーザが第2画像取得手段122の指示に従って基準30を撮影した場合、第2画像20は図7(b)に例示したような画像となる。固有のフラグ値を付加された第1、第2画像20は何れも画像記憶部115に記憶される。ユーザは、第1画像10、第2画像20を正常に撮影したと判断した場合には、端末操作により撮影終了を通知する。具体的には、校正部120のアプリケーションプログラムにおいて、撮影終了ボタンをタッチスクリーン上に表示するか、撮影終了ボタンとして操作ボタンのひとつを割り当てて当該割り当てを表示し、撮影終了ボタンの押下を検知すればよい。第1画像取得手段121は、ユーザからの撮影終了通知を契機として、画像記憶部115から、第1画像10を示す固有のフラグ値を付加された画像(第1画像10)を検索して、当該第1画像10を取得する(SS121)。第2画像取得手段122は、ユーザからの撮影終了通知を契機として、画像記憶部115から、第2画像20を示す固有のフラグ値を付加された画像(第2画像20)を検索して、当該第2画像20を取得する(SS122)。領域特定手段123は、第1画像10、第2画像20の双方から撮像された基準30を検出する(SS123)。基準30の検出方法は周知の画像処理方法で構わない。例えばフィルタ関数の畳みこみによるコントラストの検知などでよい。例えば、基準30の両端部に、予め定めた識別パタンを印刷しておき、この識別パタンを検知することによって、基準30の占有画素を見積もってもよい。この場合、識別パタンが検知できない場合には、基準30が撮影されていないものとして、処理を中断しても良い。次に、校正値計算手段124は、第1画像10、第2画像20中の基準30が撮像された画素(ピクセル)数から校正値を計算して、校正値記憶部125に記憶する(SS124)。より具体的には、図8に示すように、第1画像10における基準30が撮像された画素の数、例えば水平方向の画素数をZ1とし、第2画像20における基準30が撮像された画素の数、例えば水平方向の画素数をZ2として、横軸をカメラの移動距離、縦軸を基準30の撮像された画素の水平方向の個数とし、第1画像10におけるカメラ105の位置を移動距離0、つまりZ1を切片とし、座標(b,Z2)を通過する一次関数を考える。例えばこの一次関数の傾きcを校正値とすることができる。校正値cは、c=(Z2−Z1)/bにより求められる。校正値cは、校正値記憶部125に記憶され、画像縮小部145が実行するステップS145において用いられる。詳細については後述する。なお、校正値cを出荷時点で撮像画像表示装置100のいずれかの記憶領域(例えば校正値記憶部125)に予め記憶しておけば、上述のユーザを介した校正動作は必要ない。この場合、校正部120全体を省略することができる。
As shown in FIG. 5, the
<第1距離センサ130について>
以下、第1距離センサ130について説明する。前述したように、第1距離センサ130は、カメラ105の撮像方向と反対方向に存在する物体との距離を測定するためのデータを出力する。第1距離センサ130は、例えば、CCDで光を受けて角度で測距するパッシブ方式による距離センサでもよい。第1距離センサ130は、音波を発射し、物体に反射された音波が帰ってくるまでの時間で測距するソナー方式、近赤外光の出射角と、物体に反射された赤外光の入射角とを測り、幾何学的に距離を測距する赤外線方式によってもよい。または、CCDで撮像した画像のコントラストを検知して、レンズ位置を前後に動作させ、ピント位置を割り出して、測距するコントラスト検知方式でもよい。レンズから導いたスリット光の位相を検知することにより測距する位相差検知方式でもよい。実施例2以降で説明する第2距離センサ230についても同様に、パッシブ方式、ソナー方式、赤外線方式、コントラスト検知方式、位相差検知方式の何れか、または他の方式によってもよい。なお、第1距離センサ130によるデータ出力は、第1距離センサ制御部135により、例えば0.1〜1秒毎に実行され、ユーザの動きに十分に追従できればさらによい。
<About the
Hereinafter, the
<第1距離計算部140の動作(ステップS140)について>
以下、第1距離計算部140について説明する。前述したように、第1距離計算部140は、第1距離センサ130の出力に基づいて、撮像方向と反対方向に存在する物体との距離(第1距離)を計算する(S140)。第1距離計算部140の測距用のプログラムは、第1距離センサ130の方式に対応して組み込まれており、第1距離センサ130の出力データに基づいて、第1距離を算出することができる。ここで、撮像方向と反対方向に存在する物体として想定しているのはユーザの顔面や、ユーザの身体の一部である。従って、第1距離計算部140は、撮像画像表示装置100とユーザの間の距離を第1距離として計算することを想定して撮像画像表示装置100に組み込まれている。前述したように、撮像画像表示装置100は、カメラ105を備え、カメラ105の撮像方向と逆向きに撮像画像を表示するディスプレイ165を備えており、ユーザはカメラ105起動時にはディスプレイ165をファインダとして観察していることを考えれば、カメラ105の撮像方向と逆方向であって、撮像画像表示装置100の最近傍に存在する物体はユーザの顔面、もしくはユーザの身体の一部である可能性が高い。従って、第1距離センサ130が出力したデータにより計算した距離離れた位置にユーザが存在すると考えることができる。また、カメラ105の撮像方向と逆方向にユーザが存在しない場合には、そもそもユーザがディスプレイ165を見ていない可能性が高い。具体的には、カメラ105を起動したまま、撮像画像表示装置100を放置している場合などである。このような場合、第1距離センサ130が出力したデータによっては、ユーザとの距離を正しく計算することができず後述する画像の切り抜きなどにも影響を与えることになる。しかしながら、この場合、ユーザがディスプレイ165を見ていない可能性が高く、ディスプレイ165への表示自体が不必要であるため問題とならない。
<Operation of First Distance Calculation Unit 140 (Step S140)>
Hereinafter, the first
<画像縮小部145の動作(ステップS145)について>
図11を参照して画像縮小部145の動作について説明を加える。図11は本実施例の画像縮小部145が生成する縮小画像について説明する図である。図11に示すように、座標軸(図中の一点鎖線)の正方向をカメラ105の撮像方向とし、当該座標軸がカメラレンズの中心をとおるものとする。ユーザ眼球位置の撮像方向座標をCEYE、カメラ105の撮像方向座標をCCAM、被写体の撮像方向座標をCOBJとする。この場合、座標CCAMと座標CEYEとは、前述した第1距離だけ離れているものと考えることができる。従って、第1距離は、図中の座標CCAMと座標CEYEとの距離を意味するdと等しいものとして説明を続ける。ここで、画像縮小部145が生成する画像として想定しているのは、図11の座標CEYEにカメラ105を移動して被写体を撮像した場合の撮像画像である。ここで、画像縮小部145によって変形される前の撮像画像は、座標CCAMにあるカメラ105により座標COBJに存在する被写体を、画角αで撮像した画像のことである。一方、カメラ105を、撮像方向の負方向に第1距離(d)だけ移動させ、座標CEYEにおいて被写体を画角αで撮影した場合、変形前よりも広範囲の被写体を画角α内に収めることができる。従って、変形前の撮像画像から、カメラ105を、撮像方向の負方向に第1距離(d)だけ移動させたときの撮像画像を完全な形で取得することはできない。従って、画像縮小部145は、変形前の撮像画像に写されておらず、変形後の撮像画像に写されるはずの被写体については再現せずに、例えば信号ゼロとする。また、画像縮小部145は、変形前の撮像画像に写された被写体については、座標CEYEにおける画角となるように、縮小変形する。従って、画像縮小部145は、第1距離dと校正値cとに基づいて、撮像画像の縮小率を計算し、カメラ105の撮像画像の水平、鉛直方向それぞれの画素数を少なくして縮小した画像を生成する。このように生成した画像を、水平、鉛直方向のカメラ画素数が等しくなる画像領域の中央に配置して、配置された画像が占有しない周辺領域の画素値を所定の値(例えば信号ゼロ、RGB値が0)とした縮小画像を生成する。従ってこの場合、配置された画像が占有しない周辺領域は黒い額縁のように表示される。このようにして生成された縮小画像はトリミング位置計算部150が計算した始点終点画素の位置に基づいてトリミング(切り抜き)処理される。詳細については後述する。
<Operation of Image Reduction Unit 145 (Step S145)>
The operation of the
<トリミング位置計算部150の動作(ステップS150)について>
以下、トリミング位置計算部150の動作(ステップS150)について図9から図13を参照して詳細に説明する。図9は、本実施例のトリミング位置計算部150の構成を示すブロック図である。図10は、本実施例のトリミング位置計算部150の動作を示すフローチャートである。図12は、カメラ105の画角とカメラ105の画素の関係について説明する図である。図13は、本実施例のトリミング位置計算部150の始点終点画素計算手段154が計算する始点、終点画素について説明する図である。
<Operation of Trimming Position Calculation Unit 150 (Step S150)>
Hereinafter, the operation (step S150) of the trimming
図9に示す通り、トリミング位置計算部150は、パラメータ記憶手段151と、ファインダ角計算手段152と、始点終点画素計算手段154とを備える。パラメータ記憶手段151には、水平、鉛直方向それぞれのディスプレイサイズ、水平、鉛直方向それぞれの画素数、水平、鉛直方向それぞれのカメラ画角が記憶されている。ディスプレイサイズ、画素数(一辺)、カメラ画角については、それぞれ水平、鉛直方向のパラメータが存在する。従って、水平方向のディスプレイサイズをh1、鉛直方向のディスプレイサイズをh2、水平方向の画素数をN1、鉛直方向の画素数をN2、水平方向のカメラ画角をα1、鉛直方向のカメラ画角をα2、などと表すことができる。しかしながら、以下の説明では、鉛直方向の計算が水平方向の計算にほぼそのまま当てはまり、その逆も真であるからこれらを区別しておく必要もないため、パラメータh、N、αという表現を用いた場合には水平、鉛直の双方を纏めて説明する表現であるものとする。
As shown in FIG. 9, the trimming
以下、図10を参照しながらトリミング位置計算部150の動作について説明する。まず、ファインダ角計算手段152は、パラメータ記憶手段151に記憶されているディスプレイサイズhと、前述の第1距離計算部140が計算した第1距離dを用いてファインダ角θを計算する(SS152)。ファインダ角θとは図11に示すようにユーザ眼球位置(便宜上、一点とする)と、ディスプレイ165一端の点(便宜上、ディスプレイ一端辺の中点としておく)とを結ぶ直線と、ユーザ眼球位置と、ディスプレイ165他端の点(便宜上、ディスプレイ他端辺の中点としておく)とを結ぶ直線とがなす角度(鋭角)のことである。ファインダ角θは以下の式により概算することができる。
Hereinafter, the operation of the
前述の画像縮小部145により縮小された画像からファインダ角θに該当する画像領域の画素を切り抜いて、切り抜いた画像をディスプレイ165画面いっぱいに表示することにより、ユーザがディスプレイ165を覗き窓として覗いた場合に見える光景と近似した画像を表示することが可能となる。
A pixel in the image area corresponding to the finder angle θ is cut out from the image reduced by the
次に、始点終点画素計算手段154は、前述のファインダ角θ、カメラの水平、または鉛直方向の画素数N、カメラ画角αから始点、終点にあたる画素を計算する(SS154)。カメラ105の撮像画像の各画素と画角の関係は図12に示すとおりである。n番目の画素が占有する画角をαdiv(n)とすると、もっとも単純には、
Next, the start point / end point pixel calculation means 154 calculates the pixels corresponding to the start point and the end point from the finder angle θ, the number N of pixels in the horizontal or vertical direction of the camera, and the camera angle of view α (SS154). The relationship between each pixel of the captured image of the
と概算することができる。また、図12に示すように、N個の画素を配置した領域の仮想的な長さをLとし、底辺の長さをL、頂角の大きさを画角αとした二等辺三角形を考える。この場合、二等辺三角形の頂点とn番目の画素との距離をxnとし、高さL/N、底辺xnである直角三角形を考える。αdiv(n)をこの直角三角形の底辺と斜辺のなす角(鋭角)であるものとして近似すれば、 Can be estimated. Also, as shown in FIG. 12, an isosceles triangle is considered in which an imaginary length of an area where N pixels are arranged is L, a base length is L, and an apex angle is an angle of view α. . In this case, a right triangle having a height L / N and a base xn is considered, where the distance between the vertex of the isosceles triangle and the nth pixel is xn . If α div (n) is approximated as an angle (acute angle) formed by the base and hypotenuse of this right triangle,
となり、 And
と概算することができる。式(4)において仮想的な長さLはキャンセルされる。式(2)や式(4)のように画角と画素は対応付けることが可能である。 Can be estimated. In equation (4), the virtual length L is canceled. The angle of view and the pixel can be associated with each other as in Expression (2) and Expression (4).
一方、画像縮小部145により生成された縮小画像は、座標CEYEにおいて撮像した画像を再現したものであるから、この縮小画像をファインダ角θに対応付けられる画素の始点と終点とで切り抜くことで、ユーザが座標CEYEにおいてディスプレイ165を覗き窓として覗いた場合に見える光景と近似した画像を生成することができる。そこで、図13のようにファインダ角θに対応付けられる画素の始点と終点とを求める。始点の画素をp番目の画素、終点の画素をq番目の画素とする(ただし、0≦p<q≦N)。ここで、式(1)によりファインダ角θは求められている。pとqの充たすべき条件は次式のようになる。
On the other hand, the reduced image generated by the
従って、始点終点画素計算手段154は、パラメータ記憶手段151に記憶されたカメラの水平、または鉛直方向の画素数N、カメラ画角α、計算されたファインダ角θを用いて、式(3)〜(6)を用いて(簡易的な方法では、式(2)、(5)、(6)でもよい)、始点、終点にあたる画素を計算する(SS154)。 Therefore, the start point / end point pixel calculation means 154 uses the number of horizontal or vertical pixels N of the camera, the camera angle of view α, and the calculated finder angle θ stored in the parameter storage means 151, to calculate the expressions (3) to (3). Using (6) (in the simple method, equations (2), (5), and (6) may be used), the pixels corresponding to the start point and the end point are calculated (SS154).
トリミング部155は、縮小画像をp番目の始点画素、およびq番目の終点画素の位置に基づいて切り抜く(S155)。より詳細には、トリミング部155は、水平方向の始点画素がp1番目、水平方向の終点画素がq1番目、鉛直方向の始点画素がp2番目、鉛直方向の終点画素がq2番目であった場合に、水平鉛直方向の座標(p1,p2)、(q1,p2)、(q1,q2)、(p1,q2)の4点を頂点とする長方形に縮小画像を切り抜く。ディスプレイ制御部160は、切り抜かれた画像をディスプレイ165に表示する(S160)。
The
このように、本実施例の撮像画像表示装置100によれば、ディスプレイが覗き窓であるかのように、撮像画像を加工してディスプレイに表示することができるため、ユーザはディスプレイを覗き窓として使用して写真や動画の撮影を行うことができる。このため、ユーザ視点からみた被写体の占有立体角を正しく再現した写真や動画を生成することができ、ユーザからみた被写体のサイズ感を再現した写真や動画の生成に役立つ。さらに、本実施例の撮像画像表示装置100によれば、ディスプレイを風景を切り取る枠として使用することができるため、ユーザの利便性が向上する。さらに、本実施例の撮像画像表示装置100のカメラを常時起動状態にしておけば、装置本体をシースルーな装置として演出することができるため、装置の外観のデザインに利用することができ、ユーザを飽きさせない装置外観を提供することが可能となる。
Thus, according to the captured
以下、図14、図15を参照して本発明の実施例2の撮像画像表示装置について説明する。図14は本実施例の撮像画像表示装置200の構成を示すブロック図である。図15は本実施例の撮像画像表示装置200の動作を示すフローチャートである。図14に示すように、本実施例の撮像画像表示装置200は、カメラ105と、カメラ制御部110と、画像記憶部115と、第1距離センサ130と、第1距離センサ制御部135と、第1距離計算部140と、第2距離センサ230と、第2距離センサ制御部235と、第2距離計算部240と、トリミング位置計算部250と、トリミング部155と、ディスプレイ制御部160と、ディスプレイ165とを備える。ディスプレイ165は、カメラ105の撮像方向と反対方向に画像を提示できるように、撮像画像表示装置200本体に設けられている。
Hereinafter, a captured image display apparatus according to
本実施例の撮像画像表示装置200は、実施例1の撮像画像表示装置100が備える校正部120、校正値記憶部125、画像縮小部145を備えない。本実施例の撮像画像表示装置200は、実施例1の撮像画像表示装置100が備えない第2距離センサ230、第2距離センサ制御部235、第2距離計算部240を備える。実施例1の撮像画像表示装置100が備えるトリミング位置計算部150は、本実施例ではトリミング位置計算部250に変更されている。実施例1の撮像画像表示装置100と同一の番号を付した本実施例の撮像画像表示装置200の各構成部については、実施例1における同一番号の各構成部と同じであるから説明を割愛する。
The captured image display apparatus 200 according to the present embodiment does not include the
以下、図15を参照しながら各構成部の動作の概略について説明する。実施例1と同様に、ステップS105、S135、S140が実行されて、第1距離が計算される。第2距離センサ230は、カメラ105の撮像方向に存在する物体との距離を測定するためのデータを出力する。第2距離センサ230について詳細は後述する。第2距離センサ制御部235は、カメラ105の起動を検知して、第2距離センサ230を起動する(S235)。第2距離計算部240は、第2距離センサ230の出力に基づいて、撮像方向に存在する物体との距離(以下、第2距離という)を計算する(S240)。ステップS240について詳細は後述する。トリミング位置計算部250は、ディスプレイ165の水平、鉛直方向それぞれのサイズと、第1、第2距離と、カメラ105の水平、鉛直方向それぞれの画素数と、カメラ105の水平、鉛直方向それぞれの画角とに基づいて、水平、鉛直方向それぞれの始点画素と、終点画素の位置を計算する(S250)。ステップS250について詳細は後述する。実施例1と同様に、ステップS155、S160が実行されて、切り抜かれた画像がディスプレイに表示される。
The outline of the operation of each component will be described below with reference to FIG. Similar to the first embodiment, steps S105, S135, and S140 are executed to calculate the first distance. The
<第2距離センサ230について>
以下、第2距離センサ230について説明する。前述したように、第2距離センサ230は、カメラ105の撮像方向に存在する物体との距離を測定するためのデータを出力する。第2距離センサ230は、第1距離センサ130と同様に、パッシブ方式、ソナー方式、赤外線方式、コントラスト検知方式、位相差検知方式の何れか、または他の方式によってもよい。なお、第2距離センサ230によるデータ出力は、第2距離センサ制御部235により、例えば0.1〜1秒毎に実行され、カメラの動きに十分に追従できればさらによい。
<About the
Hereinafter, the
<第2距離計算部240の動作(ステップS240)について>
以下、第2距離計算部240について説明する。前述したように、第2距離計算部240は、第2距離センサ230の出力に基づいて、撮像方向に存在する物体との距離(第2距離)を計算する(S240)。第2距離計算部240の測距用のプログラムは、第2距離センサ230の方式に対応して組み込まれており、第2距離センサ230の出力データに基づいて、第2距離を算出することができる。ここで、撮像方向に存在する物体として想定しているのは被写体である。従って、第2距離計算部240は、撮像画像表示装置200と被写体の間の距離を第2距離として計算することを想定している。
<Operation of Second Distance Calculation Unit 240 (Step S240)>
Hereinafter, the second
<トリミング位置計算部250の動作(ステップS250)について>
以下、トリミング位置計算部250の動作(ステップS250)について図16から図20を参照して詳細に説明する。図16は、本実施例のトリミング位置計算部250の構成を示すブロック図である。図17は、本実施例のトリミング位置計算部250の動作を示すフローチャートである。図18は、カメラ105の画角α、ファインダ角θ、第1距離d、第2距離sを説明する図である。図19は、トリミング角βについて説明する図である。図20は本実施例のトリミング位置計算部250の始点終点画素計算手段254が計算する始点、終点画素について説明する図である。
<Operation of Trimming Position Calculation Unit 250 (Step S250)>
Hereinafter, the operation (step S250) of the trimming
図16に示す通り、トリミング位置計算部250は、パラメータ記憶手段151と、ファインダ角計算手段152と、トリミング角計算手段253と、始点終点画素計算手段254とを備える。実施例1と同様、パラメータ記憶手段151には、水平、鉛直方向それぞれのディスプレイサイズ、水平、鉛直方向それぞれの画素数、水平、鉛直方向それぞれのカメラ画角が記憶されている。実施例1同様、パラメータh、N、αという表現を用いた場合には水平、鉛直の双方を纏めて説明する表現であるものとする。
As shown in FIG. 16, the trimming
以下、図17を参照しながらトリミング位置計算部250の動作について説明する。まず、ファインダ角計算手段152は、実施例1と同様に、パラメータ記憶手段151に予め記憶されているhと、dを用いてファインダ角θを計算する(SS152)。ここで、図18に示すように、座標COBJと、座標CCAMの距離をsと表す。sは前述した第2距離と等しいものと考えることができる。次に、トリミング角計算手段253は、第1距離d、第2距離s、ファインダ角θからトリミング角βを計算する(SS253)。トリミング角βとは図19に表す角度のことである。トリミング角βとファインダ角θの関係は、第1距離d、第2距離sを用いて以下の式で表すことができる。
Hereinafter, the operation of the
従って、トリミング角計算手段253は、第1距離d、第2距離s、ファインダ角θを式(8)に代入してトリミング角βを計算する(SS253)。
Accordingly, the trimming
次に、始点終点画素計算手段254は、前述のトリミング角β、カメラの水平、または鉛直方向の画素数N、カメラ画角αから始点、終点にあたる画素を計算する(SS254)。具体的には、図20のようにトリミング角βに対応付けられる画素の始点と終点とを求める。始点の画素をp番目の画素、終点の画素をq番目の画素とする(ただし、0≦p<q≦N)。ここで、式(8)によりトリミング角βは求められている。pとqの充たすべき条件は次式のようになる。 Next, the start point / end point pixel calculation means 254 calculates the pixels corresponding to the start point and the end point from the trimming angle β, the number N of pixels in the horizontal or vertical direction of the camera, and the camera angle of view α (SS254). Specifically, as shown in FIG. 20, the start point and end point of the pixel associated with the trimming angle β are obtained. The starting point pixel is the pth pixel and the ending point pixel is the qth pixel (where 0 ≦ p <q ≦ N). Here, the trimming angle β is obtained by the equation (8). The condition to be satisfied by p and q is as follows.
従って、始点終点画素計算手段254は、パラメータ記憶手段151に記憶されたカメラの水平、または鉛直方向の画素数N、カメラ画角α、計算されたトリミング角βを用いて、式(3)、(4)、(6)、(9)を用いて(簡易的な方法では、式(2)、(6)、(9)でもよい)、始点、終点にあたる画素を計算する(SS254)。 Accordingly, the start point / end point pixel calculation means 254 uses the number of horizontal or vertical pixels N of the camera, the camera angle of view α, and the calculated trimming angle β stored in the parameter storage means 151 to obtain the expression (3), Using (4), (6), and (9) (in a simple method, the equations (2), (6), and (9) may be used), and the pixels corresponding to the start point and the end point are calculated (SS254).
トリミング部155は、縮小画像をp番目の始点画素、およびq番目の終点画素の位置に基づいて切り抜く(S155)。より詳細には、トリミング部155は、水平方向の始点画素がp1番目、水平方向の終点画素がq1番目、鉛直方向の始点画素がp2番目、鉛直方向の終点画素がq2番目であった場合に、水平鉛直方向の座標(p1,p2)、(q1,p2)、(q1,q2)、(p1,q2)の4点を頂点とする長方形に縮小画像を切り抜く。ディスプレイ制御部160は、切り抜かれた画像をディスプレイ165に表示する(S160)。
The
このように、本実施例の撮像画像表示装置200によれば、実施例1の撮像画像表示装置100と同様の効果を得ることができるうえ、事前の校正作業を省略することができるため、ユーザや機器メーカーの手間が削減される。
As described above, according to the captured image display device 200 of the present embodiment, the same effects as those of the captured
以下、図21、図22を参照して本発明の実施例3の撮像画像表示装置について説明する。図21は本実施例の撮像画像表示装置300の構成を示すブロック図である。図22は本実施例の撮像画像表示装置300の動作を示すフローチャートである。図21に示すように、本実施例の撮像画像表示装置300は、カメラ105と、カメラ制御部110と、画像記憶部115と、第1距離センサ130と、第1距離センサ制御部135と、第1距離計算部140と、第2距離センサ230と、第2距離センサ制御部235と、第2距離計算部240と、インカメラ370と、インカメラ制御部375と、眼球検出部380と、覗きこみ角計算部385と、トリミング位置計算部350と、トリミング部155と、ディスプレイ制御部160と、ディスプレイ165とを備える。ディスプレイ165は、カメラ105の撮像方向と反対方向に画像を提示できるように、撮像画像表示装置300本体に設けられている。
Hereinafter, a captured image display apparatus according to
本実施例の撮像画像表示装置300は、実施例2の撮像画像表示装置200が備えないインカメラ370、インカメラ制御部375、眼球検出部380、覗きこみ角計算部385を備える。実施例2の撮像画像表示装置200が備えるトリミング位置計算部250は、本実施例ではトリミング位置計算部350に変更されている。実施例2の撮像画像表示装置200と同一の番号を付した本実施例の撮像画像表示装置300の各構成部については、実施例2における同一番号の各構成部と同じであるから説明を割愛する。
The captured image display apparatus 300 according to the present embodiment includes an in
以下、図22を参照しながら各構成部の動作の概略について説明する。実施例2と同様に、ステップS105、S135、S140、S235、S240が実行されて、第1距離、第2距離が計算される。インカメラ370は、カメラ105の撮像方向と反対の方向を撮像方向とする。インカメラ制御部375は、カメラ105の起動を検知して、インカメラ370を起動する(S375)。眼球検出部380は、インカメラ370の撮像画像から眼球が撮像された画素を検出する(S380)。ステップS380について詳細は後述する。覗きこみ角計算部385は、眼球が撮像された画素が検出された場合に、検出された画素の位置に基づいて、眼球の視線方向と、カメラの撮像方向とがなす角度(鋭角、以下、覗きこみ角という)を計算する(S385)。ステップS385について詳細は後述する。トリミング位置計算部350は、ディスプレイ165の水平、鉛直方向それぞれのサイズと、第1、第2距離と、カメラの水平、鉛直方向それぞれの画素数と、カメラの水平、鉛直方向それぞれの画角に加え、覗きこみ角に基づいて水平、鉛直方向それぞれの始点画素と、終点画素の位置を計算する(S350)。ステップS350について詳細は後述する。実施例1、2と同様に、ステップS155、S160が実行されて、切り抜かれた画像がディスプレイに表示される。
The outline of the operation of each component will be described below with reference to FIG. Similar to the second embodiment, steps S105, S135, S140, S235, and S240 are executed to calculate the first distance and the second distance. The in-
<眼球検出部380の動作(ステップS380)について>
以下、眼球検出部380の動作(ステップS380)について説明する。前述のとおり、眼球検出部380は、インカメラ370の撮像画像から眼球が撮像された画素を検出する。インカメラ370は、ディスプレイ165側に設けられているため、第1距離計算部140の説明で述べたのと同じ論理で、インカメラ370によりユーザ顔面が撮影される可能性は高い。インカメラの撮像画像から眼球を検出する方法は従来技術をそのまま利用すれば足りる。例えば、顔検出用のフィルタで撮像画像内を走査して顔候補を抽出し、抽出された顔候補を統計的判別法により、顔・非顔の何れかに判別したうえで、顔と判別された領域内から眼球が撮像された画素の概略位置を特定すればよい。なお、以下の説明では、簡単のため眼球位置を1点に集約して説明するため、眼球が二つ検出された場合には、眼球が撮像された画素の座標同士を結ぶ線分の中点を眼球位置とする。
<Operation of Eyeball Detection Unit 380 (Step S380)>
Hereinafter, the operation of the eyeball detection unit 380 (step S380) will be described. As described above, the
<覗きこみ角計算部385の動作(ステップS385)について>
以下、覗きこみ角計算部385の動作(ステップS385)について説明する。前述のとおり、覗きこみ角計算部385は、眼球が撮像された画素が検出された場合に、検出された画素の位置に基づいて、眼球の視線方向と、カメラ105の撮像方向とがなす角度(覗きこみ角)を計算する(S385)。ステップS385では、図12で説明した画素と画角の関係をそのまま応用できる。従って、眼球位置として特定された画素が水平、鉛直方向における何番目の画素であるかが分かれば、眼球位置とインカメラ370とを結ぶ直線が、カメラ105の撮像方向に対してどんな角度を持つかが分かる。このように計算される眼球の視線方向と、カメラ105の撮像方向とがなす角度(鋭角)を覗きこみ角φとして、以下の計算に用いる。
<About Operation of Peep Angle Calculation Unit 385 (Step S385)>
Hereinafter, the operation (step S385) of the peep
<トリミング位置計算部350の動作(ステップS350)について>
以下、トリミング位置計算部350の動作(ステップS350)について図23から図28を参照して詳細に説明する。図23は、本実施例のトリミング位置計算部350の構成を示すブロック図である。図24は、本実施例のトリミング位置計算部350の動作を示すフローチャートである。図25は、覗きこみ角φ、第1トリミング角β1、第2トリミング角β2(パターン1)を説明する図である。図26は本実施例のトリミング位置計算部350の始点終点画素計算手段354が計算する始点、終点画素(パターン1)について説明する図である。図27は、覗きこみ角φ、第1トリミング角β1、第2トリミング角β2(パターン2)を説明する図である。図28は本実施例のトリミング位置計算部350の始点終点画素計算手段354が計算する始点、終点画素(パターン2)について説明する図である。
<Operation of Trimming Position Calculation Unit 350 (Step S350)>
Hereinafter, the operation (step S350) of the trimming
図23に示す通り、トリミング位置計算部350は、パラメータ記憶手段151と、第1トリミング角計算手段352と、第2トリミング角計算手段353と、始点終点画素計算手段354とを備える。実施例1、2と同様、パラメータ記憶手段151には、水平、鉛直方向それぞれのディスプレイサイズ、水平、鉛直方向それぞれの画素数、水平、鉛直方向それぞれのカメラ画角が記憶されている。実施例1、2同様、パラメータh、N、αという表現を用いた場合には水平、鉛直の双方を纏めて説明する表現であるものとする。
As shown in FIG. 23, the trimming
以下、図24を参照しながらトリミング位置計算部350の動作について説明する。まず、第1トリミング角計算手段352は、ディスプレイサイズh、第1距離d、第2距離s、覗きこみ角φから第1トリミング角β1を計算する(SS352)。同様に、第2トリミング角計算手段353は、ディスプレイサイズh、第1距離d、第2距離s、覗きこみ角φから第2トリミング角β2を計算する(SS353)。第1トリミング角β1、第2トリミング角β2とは図25に表す角度のことである。β1、β2は、図25に示す第1トリミング距離y1、第2トリミング距離y2、第1距離d、第2距離sを用いて以下の式で表すことができる。
Hereinafter, the operation of the
従って、第1トリミング角計算手段352は、ディスプレイサイズh、第1距離d、第2距離s、覗きこみ角φを式(10)、(11)、(12)に代入して第1トリミング角β1を計算する(SS352)。同様に、第2トリミング角計算手段353は、ディスプレイサイズh、第1距離d、第2距離s、覗きこみ角φを式(10)、(11)、(13)に代入して第2トリミング角β2を計算する(SS353)。
Accordingly, the first trimming angle calculation means 352 substitutes the display size h, the first distance d, the second distance s, and the peeping angle φ into the expressions (10), (11), and (12) to thereby calculate the first trimming angle. β 1 is calculated (SS352). Similarly, the second trimming
次に、始点終点画素計算手段354は、前述の第1、第2トリミング角β1、β2、カメラの水平、または鉛直方向の画素数N、カメラ画角αから始点、終点にあたる画素を計算する(SS354)。具体的には、図26のように第1、第2トリミング角β1、β2に対応付けられる画素の始点と終点とを求める。始点の画素をp番目の画素、終点の画素をq番目の画素とする(ただし、0≦p<q≦N)。ここで、式(12)、(13)により第1、第2トリミング角β1、β2は求められている。pとqの充たすべき条件は次式のようになる。 Next, the start point / end point pixel calculation means 354 calculates the pixels corresponding to the start point and the end point from the first and second trimming angles β 1 and β 2 , the number N of pixels in the horizontal or vertical direction of the camera, and the camera angle of view α. (SS354). Specifically, as shown in FIG. 26, the start point and end point of the pixels associated with the first and second trimming angles β 1 and β 2 are obtained. The starting point pixel is the pth pixel and the ending point pixel is the qth pixel (where 0 ≦ p <q ≦ N). Here, the first and second trimming angles β 1 and β 2 are obtained by the equations (12) and (13). The condition to be satisfied by p and q is as follows.
従って、始点終点画素計算手段354は、パラメータ記憶手段151に記憶されたカメラの水平、または鉛直方向の画素数N、カメラ画角α、計算された第1、第2トリミング角β1、β2を用いて、式(3)、(4)、(14)、(15)を用いて(簡易的な方法では、式(2)、(14)、(15)でもよい)、始点、終点にあたる画素を計算する(SS354)。 Accordingly, the start point / end pixel calculation means 354 stores the number N of horizontal or vertical pixels of the camera, the camera angle of view α, and the calculated first and second trimming angles β 1 and β 2 stored in the parameter storage means 151. Using the formulas (3), (4), (14), and (15) (in the simple method, the formulas (2), (14), and (15) may be used), and corresponding to the start point and the end point Pixels are calculated (SS354).
図25、図26では始点画素、終点画素の何れもが端に寄っている場合(つまり切り抜かれる画像領域が元の画像の中心画素を含まない場合)について説明した。一方、始点画素、終点画素により切り抜かれる画像が元の画像の中心画素を含む場合については、図27、図28のようになる。この場合でも、第1、第2トリミング角β1、β2の計算は式(12)、(13)により行うことができる。また、始点、終点画素に該当するp、qについても、前述の式(14)、(15)により計算できる。 In FIGS. 25 and 26, the case where both the start point pixel and the end point pixel are close to the end (that is, the image region to be cut out does not include the center pixel of the original image) has been described. On the other hand, the case where the image cut out by the start point pixel and the end point pixel includes the center pixel of the original image is as shown in FIGS. Even in this case, the calculation of the first and second trimming angles β 1 and β 2 can be performed by the equations (12) and (13). Further, p and q corresponding to the start point and end point pixels can also be calculated by the above formulas (14) and (15).
トリミング部155は、縮小画像をp番目の始点画素、およびq番目の終点画素の位置に基づいて切り抜く(S155)。より詳細には、トリミング部155は、水平方向の始点画素がp1番目、水平方向の終点画素がq1番目、鉛直方向の始点画素がp2番目、鉛直方向の終点画素がq2番目であった場合に、水平鉛直方向の座標(p1,p2)、(q1,p2)、(q1,q2)、(p1,q2)の4点を頂点とする長方形に縮小画像を切り抜く。ディスプレイ制御部160は、切り抜かれた画像をディスプレイ165に表示する(S160)。
The
このように、本実施例の撮像画像表示装置300によれば、実施例2の撮像画像表示装置200の効果に加え、ユーザの視線がディスプレイ165に対して斜めに入射している場合でも、ディスプレイ165が覗き窓であった場合にユーザが目にする光景を正しくシュミレーションすることができる。
Thus, according to the captured image display apparatus 300 of the present embodiment, in addition to the effect of the captured image display apparatus 200 of the second embodiment, even when the user's line of sight is incident on the
また、上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能であることはいうまでもない。 In addition, the various processes described above are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary. Needless to say, other modifications are possible without departing from the spirit of the present invention.
また、上述の構成をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。 Further, when the above-described configuration is realized by a computer, processing contents of functions that each device should have are described by a program. The processing functions are realized on the computer by executing the program on the computer.
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。 The program describing the processing contents can be recorded on a computer-readable recording medium. As the computer-readable recording medium, for example, any recording medium such as a magnetic recording device, an optical disk, a magneto-optical recording medium, and a semiconductor memory may be used.
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。 The program is distributed by selling, transferring, or lending a portable recording medium such as a DVD or CD-ROM in which the program is recorded. Furthermore, the program may be distributed by storing the program in a storage device of the server computer and transferring the program from the server computer to another computer via a network.
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録媒体に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。 A computer that executes such a program first stores, for example, a program recorded on a portable recording medium or a program transferred from a server computer in its own storage device. When executing the process, the computer reads a program stored in its own recording medium and executes a process according to the read program. As another execution form of the program, the computer may directly read the program from a portable recording medium and execute processing according to the program, and the program is transferred from the server computer to the computer. Each time, the processing according to the received program may be executed sequentially. Also, the program is not transferred from the server computer to the computer, and the above-described processing is executed by a so-called ASP (Application Service Provider) type service that realizes the processing function only by the execution instruction and result acquisition. It is good. Note that the program in this embodiment includes information that is used for processing by an electronic computer and that conforms to the program (data that is not a direct command to the computer but has a property that defines the processing of the computer).
また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。 In this embodiment, the present apparatus is configured by executing a predetermined program on a computer. However, at least a part of these processing contents may be realized by hardware.
Claims (7)
前記カメラの撮像方向と反対方向に存在する物体との距離を測定するためのデータを出力する第1距離センサと、
前記第1距離センサの出力に基づいて、前記撮像方向と反対方向に存在する物体との距離(以下、第1距離という)を計算する第1距離計算部と、
前記カメラと被写体との撮像方向距離の変化量と、前記被写体の撮像画像中における占有画素の変化量との関係に基づいて定められる校正値を予め記憶する校正値記憶部と、
前記第1距離と前記校正値とに基づいて、前記カメラの撮像画像の水平、鉛直方向それぞれの画素数を少なくして縮小し、縮小画像を生成する画像縮小部と、
前記ディスプレイの水平、鉛直方向それぞれのサイズと、前記第1距離と、前記カメラの水平、鉛直方向それぞれの画素数と、前記カメラの水平、鉛直方向それぞれの画角とに基づいて、水平、鉛直方向それぞれの始点画素と、終点画素の位置を計算するトリミング位置計算部と、
前記縮小画像を前記始点画素、および前記終点画素の位置に基づいて切り抜くトリミング部と、
前記切り抜かれた画像を前記ディスプレイに表示するディスプレイ制御部と、
を備えることを特徴とする撮像画像表示装置。 A captured image display device comprising a camera and a display that presents an image in a direction opposite to the imaging direction of the camera,
A first distance sensor for outputting data for measuring a distance to an object existing in a direction opposite to the imaging direction of the camera;
A first distance calculation unit that calculates a distance (hereinafter referred to as a first distance) from an object that exists in a direction opposite to the imaging direction based on an output of the first distance sensor;
A calibration value storage unit that preliminarily stores a calibration value determined based on the relationship between the amount of change in the imaging direction distance between the camera and the subject and the amount of change in the occupied pixels in the captured image of the subject;
Based on the first distance and the calibration value, an image reduction unit that reduces the number of pixels in the horizontal and vertical directions of the captured image of the camera and generates a reduced image;
Based on the size of the display in the horizontal and vertical directions, the first distance, the number of pixels in the horizontal and vertical directions of the camera, and the angles of view of the horizontal and vertical directions of the camera, A trimming position calculator for calculating the start point pixel in each direction and the position of the end point pixel;
A trimming unit that cuts out the reduced image based on the position of the start point pixel and the end point pixel;
A display control unit for displaying the clipped image on the display;
A captured image display device comprising:
前記カメラの撮像方向と反対方向に存在する物体との距離を測定するためのデータを出力する第1距離センサと、
前記カメラの撮像方向に存在する物体との距離を測定するためのデータを出力する第2距離センサと、
前記第1距離センサの出力に基づいて、前記撮像方向と反対方向に存在する物体との距離(以下、第1距離という)を計算する第1距離計算部と、
前記第2距離センサの出力に基づいて、前記撮像方向に存在する物体との距離(以下、第2距離という)を計算する第2距離計算部と、
前記ディスプレイの水平、鉛直方向それぞれのサイズと、前記第1、第2距離と、前記カメラの水平、鉛直方向それぞれの画素数と、前記カメラの水平、鉛直方向それぞれの画角とに基づいて、水平、鉛直方向それぞれの始点画素と、終点画素の位置を計算するトリミング位置計算部と、
前記カメラの撮像画像を前記始点画素、および前記終点画素の位置に基づいて切り抜くトリミング部と、
前記切り抜かれた画像を前記ディスプレイに表示するディスプレイ制御部と、
を備えることを特徴とする撮像画像表示装置。 A captured image display device comprising a camera and a display that presents an image in a direction opposite to the imaging direction of the camera,
A first distance sensor for outputting data for measuring a distance to an object existing in a direction opposite to the imaging direction of the camera;
A second distance sensor for outputting data for measuring a distance to an object existing in the imaging direction of the camera;
A first distance calculation unit that calculates a distance (hereinafter referred to as a first distance) from an object that exists in a direction opposite to the imaging direction based on an output of the first distance sensor;
A second distance calculation unit that calculates a distance (hereinafter referred to as a second distance) to an object existing in the imaging direction based on an output of the second distance sensor;
Based on the horizontal and vertical sizes of the display, the first and second distances, the number of pixels in the horizontal and vertical directions of the camera, and the angle of view of the horizontal and vertical directions of the camera, A trimming position calculation unit that calculates the position of the start point pixel and the end point pixel in the horizontal and vertical directions,
A trimming unit that cuts out a captured image of the camera based on the position of the start point pixel and the end point pixel;
A display control unit for displaying the clipped image on the display;
A captured image display device comprising:
前記カメラの撮像方向と反対の方向を撮像方向とするインカメラと、
前記インカメラの撮像画像から眼球が撮像された画素を検出する眼球検出部と、
前記眼球が撮像された画素が検出された場合に、前記検出された画素の位置に基づいて、前記眼球の視線方向と、前記カメラの撮像方向とがなす角度(以下、覗きこみ角という)を計算する覗きこみ角計算部と、をさらに備え、
前記トリミング位置計算部は、前記ディスプレイの水平、鉛直方向それぞれのサイズと、前記第1、第2距離と、前記カメラの水平、鉛直方向それぞれの画素数と、前記カメラの水平、鉛直方向それぞれの画角に加え、前記覗きこみ角に基づいて水平、鉛直方向それぞれの始点画素と、終点画素の位置を計算すること
を特徴とする撮像画像表示装置。 The captured image display device according to claim 2,
An in-camera whose imaging direction is a direction opposite to the imaging direction of the camera;
An eyeball detection unit that detects pixels in which an eyeball is imaged from the captured image of the in-camera;
When a pixel in which the eyeball is imaged is detected, an angle (hereinafter referred to as a peep angle) formed by the eye direction of the eyeball and the imaging direction of the camera is determined based on the position of the detected pixel. A peep angle calculation unit for calculating,
The trimming position calculation unit includes the horizontal and vertical sizes of the display, the first and second distances, the number of pixels in the horizontal and vertical directions of the camera, and the horizontal and vertical directions of the camera. A picked-up image display device that calculates the positions of the start pixel and the end pixel in the horizontal and vertical directions based on the peep angle in addition to the angle of view.
前記第1距離センサの出力に基づいて、前記撮像方向と反対方向に存在する物体との距離(以下、第1距離という)を計算する第1距離計算ステップと、
前記カメラと被写体との撮像方向距離の変化量と、前記被写体の撮像画像中における占有画素の変化量との関係に基づいて定められる校正値と、前記第1距離とに基づいて、前記カメラの撮像画像の水平、鉛直方向それぞれの画素数を少なくして縮小し、縮小画像を生成する画像縮小ステップと、
前記ディスプレイの水平、鉛直方向それぞれのサイズと、前記第1距離と、前記カメラの水平、鉛直方向それぞれの画素数と、前記カメラの水平、鉛直方向それぞれの画角とに基づいて、水平、鉛直方向それぞれの始点画素と、終点画素の位置を計算するトリミング位置計算ステップと、
前記縮小画像を前記始点画素、および前記終点画素の位置に基づいて切り抜くトリミングステップと、
前記切り抜かれた画像を前記ディスプレイに表示するディスプレイ制御ステップと、
を有することを特徴とする撮像画像表示方法。 A camera; a display that presents an image in a direction opposite to the imaging direction of the camera; and a first distance sensor that outputs data for measuring a distance between an object existing in a direction opposite to the imaging direction of the camera. A captured image display method executed by a captured image display device,
A first distance calculating step of calculating a distance (hereinafter referred to as a first distance) with an object existing in a direction opposite to the imaging direction based on an output of the first distance sensor;
Based on the calibration value determined based on the relationship between the amount of change in the imaging direction distance between the camera and the subject and the amount of change in the occupied pixels in the captured image of the subject, and the first distance, An image reduction step for reducing the number of pixels in the horizontal and vertical directions of the captured image to reduce the image and generating a reduced image;
Based on the size of the display in the horizontal and vertical directions, the first distance, the number of pixels in the horizontal and vertical directions of the camera, and the angles of view of the horizontal and vertical directions of the camera, Trimming position calculation step for calculating the start point pixel in each direction and the position of the end point pixel;
A trimming step of cropping the reduced image based on the position of the start point pixel and the end point pixel;
A display control step for displaying the clipped image on the display;
A captured image display method characterized by comprising:
前記第1距離センサの出力に基づいて、前記撮像方向と反対方向に存在する物体との距離(以下、第1距離という)を計算する第1距離計算ステップと、
前記第2距離センサの出力に基づいて、前記撮像方向に存在する物体との距離(以下、第2距離という)を計算する第2距離計算ステップと、
前記ディスプレイの水平、鉛直方向それぞれのサイズと、前記第1、第2距離と、前記カメラの水平、鉛直方向それぞれの画素数と、前記カメラの水平、鉛直方向それぞれの画角とに基づいて、水平、鉛直方向それぞれの始点画素と、終点画素の位置を計算するトリミング位置計算ステップと、
前記カメラの撮像画像を前記始点画素、および前記終点画素の位置に基づいて切り抜くトリミングステップと、
前記切り抜かれた画像を前記ディスプレイに表示するディスプレイ制御ステップと、
を有することを特徴とする撮像画像表示方法。 A first distance sensor that outputs data for measuring a distance between a camera, a display that presents an image in a direction opposite to the imaging direction of the camera, and an object that exists in a direction opposite to the imaging direction of the camera; A captured image display method executed by a captured image display device including a second distance sensor that outputs data for measuring a distance to an object existing in an imaging direction of a camera,
A first distance calculating step of calculating a distance (hereinafter referred to as a first distance) with an object existing in a direction opposite to the imaging direction based on an output of the first distance sensor;
A second distance calculating step of calculating a distance (hereinafter referred to as a second distance) with an object existing in the imaging direction based on an output of the second distance sensor;
Based on the horizontal and vertical sizes of the display, the first and second distances, the number of pixels in the horizontal and vertical directions of the camera, and the angle of view of the horizontal and vertical directions of the camera, Trimming position calculation step for calculating the position of the start point pixel and the end point pixel in the horizontal and vertical directions,
A trimming step of cutting out the captured image of the camera based on the position of the start point pixel and the end point pixel;
A display control step for displaying the clipped image on the display;
A captured image display method characterized by comprising:
前記撮像画像表示装置がインカメラをさらに備え、
前記インカメラの撮像画像から眼球が撮像された画素を検出する眼球検出ステップと、
前記眼球が撮像された画素が検出された場合に、前記検出された画素の位置に基づいて、前記眼球の視線方向と、前記カメラの撮像方向とがなす角度(以下、覗きこみ角という)を計算する覗きこみ角計算ステップと、をさらに有し、
前記トリミング位置計算部ステップは、前記ディスプレイの水平、鉛直方向それぞれのサイズと、前記第1、第2距離と、前記カメラの水平、鉛直方向それぞれの画素数と、前記カメラの水平、鉛直方向それぞれの画角に加え、前記覗きこみ角に基づいて水平、鉛直方向それぞれの始点画素と、終点画素の位置を計算すること
を特徴とする撮像画像表示方法。 The captured image display method according to claim 5,
The captured image display device further includes an in-camera,
An eyeball detecting step of detecting a pixel in which an eyeball is imaged from a captured image of the in-camera;
When a pixel in which the eyeball is imaged is detected, an angle (hereinafter referred to as a peep angle) formed by the eye direction of the eyeball and the imaging direction of the camera is determined based on the position of the detected pixel. A peeping angle calculation step for calculating,
The trimming position calculation unit steps include the horizontal and vertical sizes of the display, the first and second distances, the number of pixels in the horizontal and vertical directions of the camera, and the horizontal and vertical directions of the camera, respectively. In addition to the angle of view, a captured image display method is characterized in that the positions of the start point pixel and the end point pixel in the horizontal and vertical directions are calculated based on the look angle.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012133718A JP5805013B2 (en) | 2012-06-13 | 2012-06-13 | Captured image display device, captured image display method, and program |
PCT/JP2013/065463 WO2013187282A1 (en) | 2012-06-13 | 2013-06-04 | Image pick-up image display device, image pick-up image display method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012133718A JP5805013B2 (en) | 2012-06-13 | 2012-06-13 | Captured image display device, captured image display method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013258583A true JP2013258583A (en) | 2013-12-26 |
JP5805013B2 JP5805013B2 (en) | 2015-11-04 |
Family
ID=49758108
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012133718A Expired - Fee Related JP5805013B2 (en) | 2012-06-13 | 2012-06-13 | Captured image display device, captured image display method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP5805013B2 (en) |
WO (1) | WO2013187282A1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170031733A (en) * | 2014-09-17 | 2017-03-21 | 인텔 코포레이션 | Technologies for adjusting a perspective of a captured image for display |
WO2020110283A1 (en) * | 2018-11-30 | 2020-06-04 | マクセル株式会社 | Display device |
WO2021145244A1 (en) * | 2020-01-16 | 2021-07-22 | ソニーグループ株式会社 | Display device, image generation method, and program |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111554283A (en) * | 2020-04-23 | 2020-08-18 | 海信集团有限公司 | Intelligent device and control method thereof |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08307765A (en) * | 1995-05-11 | 1996-11-22 | Canon Inc | Image pickup device |
JP2004215062A (en) * | 2003-01-07 | 2004-07-29 | Minolta Co Ltd | Imaging device |
JP2005121838A (en) * | 2003-10-15 | 2005-05-12 | Olympus Corp | Camera |
JP2007324976A (en) * | 2006-06-01 | 2007-12-13 | Fujifilm Corp | Digital camera |
JP2010081261A (en) * | 2008-09-25 | 2010-04-08 | Casio Computer Co Ltd | Imaging apparatus, program therefor, and electronic device |
JP2010183378A (en) * | 2009-02-05 | 2010-08-19 | Sony Ericsson Mobile Communications Ab | Image photographing apparatus, method of controlling image photographing apparatus and control program |
-
2012
- 2012-06-13 JP JP2012133718A patent/JP5805013B2/en not_active Expired - Fee Related
-
2013
- 2013-06-04 WO PCT/JP2013/065463 patent/WO2013187282A1/en active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08307765A (en) * | 1995-05-11 | 1996-11-22 | Canon Inc | Image pickup device |
JP2004215062A (en) * | 2003-01-07 | 2004-07-29 | Minolta Co Ltd | Imaging device |
JP2005121838A (en) * | 2003-10-15 | 2005-05-12 | Olympus Corp | Camera |
JP2007324976A (en) * | 2006-06-01 | 2007-12-13 | Fujifilm Corp | Digital camera |
JP2010081261A (en) * | 2008-09-25 | 2010-04-08 | Casio Computer Co Ltd | Imaging apparatus, program therefor, and electronic device |
JP2010183378A (en) * | 2009-02-05 | 2010-08-19 | Sony Ericsson Mobile Communications Ab | Image photographing apparatus, method of controlling image photographing apparatus and control program |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170031733A (en) * | 2014-09-17 | 2017-03-21 | 인텔 코포레이션 | Technologies for adjusting a perspective of a captured image for display |
JP2017525052A (en) * | 2014-09-17 | 2017-08-31 | インテル コーポレイション | Technology that adjusts the field of view of captured images for display |
KR102291461B1 (en) * | 2014-09-17 | 2021-08-20 | 인텔 코포레이션 | Technologies for adjusting a perspective of a captured image for display |
WO2020110283A1 (en) * | 2018-11-30 | 2020-06-04 | マクセル株式会社 | Display device |
JPWO2020110283A1 (en) * | 2018-11-30 | 2021-10-14 | マクセル株式会社 | Display device |
JP7146944B2 (en) | 2018-11-30 | 2022-10-04 | マクセル株式会社 | Display device |
US11483483B2 (en) | 2018-11-30 | 2022-10-25 | Maxell, Ltd. | Display apparatus |
JP2022183171A (en) * | 2018-11-30 | 2022-12-08 | マクセル株式会社 | Display device |
US11831976B2 (en) | 2018-11-30 | 2023-11-28 | Maxell, Ltd. | Display apparatus |
JP7427739B2 (en) | 2018-11-30 | 2024-02-05 | マクセル株式会社 | display device |
WO2021145244A1 (en) * | 2020-01-16 | 2021-07-22 | ソニーグループ株式会社 | Display device, image generation method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP5805013B2 (en) | 2015-11-04 |
WO2013187282A1 (en) | 2013-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109565551B (en) | Synthesizing images aligned to a reference frame | |
US10915998B2 (en) | Image processing method and device | |
US7733404B2 (en) | Fast imaging system calibration | |
TWI527448B (en) | Imaging apparatus, image processing method, and recording medium for recording program thereon | |
WO2015180659A1 (en) | Image processing method and image processing device | |
EP2328125A1 (en) | Image splicing method and device | |
WO2018054267A1 (en) | Image display method and device utilized in virtual reality-based apparatus | |
US20160353021A1 (en) | Control apparatus, display control method and non-transitory computer readable medium | |
CN113643414A (en) | Three-dimensional image generation method and device, electronic equipment and storage medium | |
JP5805013B2 (en) | Captured image display device, captured image display method, and program | |
JP2014164483A (en) | Database generation device, camera attitude estimation device, database generation method, camera attitude estimation method and program | |
JP4689548B2 (en) | Image processing apparatus, image processing method, recording medium, computer program, semiconductor device | |
CN114390186A (en) | Video shooting method and electronic equipment | |
JP6483661B2 (en) | Imaging control apparatus, imaging control method, and program | |
JP2023090782A (en) | Display method and video processing method | |
US20210350625A1 (en) | Augmenting live images of a scene for occlusion | |
JP6625654B2 (en) | Projection device, projection method, and program | |
JP7533619B2 (en) | Information processing device, information processing method, and computer program | |
CN111726602B (en) | Matching method of different-field-angle camera-imaging system, system and computing system thereof | |
JP6514386B1 (en) | PROGRAM, RECORDING MEDIUM, AND IMAGE GENERATION METHOD | |
JP7561533B2 (en) | Photographing device, image processing device, control method for photographing device, control method for image processing device, and photographing system | |
CN115514895B (en) | Image anti-shake method, apparatus, electronic device, and computer-readable storage medium | |
JP2014089304A (en) | Viewpoint measuring device, and electronic equipment | |
JP2024102803A (en) | Imaging device | |
JP4767331B2 (en) | Image processing apparatus, image processing method, recording medium, computer program, semiconductor device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140909 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150210 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150330 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150825 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150901 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5805013 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |