JP4825244B2 - Stereoscopic image display device and stereoscopic image display method - Google Patents
Stereoscopic image display device and stereoscopic image display method Download PDFInfo
- Publication number
- JP4825244B2 JP4825244B2 JP2008167647A JP2008167647A JP4825244B2 JP 4825244 B2 JP4825244 B2 JP 4825244B2 JP 2008167647 A JP2008167647 A JP 2008167647A JP 2008167647 A JP2008167647 A JP 2008167647A JP 4825244 B2 JP4825244 B2 JP 4825244B2
- Authority
- JP
- Japan
- Prior art keywords
- pair
- distance
- imaging
- point
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 42
- 238000003384 imaging method Methods 0.000 claims abstract description 310
- 238000012545 processing Methods 0.000 claims abstract description 44
- 230000003287 optical effect Effects 0.000 claims description 24
- 230000009467 reduction Effects 0.000 claims description 5
- 238000012937 correction Methods 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 claims 1
- 230000002146 bilateral effect Effects 0.000 abstract 1
- 210000001508 eye Anatomy 0.000 description 53
- 238000010586 diagram Methods 0.000 description 24
- 238000005259 measurement Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 6
- 210000005252 bulbus oculi Anatomy 0.000 description 5
- 239000000470 constituent Substances 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 239000011521 glass Substances 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- LKJPSUCKSLORMF-UHFFFAOYSA-N Monolinuron Chemical compound CON(C)C(=O)NC1=CC=C(Cl)C=C1 LKJPSUCKSLORMF-UHFFFAOYSA-N 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 241001290864 Schoenoplectus Species 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
Images
Landscapes
- Stereoscopic And Panoramic Photography (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
本発明は、輻輳角が固定された一対の撮像部と一対の表示部とを備える立体視画像表示装置と、立体視画像表示装置に適用される立体視画像表示方法と、に関する。 The present invention relates to a stereoscopic image display device including a pair of imaging units and a pair of display units with a fixed convergence angle, and a stereoscopic image display method applied to the stereoscopic image display device.
所定間隔だけ離間して配設された一対の撮像部(一方を右目用撮像部、他方を左目用撮像部ということにする)を用いて観察物を撮像し、右目用撮像部により撮像した画像を右目用表示部に、左目用撮像部により撮像した画像を左目用表示部に、それぞれ表示して、画像を立体的に観察することができるようにした立体視画像表示装置は、従来より種々のものが提案されていて、一例として眼鏡に類似した形状となるように構成されているもの(いわゆる立体視眼鏡)が挙げられる。 An image obtained by imaging an observation object using a pair of imaging units (one is called a right-eye imaging unit and the other is a left-eye imaging unit) spaced apart by a predetermined interval, and is captured by the right-eye imaging unit There are various stereoscopic image display devices that display images on the right-eye display unit and images captured by the left-eye imaging unit on the left-eye display unit so that the images can be observed stereoscopically. As an example, one that is configured to have a shape similar to that of glasses (so-called stereoscopic glasses) can be given.
こうした立体視画像表示装置は、人間が観察物を観察するときと同様に、右目用撮像部の撮像光軸と左目用撮像部の撮像光軸とが輻輳角をもって一点で交わるように構成されているが、人間の目の場合には、観察物までの距離に応じてこの輻輳角が変化する。 Such a stereoscopic image display device is configured so that the imaging optical axis of the right-eye imaging unit and the imaging optical axis of the left-eye imaging unit intersect at a single point with a convergence angle, similar to when a human observes an observation object. However, in the case of a human eye, this convergence angle changes according to the distance to the observation object.
これについて、図27〜図29を参照して説明する。ここに、図27は近傍にある観察物と遠方にある観察物とを観察する場合に輻輳角が異なる様子を示す図、図28は近傍にある観察物を観察する際に眼球の寄り目の度合いが大きくなる様子を示す図、図29は遠方にある観察物を観察する際に眼球の寄り目の度合いが小さくなる様子を示す図である。 This will be described with reference to FIGS. Here, FIG. 27 is a diagram showing a state of different convergence angles when observing a nearby observation object and a distant observation object, and FIG. 28 shows the degree of eyeball crossing when observing the observation object in the vicinity. FIG. 29 is a diagram showing a state in which the degree of crossing of the eyeball is reduced when observing a distant object.
観察者が近傍にある観察物から遠方にある観察物までを観察する場合について考える。人間が観察物を観察する場合に、瞳孔の中心が観察物の注視点を向くように眼球が回転するために、観察物が近距離にある場合には図28に示すように寄り目の度合いが大きくなり、観察物が遠距離にある場合には図29に示すように寄り目の度合いが小さくなる。 Consider a case where an observer observes from a nearby observation object to a distant observation object. When a human observes the observation object, the eyeball rotates so that the center of the pupil faces the gazing point of the observation object. Therefore, when the observation object is at a short distance, the degree of crossing is as shown in FIG. When the observation object is at a long distance, the degree of crossing is reduced as shown in FIG.
これは、人間の目が備える輻輳調整という機能である。すなわち、視線が交差する角度は輻輳角と呼ばれるが、人間の目(図27〜図29において、左目をLEYE、右目をREYEとして示している)は、図27に示すように、近距離にある観察物(図27において、NOBJとして示している)を観察する場合にはこの輻輳角を大きくし、遠距離にある観察物(同様に、FOBJとして示している)を観察する場合には輻輳角を小さくするように調整を行う。 This is a function called congestion adjustment that the human eye has. That is, the angle at which the line of sight intersects is called the convergence angle, but the human eye (shown as LEYE for the left eye and REYE for the right eye in FIGS. 27 to 29) is at a short distance, as shown in FIG. When observing an observation object (shown as NOBJ in FIG. 27), the convergence angle is increased, and when observing an observation object at a long distance (also shown as FOBJ), the convergence angle is increased. Make adjustments to reduce the.
従って、人間が目で直視して観察するときと同様の画像を撮像しようとする場合には、図30に示すように、観察物までの距離に応じて輻輳角を調整する必要がある。ここに、図30は、従来において、観察物までの距離に応じて輻輳角を調整するように構成された左右一対の撮像部の例を示す図である。 Therefore, when an image similar to that observed when a human is looking directly with his / her eyes is viewed, it is necessary to adjust the convergence angle according to the distance to the observation object, as shown in FIG. FIG. 30 is a diagram illustrating an example of a pair of left and right imaging units configured to adjust the convergence angle according to the distance to the observation object.
左目用撮像部12は人間の左目、右目用撮像部13は人間の右目の機能をそれぞれ果たすものとして設けられている。これら左目用撮像部12および右目用撮像部13は、水平面内において光軸LOA,ROAが向く方向を変更することができるように構成されていて、すなわち、輻輳角の調整を行うことができるものとなっている。
The left-
そして、左目用撮像部12により撮影して得られた映像を左目で観察し、右目用撮像部13により撮影して得られた映像を右目で観察することができるような立体視画像表示装置、例えば本発明の実施形態に係る図1〜図3に示したような立体視眼鏡タイプの立体視画像表示装置に表示すれば、立体視が可能となって、観察者は観察物を立体的に観察することができる。
Then, a stereoscopic image display device capable of observing with the left eye the image obtained by photographing with the left-
しかしながら、輻輳角を調整する機能を備えさせるためには、例えば右目用撮像部および左目用撮像部をそれぞれ回転させるための撮像部回転駆動機構や、あるいは撮像部の前面にミラーを配置してこのミラーを回転させるミラー駆動機構などの構成が必要になり、コストが高くなると共に、装置の重量が増すことになってしまう。 However, in order to provide a function for adjusting the convergence angle, for example, an imaging unit rotation drive mechanism for rotating the imaging unit for the right eye and the imaging unit for the left eye, or a mirror disposed on the front surface of the imaging unit. A configuration such as a mirror driving mechanism for rotating the mirror is required, which increases costs and increases the weight of the apparatus.
これに対して、機構的な輻輳角の調整をすることなく、所定の輻輳角に固定して、駆動機構を不要とする構成も考えられる。 On the other hand, a configuration in which the driving mechanism is not required by fixing to a predetermined convergence angle without adjusting the mechanical convergence angle is also conceivable.
本発明の実施形態に係る図4は、このような撮像部を固定した構成例を示している。撮像部を固定した場合には、上述したような撮像部回転駆動機構等が不要となるために、その分のコストが不要となり、装置の軽量化も図ることができるというメリットがある。 FIG. 4 which concerns on embodiment of this invention has shown the structural example which fixed such an imaging part. When the image pickup unit is fixed, the image pickup unit rotation drive mechanism and the like as described above are not necessary, so that there is an advantage that the cost is not required and the apparatus can be reduced in weight.
ただし、この場合には、固定された輻輳角に対応する距離以外の距離に観察物がある場合には、注視点が画像の中心からずれてしまうという課題がある。すなわち、左右一対の撮像部の輻輳角を、例えば近い位置にある観察物に合わせて固定したとする。この場合には、この近い位置にある観察物を撮像すると、左右何れの撮像部においても観察物が中心に位置する画像が撮像される(本発明の実施形態に係る図5参照)。これに対して、遠い位置にある観察物を撮像したとすると、輻輳角が一致しないために、左目用撮像部12により撮像される画像においては観察物が中心よりも左方向にずれ、右目用撮像部13により撮像される画像においては観察物が中心よりも右方向にずれてしまう(本発明の実施形態に係る図6参照)。その結果、ずれ量がどの程度の大きさであるかにも依存するが、立体視がし難くなる、目が疲れる、立体視ができない、という課題が生じる。
However, in this case, there is a problem that when the observation object is at a distance other than the distance corresponding to the fixed convergence angle, the gazing point shifts from the center of the image. That is, it is assumed that the convergence angles of the pair of left and right imaging units are fixed in accordance with, for example, an observation object at a close position. In this case, when an observation object at this close position is imaged, an image in which the observation object is positioned at the center is captured in either of the left and right imaging units (see FIG. 5 according to the embodiment of the present invention). On the other hand, if an observation object at a distant position is imaged, the convergence angles do not match, and therefore, in the image captured by the left-
この課題に対応する技術として、特開平7−95623号公報や特開平8−336165号公報には、画像処理を行うことにより、注視点が画像の中心に位置するようにする技術(輻輳角を画像処理的に合わせる技術)が記載されている。すなわち、これらの公報に記載の技術は、撮像して得られた左右の画像を一旦フレームメモリ等に取り込んで、左右各画像において、注視点(例えば観察物の中心位置)が画像の中心となるように画像の切り出しを行うことにより、輻輳角調整を行うものとなっている。そして、上述した2つの公報の内の前者の特開平7−95623号公報には、さらに、この画像処理による輻輳角の決定を、フォーカス距離の測定結果に基づいて行う技術も記載されている。 As a technique corresponding to this problem, Japanese Patent Application Laid-Open Nos. 7-95623 and 8-336165 disclose a technique (a convergence angle is set so that the gazing point is positioned at the center of an image by performing image processing). (Technology for matching image processing). That is, in the techniques described in these publications, the left and right images obtained by imaging are temporarily captured in a frame memory or the like, and the gazing point (for example, the center position of the observation object) is the center of the image in each of the left and right images. Thus, the convergence angle is adjusted by cutting out the image. The former Japanese Patent Application Laid-Open No. 7-95623, which is one of the above two publications, further describes a technique for determining the convergence angle by this image processing based on the measurement result of the focus distance.
また、設定されているズーム倍率に基づいて画像の切り出し範囲の大きさを調整することにより、いわゆる電子ズームを行う技術も従来より知られている。
しかしながら、機構的な輻輳角の調整を行う場合と輻輳角を固定する場合との相違は、注視点が画像の中心からずれるという点だけではない。すなわち、画像の撮像平面は撮像光軸に垂直であるために、固定された輻輳角において得られた画像の撮像平面と、実際に輻輳角を機構的に調整したときの画像の撮像平面とは、一般に平行とはならない。従って、左右一対の撮像部から等距離にある観察物を想定した場合に、固定された輻輳角に対応する距離以外の距離にある観察物を中心に画像を切り出すと、画像に台形状の歪みが発生してしまうことになる。 However, the difference between the case where the mechanical convergence angle is adjusted and the case where the convergence angle is fixed is not only that the gazing point deviates from the center of the image. That is, since the imaging plane of the image is perpendicular to the imaging optical axis, the imaging plane of the image obtained at a fixed convergence angle and the imaging plane of the image when the convergence angle is actually adjusted mechanically , Generally not parallel. Therefore, if an object is assumed to be equidistant from a pair of left and right imaging units, if an image is cut out centering on an object at a distance other than the distance corresponding to the fixed convergence angle, a trapezoidal distortion is generated in the image. Will occur.
例えば、撮像部の輻輳角が特開平7−95623号公報に記載されているように遠距離にある観察物に合わせて固定されている場合には、近距離にある観察物の画像には横向きの台形歪(すなわち、台形を構成する2本の平行線が縦方向に並ぶ形状の台形歪)が生じてしまう。しかも、観察物の画像に生じる台形歪は左目用撮像部と右目用撮像部とで左右鏡面対称となるために、画像の周辺にいくほど左右画像が本来の画像から歪んでしまう。その結果、正常な立体視ができなくなってしまうが、該公報に記載の技術は、こうした課題に対して配慮されたものとはなっていなかった。 For example, when the convergence angle of the imaging unit is fixed in accordance with an object at a long distance as described in JP-A-7-95623, the image of the object at a short distance is displayed sideways. Trapezoidal distortion (that is, trapezoidal distortion in which two parallel lines constituting the trapezoid are arranged in the vertical direction). Moreover, since the trapezoidal distortion that occurs in the image of the observation object is left-right mirror-symmetrical between the left-eye imaging unit and the right-eye imaging unit, the left-right image is distorted from the original image as it goes to the periphery of the image. As a result, although normal stereoscopic vision cannot be performed, the technique described in the publication has not been considered for such problems.
この台形歪みについて、本発明の実施形態に係る図8〜図10を参照して具体的に説明する。 This trapezoidal distortion will be specifically described with reference to FIGS. 8 to 10 according to the embodiment of the present invention.
まず、図8は、図4に示すような配置の右目用撮像部13により遠距離観察物FOBJを撮像して得られた図6(B)に示すような撮影画像中の、観察物を中心とした画像部分に生じている台形歪みの形状を示している。
First, FIG. 8 is centered on the observation object in the captured image as shown in FIG. 6B obtained by imaging the long-distance observation object FOBJ by the right-
一方、図9は、図4に示すような配置の左目用撮像部12により遠距離観察物FOBJを撮像して得られた図6(A)に示すような撮影画像中の、観察物を中心とした画像部分に生じている台形歪みの形状を示している。
On the other hand, FIG. 9 is centered on the observation object in the captured image as shown in FIG. 6A obtained by imaging the long-distance observation object FOBJ by the left-
そして、図8に示したような右目用撮像部13で得られた画像を右目で観察し、図9に示したような左目用撮像部12で得られた画像を左目で観察すると、これらが合成されて図10に示すように観察されることになる。すなわち、画像の中心付近では左右の画像が一致して観察されるのに対して、画像の周辺に近付くに従って左右の画像が次第に大きくずれて観察される。こうして、右目で観察する画像と左目で観察する画像とにずれが生じる結果、正常な立体視を行うことが困難になってしまう。
When the image obtained by the right-
上述したような従来の技術は、このような点に関して配慮されたものとはなっていなかった。 The conventional technology as described above has not been considered in this regard.
本発明は上記事情に鑑みてなされたものであり、輻輳角を固定して配設された一対の撮像部から得られた一対の撮影画像に基づいて、観察物までの距離によることなくより自然に立体視を行うことができる立体視画像表示装置、立体視画像表示方法を提供することを目的としてる。 The present invention has been made in view of the above circumstances, and based on a pair of photographed images obtained from a pair of imaging units arranged with a fixed convergence angle, it is more natural without depending on the distance to the observation object. It is an object of the present invention to provide a stereoscopic image display device and a stereoscopic image display method capable of performing stereoscopic viewing.
上記の目的を達成するために、本発明のある態様による立体視画像表示装置は、所定の間隔をもって所定の輻輳角となるように左右鏡面対称に固定された一対の撮像部と、上記一対の撮像部の中点から観察物までの距離を実質的に測定する測距部と、上記一対の撮像部から各得られた一対の撮影画像に対してそれぞれ画像処理を行い該一対の撮像部に各対応する一対の表示画像を生成する画像処理部と、上記画像処理部により生成された上記一対の表示画像を各表示画面に表示する一対の表示部と、を具備し、上記画像処理部は、上記一対の撮像部の間隔と、上記測距部により実質的に測定された上記一対の撮像部の中点から観察物までの距離と、上記一対の撮像部の輻輳角または上記一対の撮像部の光軸の交点から上記一対の撮像部の中点までの距離と、に基づいて、上記一対の表示部の各表示画面に対応する範囲の一対の撮影画像を、上記左右鏡面対称の鏡面に対して左右対称となるように台形補正することにより、上記一対の表示画像を生成するものである。 In order to achieve the above object, a stereoscopic image display device according to an aspect of the present invention includes a pair of imaging units fixed in left-right mirror symmetry so as to have a predetermined convergence angle at a predetermined interval, and the pair of imaging units described above. A distance measuring unit that substantially measures the distance from the midpoint of the image capturing unit to the observation object, and a pair of captured images obtained from the pair of image capturing units, respectively, and performs image processing on the pair of image capturing units. An image processing unit that generates a corresponding pair of display images; and a pair of display units that display the pair of display images generated by the image processing unit on each display screen. , The distance between the pair of imaging units, the distance from the midpoint of the pair of imaging units substantially measured by the ranging unit to the observation object, the convergence angle of the pair of imaging units, or the pair of imaging The midpoint of the pair of imaging units from the intersection of the optical axes Based on the distance, the pair of captured images in a range corresponding to each display screen of the pair of display units, by correcting the trapezoid so as to be symmetric with respect to the mirror surface of the left-right mirror surface, The pair of display images is generated.
また、本発明の他の態様による立体視画像表示方法は、所定の間隔をもって所定の輻輳角となるように左右鏡面対称に固定された一対の撮像部と、上記一対の撮像部の中点から観察物までの距離を実質的に測定する測距部と、上記一対の撮像部から各得られた一対の撮影画像に基づいて生成された該一対の撮像部に各対応する一対の表示画像を各表示画面に表示する一対の表示部と、を具備する立体視画像表示装置に適用される立体視画像表示方法であって、上記一対の撮像部の間隔と、上記測距部により実質的に測定された上記一対の撮像部の中点から観察物までの距離と、上記一対の撮像部の輻輳角または上記一対の撮像部の光軸の交点から上記一対の撮像部の中点までの距離と、に基づいて、上記一対の表示部の各表示画面に対応する範囲の一対の撮影画像を、上記左右鏡面対称の鏡面に対して左右対称となるように台形補正することにより、上記一対の表示画像を生成する方法である。 In addition, a stereoscopic image display method according to another aspect of the present invention includes a pair of imaging units fixed in a left-right mirror symmetry so as to have a predetermined convergence angle at a predetermined interval, and a midpoint of the pair of imaging units. A distance measuring unit that substantially measures the distance to the observation object, and a pair of display images corresponding to the pair of imaging units generated based on the pair of captured images obtained from the pair of imaging units. A stereoscopic image display method applied to a stereoscopic image display device including a pair of display units displayed on each display screen, wherein the distance between the pair of imaging units and the distance measuring unit substantially The measured distance from the midpoint of the pair of imaging units to the object to be observed and the angle of convergence of the pair of imaging units or the optical axis of the pair of imaging units to the midpoint of the pair of imaging units And corresponding to each display screen of the pair of display units based on A pair of photographed images of the circumference, by keystone correction so as to be symmetrical with respect to the mirror surface of the right and left mirror symmetry, a method of generating the pair of the display image.
本発明の立体視画像表示装置、立体視画像表示方法によれば、輻輳角を固定して配設された一対の撮像部から得られた一対の撮影画像に基づいて、観察物までの距離によることなくより自然に立体視を行うことが可能となる。 According to the stereoscopic image display device and the stereoscopic image display method of the present invention, the distance to the observation object is determined based on a pair of captured images obtained from a pair of imaging units arranged with a fixed convergence angle. Thus, stereoscopic viewing can be performed more naturally.
以下、図面を参照して本発明の実施の形態を説明する。 Embodiments of the present invention will be described below with reference to the drawings.
[実施形態1]
図1から図26は本発明の実施形態1を示したものであり、図1は立体視画像表示装置を正面側から示す図、図2は立体視画像表示装置を右側面側(左目側)から示す図、図3は立体視画像表示装置を背面側から示す図である。
[Embodiment 1]
1 to 26
本実施形態の立体視画像表示装置1は、眼鏡とほぼ同様に頭部に装着して用いる立体視眼鏡型の表示装置として構成されたものとなっている。
The stereoscopic
すなわち、立体視画像表示装置1の正面側には本体部2が配設されている。また、この本体部2の端部のうち、図3の左側に示された端部には左耳に掛けるための左テンプル部3が、図3の右側に示された端部には右耳に掛けるための右テンプル部4が、それぞれ配設されている。
That is, the
上述した本体部2の上部にはフレーム5が設けられていて、このフレーム5には制御部11が内蔵されている。
A
このフレーム5から下側に左目用部6および右目用部7が配設されており、左目用部6の正面側(観察物側)には左目用撮像部12が、右目用部7の正面側(観察物側)には右目用撮像部13が、それぞれ配置されている。これら右目用撮像部13と左目用撮像部12とは、標準的な眼幅である例えば63mmの間隔(以下、カメラ間隔などという)を離間して、後述するような所定の輻輳角に固定して配設された小型のカメラとなっている。そして、各撮像部12,13は、図示はしないが、CMOSやCCD等で構成される撮像素子と、これらの撮像素子の撮像面に光学像を各結像するための左目用および右目用の撮像光学系と、これらの撮像光学系の焦点調節を行うためのフォーカス機構と、各撮像素子から得られた画像を信号処理するための信号処理回路と、等を含んで構成されている。
A left-
このような右目用撮像部13および左目用撮像部12から得られた画像信号は、上述した制御部11へ出力される。制御部11は、後述するように、右目用撮像部13から得られた画像の少なくとも一部を切り出し、左目用撮像部12により撮像された画像の少なくとも一部を切り出して、切り出した各画像に、固定された輻輳角との相違に基づく撮像平面の傾きを補正する処理を行い、右目用表示画像と左目用表示画像とを生成する。
The image signals obtained from the right-
また、図3に示すように、左目用部6の背面側(頭部側)には制御部11により生成された左目用画像を表示するための左目用表示部14が、右目用部7の背面側(頭部側)には制御部11により生成された右目用画像を表示するための右目用表示部15が、それぞれ配置されている。これら左目用表示部14と右目用表示部15とは、例えば、透過型LCD、反射型LCD、またはOLED等を用いて構成された小型の表示装置となっている。そして、これら左目用表示部14の中心位置と右目用表示部15の中心位置との間隔は、標準的な眼幅である63mmを基準として、使用者の実際の眼幅に合わせて調整可能となるように構成されている。
Further, as shown in FIG. 3, a left-
さらに、左目用部6と右目用部7とを結ぶブリッジ部8の正面側(観察物側)には、右目用撮像部13と左目用撮像部12との中点近傍となる位置に、観察物までの距離を測定するための測距部16が配設されている。この測距部16は、例えば、三角測量方式に基づいて、立体視画像表示装置1から観察物までの距離を測定するものである。すなわち、測距部16は、観察物へ向けて赤外線を発光するための赤外発光部と、観察物により反射された赤外線を受光する受光部と、を備えて構成される反射型の測距センサとなっている。
Furthermore, on the front side (observed object side) of the
なお、測距部16は、三角測量方式に基づいて測距するに限るものではなく、例えばレーザー測定により測距を行うものであっても良いし、画像処理による方法を用いて測距を行うものであっても構わないし、その他の技術を用いて測距を行うものであっても良い。
The
また、ここでは、右目用撮像部13と左目用撮像部12との中点から観察物までの距離を直接測定するために、測距部16をこの中点の位置(近傍)に設けているが、これに限るものではない。測距部16の位置が、右目用撮像部13および左目用撮像部12の各位置に対して固定的であれば、設計時に定められたその配置に基づいて、右目用撮像部13と左目用撮像部12との中点から観察物までの距離を(例えば三平方の定理や余弦定理などを用いて)算出することが可能である。このように、測距部16は、右目用撮像部13と左目用撮像部12との中点から観察物までの距離を実質的に測定できれば良く、直接測定できる必要はない。
Further, here, in order to directly measure the distance from the midpoint between the right-eye
次に、図11は、立体視画像表示装置1の回路構成を示すブロック図である。
Next, FIG. 11 is a block diagram illustrating a circuit configuration of the stereoscopic
この立体視画像表示装置1は、上述したように、制御部11と、左目用撮像部12と、右目用撮像部13と、左目用表示部14と、右目用表示部15と、測距部16と、を備えている。
As described above, the stereoscopic
これらの内の制御部11は、プロセッサ21と、不揮発性メモリ22と、左目用画像処理部23と、右目用画像処理部24と、を備えている。
Among these, the
不揮発性メモリ22は、電源の供給を受けることなく各種のデータやパラメータを保持することが可能なメモリであり、EEPROM、フラッシュメモリ等を用いて構成されている。ここに、不揮発性メモリ22に保存される各種のパラメータとしては、左目用撮像部12と右目用撮像部13とがなす輻輳角ψ(図26等参照)(または、左目用撮像部12の光軸と右目用撮像部13の光軸との交点P1(図26等参照)から、これら左目用撮像部12と右目用撮像部13との中点S(図26等参照)までの距離)、左目用撮像部12と右目用撮像部13とのカメラ間隔2d(図26等参照)、左目用撮像部12、右目用撮像部13、左目用画像処理部23、右目用画像処理部24、左目用表示部14、右目用表示部15等の各レジスタ設定値、などが幾つかの例として挙げられる。また、この不揮発性メモリ22には、プロセッサ21により実行されるこの立体視画像表示装置1の制御プログラムも格納されている。なお、観察物までの距離D(Pk)(図13等参照)は、測距部16により測定が行われたときに、制御部11に入力されることになる。
The
左目用画像処理部23は、左目用撮像部12から得られた画像を処理して左目表示用画像を生成し、生成した左目表示用画像を左目用表示部14へ出力するものである。これにより、左目用表示部14は左目表示用画像を表示する。
The left-eye
右目用画像処理部24は、右目用撮像部13から得られた画像を処理して右目表示用画像を生成し、生成した右目表示用画像を右目用表示部15へ出力するものである。これにより、右目用表示部15は右目表示用画像を表示する。
The right-eye
プロセッサ21は、左目用撮像部12、右目用撮像部13、左目用表示部14、右目用表示部15、測距部16、不揮発性メモリ22、左目用画像処理部23、および右目用画像処理部24とそれぞれ双方向に接続されており、上述した制御プログラムに基づいて、これらを含めたこの立体視画像表示装置1の全体の制御を行うようになっている。プロセッサ21は、特に、上述したように測距部16から得られた観察物までの距離D(Pk)と、不揮発性メモリ22から読み出したカメラ輻輳角ψ(または交点P1から中点Sまでの距離)およびカメラ間隔2dと、に基づいて、左目用画像処理部23に後述するように射影変換を行わせて適切な左目表示用画像を作成させ、同様に、右目用画像処理部24に射影変換を行わせて適切な右目表示用画像を作成させるように制御する。
The
まず、本実施形態においては、図4に示すような状況を想定している。ここに、図4は、2台の撮像部を所定の輻輳角に固定した構成例を示す図である。 First, in this embodiment, the situation as shown in FIG. 4 is assumed. FIG. 4 is a diagram illustrating a configuration example in which two imaging units are fixed at a predetermined convergence angle.
すなわち、左目用撮像部12と右目用撮像部13とは、左右中心線LOCを挟んで左右鏡面対称となるように所定のカメラ間隔を挟んで配設されている。さらに、これら左目用撮像部12と右目用撮像部13とは、左右中心線LOC上において互いの撮像光軸LOA,ROAが所定の輻輳角をもって交差するように固定されている。特に本実施形態においては、観察物が例えば歯科分野における歯牙等である場合を想定しており、撮像光軸LOAと撮像光軸ROAとが交差する位置は、歯牙観察時に想定される至近距離となるように設計されている。従って、この撮像光軸が交差する位置を、至近注視点ということにする(この至近注視点に位置する観察物をNOBJとして示している)。ただし、撮像光軸が交差する位置を至近注視点に固定しているのは説明を分かり易くするためであるので、もちろんこの位置で交差するように固定するに限るものではなく、その他の距離の位置で交差するように固定しても構わない。
That is, the left-
従って、至近注視点に位置する至近観察物NOBJを撮像すると、図5に示すように、左目用撮像部12により撮像される注視点は画像の中心に位置し(図5(A)参照)、右目用撮像部13により撮像される注視点も画像の中心に位置する(図5(B)参照)ことになる。ここに、図5は撮像部の輻輳角を至近観察物に合わせて固定し、この至近観察物を左右一対の撮像部により撮像して得られる画像の様子を示す図である。なお、図4において、右目用撮像部13(および図示はしないが左目用撮像部12)の水平方向の撮影範囲(水平方向の画角)を2θxとしている。
Therefore, when the near-observed object NOBJ located at the closest gazing point is imaged, as shown in FIG. 5, the gazing point imaged by the left-
そして、任意距離にある観察物の注視点は、左目用撮像部12と右目用撮像部13と至近注視点(至近観察物NOBJの至近注視点)とがある平面上において、左目用撮像部12と右目用撮像部13とを結ぶ線分の中点に直交する直線(すなわち、上述した左右中心線LOC)上に位置しているものとする。言い換えれば、任意の距離の注視点は、左右の撮像光軸がある平面上において、左目用撮像部12と右目用撮像部13とから等距離に位置しているものとする。
Then, the gazing point of the observation object at an arbitrary distance is the left-
このような配置において、至近注視点よりも遠い位置にある遠距離観察物FOBJを撮像したとする。すると、図4や図7も参照すれば分かるように、遠距離観察物FOBJは右目用撮像部13の撮像光軸ROAよりも右側に位置しているために、右目用撮像部13により撮像して得られる画像は図6(B)に示すようなものとなり、遠距離観察物FOBJの像は画像の中心よりも右側に寄ることになる。同様に、遠距離観察物FOBJは左目用撮像部12の撮像光軸LOAよりも左側に位置しているために、左目用撮像部12により撮像して得られる画像は図6(A)に示すようなものとなり、遠距離観察物FOBJの像は画像の中心よりも左側に寄ることになる。ここに、図6は撮像部の輻輳角を至近観察物に合わせて固定し、遠距離観察物を左右一対の撮像部により撮像して得られる画像の様子を示す図、図7は右目用撮像部13により至近観察物NOBJと遠距離観察物FOBJとを撮影するときの撮影範囲をそれぞれ矩形で示す斜視図である。図7において、至近観察物NOBJを撮影するときの撮影範囲は符号S1により、遠距離観察物FOBJを撮影するときの撮影範囲は符号S2により、それぞれ示されている。
In such an arrangement, it is assumed that a long-distance observation object FOBJ located at a position far from the closest point of sight is imaged. Then, as can be seen with reference to FIGS. 4 and 7, since the long-distance observation object FOBJ is located on the right side of the imaging optical axis ROA of the right-
そして、遠距離観察物FOBJ付近に生じる台形歪みは、図8〜図10に示すようになる。 And the trapezoid distortion which arises in the vicinity of the long-distance observation object FOBJ is as shown in FIGS.
まず、図8は、図4に示すような配置の右目用撮像部13により遠距離観察物FOBJを撮像して得られた図6(B)に示すような撮影画像中の、観察物を中心とした画像部分に生じている台形歪みの形状を示す図である。この図8に示す台形歪みは、図4に示す配置において、右目用撮像部13から遠距離観察物FOBJへ向かう直線に垂直な平面であって、この遠距離観察物FOBJを通る平面上に横長の長方形を置いたときに、右目用撮像部13によりこの長方形がどのような形状として撮像されるかを示したものとなっている。
First, FIG. 8 is centered on the observation object in the captured image as shown in FIG. 6B obtained by imaging the long-distance observation object FOBJ by the right-
一方、図9は、図4に示すような配置の左目用撮像部12により遠距離観察物FOBJを撮像して得られた図6(A)に示すような撮影画像中の、観察物を中心とした画像部分に生じている台形歪みの形状を示す図である。この図9に示す台形歪みは、図4に示す配置において、左目用撮像部12から遠距離観察物FOBJへ向かう直線に垂直な平面であって、この遠距離観察物FOBJを通る平面上に上述と同一の横長の長方形を置いたときに、左目用撮像部12によりこの長方形がどのような形状として撮像されるかを示したものとなっている。
On the other hand, FIG. 9 is centered on the observation object in the captured image as shown in FIG. 6A obtained by imaging the long-distance observation object FOBJ by the left-
まず、図8に示す台形歪みは、画像の右側よりも左側が相対的に縮小された形状となっている。一方、図9に示す台形歪みは、画像の左側よりも右側が相対的に縮小された形状となっている。そして、図8に示した台形歪みと図9に示した台形歪みとは、左右鏡面対称である。 First, the trapezoidal distortion shown in FIG. 8 has a shape in which the left side is relatively reduced rather than the right side of the image. On the other hand, the trapezoidal distortion shown in FIG. 9 has a shape in which the right side is relatively reduced rather than the left side of the image. The trapezoidal distortion shown in FIG. 8 and the trapezoidal distortion shown in FIG. 9 are left-right mirror symmetrical.
図10は、図8に示す台形歪みと図9に示す台形歪みとを両目で観察したときの様子を示す図である。 FIG. 10 is a diagram illustrating a situation when the trapezoidal distortion illustrated in FIG. 8 and the trapezoidal distortion illustrated in FIG. 9 are observed with both eyes.
図8に示したような右目用撮像部13で得られた画像を右目で観察し、図9に示したような左目用撮像部12で得られた画像を左目で観察すると、これらが合成されて図10に示すように観察されることになる。
When the image obtained by the right-
すなわち、画像の中心付近では左右の画像が一致して観察されるのに対して、画像の周辺に近付くに従って左右の画像が次第に大きくずれて観察される(例えば、右目画像の右側が台形歪により画像の拡大された側になるとすると、左目画像の右側は台形歪により画像の縮小された側になるために、左右両目で観察する画像が周辺ほど大きく食い違うことになる)。 That is, the left and right images are observed in the vicinity of the center of the image, whereas the left and right images are gradually shifted as they approach the periphery of the image (for example, the right eye image is observed due to trapezoidal distortion on the right side). If the image is on the enlarged side, the right side of the left-eye image is the reduced side of the image due to trapezoidal distortion, so the image observed with both the left and right eyes will be significantly different from the surrounding area).
従って、このような台形歪を補正するための射影変換に基づく画像処理を、上述した左目用画像処理部23および右目用画像処理部24において、以下に説明するように行うことになる。なお、左目用撮像部12と右目用撮像部13とは、上述したように左右鏡面対称となるように配設されているために、以下では主として右目用撮像部13に関する説明を行う(すなわち、左目用撮像部12に関しては、右目用撮像部13と左右鏡面対称になると考えれば良い)。
Therefore, image processing based on projective transformation for correcting such trapezoidal distortion is performed in the above-described left-eye
また、本実施形態においては、観察物までの距離範囲が至近注視点P1から最遠注視点P2までであるものとする。このとき、図12は、右目用撮像部13と、至近注視点P1および最遠注視点P2と、を上方から見たときの配置を示す図、図13は、右目用撮像部13と、至近注視点P1と最遠注視点P2との間の任意注視点Pkと、を上方から見たときの配置を示す図である。
In the present embodiment, it is assumed that the distance range to the observation object is from the closest gazing point P1 to the farthest gazing point P2. At this time, FIG. 12 is a diagram showing an arrangement when the right-
まず、これら図12および図13に記載されている各符号について説明する。 First, each reference numeral shown in FIGS. 12 and 13 will be described.
点Oは、右目用撮像部13の位置を示している(この位置は、人間の右目の位置に対応する位置となっている)。 The point O indicates the position of the right-eye imaging unit 13 (this position corresponds to the position of the human right eye).
点Sは、右目用撮像部13と左目用撮像部12との中点の位置を示している(この位置は、人間の眼幅の中心点に対応する位置となっている)。そして、この点Sの位置に、上述した測距部16が配置されているものとする。また、点Oから点Sまで長さをdとする。従って、この長さdは、左目用撮像部12と右目用撮像部13とのカメラ間隔の半分の長さを表している(逆に言えば、カメラ間隔は2dということになる)。
The point S indicates the position of the midpoint between the right-
左右中心線LOCは、点O、点S、点P1がある平面上における右目用撮像部13と左目用撮像部12との左右対称軸である。この左右中心線LOCは、点Sを通り、左目用撮像部12と右目用撮像部13とを結ぶ直線とこの点Sにおいて直交している。
The left-right center line LOC is a left-right symmetric axis between the right-eye
点P1は、上述したように至近注視点である。点Oからこの至近注視点P1までの距離をL1とする。また、点Sからこの至近注視点P1までの距離をD(P1)とする。なお、本実施形態においては、上述したように、直線OP1と一致するように右目用撮像部13の光軸を設定している。
As described above, the point P1 is a close focus point. The distance from the point O to the closest point of sight P1 is L1. In addition, the distance from the point S to the closest gazing point P1 is D (P1). In the present embodiment, as described above, the optical axis of the right-
点P2は、上述したように最遠注視点である。点Oからこの最遠注視点P2までの距離をL2とする。また、点Sからこの最遠注視点P2までの距離をD(P2)とする。 Point P2 is the farthest gazing point as described above. The distance from the point O to the farthest gazing point P2 is L2. Further, the distance from the point S to the farthest gazing point P2 is D (P2).
点Pkは、上述したように任意注視点であり、点P1と点P2との中間(ただし、両端点を含む)の任意の位置にある注視点を示している。点Oからこの任意注視点Pkまでの距離をLkとする(ここで述べた任意注視点Pkの定義によれば、L1≦Lk≦L2が満たされることになる)。また、点Sからこの任意注視点Pkまでの距離をD(Pk)とする。 The point Pk is an arbitrary gazing point as described above, and indicates a gazing point at an arbitrary position between the points P1 and P2 (but including both end points). The distance from the point O to the arbitrary gazing point Pk is Lk (according to the definition of the arbitrary gazing point Pk described here, L1 ≦ Lk ≦ L2 is satisfied). Further, the distance from the point S to the arbitrary gazing point Pk is defined as D (Pk).
平面βは、右目用撮像部13による撮像範囲(上述したように矩形領域であるとする)を、適宜の距離位置において仮想的に示した撮影平面である。この撮影平面βは、点Oから見たときの画角を示す後述する角度θx,θy(図18等参照)に基づいて規定され、点Oからの距離によっては規定されない。ここに、図17は点Oと撮影平面βおよび観察平面αk(後述する)との位置関係を示す斜視図、図18は点Oと撮影平面βとの位置関係を示す(A)正面図、(B)平面図、(C)右側面図、図19は点Oと観察平面αkとの位置関係を示す(A)正面図、(B)平面図、(C)右側面図、図21は点Oと観察平面αk上の点Aおよび撮影平面β上の点Bとの位置関係を示す斜視図である。以下では、これら図17〜図19および図21も適宜参照して説明を行う。
The plane β is an imaging plane that virtually shows the imaging range (assumed to be a rectangular area as described above) by the right-
点Qは、撮影平面βにおける中心点を示し、直線OP1と撮影平面βとの交点である。 A point Q indicates a center point on the imaging plane β, and is an intersection of the straight line OP1 and the imaging plane β.
線分Lwは、点Oと点Qとを結ぶ線分であり、撮影平面βの垂線となる。この線分Lwの長さ(距離)を同様にLwにより表すとすると、この距離Lwは点Oから点Qまでの距離(すなわち、点Oから撮影平面βまでの距離)を示している。上述したように、撮影平面βは仮想平面であるために、この距離Lwは任意にとることが可能である。 The line segment Lw is a line segment connecting the point O and the point Q, and is a perpendicular line of the imaging plane β. If the length (distance) of the line segment Lw is similarly expressed by Lw, the distance Lw indicates the distance from the point O to the point Q (that is, the distance from the point O to the imaging plane β). As described above, since the imaging plane β is a virtual plane, this distance Lw can be arbitrarily set.
角度θxは、図18(B)に示すように、撮影平面βの、点Qを中心とした左側または右側の画角である(つまり撮影平面β全体の水平方向の画角は2θxとなる)。また、角度θyは、図18(C)に示すように、撮影平面βの、点Qを中心とした上側または下側の画角である(つまり撮影平面β全体の垂直方向の画角は2θyとなる)。 As shown in FIG. 18B, the angle θx is the left or right angle of view around the point Q of the imaging plane β (that is, the horizontal angle of view of the entire imaging plane β is 2θx). . Further, as shown in FIG. 18C, the angle θy is an angle of view on the upper or lower side of the imaging plane β with respect to the point Q (that is, the angle of view in the vertical direction of the entire imaging plane β is 2θy). Becomes).
平面α1は、至近注視点P1を観察するときの観察平面(矩形領域であるとする)であり、点Oから見た撮影平面βがなす画角の範囲内で設定される(これは、撮像して得られた画像からこの観察平面α1に対応する画像部分が切り出されることになるためである)。この観察平面α1は、線分OP1(上述した距離L1の線分)に垂直である。この観察平面α1の、点P1を中心とした左側または右側の画角をωx(1)とする(つまり観察平面α1全体の水平方向の画角は2ωx(1)となる)。 The plane α1 is an observation plane (which is a rectangular area) when observing the closest gazing point P1, and is set within the range of the angle of view formed by the imaging plane β viewed from the point O (this is imaging This is because the image portion corresponding to the observation plane α1 is cut out from the image obtained in this manner). The observation plane α1 is perpendicular to the line segment OP1 (the line segment with the distance L1 described above). The left or right field angle of the observation plane α1 centered on the point P1 is ωx (1) (that is, the horizontal field angle of the entire observation plane α1 is 2ωx (1)).
平面α2は、最遠注視点P2を観察するときの観察平面(矩形領域であるとする)であり、点Oから見た撮影平面βがなす画角の範囲内で設定される(上述と同様に、撮像して得られた画像からこの観察平面α2に対応する画像部分が切り出されることになるためである)。この観察平面α2は、線分OP2(上述した距離L2の線分)に垂直である。この観察平面α2の、点P2を中心とした左側または右側の画角をωx(2)とする(つまり観察平面α2全体の水平方向の画角は2ωx(2)となる)。 The plane α2 is an observation plane (assumed to be a rectangular area) when observing the farthest gazing point P2, and is set within the range of the angle of view formed by the imaging plane β viewed from the point O (same as described above). This is because the image portion corresponding to the observation plane α2 is cut out from the image obtained by imaging. This observation plane α2 is perpendicular to the line segment OP2 (the line segment having the distance L2 described above). The left or right field angle of the observation plane α2 around the point P2 is ωx (2) (that is, the horizontal field angle of the entire observation plane α2 is 2ωx (2)).
平面αkは、至近注視点P1と最遠注視点P2との間の任意の注視点Pkを観察するときの観察平面(矩形領域であるとする)であり、点Oから見た撮影平面βがなす画角の範囲内で設定される(上述と同様に、撮像して得られた画像からこの観察平面αkに対応する画像部分が切り出されることになるためである)。この観察平面αkは、線分OPk(上述した距離Lkの線分)に垂直である。この観察平面αkの、点Pkを中心とした左側または右側の画角を、図19(B)に示すようにωx(k)とする(つまり観察平面αk全体の水平方向の画角は2ωx(k)となる)。同様に、この観察平面αkの、点Pkを中心とした上側または下側の画角を図19(C)に示すようにωy(k)とする(つまり観察平面αk全体の垂直方向の画角は2ωy(k)となる)。 The plane αk is an observation plane (assuming a rectangular area) when observing an arbitrary gazing point Pk between the closest gazing point P1 and the farthest gazing point P2, and the imaging plane β viewed from the point O is It is set within the range of the angle of view to be made (as described above, because the image portion corresponding to this observation plane αk is cut out from the image obtained by imaging). This observation plane αk is perpendicular to the line segment OPk (the line segment having the distance Lk described above). The viewing angle on the left or right side of the observation plane αk with respect to the point Pk is ωx (k) as shown in FIG. 19B (that is, the horizontal viewing angle of the entire observation plane αk is 2ωx ( k)). Similarly, the upper or lower field angle of the observation plane αk with respect to the point Pk is set to ωy (k) as shown in FIG. 19C (that is, the vertical field angle of the entire observation plane αk). Becomes 2ωy (k)).
なお、これらωx(k),ωy(k)は表示範囲を示す画角である。また、これらωx(k),ωy(k)を撮像部の撮像範囲を示す角度θx,θy以下の範囲内において可変とすることにより、表示範囲を拡大/縮小する(電子ズームを行う)ことができる。このときには、これらωx(k),ωy(k)は、拡大縮小パラメータとなる。 These ωx (k) and ωy (k) are angles of view indicating the display range. Further, by making these ωx (k) and ωy (k) variable within the angles θx and θy indicating the imaging range of the imaging unit, the display range can be enlarged / reduced (electronic zoom is performed). it can. At this time, these ωx (k) and ωy (k) are the enlargement / reduction parameters.
角度δ2は、点Oから見た至近注視点P1と最遠注視点P2とがなす角度(あるいは、点Oから見た点Qと最遠注視点P2とがなす角度)である。観察平面α1と撮影平面βとは平行であるために、この角度δ2は、観察平面α2と撮影平面βとがなす角度でもある。 The angle δ2 is an angle formed by the closest gazing point P1 and the farthest gazing point P2 viewed from the point O (or an angle formed by the point Q and the maximal gazing point P2 viewed from the point O). Since the observation plane α1 and the imaging plane β are parallel, the angle δ2 is also an angle formed by the observation plane α2 and the imaging plane β.
角度δkは、点Oから見た至近注視点P1と注視点Pkとがなす角度(あるいは、点Oから見た点Qと注視点Pkとがなす角度)である。上述したように、観察平面α1と撮影平面βとは平行であるために、この角度δkは、観察平面αkと撮影平面βとがなす角度でもある。上述した観察平面αkの定義に基づけば、角度δkは、0≦δk≦δ2の範囲の値をとることになる。 The angle δk is an angle formed by the closest gazing point P1 and the gazing point Pk viewed from the point O (or an angle formed by the point Q and the gazing point Pk viewed from the point O). As described above, since the observation plane α1 and the imaging plane β are parallel, the angle δk is also an angle formed by the observation plane αk and the imaging plane β. Based on the definition of the observation plane αk described above, the angle δk takes a value in the range of 0 ≦ δk ≦ δ2.
点Aは、観察平面αkにおけるある表示画素位置を示している。 Point A indicates a certain display pixel position in the observation plane αk.
点Bは、直線OAが撮影平面βと交差する点である(図21も参照)。この点Bの座標の画素値を、点Aの画素値とすることになる。ただし、点Bの座標に撮影画像の画素が丁度位置しているとは期待できず、一般には撮像して得られた画素同士の中間位置となる。従って、点Bの座標の近傍に位置する撮像画素に基づいて補間処理を行うことにより、この点Bの座標における画素値を求めることになる。 Point B is a point where the straight line OA intersects the imaging plane β (see also FIG. 21). The pixel value of the coordinates of the point B is set as the pixel value of the point A. However, it cannot be expected that the pixel of the captured image is exactly located at the coordinates of the point B, and is generally an intermediate position between pixels obtained by imaging. Therefore, by performing an interpolation process based on the imaging pixel located in the vicinity of the point B coordinate, a pixel value at the point B coordinate is obtained.
また、点Oを原点にとり、至近注視点P1を注視するときにはベクトルOP1(ここに、ベクトルは例えば肉太文字で表すべきであるが、表記上の理由から通常文字で適宜代用することにする。以下同様。)、最遠注視点P2を注視するときにはベクトルOP2、注視点Pkを注視するときにはベクトルOPkの方向をz軸方向とする。さらに、点Oと点Sと点P1または点P2または点Pkとを通る平面上においてこのz軸方向に直交する方向をx軸方向、これらx軸およびz軸に直交する方向をy軸方向として、座標系を設定することにする。 Further, when the point O is taken as the origin and the close focus point P1 is watched, the vector OP1 (here, the vector should be represented by, for example, a bold character, but for the reason of notation, a normal character is appropriately substituted. The same applies hereinafter.) When the farthest gazing point P2 is watched, the vector OP2 is used. When the gazing point Pk is watched, the direction of the vector OPk is the z-axis direction. Further, on the plane passing through the point O, the point S, the point P1, the point P2, or the point Pk, the direction orthogonal to the z-axis direction is the x-axis direction, and the direction orthogonal to the x-axis and z-axis is the y-axis direction. Let's set the coordinate system.
まず、観察物が、例えば図20に示すような平面チャートであるものとする。ここに、図20は、観察物としての平面チャートの一例を示す図である。この平面チャートは、表示画面のアスペクト比(例えば横4:縦3)と一致する矩形状をなし、中心点において交差する水平線および垂直線が描かれているものとする。 First, it is assumed that the observation object is a planar chart as shown in FIG. FIG. 20 is a diagram showing an example of a plane chart as an observation object. This planar chart has a rectangular shape that matches the aspect ratio of the display screen (for example, horizontal 4: longitudinal 3), and horizontal lines and vertical lines that intersect at the center point are drawn.
そして、この平面チャートが、至近位置にあるときには観察平面α1に一致し、最遠位置にあるときには観察平面α2に一致し、点Pkを通る位置にあるときには観察平面αkに一致するように、適宜に拡大縮小されるものとする(すなわち、平面チャートの大きさは、観察したい範囲に合わせて(上述した拡大縮小パラメータωx(k),ωy(k)に応じて)適宜に拡大縮小されるものとする)。これにより、表示画面全体にこの平面チャートの全領域の映像が表示されることになる。 The plane chart matches the observation plane α1 when it is at the closest position, matches the observation plane α2 when it is at the farthest position, and matches the observation plane αk when it is at a position passing through the point Pk. (That is, the size of the planar chart is appropriately scaled according to the range to be observed (according to the above-described scaling parameters ωx (k), ωy (k)). And). As a result, an image of the entire area of the planar chart is displayed on the entire display screen.
このような設定および定義の下に、制御部11が行うべき処理手順の概要は、次のようになる。
(1) まず、観察平面αkにおけるある画素位置(点A)の座標を求める。
(2) 次に、点Aに対応する撮影平面β上の点Bの座標を求める。
(3) 続いて、点Bの近傍に位置する例えば4点の画素位置を求める。そして、求めた4点の画素位置における各画素値に基づいて、点Bにおける画素値を求め、求めた画素値を点Aにおける画素値とする。
上述したような処理を、観察平面αk上の全ての画素位置に対して行うことにより、観察平面αkの画像を表示部に表示することが可能となる。
The outline of the processing procedure to be performed by the
(1) First, the coordinates of a certain pixel position (point A) in the observation plane αk are obtained.
(2) Next, the coordinates of the point B on the imaging plane β corresponding to the point A are obtained.
(3) Subsequently, for example, four pixel positions located in the vicinity of the point B are obtained. Then, the pixel value at the point B is obtained based on the obtained pixel values at the four pixel positions, and the obtained pixel value is set as the pixel value at the point A.
By performing the processing as described above for all pixel positions on the observation plane αk, an image of the observation plane αk can be displayed on the display unit.
このような処理の詳細について、以下に説明する。 Details of such processing will be described below.
まず、処理手順(1)について、図22を参照して説明する。ここに、図22は観察平面αkの画素構成を示す図である。この図22においては、格子点が画素位置を示している。 First, the processing procedure (1) will be described with reference to FIG. FIG. 22 is a diagram showing a pixel configuration on the observation plane αk. In FIG. 22, lattice points indicate pixel positions.
なお、この図22(および後で説明する図24)においては、簡単のために、表示部の画素構成が横9×縦7画素であるものとしてモデル化して説明する。また、後で説明する図23,24においては、同様に簡単のために、撮像部の画素構成が横11×縦9画素であるものとしてモデル化して説明する。ただし、実際の製品等においては、撮像部の画素構成は例えばUXGA(横1600×縦1200)、表示部の画素構成は例えばSVGA(横800×縦600)などといった大きな値をとることになる。 In FIG. 22 (and FIG. 24 to be described later), for the sake of simplicity, the display unit is described as being modeled assuming that the pixel configuration is 9 × 7 pixels. In FIGS. 23 and 24, which will be described later, for the sake of simplicity, the pixel configuration of the image pickup unit is described as being modeled as having horizontal 11 × vertical 9 pixels. However, in an actual product or the like, the pixel configuration of the imaging unit takes a large value, for example, UXGA (horizontal 1600 × vertical 1200), and the pixel configuration of the display unit, for example, SVGA (horizontal 800 × vertical 600).
点Oを原点にとって、上述したように、xyz座標系を設定した場合には、観察平面αkの中心の座標は図13も参照すれば(0,0,Lk)となる。このとき、観察平面αkの4角点の座標は、図22に示すようになる。すなわち、右上角点の座標は、
( Lk・tan{ωx(k)}, Lk・tan{ωy(k)},Lk)
左上角点の座標は、
(−Lk・tan{ωx(k)}, Lk・tan{ωy(k)},Lk)
左下角点の座標は、
(−Lk・tan{ωx(k)},−Lk・tan{ωy(k)},Lk)
右下角点の座標は、
( Lk・tan{ωx(k)},−Lk・tan{ωy(k)},Lk)
となる。
When the xyz coordinate system is set with the point O as the origin as described above, the coordinates of the center of the observation plane αk are (0, 0, Lk) with reference to FIG. At this time, the coordinates of the four corner points of the observation plane αk are as shown in FIG. That is, the coordinates of the upper right corner point are
(Lk · tan {ωx (k)}, Lk · tan {ωy (k)}, Lk)
The coordinates of the upper left corner point are
(−Lk · tan {ωx (k)}, Lk · tan {ωy (k)}, Lk)
The coordinates of the lower left corner point are
(−Lk · tan {ωx (k)}, −Lk · tan {ωy (k)}, Lk)
The coordinates of the lower right corner point are
(Lk · tan {ωx (k)}, −Lk · tan {ωy (k)}, Lk)
It becomes.
そして、観察平面αk上の任意の画素Aij(ここに、iはx方向の画素配列を示す整数、jはy方向の画素配列を示す整数であって、図22に示す例においては、−4≦i≦4,−3≦j≦3)の座標(点Aの座標)は、次の数式1により表される。
[数1]
An arbitrary pixel Aij on the observation plane αk (where i is an integer indicating the pixel arrangement in the x direction, j is an integer indicating the pixel arrangement in the y direction, and in the example shown in FIG. The coordinates of (≦ i ≦ 4, −3 ≦ j ≦ 3) (the coordinates of the point A) are expressed by the following
[Equation 1]
次に、上述した内の処理手順(2)は、次のようになる。 Next, the above-described processing procedure (2) is as follows.
まず、各点の幾何学的配置から、以下のような式が成り立つ。すなわち、tをスカラーの実数パラメータとすると、線分OAの延長上に点Bが位置するために(図13参照)、ベクトルOAとベクトルOBとの間に次の数式2が成り立つ。
[数2]
OB=t・OA
First, the following formula is established from the geometrical arrangement of each point. That is, when t is a scalar real parameter, the point B is located on the extension of the line segment OA (see FIG. 13), so the following
[Equation 2]
OB = t · OA
また、線分OQは撮影平面βに直交することから、ベクトルOQとベクトルQBとの間に次の数式3が成り立つ。
[数3]
(OQ,QB)=0
ここに、記号(x,y)は、ベクトルxとベクトルyとの内積を表している。
Further, since the line segment OQ is orthogonal to the imaging plane β, the following
[Equation 3]
(OQ, QB) = 0
Here, the symbol (x, y) represents the inner product of the vector x and the vector y.
この数式3に現れるベクトルQBは、ベクトルOBとベクトルOQとを用いて、次の数式4に示すように表される。
[数4]
QB=OB−OQ
The vector QB appearing in the
[Equation 4]
QB = OB-OQ
この数式4の右辺のベクトルOB部分に数式2を代入してから、この数式4を数式3に代入することにより、次の数式5を得る。
[数5]
(OQ,t・OA−OQ)=0
Substituting
[Equation 5]
(OQ, t · OA−OQ) = 0
この数式5を変形することにより、パラメータtが次の数式6に示すように求まる。
[数6]
By modifying
[Equation 6]
従って、ベクトルOBの座標は、数式6を数式2に代入することにより、ベクトルOQとベクトルOAとに基づき、次の数式7に示すように求められることになる。
[数7]
Therefore, the coordinates of the vector OB are obtained as shown in the following
[Equation 7]
この数式7の右辺に現れるベクトルOQは、図13を参照すると、次の数式8に示すような成分をもっていることが分かる。
[数8]
It can be seen that the vector OQ appearing on the right side of
[Equation 8]
ところで、上述したように、撮影平面βは仮想平面であり、距離Lwを任意にとることが可能である。距離Lwを任意にとることが可能である意味について、図15および図16を参照して説明する。図15は点Oからの距離がLwである撮影平面βとLw”である撮影平面β”との位置関係を示す平面図、図16は点Oからの距離がLwである撮影平面βとLw”である撮影平面β”との位置関係を示す斜視図である。なお、図16において、点Bが線分QC上にあり、点B”が線分Q”C”上にある例を示しているが、一般には、点Bは撮影平面β上の任意点、点B”は撮影平面β”上の任意点であって構わない。 By the way, as described above, the imaging plane β is a virtual plane, and the distance Lw can be arbitrarily set. The meaning that the distance Lw can be arbitrarily set will be described with reference to FIGS. 15 and 16. 15 is a plan view showing the positional relationship between the imaging plane β whose distance from the point O is Lw and the imaging plane β ″ which is Lw ″, and FIG. 16 is an imaging plane β and Lw whose distance from the point O is Lw. FIG. 6 is a perspective view showing a positional relationship with “imaging plane β”. FIG. 16 shows an example in which the point B is on the line segment QC and the point B ″ is on the line segment Q ″ C ″. However, in general, the point B is an arbitrary point on the imaging plane β, The point B ″ may be an arbitrary point on the imaging plane β ″.
距離Lwを任意にとることが可能であるということは、撮影平面βに平行な平面であるならば、点Oから任意の距離にある平面を新たな撮影平面として設定することができることを意味する。ただし、撮影平面は上述したように水平方向の画角を示す角度θxおよび垂直方向の画角を示す角度θyにより規定されるために、近距離側にとれば距離に比例して縮小され、遠距離側にとれば距離に比例して拡大されることになる。 The fact that the distance Lw can be arbitrarily set means that a plane at an arbitrary distance from the point O can be set as a new shooting plane if the plane is parallel to the shooting plane β. . However, since the photographing plane is defined by the angle θx indicating the horizontal field angle and the angle θy indicating the vertical field angle as described above, it is reduced in proportion to the distance on the short distance side, If it is on the distance side, it is enlarged in proportion to the distance.
ところで、撮影平面βにおける任意の撮影画素位置は、撮影平面β内における相対位置であり、撮影平面β内に相対的な画素座標を設定すれば指定することができる。 By the way, an arbitrary shooting pixel position in the shooting plane β is a relative position in the shooting plane β, and can be specified by setting a relative pixel coordinate in the shooting plane β.
具体例として、撮像素子が横1601×縦1201画素でなるほぼUXGAの構成であるものとする。そして、撮影平面β上の相対的な画素座標を、撮影平面の中心を原点Q(0,0)として、右上角点Cの相対画素座標が(800,600)となるように設定したものとする。この座標の取り方を、撮影平面βまでの距離Lwに依存することなく行うとすると、撮影平面β”においては、原点Q”の相対画素座標は(0,0)、右上角点C”の相対画素座標は(800,600)となる。そして、このときに、同一の相対画素座標で表される撮影平面β上の点Bおよび撮影平面β”上の点B”は、点Oを通る同一直線上にのる。これは、撮影平面が角度θx,θyにより規定されていて、撮影平面の大きさが点Oからの距離に比例して縮小/拡大されるためである(すなわち、三角形OQCと三角形OQ”C”とは相似であり、三角形OQBと三角形OQ”B”とも相似となる)。 As a specific example, it is assumed that the imaging device has a substantially UXGA configuration with horizontal 1601 × vertical 1201 pixels. The relative pixel coordinates on the imaging plane β are set so that the center of the imaging plane is the origin Q (0, 0) and the relative pixel coordinates of the upper right corner point C are (800, 600). To do. If this coordinate is taken without depending on the distance Lw to the imaging plane β, the relative pixel coordinate of the origin Q ″ is (0, 0) and the upper right corner point C ″ is on the imaging plane β ″. The relative pixel coordinates are (800, 600), and at this time, the point B on the imaging plane β and the point B ″ on the imaging plane β ″ represented by the same relative pixel coordinates pass through the point O. This is because the shooting plane is defined by the angles θx and θy, and the size of the shooting plane is reduced / enlarged in proportion to the distance from the point O (that is, a triangle). The OQC and the triangle OQ “C” are similar, and the triangle OQB and the triangle OQ “B” are also similar).
従って、観察平面αk上の点Aと点Oとを通る直線と、撮影平面βと、が交差する点Bの撮影平面β上の相対画素座標は、距離Lwに依ることなく同一であり、点Aの画素値として参照すべき撮影平面β上における点Bの近傍画素値も、距離Lwに依存することなく同一である。 Accordingly, the relative pixel coordinates on the imaging plane β at the point B where the straight line passing through the point A and the point O on the observation plane αk and the imaging plane β intersect are the same regardless of the distance Lw. The neighboring pixel value of the point B on the imaging plane β to be referred to as the pixel value of A is the same without depending on the distance Lw.
このような理由から、観察平面αk上の点Aの画素値を算出するために撮影平面β上の点Bの位置近傍の画素値を参照するに際して、距離Lwは任意で構わないことがわかるために、以下ではLw=1とおくことにする。すると、数式8は、次の数式9に書き換えられる。
[数9]
For this reason, it is understood that the distance Lw may be arbitrary when referring to the pixel value in the vicinity of the position of the point B on the imaging plane β in order to calculate the pixel value of the point A on the observation plane αk. In the following, it is assumed that Lw = 1. Then,
[Equation 9]
従って、上述した数式1、数式7、およびこの数式9により求められる点Bの座標に基づき、この点Bの近傍に位置する画素の画素値から、点Bの位置における画素値を補間して求めれば良いのであるが、後述するような4点補間式を用いて算出を行う際に、点Bのz座標と、補間に用いる画素のz座標とが異なると計算が複雑になるために、ここでは、撮影平面βをy軸周りに角度δkだけ回転させて得られる撮影平面β’(図14に示すように、この撮影平面β’は観察平面αkと平行になる)に関して、必要な情報を求めておくことにする。ここに、図14は撮影平面βをy軸周りに角度δkだけ回転させて得られる撮影平面β’と観察平面αkとを上方から見たときの配置を示す図である。また、図24は、点Oを中心とした射影により観察平面αkが投影された撮影平面βを、さらにy軸周りに角度δkだけ回転させて得られる撮影平面β’の様子を示す図である。なお、この図24においては、理解を助けるために、撮影平面β’における点Q’および4つの角点の座標を記載している(ただし、この図24においてはLwを明記しているが、上述したように、実際の計算においてはLw=1とおけば良い)。
Therefore, based on the coordinates of the point B obtained by the above-described
ここで回転された撮影平面β’に関して必要な情報は、点Qをy軸周りに角度δkだけ回転させて得られる点Q’の座標の情報と、点Bをy軸周りに角度δkだけ回転させて得られる点B’の座標の情報と、である。そして、回転後の撮影平面β’上の任意の点はz座標が同一となるために、この撮影平面β’上の任意の位置はx,y座標の組み合わせだけで表すことが可能である。 The necessary information regarding the rotated imaging plane β ′ includes information on the coordinates of the point Q ′ obtained by rotating the point Q about the y axis by an angle δk, and rotating the point B about the y axis by an angle δk. Information of the coordinates of the point B ′ obtained by the above. Since the arbitrary point on the imaging plane β ′ after rotation has the same z coordinate, the arbitrary position on the imaging plane β ′ can be expressed only by a combination of x and y coordinates.
まず、点Q’は、回転後の撮影平面β’上における各撮像画素の座標を計算するのに必要である。すなわち、撮像画素は、撮影平面β’上にx軸方向およびy軸方向に所定の画素間隔で離散的に配列されている。そして、撮影平面β’の縦横のサイズは、回転によっては変化しないために、撮影平面βの縦横のサイズと同一である。この撮影平面βのx軸方向のサイズは図12〜図14を見れば分かるように2・Lw・tanθxとなり、y軸方向のサイズも同様に2・Lw・tanθyとなって、何れも既知である。従って、点Q’の座標が分かれば、上述したx軸方向およびy軸方向のサイズと、撮像素子のx軸方向およびy軸方向の画素配列と、に基づき、任意の撮像画素の座標を算出することが可能である。 First, the point Q ′ is necessary for calculating the coordinates of each imaging pixel on the rotated imaging plane β ′. That is, the imaging pixels are discretely arranged at predetermined pixel intervals in the x-axis direction and the y-axis direction on the imaging plane β ′. The vertical and horizontal sizes of the imaging plane β ′ are the same as the vertical and horizontal sizes of the imaging plane β because they do not change with rotation. The size of the imaging plane β in the x-axis direction is 2 · Lw · tan θx as shown in FIGS. 12 to 14, and the size in the y-axis direction is also 2 · Lw · tan θy. is there. Therefore, if the coordinates of the point Q ′ are known, the coordinates of an arbitrary imaging pixel are calculated based on the size in the x-axis direction and the y-axis direction described above and the pixel arrangement in the x-axis direction and the y-axis direction of the imaging element. Is possible.
こうして、y軸周りにδkだけ回転する回転行列をV(δk)とすると、ベクトルOQをy軸周りにδkだけ回転して得られるベクトルOQ’は、次の数式10に示すように算出される。
[数10]
OQ’=V(δk)OQ
Thus, if a rotation matrix that rotates about the y-axis by δk is V (δk), a vector OQ ′ obtained by rotating the vector OQ about the y-axis by δk is calculated as shown in
[Equation 10]
OQ '= V (δk) OQ
同様に、ベクトルOBをy軸周りにδkだけ回転して得られるベクトルOB’は、次の数式11に示すように算出される。
[数11]
OB’=V(δk)OB
Similarly, a vector OB ′ obtained by rotating the vector OB about the y axis by δk is calculated as shown in the following
[Equation 11]
OB '= V (δk) OB
なお、点Q’と点B’とは、回転後の撮影平面β’上の点であるために、上述したように、z成分は同一である。 Since the point Q ′ and the point B ′ are points on the imaging plane β ′ after rotation, the z component is the same as described above.
このy軸周りの角度δkの回転行列V(δk)は、具体的には、次の数式12に示すような3行3列の行列として表現される。ここに、回転の正方向は、図13に合わせて右回り方向としている。
[数12]
Specifically, the rotation matrix V (δk) of the angle δk around the y-axis is expressed as a 3 × 3 matrix as shown in the following
[Equation 12]
従って、この数式12を、数式7により求められるベクトルOBと、数式9により求められるベクトルOQとにそれぞれ演算することにより、点B’の座標と点Q’の座標とを得ることができる。
Therefore, the coordinates of the point B ′ and the coordinates of the point Q ′ can be obtained by calculating the
すなわち、数式11に数式7を代入すれば、次の数式13を得る。
[数13]
That is, if the
[Equation 13]
従って、上述した数式1により画素毎に順次算出されるベクトルOAを、この数式13に代入することにより、ベクトルOB’が求められる。また、ベクトルOQ’についても同様に求められる。
Therefore, the vector OB ′ is obtained by substituting the vector OA sequentially calculated for each pixel by the above-described
次に、上述した処理手順(3)について、図22〜図25を参照して説明する。なお、上述では、処理手順(3)に関して、点Bの近傍に位置する例えば4点の画素位置を求めるとして説明したが、演算を簡単にするために処理手順(2)において点Bに代えて点B’を求めるようにしたために、ここでは、点B’の近傍に位置する例えば4点の画素位置を求めることになる。従って、求めた4点の画素位置における各画素値に基づいて、点B’における画素値を求め、求めた画素値を点Aにおける画素値とすることになる。 Next, the process procedure (3) described above will be described with reference to FIGS. In the above description, the processing procedure (3) has been described as obtaining the pixel positions of, for example, four points located in the vicinity of the point B. However, in order to simplify the calculation, the processing procedure (3) is replaced with the point B. Since the point B ′ is obtained, here, for example, four pixel positions located in the vicinity of the point B ′ are obtained. Accordingly, the pixel value at the point B ′ is obtained based on the obtained pixel values at the four pixel positions, and the obtained pixel value is set as the pixel value at the point A.
ここに、図22は上述したように観察平面αkの画素構成を示し、図24は上述したように点Oを中心とした射影により観察平面αkが投影された撮影平面βを、さらにy軸周りに角度δkだけ回転させて得られる撮影平面β’の様子を示している。また、図23は撮影平面βの画素構成を示す図、図25は点B’とその近傍に位置する4点の画素位置とを示す図である。なお、図25は、図24における丸で囲んだ部分の拡大図となっている。 Here, FIG. 22 shows the pixel configuration of the observation plane αk as described above, and FIG. 24 shows the imaging plane β on which the observation plane αk is projected by projection around the point O as described above, and further around the y axis. Shows the state of the imaging plane β ′ obtained by rotating the angle δk. FIG. 23 is a diagram illustrating a pixel configuration on the imaging plane β, and FIG. 25 is a diagram illustrating a point B ′ and four pixel positions located in the vicinity thereof. FIG. 25 is an enlarged view of a circled portion in FIG.
これら図22〜図25において示している格子線は、格子線の交点(格子点)に撮像部の撮像画素または表示部の表示画素があることを意味している。そして、図24の丸で囲んだ部分および図25において、格子点に丸印を付して画素が格子点に位置していることを分かり易く示している。 The grid lines shown in FIGS. 22 to 25 mean that there are imaging pixels of the imaging unit or display pixels of the display unit at intersections (lattice points) of the grid lines. Then, in the circled part of FIG. 24 and FIG. 25, circle points are added to the lattice points to clearly show that the pixel is located at the lattice point.
上述したように、点Aは観察平面αk上の点であって表示部の画素の何れかに対応した点であるが、この点Aに対応する撮影平面β’上の点B’は偶然を除いて撮像部の撮像画素には一致せず、撮像素子の画素同士の中間位置となる。従って、本実施形態においては、4点補間法を用いて点B’の画素値を算出することにする。そのためにまず、点B’の近傍に位置する4点の撮影画素位置を求める。 As described above, the point A is a point on the observation plane αk and corresponds to one of the pixels of the display unit. However, the point B ′ on the imaging plane β ′ corresponding to the point A is a coincidence. Except for the image pickup pixel of the image pickup unit, it is an intermediate position between the pixels of the image pickup element. Therefore, in the present embodiment, the pixel value of the point B ′ is calculated using a four-point interpolation method. For this purpose, first, four photographing pixel positions located in the vicinity of the point B ′ are obtained.
具体的には、画素値の算出を次のように行う。 Specifically, the pixel value is calculated as follows.
まず、x軸方向に隣接する画素同士およびy軸方向に隣接する画素同士の間隔が1になるように座標のスケーリングを選択するものとする。 First, coordinate scaling is selected so that the interval between pixels adjacent in the x-axis direction and pixels adjacent in the y-axis direction is 1.
そして、撮影平面β’上の点B’の座標が、(x+dx,y+dy)(ここに、0≦dx<1かつ0≦dy<1)(なお、上述したように角度δkだけ回転して得られる撮影平面β’はz座標が一定(Lw)であるために、z座標の記載を省略している)となったものとする。 Then, the coordinates of the point B ′ on the imaging plane β ′ are obtained by rotating (x + dx, y + dy) (where 0 ≦ dx <1 and 0 ≦ dy <1) (rotated by the angle δk as described above. It is assumed that the z plane coordinate is fixed (Lw) and thus the z plane coordinate is omitted).
すると、点B’の近傍に位置する4点の撮像画素の座標は、(x,y)、(x+1,y)、(x,y+1)、(x+1,y+1)となる。これら4点の撮像画素の画素値を、座標の前に文字βを付して表すとすると、それぞれβ(x,y)、β(x+1,y)、β(x,y+1)、β(x+1,y+1)となる。 Then, the coordinates of the four imaging pixels located in the vicinity of the point B ′ are (x, y), (x + 1, y), (x, y + 1), and (x + 1, y + 1). If the pixel values of these four image pickup pixels are expressed by adding a character β in front of the coordinates, β (x, y), β (x + 1, y), β (x, y + 1), β (x + 1), respectively. , Y + 1).
すると、点B’の画素値β(x+dx,y+dy)は、これら4点の撮像画素の画素値を用いて、次の数式14に示すように4点補間法に基づき算出することができる。
[数14]
β(x+dx,y+dy)=β(x,y)×(1−dx)(1−dy)
+β(x+1,y)×dx(1−dy)
+β(x,y+1)×(1−dx)dy
+β(x+1,y+1)×dxdy
Then, the pixel value β (x + dx, y + dy) at the point B ′ can be calculated based on the four-point interpolation method as shown in the following
[Formula 14]
β (x + dx, y + dy) = β (x, y) × (1-dx) (1-dy)
+ Β (x + 1, y) × dx (1-dy)
+ Β (x, y + 1) × (1-dx) dy
+ Β (x + 1, y + 1) × dxdy
そして、この数式14により求められた画素値が、点Aの表示画素の画素値となる。
Then, the pixel value obtained by
このような処理を、観察平面αk上の全ての表示画素位置について(つまり、表示機器の全画素について)行うことにより、観察可能な表示を行うことが可能となる。 By performing such processing for all display pixel positions on the observation plane αk (that is, for all pixels of the display device), it is possible to perform observable display.
なお、上述したような処理により行われる画素値の算出は、その都度の演算によって行うようにしても良いし、ルックアップテーブル等を作成しておいて、このルックアップテーブルを参照することにより行うようにしても構わない。 Note that the calculation of the pixel value performed by the processing as described above may be performed by calculation each time, or by creating a lookup table and referring to this lookup table. It doesn't matter if you do.
また、数式14においては4点補間法により点B’の画素値を算出する例を示したが、もちろんこれに限るものではない。他の方法の一例としては、点B’の最も近傍に位置する1点の画素値を選択する技術を用いることが考えられる。この技術を用いれば、演算の付加を軽減して処理を高速化することができる利点がある。また、さらに他の方法の例としては、エッジ方向を検出して、検出されたエッジ方向において近傍に位置する複数点の画素値を平均(あるいは重み付け平均)する技術を用いることが考えられる。この技術を用いれば、水平方向のエッジ、垂直方向のエッジ、斜め方向のエッジなどを保存することができ、撮影画像から観察画像を作成する際の画質劣化を低減することができる利点がある。そして、これらに挙げた例に限らず、その他の方法により画素値を算出するようにしても構わない。
In addition, in
次に、点B’の座標を算出するための構成要素について説明する。なお、構成要素とは、座標の算出に必要な要素のことであり、例えば撮影角度、撮影距離、表示画角等を意味するものである。 Next, components for calculating the coordinates of the point B ′ will be described. Note that the component is an element necessary for calculating coordinates, and means, for example, a shooting angle, a shooting distance, a display angle of view, and the like.
点B’は数式13により算出されるが、この数式13は、ベクトルOQと、ベクトルOAと、回転行列V(δk)と、により構成されている。
The point B ′ is calculated by
ここに、ベクトルOQは数式9により表されており、その構成要素はsinδkとcosδkとである。 Here, the vector OQ is expressed by Equation 9, and its constituent elements are sin δk and cos δk.
また、ベクトルOAは数式1により表されており、その構成要素はLkと、ωx(k)と、ωy(k)とである。
The vector OA is expressed by
さらに、回転行列V(δk)は数式12により表されており、その構成要素はsinδkと、cosδkとである。
Further, the rotation matrix V (δk) is expressed by
従って、点Aの座標を算出するための構成要素は、
Lk、ωx(k)、ωy(k)
であることになる。また、点B’の座標を算出するための構成要素は、
Lk、sinδk、cosδk、ωx(k)、ωy(k)
であることになる。
Therefore, the component for calculating the coordinates of the point A is
Lk, ωx (k), ωy (k)
It will be. Further, the component for calculating the coordinates of the point B ′ is
Lk, sin δk, cos δk, ωx (k), ωy (k)
It will be.
これらの内のcosδkは、余弦定理を用いることにより、次の数式15に示すように求められる。
[数15]
Of these, cos δk is obtained by using the cosine theorem as shown in the following
[Equation 15]
また、sinδkは、三角関数の基本公式にこの数式15を代入することにより、次の数式16に示すように求められる。
Further, sin δk is obtained as shown in the following
[数16]
[Equation 16]
従って、点B’の座標を算出するための構成要素は、
d、L1、Lk、ωx(k)、ωy(k)
であると言い替えることができる。
Therefore, the component for calculating the coordinates of the point B ′ is
d, L1, Lk, ωx (k), ωy (k)
In other words.
さらに、測距部16によって測定した点Sと点Pkとの間の距離をD(Pk)とし、設計によって予め定められた点Sと点P1との間の距離をD(P1)とすると、距離Lkは次の数式17により、距離L1は次の数式18により、それぞれ求められる。
[数17]
[数18]
Furthermore, if the distance between the point S and the point Pk measured by the
[Equation 17]
[Equation 18]
従って、点Aの座標を算出するための構成要素は、
d、D(Pk)、ωx(k)、ωy(k)
であると言い替えることができる。また、点B’の座標を算出するための構成要素は、
d、D(P1)、D(Pk)、ωx(k)、ωy(k)
であるとさらに言い替えることができる。
Therefore, the component for calculating the coordinates of the point A is
d, D (Pk), ωx (k), ωy (k)
In other words. Further, the component for calculating the coordinates of the point B ′ is
d, D (P1), D (Pk), ωx (k), ωy (k)
It can be further rephrased as
これらの内のdは、左目用撮像部12と右目用撮像部13とのカメラ間隔の半分(つまり、カメラ間隔は2dとなる)であって、設計により決定された固定値であるために既知である。
D of these is half of the camera interval between the left-
また、左目用撮像部12と右目用撮像部13との中点Sに配置された測距部16から、左目用撮像部12の光軸と右目用撮像部13の光軸とが交わる点P1までの距離D(P1)も、左目用撮像部12と右目用撮像部13の取り付け位置および角度といった設計により決定された固定値であるために既知である。
Further, from the
さらに、測距部16から観察物の注視点Pkまでの距離D(Pk)は、測距部16により計測して求められる。
Further, the distance D (Pk) from the
加えて、撮像部の撮像領域の範囲内における表示部の表示範囲である観察平面を決定するための拡大縮小パラメータωx(k),ωy(k)は、電子ズームの手動設定あるいは自動設定により決定される。 In addition, the enlargement / reduction parameters ωx (k) and ωy (k) for determining the observation plane that is the display range of the display unit within the imaging region of the imaging unit are determined by manual setting or automatic setting of the electronic zoom. Is done.
こうして、点B’の座標を算出するための構成要素が全て与えられるために、表示画素の点Aに対応する点B’の位置を求めることができることがわかる。 Thus, since all the components for calculating the coordinates of the point B ′ are given, it can be seen that the position of the point B ′ corresponding to the point A of the display pixel can be obtained.
また、電子ズームを行わない場合には、拡大縮小パラメータωx(k),ωy(k)は固定値となるために、一定の表示範囲を示す画角を表すことになる。この場合に、観察平面αk上の任意の画素Aijの座標を算出するための残る構成要素は、
d、D(Pk)
であることになる。また、このことから、点B’の座標を算出するための残る構成要素は、
d、D(P1)、D(Pk)
であることになる。すなわち、表示部の表示範囲(観察平面)が固定されているときは、d、D(Pk)が与えられていれば、これらに基づいて点Aの座標を算出することが可能となり、d、D(P1)、D(Pk)が与えられていれば、点B’の座標を算出することが可能となる。
When the electronic zoom is not performed, the enlargement / reduction parameters ωx (k) and ωy (k) are fixed values, and thus represent an angle of view indicating a certain display range. In this case, the remaining components for calculating the coordinates of an arbitrary pixel Aij on the observation plane αk are:
d, D (Pk)
It will be. Also, from this, the remaining components for calculating the coordinates of the point B ′ are
d, D (P1), D (Pk)
It will be. That is, when the display range (observation plane) of the display unit is fixed, if d and D (Pk) are given, the coordinates of the point A can be calculated based on these, and d, If D (P1) and D (Pk) are given, the coordinates of the point B ′ can be calculated.
なお、点B’の座標を算出するにあたり、上述した距離D(P1)に代えて、左目用撮像部12と右目用撮像部13との輻輳角ψを用いることも可能である。図26は距離D(P1)と輻輳角ψとの関係を示す図である。この図26を参照すると、次の数式19が成り立つことが分かる。
[数19]
In calculating the coordinates of the point B ′, the convergence angle ψ between the left-
[Equation 19]
従って、点B’の座標を算出するための構成要素は、
d、ψ、D(Pk)、ωx(k)、ωy(k)
であると言い替えることも可能である。
Therefore, the component for calculating the coordinates of the point B ′ is
d, ψ, D (Pk), ωx (k), ωy (k)
It is also possible to paraphrase that.
このような実施形態1によれば、射影変換によって台形に歪んだ画像を矩形に補正(台形補正)することができるために、立体視を行う際の左目用画像と右目用画像との周辺におけるずれを低減することができ、観察物が遠近何れの位置にあっても正常に立体視を行うことが可能となる。 According to the first embodiment, since an image distorted into a trapezoid by projective transformation can be corrected to a rectangle (trapezoid correction), in the vicinity of the left-eye image and the right-eye image when performing stereoscopic viewing. The shift can be reduced, and stereoscopic viewing can be normally performed regardless of the position of the observation object.
なお、上述では、一対の撮像部と、測距部と、画像処理部と、一対の表示部と、を一体的に備える立体視画像表示装置を例に挙げたが、もちろんこれに限るものではなく、適宜に別体であっても構わない。例えば、一対の撮像部と測距部とは観察物が存在する場所に設置し、この場所とは遠隔した場所に一対の表示部を配置して、これらを通信回線等で接続して、遠隔的に立体視観察をすることができるような構成であっても構わない。この構成のときには、画像処理部は、一対の撮像部および測距部が存在する場所にあっても良いし、一対の表示部が存在する場所にあっても構わないし、これら以外のその他の場所であって通信回線等で接続された場所にあっても良い。このように、本発明の立体視画像表示装置は、その構成要素の配置場所を限定されるものではない。 In the above description, a stereoscopic image display device that integrally includes a pair of imaging units, a distance measuring unit, an image processing unit, and a pair of display units has been described as an example. There may be another body as appropriate. For example, a pair of imaging unit and distance measuring unit are installed in a place where an observation object exists, a pair of display units are arranged in a place remote from this place, and these are connected by a communication line etc. In other words, the configuration may be such that stereoscopic observation can be performed. In this configuration, the image processing unit may be in a place where a pair of imaging units and a distance measuring unit are present, may be in a place where a pair of display units are present, or other places other than these However, it may be in a place connected by a communication line or the like. Thus, the stereoscopic image display device of the present invention is not limited in the location of the constituent elements.
また、上述では主として立体視画像表示装置について説明したが、上述したような構成の立体視画像表示装置に適用される立体視画像表示方法であっても構わない。 Although the stereoscopic image display apparatus has been mainly described above, a stereoscopic image display method applied to the stereoscopic image display apparatus having the above-described configuration may be used.
そして、本発明は上述した実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除しても良い。さらに、異なる実施形態にわたる構成要素を適宜組み合わせても良い。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能であることは勿論である。 The present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the components without departing from the scope of the invention in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, you may delete some components from all the components shown by embodiment. Furthermore, the constituent elements over different embodiments may be appropriately combined. Thus, it goes without saying that various modifications and applications are possible without departing from the spirit of the invention.
1…立体視画像表示装置
2…本体部
3…左テンプル部
4…右テンプル部
5…フレーム
6…左目用部
7…右目用部
8…ブリッジ部
11…制御部
12…左目用撮像部
13…右目用撮像部
14…左目用表示部
15…右目用表示部
16…測距部
21…プロセッサ
22…不揮発性メモリ
23…左目用画像処理部
24…右目用画像処理部
DESCRIPTION OF
Claims (4)
上記一対の撮像部の中点から観察物までの距離を実質的に測定する測距部と、
上記一対の撮像部から各得られた一対の撮影画像に対してそれぞれ画像処理を行い、該一対の撮像部に各対応する一対の表示画像を生成する画像処理部と、
上記画像処理部により生成された上記一対の表示画像を各表示画面に表示する一対の表示部と、
を具備し、
上記画像処理部は、上記一対の撮像部の間隔と、上記測距部により実質的に測定された上記一対の撮像部の中点から観察物までの距離と、上記一対の撮像部の輻輳角または上記一対の撮像部の光軸の交点から上記一対の撮像部の中点までの距離と、に基づいて、上記一対の表示部の各表示画面に対応する範囲の一対の撮影画像を、上記左右鏡面対称の鏡面に対して左右対称となるように台形補正することにより、上記一対の表示画像を生成するものであることを特徴とする立体視画像表示装置。 A pair of imaging units fixed in left-right mirror symmetry so as to have a predetermined convergence angle at a predetermined interval;
A distance measuring unit that substantially measures the distance from the midpoint of the pair of imaging units to the observation object;
An image processing unit that performs image processing on each pair of captured images obtained from the pair of imaging units, and generates a pair of display images corresponding to the pair of imaging units,
A pair of display units for displaying the pair of display images generated by the image processing unit on each display screen;
Comprising
The image processing unit includes an interval between the pair of imaging units, a distance from a midpoint of the pair of imaging units substantially measured by the ranging unit to an observation object, and a convergence angle of the pair of imaging units. Or, based on the distance from the intersection of the optical axes of the pair of imaging units to the midpoint of the pair of imaging units, a pair of captured images in a range corresponding to each display screen of the pair of display units, A stereoscopic image display device that generates the pair of display images by correcting a keystone so as to be bilaterally symmetric with respect to a mirror surface that is bilaterally mirror-symmetric.
上記画像処理部は、
上記一対の撮像部の間隔と、上記測距部により実質的に測定された上記一対の撮像部の中点から観察物までの距離と、に基づいて上記一対の観察平面上の画素位置を求め、
上記一対の撮像部の間隔と、上記測距部により実質的に測定された上記一対の撮像部の中点から観察物までの距離と、上記一対の撮像部の輻輳角または上記一対の撮像部の光軸の交点から上記一対の撮像部の中点までの距離と、に基づいて上記一対の観察平面上の画素位置に対応する上記一対の撮影平面上の点の位置を求めて、
上記一対の撮影平面上における位置を求めた点の近傍に位置する撮影画素の画素値に基づいて該位置を求めた点の画素値を推定し、推定した画素値を上記一対の観察平面上の画素位置の画素値とすることを、上記一対の観察平面上の全ての画素位置に対して行うことにより、上記台形補正を行うものであることを特徴とする請求項1に記載の立体視画像表示装置。 In a space in which the pair of imaging units, the distance measuring unit, and the observation object exist, a pair of observation planes corresponding to the pair of display images, a pair of imaging planes corresponding to the pair of captured images, When each is set,
The image processing unit
The pixel position on the pair of observation planes is obtained based on the interval between the pair of imaging units and the distance from the midpoint of the pair of imaging units substantially measured by the ranging unit to the observation object. ,
The distance between the pair of imaging units, the distance from the midpoint of the pair of imaging units substantially measured by the ranging unit to the observation object, the convergence angle of the pair of imaging units, or the pair of imaging units The position of the point on the pair of imaging planes corresponding to the pixel position on the pair of observation planes based on the distance from the intersection of the optical axes to the midpoint of the pair of imaging units,
The pixel value of the point for which the position is obtained is estimated based on the pixel value of the photographing pixel located in the vicinity of the point for which the position on the pair of imaging planes is obtained, and the estimated pixel value is calculated on the pair of observation planes The stereoscopic image according to claim 1, wherein the trapezoid correction is performed by setting the pixel value of the pixel position to all the pixel positions on the pair of observation planes. Display device.
上記一対の撮影画像における上記一対の表示画面に各対応する範囲を、拡大縮小パラメータの値に基づいて変化させることにより、上記一対の表示画像が拡大または縮小して表示されるようにする処理をさらに行うものであって、
上記一対の観察平面上の画素位置を、上記一対の撮像部の間隔と、上記測距部により実質的に測定された上記一対の撮像部の中点から観察物までの距離と、に加えて、さらに上記拡大縮小パラメータの値に基づいて求めるものであることを特徴とする請求項2に記載の立体視画像表示装置。 The image processing unit
Processing for causing the pair of display images to be displayed in an enlarged or reduced manner by changing ranges corresponding to the pair of display screens in the pair of captured images based on a value of an enlargement / reduction parameter. And what to do,
In addition to the pixel position on the pair of observation planes, in addition to the distance between the pair of image pickup units and the distance from the midpoint of the pair of image pickup units substantially measured by the distance measuring unit to the observation object The stereoscopic image display apparatus according to claim 2, further obtained based on a value of the enlargement / reduction parameter.
上記一対の撮像部の間隔と、上記測距部により実質的に測定された上記一対の撮像部の中点から観察物までの距離と、上記一対の撮像部の輻輳角または上記一対の撮像部の光軸の交点から上記一対の撮像部の中点までの距離と、に基づいて、上記一対の表示部の各表示画面に対応する範囲の一対の撮影画像を、上記左右鏡面対称の鏡面に対して左右対称となるように台形補正することにより、上記一対の表示画像を生成することを特徴とする立体視画像表示方法。 A pair of imaging units fixed in a mirror symmetry so as to have a predetermined convergence angle at a predetermined interval; and a distance measuring unit that substantially measures the distance from the midpoint of the pair of imaging units to the observation object; A three-dimensional display comprising a pair of display units for displaying on each display screen a pair of display images corresponding to the pair of imaging units generated based on the pair of captured images obtained from the pair of imaging units. A stereoscopic image display method applied to a visual image display device,
The distance between the pair of imaging units, the distance from the midpoint of the pair of imaging units substantially measured by the ranging unit to the observation object, the convergence angle of the pair of imaging units, or the pair of imaging units Based on the distance from the intersection of the optical axes to the midpoint of the pair of imaging units, a pair of photographed images in a range corresponding to each display screen of the pair of display units is placed on the mirror surface that is symmetrical to the left and right mirror surfaces. A stereoscopic image display method comprising generating the pair of display images by correcting a keystone so as to be symmetrical with respect to the left and right.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008167647A JP4825244B2 (en) | 2008-06-26 | 2008-06-26 | Stereoscopic image display device and stereoscopic image display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008167647A JP4825244B2 (en) | 2008-06-26 | 2008-06-26 | Stereoscopic image display device and stereoscopic image display method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010011055A JP2010011055A (en) | 2010-01-14 |
JP4825244B2 true JP4825244B2 (en) | 2011-11-30 |
Family
ID=41591016
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008167647A Expired - Fee Related JP4825244B2 (en) | 2008-06-26 | 2008-06-26 | Stereoscopic image display device and stereoscopic image display method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4825244B2 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5499854B2 (en) | 2010-04-08 | 2014-05-21 | ソニー株式会社 | Optical position adjustment method for head mounted display |
JP4865065B1 (en) * | 2010-07-14 | 2012-02-01 | Bi2−Vision株式会社 | Stereo imaging device control system |
JP5434848B2 (en) | 2010-08-18 | 2014-03-05 | ソニー株式会社 | Display device |
JP6021328B2 (en) * | 2011-12-22 | 2016-11-09 | キヤノン株式会社 | Information processing apparatus, information processing apparatus control method, and program |
JP2015059988A (en) * | 2013-09-17 | 2015-03-30 | 富士通株式会社 | Stereoscopic imaging device stereoscopic image generation method |
CN107438788A (en) | 2015-04-30 | 2017-12-05 | 谷歌公司 | Virtual glasses suit of the correction different from the viewing actual scene of the lens position of eyes |
JP2017026898A (en) * | 2015-07-24 | 2017-02-02 | キヤノン株式会社 | Image display device and optical element |
JP7118650B2 (en) * | 2018-01-18 | 2022-08-16 | キヤノン株式会社 | Display device |
JP7517209B2 (en) * | 2021-03-15 | 2024-07-17 | オムロン株式会社 | Light guide plate device |
CN118104223A (en) * | 2021-10-18 | 2024-05-28 | 索尼集团公司 | Head-mounted display, information processing apparatus, and information processing method |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11341522A (en) * | 1998-05-22 | 1999-12-10 | Fuji Photo Film Co Ltd | Stereoscopic image photographing device |
DE602005013752D1 (en) * | 2005-05-03 | 2009-05-20 | Seac02 S R L | Augmented reality system with identification of the real marking of the object |
JP4634863B2 (en) * | 2005-05-30 | 2011-02-16 | 日本放送協会 | Stereoscopic image generation apparatus and stereoscopic image generation program |
-
2008
- 2008-06-26 JP JP2008167647A patent/JP4825244B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010011055A (en) | 2010-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4825244B2 (en) | Stereoscopic image display device and stereoscopic image display method | |
US8629870B2 (en) | Apparatus, method, and program for displaying stereoscopic images | |
JP2022095776A (en) | Rear-stitched view panorama for rear-view visualization | |
US9507165B2 (en) | Stereoscopic image generation apparatus, stereoscopic image generation method, and program | |
US20140198191A1 (en) | Head mounted image-sensing display device and composite image generating apparatus | |
US6263100B1 (en) | Image processing method and apparatus for generating an image from the viewpoint of an observer on the basis of images obtained from a plurality of viewpoints | |
KR102128407B1 (en) | Method and device for estimating the optical power of corrective lenses in a pair of eyeglasses worn by a spectator | |
JP5844880B2 (en) | Head mounted display, calibration method and calibration program, and recording medium | |
US10942439B2 (en) | Real-time tracking for three-dimensional imaging | |
WO2016038997A1 (en) | Display device, method for driving display device, and electronic device | |
JP2011182236A (en) | Camera calibration apparatus | |
JP2001211403A (en) | Head mount display device and head mount display system | |
JP2015220666A (en) | Display device | |
WO2017133160A1 (en) | Smart eyeglass perspective method and system | |
CN104460011B (en) | Stereoscopic imaging apparatus and stereoscopic image generation method | |
JP2014006674A (en) | Image processing device, control method of the same and program | |
US20110243384A1 (en) | Image processing apparatus and method and program | |
JP2006017632A (en) | Three-dimensional image processor, optical axis adjustment method, and optical axis adjustment support method | |
JP2015191186A (en) | Stereo adapter and stereo image-capturing device | |
JP2016057634A (en) | Head-mounted display, calibration method, calibration program, and recording medium | |
JP2012244466A (en) | Stereoscopic image processing device | |
JP2017215597A (en) | Information display method and information display device | |
JP2018157276A (en) | Image display device, image display method, and program | |
JP2011217326A (en) | Image processing apparatus, projector, and image processing method | |
US11402740B2 (en) | Real-time tracking for three-dimensional imaging |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110422 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110812 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110816 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110909 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4825244 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140916 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |