JP5633345B2 - Image processing apparatus, image display system, and image processing program - Google Patents
Image processing apparatus, image display system, and image processing program Download PDFInfo
- Publication number
- JP5633345B2 JP5633345B2 JP2010270182A JP2010270182A JP5633345B2 JP 5633345 B2 JP5633345 B2 JP 5633345B2 JP 2010270182 A JP2010270182 A JP 2010270182A JP 2010270182 A JP2010270182 A JP 2010270182A JP 5633345 B2 JP5633345 B2 JP 5633345B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- dimensional object
- dimensional
- shape data
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Studio Devices (AREA)
Description
本発明は、画像処理装置、画像表示システムおよび画像処理プログラムに関する。 The present invention relates to an image processing apparatus, an image display system, and an image processing program.
入力された静止画像あるいは動画像に対して、3次元物体のCG(Computer Graphics)画像を合成して描画する技術が知られている。例えば、車両の周囲を撮影した画像を、車両の後方などの任意の視点から見た俯瞰画像に変換するとともに、俯瞰画像上に同じ視点から見た車両のCG画像を合成する「全周囲立体モニタシステム」と呼ばれる技術がある。また、入力画像にCG画像を合成する際に、CG画像に透過処理を施す技術もある。 A technique for synthesizing and drawing a CG (Computer Graphics) image of a three-dimensional object with an input still image or moving image is known. For example, an image that captures the surroundings of a vehicle is converted into an overhead image viewed from an arbitrary viewpoint such as the rear of the vehicle, and a CG image of the vehicle viewed from the same viewpoint is synthesized on the overhead image. There is a technology called "system". There is also a technique for performing transparency processing on a CG image when the CG image is combined with the input image.
上記のように合成するCG画像に透過処理を施すことで、CG画像とともに、このCG画像と重複する背景の画像も視認できるようになる。しかしながら、透過処理されたCG画像と重複する背景の画像の色値や濃淡値は、元の色値や濃淡値から変化してしまうため、CG画像との重複領域における背景の画像の視認性は必ずしも良好とは言えなかった。 By performing the transmission process on the CG image to be synthesized as described above, a background image overlapping with the CG image can be visually recognized together with the CG image. However, since the color value and the gray value of the background image that overlaps with the CG image that has been subjected to the transmission processing change from the original color value and the gray value, the visibility of the background image in the overlapping area with the CG image is It was not necessarily good.
本発明はこのような課題に鑑みてなされたものであり、合成する画像と重複する背景の画像の視認性を向上させることが可能な画像処理装置、画像表示システムおよび画像処理プログラムを提供することを目的とする。 The present invention has been made in view of such problems, and provides an image processing apparatus, an image display system, and an image processing program capable of improving the visibility of a background image overlapping with an image to be synthesized. With the goal.
上記課題を解決するために、画像出力部と、画像合成部とを有する画像処理装置が提供される。画像出力部は、第1の3次元物体の一部が除去されることによって第1の3次元物体が複数の部位に分割された第2の3次元物体の表面形状を示す第1の画像を出力する。画像合成部は、画像出力部から出力された第1の画像を半透明状態で第2の画像に合成する。 In order to solve the above problems, an image processing apparatus having an image output unit and an image composition unit is provided. The image output unit displays a first image indicating a surface shape of the second three-dimensional object obtained by dividing a part of the first three-dimensional object and dividing the first three-dimensional object into a plurality of parts. Output. The image combining unit combines the first image output from the image output unit with the second image in a semi-transparent state.
また、上記課題を解決するために、上記の画像処理装置を含む画像表示システムが提供される。
さらに、上記課題を解決するために、上記の画像処理装置と同様の処理をコンピュータに実行させる画像処理プログラムが提供される。
In order to solve the above problems, an image display system including the image processing apparatus is provided.
Furthermore, in order to solve the above-described problems, an image processing program that causes a computer to execute the same processing as that of the above-described image processing apparatus is provided.
上記の画像処理装置、画像表示システムおよび画像処理プログラムによれば、第2の画像と重複する背景の画像の視認性が向上する。 According to the image processing apparatus, the image display system, and the image processing program described above, the visibility of the background image overlapping the second image is improved.
以下、実施の形態について図面を参照して説明する。
〔第1の実施の形態〕
図1は、第1の実施の形態に係る画像処理装置の構成例およびその動作を示す図である。図1に示す画像処理装置1は、画像出力部2と画像合成部3とを備える。
Hereinafter, embodiments will be described with reference to the drawings.
[First Embodiment]
FIG. 1 is a diagram illustrating a configuration example of an image processing apparatus according to the first embodiment and an operation thereof. An image processing apparatus 1 shown in FIG. 1 includes an image output unit 2 and an image composition unit 3.
画像出力部2は、第1の3次元物体を変形することで得られた第2の3次元物体の表面形状を示す画像を、画像合成部3に対して出力する。第1の3次元物体は、少なくともその表面形状が、3次元形状データによって定義されたものである。そして、第2の3次元物体は、第1の3次元物体の一部が除去されることにより、第1の3次元物体が複数の部位に分割されたものである。 The image output unit 2 outputs an image indicating the surface shape of the second three-dimensional object obtained by deforming the first three-dimensional object to the image composition unit 3. The first three-dimensional object has at least the surface shape defined by the three-dimensional shape data. The second three-dimensional object is obtained by dividing the first three-dimensional object into a plurality of parts by removing a part of the first three-dimensional object.
なお、画像出力部2は、例えば、第1の3次元物体の形状データを基に、第2の3次元物体の形状データを算出することで、第2の3次元物体の表面形状を示す画像を出力してもよい。あるいは、画像出力部2は、あらかじめ記憶部(図示せず)に用意しておいた第2の3次元物体の形状データを基に、第2の3次元物体の表面形状を示す画像を出力してもよい。 Note that the image output unit 2 calculates the shape data of the second three-dimensional object based on the shape data of the first three-dimensional object, for example, thereby displaying the surface shape of the second three-dimensional object. May be output. Alternatively, the image output unit 2 outputs an image indicating the surface shape of the second three-dimensional object based on the shape data of the second three-dimensional object prepared in advance in a storage unit (not shown). May be.
また、画像出力部2が出力する画像は、第1または第2の3次元物体の形状データがどのように定義されているかに関係なく、第2の3次元物体の表面形状のみが現れた画像とされる。例えば、第1の3次元物体が立方体などの外部に対して閉じた立体物であったとしても、画像出力部2からの出力画像には、その立体物を外側から見たときに認識できる外面の形状のみが現れ、その立体物の内部の状態は現れない。 The image output from the image output unit 2 is an image in which only the surface shape of the second three-dimensional object appears regardless of how the shape data of the first or second three-dimensional object is defined. It is said. For example, even if the first three-dimensional object is a three-dimensional object that is closed to the outside, such as a cube, the output image from the image output unit 2 is an outer surface that can be recognized when the three-dimensional object is viewed from the outside. Only the shape of appears, and the internal state of the three-dimensional object does not appear.
画像合成部3は、画像出力部2から出力された画像を他の画像に対して半透明状態で合成し、合成画像を出力する。他の画像とは、例えば、画像出力部2から出力された画像の背景となる背景画像である。 The image synthesis unit 3 synthesizes the image output from the image output unit 2 with another image in a semi-transparent state, and outputs a synthesized image. The other image is, for example, a background image that is the background of the image output from the image output unit 2.
図2は、3次元物体および画像の例を示す図である。
図2に示す物体11,12は、それぞれ上記の第1の3次元物体および第2の3次元物体の例である。物体11は、方向が互いに異なる2つの平板11a,11bが組み合わされた形状をなす。物体12は、物体11の2カ所が除去されることで3つの部位12a,12b,12cに分割された形状をなす。
FIG. 2 is a diagram illustrating an example of a three-dimensional object and an image.
一方、背景画像13は、画像合成部3において物体12の表面形状を示す画像(以下、「表面画像」と称する)と合成される画像の例である。背景画像13には、背景物体13aが描画されている。
On the other hand, the
合成画像14は、画像合成部3によって、背景画像13に対して物体12の表面画像が半透明状態で合成された画像である。合成画像14では、物体12の表面画像と背景画像13とが半透明状態で合成されることにより、物体12の部位12a〜12cの各表面画像と背景物体13aとの重複領域において、物体12の部位12a〜12cと背景物体13aの両方の形状を視認できる。これに加えて、合成画像14では、物体12の部位12aと部位12bと間、および部位12bと部位12cとの間がそれぞれ離間し、これらの離間領域において、背景物体13aを含む背景画像13が、透過処理が施されることなく直接的に描画される。
The synthesized
なお、画像合成部3は、物体12の表面画像を背景画像13と合成する際に、物体12の表面を構成する要素同士が重複する領域についても透過処理を施す。例えば、物体12の表面のうち、平板11aに対応する手前側の面と、平板11bに対応する奥側の面とが重複する領域では、手前側の面と奥側の面とが半透明状態で合成される。ただし、このような透過処理は、物体12の表面画像を画像合成部3に入力する前に、画像出力部2が行ってもよい。
Note that, when the image composition unit 3 composes the surface image of the
ここで、図3は、第1の3次元物体を分割せずに合成する場合の処理を示す図である。
物体11を複数の部位に分割しない状態のまま、背景画像13に対して半透明状態で合成した場合、図3に示す合成画像15が生成される。合成画像15では、例えば、物体11と背景画像13上の背景物体13aとの重複領域では、物体11だけでなく背景物体13aの形状も視認できる。しかしながら、この重複領域では、透過処理により、背景物体13aの色値や濃淡値は、背景物体13aの元の色値や濃淡値とは異なるものとなる。このため、合成する物体同士の明るさ、色、形状などの組合せによっては、背景の物体が視認しにくい場合がある。
Here, FIG. 3 is a diagram illustrating processing when the first three-dimensional object is synthesized without being divided.
When the
これに対して、図2の合成画像14では、物体12の部位12aと部位12bとの間、および部位12bと部位12cとの間がそれぞれ離間する。また、物体12は、物体11が複数の部位に分割された形状をなすので、物体12の表面のうち、手前側の面だけでなく奥側の面にも、部位と部位とが離間した領域が存在することが多くなる。このため、これらの離間領域では、背景画像13が物体12の表面と重複せずに露出した状態になる可能性が高い。
On the other hand, in the
離間領域において背景画像13が物体12の表面と重複しない状態であれば、背景画像13は、元の色値や濃淡値が変化することなくそのまま描画される。従って、図3の合成画像15と比較して、図2の合成画像14の方が、背景画像13の状態の視認性が高くなり、背景画像13に含まれる背景物体13aなどの物体の形状や色などをより正確に認識できるようになる。
If the
なお、第1の3次元物体から除去する領域の数、すなわち、第1の3次元物体を分割して生成された第2の3次元物体の部位の数は、1つより複数個とされる方が、第2の3次元物体における部位の間の離間領域が広くなり、背景の物体の視認性が向上する。ただし、第1の3次元物体から除去する領域の数が多いほど、あるいは、その除去領域が大きいほど、必ずしも背景の物体の視認性が向上するとは言えない。第1の3次元物体から除去する領域の数や大きさは、第1の3次元物体の形状や、第2の3次元物体を画像合成部3にて合成する際の大きさなどに応じて、適切に設定されることが望ましい。 The number of regions to be removed from the first three-dimensional object, that is, the number of parts of the second three-dimensional object generated by dividing the first three-dimensional object is more than one. However, the space between the parts of the second three-dimensional object becomes wider, and the visibility of the background object is improved. However, it cannot be said that the visibility of the background object is necessarily improved as the number of areas to be removed from the first three-dimensional object is larger or the removal area is larger. The number and size of regions to be removed from the first three-dimensional object depend on the shape of the first three-dimensional object, the size when the second three-dimensional object is synthesized by the image synthesis unit 3, and the like. It is desirable to set appropriately.
ところで、上記の画像処理装置1における処理では、第1の3次元物体の一部を除去して得られる第2の3次元物体を合成して描画することで、第1の3次元物体から除去された領域の境界の形状を基に、第1の3次元物体の表面形状を認識しやすくなるという効果も生じる。このような効果は、第1の3次元物体から除去する領域の切断面を、この第1の3次元物体の形状データが定義された3次元座標空間における所定の平面に沿うようにすることで、より顕著になる。第1の3次元物体を平面に沿って切断して分割した場合、例えば、図2の物体11のように表面が平板状であれば、除去された境界は直線となる一方、表面が曲面であれば、除去された境界は曲線となる。従って、第1の3次元物体の形状を認識しやすくなる。
By the way, in the processing in the image processing apparatus 1 described above, the second three-dimensional object obtained by removing a part of the first three-dimensional object is synthesized and drawn to be removed from the first three-dimensional object. Based on the shape of the boundary of the formed region, an effect that the surface shape of the first three-dimensional object can be easily recognized is also produced. Such an effect is achieved by making the cut surface of the region to be removed from the first three-dimensional object along a predetermined plane in the three-dimensional coordinate space in which the shape data of the first three-dimensional object is defined. , Become more prominent. When the first three-dimensional object is cut along a plane and divided, for example, if the surface is flat like the
さらに、図2の物体11を物体12のように分割する場合のように、第1の3次元物体を互いに平行な複数の平面に沿って分割することで、第1の3次元物体の形状をより正確に認識できるようになる。
Further, as in the case where the
図4は、第1の3次元物体を分割する処理の一例を示す図である。
第1の3次元物体を互いに平行な平面に沿って分割する処理では、まず、第1の3次元物体の形状データが定義された3次元座標空間における任意の基準平面が選択される。そして、この基準平面20に平行な複数の分割面に沿って第1の3次元物体が切断され、互いに隣接する2つの分割面に挟まれたストライプ状の領域が除去される。
FIG. 4 is a diagram illustrating an example of a process for dividing the first three-dimensional object.
In the process of dividing the first three-dimensional object along mutually parallel planes, first, an arbitrary reference plane in the three-dimensional coordinate space in which the shape data of the first three-dimensional object is defined is selected. Then, the first three-dimensional object is cut along a plurality of division planes parallel to the
図4では、図2に示した物体11が、基準平面20に平行な分割面21〜24に沿って分割される際の例を示す。図4中の物体11に表された一点鎖線は、分割面21〜24によって切断される際の切断線を示す。物体11から、分割面21と分割面22との間のストライプ状の領域、および、分割面23と分割面24との間のストライプ状の領域をそれぞれ除去することで、図2の物体12が得られる。
FIG. 4 shows an example in which the
図5は、3次元物体の形状についての認識のしやすさについて説明する図である。
図5では、図4に示した分割面21〜24によって切断された切断線を、物体12上に太線によって示す。物体11を平面に沿って分割することで、例えば、元の物体11の表面のうちの平滑な面において切断線が現れるようになり、この切断線によって元の物体11の表面形状を把握しやすくなる。
FIG. 5 is a diagram illustrating the ease of recognizing the shape of a three-dimensional object.
In FIG. 5, the cutting lines cut by the dividing surfaces 21 to 24 illustrated in FIG. 4 are indicated by thick lines on the
特に、物体12のように、物体11を互いに平行な複数の平面に沿って切断し、隣接する平面間のストライプ状の領域を除去した場合には、元の物体11の表面が平面であれば、ストライプ状領域の両端の切断線は平行な直線となる。そして、このように元の物体11の表面が平面である場合を基準として切断線を観察することで、元の物体11の表面形状を容易に把握できる。
In particular, when the
また、分割面21〜24の基準となる基準平面20は、合成画像14において物体12が存在する仮想的な3次元座標空間における水平面(地平面に水平な面)であることが望ましい。ここで言う仮想的な3次元座標空間とは、例えば、物体12の合成対象である背景画像13が仮想的なカメラによって撮像されたものと考えたときに、その仮想カメラが撮像する仮想的な3次元座標空間を指す。そして、物体12の画像が背景画像13に合成される際には、物体12がこの仮想的な3次元座標空間に射影されることになる。
In addition, the
人間が物体を認識するときには、自分が立っている地面に対して水平な面を基準として考えた方が、物体の形状を認識しやすい。従って、基準平面20を上記の仮想的な3次元座標空間における水平面とすることで、元の物体11の表面形状を認識しやすくなる。
When a human recognizes an object, it is easier to recognize the shape of the object when considering a plane parallel to the ground on which he is standing. Therefore, it becomes easy to recognize the surface shape of the
さらに、元の物体11から複数のストライプ状領域を除去することで、物体12の表面に現れる切断線の数が増加するので、物体12上の各切断線の形状から元の物体11の表面形状をより正確に把握できるようになる。
Further, by removing a plurality of stripe regions from the
なお、以上の第1の実施の形態では、第1の3次元物体を1つの基準平面に平行な分割面に沿って分割することで第2の3次元物体を生成したが、他の例として、第1の3次元物体を複数の基準平面にそれぞれ平行な分割面に沿って分割するようにしてもよい。例えば、第1の3次元物体をある基準平面に平行な複数の分割面に沿って分割し、分割後の3次元物体をさらに他の基準平面に平行な複数の分割面に沿って分割することで、第2の3次元物体を生成してもよい。 In the first embodiment described above, the second three-dimensional object is generated by dividing the first three-dimensional object along a division plane parallel to one reference plane. However, as another example, The first three-dimensional object may be divided along dividing planes parallel to the plurality of reference planes. For example, the first three-dimensional object is divided along a plurality of division planes parallel to a certain reference plane, and the divided three-dimensional object is further divided along a plurality of division planes parallel to another reference plane. Thus, a second three-dimensional object may be generated.
〔第2の実施の形態〕
図6は、第2の実施の形態に係る画像表示システムの構成例を示す図である。図6に示す画像表示システムは、撮像装置110、画像処理装置200および表示装置120を備える。
[Second Embodiment]
FIG. 6 is a diagram illustrating a configuration example of an image display system according to the second embodiment. The image display system illustrated in FIG. 6 includes an imaging device 110, an image processing device 200, and a display device 120.
撮像装置110は、CCD(Charge Coupled Devices)、CMOS(Complementary Metal Oxide Semiconductor)センサなどの撮像素子を用いて画像を撮像し、撮像した画像をアナログ信号として画像処理装置200に出力する。画像処理装置200は、撮像装置110によって撮像された画像に対して、仮想的な3次元物体の画像を合成する。表示装置120は、画像処理装置200によって合成処理された画像を表示する。表示装置120は、例えば、LCD(Liquid Crystal Display)、有機EL(EelectroLuminescence)ディスプレイなどである。なお、画像処理装置200と表示装置120とは、一体化されていてもよい。 The imaging device 110 captures an image using an imaging element such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) sensor, and outputs the captured image to the image processing device 200 as an analog signal. The image processing device 200 synthesizes a virtual three-dimensional object image with the image captured by the imaging device 110. The display device 120 displays the image synthesized by the image processing device 200. The display device 120 is, for example, an LCD (Liquid Crystal Display), an organic EL (EelectroLuminescence) display, or the like. Note that the image processing device 200 and the display device 120 may be integrated.
画像処理装置200は、画像入力部210、画像合成部220、分割処理部230、データ変換部240および画像出力部250を備える。なお、画像合成部220は、第1の実施の形態における画像合成部3に対応し、分割処理部230およびデータ変換部240は、第1の実施の形態における画像出力部2に対応する。
The image processing apparatus 200 includes an
さらに、画像処理装置200は、記憶部260を備える。記憶部260は、例えば、フラッシュメモリ、HDD(Hard Disk Drive)などの不揮発性記憶媒体である。記憶部260には、形状データDB(データベース)261、分割パラメータ262、カメラパラメータ263、物体表示パラメータ264および合成パラメータ265が記憶されている。
Further, the image processing apparatus 200 includes a storage unit 260. The storage unit 260 is, for example, a nonvolatile storage medium such as a flash memory or an HDD (Hard Disk Drive). The storage unit 260 stores a shape data DB (database) 261, a
画像入力部210は、撮像装置110から出力されたアナログ画像信号をデジタル化し、画像合成部220に出力する。
合成パラメータ265には、データ変換部240からの出力データに基づく3次元物体の画像を画像合成部220で合成するための各種パラメータが設定される。合成パラメータ265は、例えば、3次元物体の表示色および透過率を含む。なお、合成パラメータ265に含まれる少なくとも一部のパラメータは、ユーザの設定操作などに応じて任意に設定可能であってもよい。
The
In the
画像合成部220は、データ変換部240からの出力データに基づく3次元物体の表面に、合成パラメータ265内の表示色を適用し、この3次元物体の画像を、画像入力部210からの出力画像に対して、合成パラメータ265内の透過率に基づいて半透明状態で合成する。
The
形状データDB261には、3次元物体の表面の3次元形状を定義した形状データが登録される。形状データDB261内の形状データに基づく3次元物体は、第1の実施の形態における第1の3次元物体に対応する。形状データDB261内の形状データは、例えば、所定の基準座標を基準として各頂点の3次元座標が定義された多角形パッチの集合である。あるいは、例えば、3次元物体が直方体などの単純な幾何学形状である場合には、形状データは3次元物体の各辺の長さであってもよい。
In the
分割パラメータ262は、分割処理部230において3次元物体をどのように分割するかを決定するパラメータである。後述するように、分割パラメータ262は、例えば、所定の基準平面を基準とした、基準平面の法線方向に対する位置パラメータである。なお、分割パラメータ262は、ユーザによる設定操作などに応じて任意に設定可能であってもよい。
The
分割処理部230は、形状データDB261内の形状データに基づく3次元物体を、分割パラメータ262に基づいて複数の部位に分割し、分割した3次元物体の形状データをデータ変換部240に出力する。なお、分割処理部230で分割された3次元物体は、第1の実施の形態における第2の3次元物体に対応する。
The
本実施の形態では、分割処理部230は、形状データDB261内の形状データに基づく3次元物体から、互いに平行な複数の分割面に沿った複数のストライプ領域を除去することで、元の3次元物体を分割する。この分割処理は、図2に示した物体11を物体12のように分割する処理に対応する。以下、分割処理部230によって分割処理された3次元物体を「ストライプ状物体」と呼ぶ。分割処理部230は、形状データDB261内の形状データと分割パラメータ262とを基に、ストライプ状物体の形状データを演算し、形状データの演算結果をデータ変換部240に出力する。
In the present embodiment, the
カメラパラメータ263は、ストライプ状物体を仮想的な3次元座標空間に射影する際の仮想的なカメラのパラメータである。カメラパラメータ263は、例えば、仮想カメラの焦点距離、視点位置および視線方向などのパラメータを含む。
The
物体表示パラメータ264は、ストライプ状物体を合成画像上にどのように表示させるかを決定するパラメータである。物体表示パラメータ264は、例えば、ストライプ状物体を上記の仮想的な3次元座標空間に射影する際のストライプ状物体の位置および回転方向などのパラメータを含む。
The
なお、カメラパラメータ263および物体表示パラメータ264に含まれる少なくとも一部のパラメータは、ユーザの設定操作などに応じて任意に設定可能であってもよい。
データ変換部240は、分割処理部230から出力された、ストライプ状物体の形状データを、カメラパラメータ263および物体表示パラメータ264に基づいて変換する。このデータ変換部240での変換処理により、ストライプ状物体を定義した多角形パッチの各頂点の3次元座標が、画像入力部210からの出力画像が定義された2次元座標空間における座標に変換される。
Note that at least some of the parameters included in the
The
画像出力部250は、画像合成部220から出力された合成画像のデジタルデータを、表示用の画像信号に変換して表示装置120に出力し、合成画像を表示装置120に表示させる。
The
次に、分割処理部230の処理例について説明する。
分割処理部230は、形状データDB261内の形状データに基づく3次元物体を、形状データが定義された3次元座標空間上に任意に設定した基準平面に平行な複数の分割面に沿って分割する。基準平面は、例えば、形状データが定義された3次元座標空間における2軸方向に沿った平面とされる。分割処理部230は、3次元物体から、隣接する分割面に挟まれたストライプ状の領域を除去することで、ストライプ状物体を生成する。
Next, a processing example of the
The
基準平面における任意の1点の3次元座標をPBとし、基準平面の法線方向を示すベクトルをnとすると、座標PBの点を通り法線方向に沿った3次元直線上の位置Lは、媒介変数tを用いて次の式(1)で表される。
L=n*t+PB ・・・(1)
式(1)のtは、基準平面の法線方向に対する基準平面からのオフセット量を示す位置パラメータである。そして、分割面のそれぞれについての位置パラメータは、式(1)のtの値として与えられる。すなわち、tの値が決定されれば、着目する分割面の3次元座標上の位置が確定される。分割面は、式(1)で与えられる3次元座標の点を通り、法線方向(ベクトルnの方向)に沿った平面となる。このような分割面は、次の式(2)のような平面式で与えられる。なお、式(2)において、nTはベクトルnの転置行列を示す。
nT*(x−L)=0 ・・・(2)
記憶部260には、分割パラメータ262の例として、分割面のそれぞれについての式(1)におけるtの値が設定される。例えば、形状データDB261内の形状データに基づく3次元物体をm個(ただし、mは2以上の偶数)の分割面に沿って分割する場合、分割パラメータ262は、t1,t2,・・・,tmというm個の位置パラメータを含む。
If the three-dimensional coordinate of an arbitrary point on the reference plane is PB and the vector indicating the normal direction of the reference plane is n, the position L on the three-dimensional straight line passing through the point of the coordinate PB and along the normal direction is It is expressed by the following equation (1) using the parameter t.
L = n * t + PB (1)
In Expression (1), t is a position parameter indicating an offset amount from the reference plane with respect to the normal direction of the reference plane. Then, the position parameter for each of the divided surfaces is given as the value of t in Equation (1). That is, when the value of t is determined, the position on the three-dimensional coordinate of the target split surface is determined. The dividing plane passes through the three-dimensional coordinate point given by the equation (1) and becomes a plane along the normal direction (the direction of the vector n). Such a dividing plane is given by a plane expression such as the following expression (2). In Expression (2), n T represents a transposed matrix of the vector n.
n T * (x−L) = 0 (2)
In the storage unit 260, as an example of the
分割処理部230は、分割パラメータ262に含まれる各分割面に対応する位置パラメータを式(2)に代入することで、各分割面の式を求める。分割処理部230は、形状データDB261内の形状データに基づく3次元物体から、奇数番の分割面とその次の偶数番の分割面とに挟まれる領域を除去することで得られるストライプ状物体の形状データを、形状データDB261内の形状データと各分割面の式とを基に演算する。
The
図7は、分割パラメータの例を示す図である。
図7に示す物体面301は、形状データDB261内の形状データに基づく3次元物体の表面を、基準平面に平行な方向から見たものである。また、図7では、形状データDB261内の形状データに基づく3次元物体を、基準平面にそれぞれ平行な6つの分割面311〜316によって分割する場合の例を示す。この場合、分割パラメータ262として、分割面311〜316にそれぞれ対応する位置パラメータt1〜t6が、記憶部260に設定される。そして、物体面301のうち、分割面311と分割面312との間の領域、分割面313と分割面314との間の領域、分割面315と分割面316との間の領域をそれぞれ除去することで、4つのストライプ状物体面302a〜302dを有するように分割されたストライプ状物体が得られる。
FIG. 7 is a diagram illustrating an example of the division parameter.
An
次に、データ変換部240の処理例について説明する。
カメラパラメータ263には、焦点距離fc、視点位置Pcおよび視線方向Ncが設定され、物体表示パラメータ264には、ストライプ状物体についての物体位置Pmおよび回転方向Rmが設定されるものとする。ストライプ状物体の表面を構成する多角形パッチの各頂点の3次元座標をq_i(ただし、iは多角形パッチの頂点を識別する添え字)とすると、多角形パッチの各頂点は、次の式(3)を用いて仮想的な3次元座標空間に射影される。なお、式(3)において、r_iは、仮想的な3次元座標空間におけるq_iの射影位置の座標を示す。
r_i=Rm*q_i+Pm ・・・(3)
式(3)に基づいて射影されたストライプ状物体を、焦点距離fcで撮像位置の中心を視点位置Pcに置いた仮想カメラで観測したときの仮想撮像画像での2次元空間に射影する。仮想撮像画像での2次元位置は、仮想カメラのレンズのモデルにもよるが、ここでは、通常のレンズに相当する透視射影によるカメラを仮定した場合の例を示す。仮想撮像画像での座標s_iは、次の式(4)および式(5)で求められる。
s_i(x)=fc_x*r_i(x)/r_i(z) ・・・(4)
s_i(y)=fc_y*r_i(y)/r_i(z) ・・・(5)
ただし、s_i(x),s_i(y)は、それぞれ座標s_iのx座標およびy座標を示し、fc_x,fc_yは、それぞれ焦点距離fcのx成分およびy成分を示し、r_i(x),r_i(y),r_i(z)は、それぞれ座標r_iのx座標、y座標、z座標を示す。
Next, a processing example of the
Assume that the
r_i = Rm * q_i + Pm (3)
The striped object projected based on Expression (3) is projected onto a two-dimensional space in a virtual captured image when observed with a virtual camera having the focal position fc and the center of the imaging position at the viewpoint position Pc. Although the two-dimensional position in the virtual captured image depends on the model of the lens of the virtual camera, here, an example in which a camera with perspective projection corresponding to a normal lens is assumed is shown. The coordinates s_i in the virtual captured image are obtained by the following expressions (4) and (5).
s_i (x) = fc_x * r_i (x) / r_i (z) (4)
s_i (y) = fc_y * r_i (y) / r_i (z) (5)
However, s_i (x) and s_i (y) respectively indicate the x coordinate and the y coordinate of the coordinate s_i, fc_x and fc_y respectively indicate the x component and the y component of the focal length fc, and r_i (x) and r_i ( y) and r_i (z) indicate the x coordinate, y coordinate, and z coordinate of the coordinate r_i, respectively.
データ変換部240は、カメラパラメータ263内の焦点距離fc、視点位置Pcおよび視線方向Ncと、物体表示パラメータ264内の物体位置Pmおよび回転方向Rmとに基づき、式(4)および式(5)に従って、ストライプ状物体を定義する多角形パッチの各頂点の座標を変換し、変換後の各頂点の座標を画像合成部220に出力する。上記の式(4)および式(5)を用いた座標変換により、多角形パッチの各頂点が、仮想撮像画像上の2次元座標に変換される。
Based on the focal length fc, the viewpoint position Pc, and the line-of-sight direction Nc in the
なお、以上の図6および図7の説明では、カメラパラメータ263および物体表示パラメータ264は、記憶部260にあらかじめ設定されているものとしたが、これらのパラメータを、画像処理装置200の内部あるいは外部における何らかの処理と連動させて変化させてもよい。例えば、画像入力部210に、1つまたは複数の撮像装置からの撮像画像を基に、任意の視点位置に設置した仮想カメラから3次元空間を撮影した画像を生成する機能を持たせる。この場合、仮想カメラについての視点位置および視線方向を、上記の視点位置Pcおよび視線方向Ncとしてデータ変換部240での変換処理に使用することができる。
In the above description of FIGS. 6 and 7, the
次に、画像処理装置200での処理についてフローチャートを用いて説明する。図8は、第2の実施の形態に係る画像処理装置の処理を示すフローチャートである。この図8のフローチャートは、1フレーム分の合成画像が出力される際の処理を示す。 Next, processing in the image processing apparatus 200 will be described using a flowchart. FIG. 8 is a flowchart showing processing of the image processing apparatus according to the second embodiment. The flowchart of FIG. 8 shows processing when a composite image for one frame is output.
[ステップS11]分割処理部230は、記憶部260に設定された分割パラメータ262に含まれる、各分割面に対応する位置パラメータを、上記の式(2)に代入する。これにより、分割処理部230は、各分割面の式を求める。
[Step S11] The
[ステップS12]分割処理部230は、形状データDB261内の形状データに基づく3次元物体から、ステップS11で求めた分割面のうち、奇数番の分割面とその次の偶数番の分割面とに挟まれる領域を除去することで、ストライプ状物体の形状データを算出する。分割処理部230は、例えば、算出したストライプ状物体の形状データを、画像処理装置200が備えるRAM(図示せず)に一時的に記録する。
[Step S12] The
[ステップS13]データ変換部240は、ステップS12で算出されたストライプ状物体の形状データから、ストライプ状物体の表面形状を定義した1つの多角形パッチの形状データ(多角形パッチの頂点の座標)を選択する。
[Step S13] The
[ステップS14]データ変換部240は、記憶部260に設定されたカメラパラメータ263および物体表示パラメータ264に基づき、ステップS13で選択した多角形パッチの各頂点の3次元座標を、上記の式(4)および式(5)に従って、仮想撮像画像での2次元座標に変換する。データ変換部240は、得られた各頂点の2次元座標を、画像処理装置200が備えるRAMに一時的に記憶する。
[Step S14] Based on the
[ステップS15]データ変換部240は、ステップS12で算出されたストライプ状物体の形状データに含まれるすべての多角形パッチのデータを選択したかを判定する。データ変換部240は、未選択の多角形パッチのデータがある場合には、ステップS13に戻り、未選択の多角形パッチのデータから1つの多角形パッチのデータを選択する。
[Step S15] The
一方、すべての多角形パッチのデータが選択済みである場合、ストライプ状物体の表面画像のデータが、各多角形パッチの2次元座標の集合として生成されたことになる。データ変換部240は、すべての多角形パッチのデータが選択済みの場合には、ステップS16の処理を実行する。
On the other hand, when the data of all the polygon patches has been selected, the surface image data of the striped object is generated as a set of two-dimensional coordinates of each polygon patch. If all the polygon patch data has been selected, the
[ステップS16]画像合成部220は、記憶部260に設定された合成パラメータ265から、ストライプ状物体の表示色と透過率とを抽出する。画像合成部220は、ストライプ状物体の画像を、画像入力部210からの出力画像に対して、合成パラメータ265から抽出した透過率に基づいて半透明状態で合成する。
[Step S <b> 16] The
具体的には、画像合成部220は、ステップS14で変換した各多角形パッチの2次元座標に基づき、合成パラメータ265から抽出した表示色を、各多角形パッチに含まれる各画素の画素値として適用する。画像合成部220は、各多角形パッチの画素値と、画像入力部210からの出力画像の画素値とを、合成パラメータ265から抽出した透過率を適用した所定のブレンディング方法によって合成する。
Specifically, the
なお、多角形パッチ同士が重複する領域では、重複する多角形パッチ間でも透過処理が施される。例えば、画像合成部220は、複数の多角形パッチ同士が重複する領域において、各多角形パッチの画素値を半透明状態で合成処理することで、ストライプ状物体の画像データを生成する。その後、画像合成部220は、生成されたストライプ状物体の画像データと、画像入力部210からの出力画像のデータとを、半透明状態で合成処理する。
Note that in a region where polygon patches overlap each other, transparency processing is also performed between overlapping polygon patches. For example, the
なお、以上の図8の処理例では、ストライプ状物体の表面の色は、合成パラメータ265内の表示色で決定されるただ1つの色とされた。この場合、合成パラメータ265に設定する表示色を変更することで、ストライプ状物体の全体の色を変更することが可能である。ただし、他の例として、ストライプ状物体の表面の色を、形状データDB261にあらかじめ登録しておいてもよい。この場合、例えば、形状データDB261に登録された多角形パッチのそれぞれの形状データに対して色情報が個別に付加されることで、ストライプ状物体の表面の色を場所によって異なる色にすることができる。
In the processing example of FIG. 8 described above, the color of the surface of the striped object is a single color determined by the display color in the
以上説明した第2の実施の形態では、元の3次元物体をストライプ状物体に変形し、そのストライプ状物体を画像入力部210からの出力画像に半透明状態で合成した。これにより、ストライプ状物体の画像と重複する背景画像の状態の視認性が向上するとともに、元の3次元物体の表面形状も把握しやすくなる。
In the second embodiment described above, the original three-dimensional object is transformed into a striped object, and the striped object is combined with the output image from the
〔第3の実施の形態〕
図9は、第3の実施の形態に係る画像表示システムの構成例を示す図である。なお、図9では、図6に対応する構成要素には同じ符号を付して示す。
[Third Embodiment]
FIG. 9 is a diagram illustrating a configuration example of an image display system according to the third embodiment. In FIG. 9, components corresponding to those in FIG. 6 are denoted by the same reference numerals.
第3の実施の形態に係る画像表示システムは、図6に示した第2の実施の形態での画像処理装置200を、図9の画像処理装置200aのような構成に変形したものである。画像処理装置200aは、図6に示した分割処理部230を備えない。その代わり、画像処理装置200aのデータ変換部240は、ストライプ状物体の形状データを、記憶部260に記憶された形状データDB261aから読み込む。形状データDB261aには、図6の形状データDB261に登録された形状データを、図6の分割処理部230によって変換したものと同様の形状データが登録される。
The image display system according to the third embodiment is obtained by modifying the image processing apparatus 200 in the second embodiment shown in FIG. 6 into a configuration like the
以上の第3の実施の形態では、第2の実施の形態で得られる効果に加え、ストライプ状物体の形状データを算出するための演算負荷が軽減され、画像処理装置200aの回路規模を小さくし、消費電力を低減できるという効果も得られる。
In the above third embodiment, in addition to the effects obtained in the second embodiment, the calculation load for calculating the shape data of the striped object is reduced, and the circuit scale of the
〔第4の実施の形態〕
図10は、第4の実施の形態に係る画像表示システムの構成例を示す図である。なお、図10では、図6に対応する構成要素には同じ符号を付して示す。
[Fourth Embodiment]
FIG. 10 is a diagram illustrating a configuration example of an image display system according to the fourth embodiment. In FIG. 10, components corresponding to those in FIG. 6 are denoted by the same reference numerals.
第4の実施の形態に係る画像表示システムは、図6に示した第2の実施の形態での画像処理装置200を、図10の画像処理装置200bのような構成に変形したものである。画像処理装置200bは、形状データDB261内の形状データに基づく3次元物体をストライプ状物体に変形する際の変形の仕方を、ストライプ状物体の合成の仕方を決定するパラメータに応じて変化させることが可能になっている。
The image display system according to the fourth embodiment is obtained by modifying the image processing device 200 in the second embodiment shown in FIG. 6 into a configuration like the image processing device 200b in FIG. The image processing apparatus 200b can change the deformation method when deforming a three-dimensional object based on the shape data in the
画像処理装置200bは、図6に示した画像入力部210、画像合成部220、分割処理部230、データ変換部240および画像出力部250に加え、パラメータ設定部270および分割パラメータ出力部280を備える。また、画像処理装置200bが備える記憶部260には、図6に示した形状データDB261に加え、分割パラメータテーブル266があらかじめ記憶される。
The image processing apparatus 200b includes a
パラメータ設定部270には、入力デバイス271が接続されている。パラメータ設定部270は、入力デバイス271に対するユーザの入力操作に応じたパラメータを出力する。パラメータ設定部270から出力されるパラメータは、図6に示したカメラパラメータ263、物体表示パラメータ264および合成パラメータ265にそれぞれ含まれるパラメータである。
An
パラメータ設定部270は、入力デバイス271への入力操作に応じて出力するパラメータのうち、カメラパラメータおよび物体表示パラメータを分割パラメータ出力部280およびデータ変換部240に出力し、合成パラメータを画像合成部220に出力する。なお、これらのパラメータのうちの一部が、入力デバイス271への入力操作に応じてパラメータ設定部270から出力され、その他のパラメータが記憶部260にあらかじめ記憶されていてもよい。
The
分割パラメータ出力部280は、パラメータ設定部270から出力されるカメラパラメータおよび物体表示パラメータに応じた分割パラメータを、分割処理部230に出力する。分割パラメータは、第2の実施の形態で説明したように、複数の分割面のそれぞれについての基準平面からの位置を示すパラメータである。
The division
なお、パラメータ設定部270は、出力すべきパラメータの指示を、入力デバイス271の代わりに、画像処理装置200bの内部あるいは外部に設けられた処理機能から受け付けてもよい。例えば、画像入力部210に、1つまたは複数の撮像装置からの撮像画像を基に、任意の視点位置に設置した仮想カメラから3次元空間を撮影した画像を生成する機能を持たせる。この場合、パラメータ設定部270は、仮想カメラについての視点位置および視線方向を画像入力部210から受け付けて、分割パラメータ出力部280に出力してもよい。
The
分割パラメータ出力部280は、パラメータ設定部270から出力されるカメラパラメータおよび物体表示パラメータに応じて、仮想カメラからのストライプ状物体の見え方が適切になるように、元の3次元物体をストライプ状に分割する分割の仕方を調整する。本実施の形態では、例として、分割パラメータ出力部280は、画像入力部210からの出力画像に対して合成するストライプ状物体の大きさに応じて、元の3次元物体からストライプ状に除去する領域の数を調整する。
The division
例えば、仮想カメラの焦点距離を短くしたとき(すなわち、広角で撮像したとき)には、合成画像上にストライプ状物体が小さく映るので、ストライプ状に除去する領域の数を小さくして、分割されたそれぞれの部位がある程度の大きさを保つようにする。一方、仮想カメラの焦点距離を長くしたとき(すなわち、望遠で撮像したとき)には、合成画像上にストライプ状物体が大きく映るので、ストライプ状に除去する領域の数を大きくする。 For example, when the focal length of the virtual camera is shortened (that is, when imaging is performed at a wide angle), the striped object appears small on the composite image, so the number of areas to be striped is reduced and divided. Each part should keep a certain size. On the other hand, when the focal length of the virtual camera is increased (that is, when imaging is performed with telephoto), a striped object appears large on the composite image, so the number of regions to be striped is increased.
なお、本実施の形態では例として、分割パラメータ出力部280は、分割パラメータテーブル266を参照して分割パラメータを出力する。分割パラメータテーブル266には、元の3次元物体を分割する分割数と分割パラメータとが対応付けて登録されている。
In this embodiment, as an example, the division
以下、分割パラメータ出力部280の処理の例について説明する。
パラメータ設定部270が出力するカメラパラメータを、焦点距離fc、視点位置Pcおよび視線方向Ncとし、パラメータ設定部270が出力する物体表示パラメータを、物体位置Pmおよび回転方向Rmとする。このとき、仮想カメラからストライプ状物体までの距離を視線方向Ncに投射したときの長さ(距離W)は、次の式(6)で表される。なお、式(6)において、NcTは、視線方向Ncの転置行列を示す。
W=NcT(Pm−Pc)/|Nc| ・・・(6)
仮想カメラによって撮像された仮想撮像画像においてストライプ状物体が映る大きさEは、幾何学的な関係より、次の式(7)で表される。なお、式(7)において、定数E0には代表的な大きさが設定されればよい。
E=E0*fc/W ・・・(7)
式(7)より、大きさEは、焦点距離fcに比例し、距離Wに反比例することがわかるので、以下、焦点距離fcおよび距離Wを用いた演算式を利用する。ストライプ状物体が撮像画像上で基準となる所定の大きさで映るときの分割パラメータを、T_1,T_2,・・・T_m(ただし、mは分割面の数であり、2以上の偶数)として、次の式(8)のようにt_kを定義する。
t_k=T_k*G*W/fc ・・・(8)
式(8)において、Gは、基準距離および基準焦点距離での分割面の数をT_kと同じにするための定数である。このとき、使用する分割パラメータの最大数cを、次の式(9)のように定める。
Hereinafter, an example of processing of the division
The camera parameters output by the
W = Nc T (Pm−Pc) / | Nc | (6)
The size E in which the striped object appears in the virtual captured image captured by the virtual camera is expressed by the following equation (7) from the geometrical relationship. In Expression (7), a representative magnitude may be set for the constant E0.
E = E0 * fc / W (7)
From equation (7), it can be seen that the magnitude E is proportional to the focal length fc and inversely proportional to the distance W. Therefore, an arithmetic expression using the focal length fc and the distance W will be used below. T_1, T_2,..., T_m (where m is the number of divided surfaces and an even number equal to or greater than 2) when the striped object is projected at a predetermined size as a reference on the captured image, T_k is defined as in the following equation (8).
t_k = T_k * G * W / fc (8)
In Expression (8), G is a constant for making the number of division surfaces at the reference distance and the reference focal length the same as T_k. At this time, the maximum number c of division parameters to be used is determined as in the following equation (9).
式(9)は、T_mを超えない最大のt_kを与える添え字(k)をcとすることを意味する。式(8)および式(9)に従って分割パラメータの数(すなわち、分割面の数)を決定することで、仮想撮像画像におけるストライプ状物体の見かけの大きさが小さいほど分割面の数が少なくなり、大きさが大きいほど分割面の数が多くなるように調整される。より具体的には、焦点距離fcが小さいほど、また距離Wが大きいほど、分割面の数が少なくなる。 Equation (9) means that the subscript (k) that gives the maximum t_k not exceeding T_m is c. By determining the number of division parameters (that is, the number of division planes) according to Equation (8) and Equation (9), the number of division planes decreases as the apparent size of the striped object in the virtual captured image decreases. The larger the size, the larger the number of dividing surfaces. More specifically, the smaller the focal length fc and the larger the distance W, the smaller the number of divided surfaces.
図11は、第4の実施の形態に係る画像処理装置の処理を示すフローチャートである。この図11のフローチャートは、1フレーム分の合成画像が出力される際の処理を示す。なお、図11では、図8と同じ処理が行われる処理ステップには同じ符号を付して示す。 FIG. 11 is a flowchart illustrating the processing of the image processing apparatus according to the fourth embodiment. The flowchart of FIG. 11 shows processing when a composite image for one frame is output. In FIG. 11, processing steps in which the same processing as in FIG. 8 is performed are denoted by the same reference numerals.
[ステップS31]入力デバイス271に対する入力操作により、カメラパラメータ、物体表示パラメータおよび合成パラメータが設定される。パラメータ設定部270は、入力デバイス271に対する入力操作に応じて、各パラメータを出力する。なお、出力された各パラメータは、例えば、画像処理装置200bが備えるRAM(図示せず)に一時的に記憶される。
[Step S31] Camera parameters, object display parameters, and composite parameters are set by an input operation on the
[ステップS32]分割パラメータ出力部280は、パラメータ設定部270が出力したパラメータを用いて、式(6)の演算を行う。分割パラメータ出力部280は、算出された距離Wを式(8)に代入するとともに、式(8)に対して、パラメータ設定部270から出力された焦点距離fcと、定数Gとを代入する。分割パラメータ出力部280は、式(8)を用いて、式(9)の条件に合致する分割パラメータ数(式(9)のc)を算出する。
[Step S <b> 32] The division
[ステップS33]分割パラメータ出力部280は、算出した分割パラメータ数を基に、分割パラメータテーブル266を参照して、複数の分割面のそれぞれについての基準平面からの位置を示す分割パラメータを出力する。
[Step S33] The division
分割パラメータテーブル266には、分割パラメータ数と、複数の分割面のそれぞれについての分割パラメータを含む分割パラメータ群とが対応付けて登録されている。分割パラメータ出力部280は、分割パラメータテーブル266から、ステップS32で算出した分割パラメータ数に対応付けられた分割パラメータ群を読み出し、データ変換部240に出力する。
In the division parameter table 266, the number of division parameters and a division parameter group including division parameters for each of a plurality of division planes are registered in association with each other. The division
なお、分割パラメータ出力部280は、ステップS32で算出した分割パラメータ数を基に、複数の分割面のそれぞれについての分割パラメータを計算によって求めてもよい。例えば、分割パラメータ出力部280は、基準平面の放線方向に対する長さの基準値を、ステップS32で算出した分割パラメータ数の分だけ均等に分割することで、各分割面の位置を示す分割パラメータを算出してもよい。
Note that the division
上記のいずれの処理でも、合成画像におけるストライプ状物体の大きさが小さくなった場合でも、元の3次元物体から除去される領域間の間隔が小さくなり過ぎなくなり、合成画像において元の3次元物体の表面形状を把握しやすくなる。 In any of the above processes, even when the size of the striped object in the composite image becomes small, the interval between the regions to be removed from the original three-dimensional object does not become too small, and the original three-dimensional object in the composite image It becomes easy to grasp the surface shape.
この後、図8に示したステップS11〜S16の処理が実行される。ただし、ステップS14において、データ変換部240は、カメラパラメータおよび物体表示パラメータをパラメータ設定部270から取得する。また、ステップS16において、画像合成部220は、合成パラメータをパラメータ設定部270から取得する。
Thereafter, the processes of steps S11 to S16 shown in FIG. 8 are executed. However, in step S <b> 14, the
以上説明した第4の実施の形態では、合成画像におけるストライプ状物体の大きさに応じて、ストライプ状物体を生成する際に元の3次元物体から除去する領域の数を変化させた。これにより、合成画像に映るストライプ状物体が小さくなった場合でも、除去された領域が細かくなり過ぎなくなり、元の3次元物体の表面形状を把握しやすくなる。 In the fourth embodiment described above, the number of regions to be removed from the original three-dimensional object when the stripe object is generated is changed according to the size of the stripe object in the composite image. As a result, even when the striped object shown in the composite image becomes small, the removed region does not become too fine, and the surface shape of the original three-dimensional object can be easily grasped.
〔第5の実施の形態〕
図12は、第5の実施の形態に係る画像表示システムの構成例を示す図である。なお、図12では、図10に対応する構成要素には同じ符号を付して示す。
[Fifth Embodiment]
FIG. 12 is a diagram illustrating a configuration example of an image display system according to the fifth embodiment. In FIG. 12, the same reference numerals are given to the components corresponding to FIG.
第5の実施の形態に係る画像表示システムは、図10に示した第4の実施の形態での画像処理装置200bを、図12の画像処理装置200cのような構成に変形したものである。画像処理装置200cは、図10に示した分割処理部230および分割パラメータ出力部280を備えない代わりに、形状データ選択部290を備える。また、記憶部260には、形状データDB261cが記憶されている。形状データDB261cは、元の3次元物体をそれぞれ異なる分割パラメータを用いて分割した複数のストライプ状物体についての形状データを含む。
The image display system according to the fifth embodiment is obtained by modifying the image processing apparatus 200b in the fourth embodiment shown in FIG. 10 into a configuration like the image processing apparatus 200c in FIG. The image processing apparatus 200c includes a shape
形状データ選択部290は、パラメータ設定部270から出力される各種パラメータに応じて、形状データDB261cから、パラメータに対応するストライプ状物体の形状データを選択して読み込み、読み込んだ形状データをデータ変換部240に出力する。本実施の形態では、形状データ選択部290は、カメラパラメータのうちの焦点距離に基づき、合成画像にストライプ状物体が小さく映るほど、より少ない部位に分割されたストライプ状物体の形状データを形状データDB261cから選択する。これにより、第4の実施の形態と同様に、ストライプ状物体が小さく映った場合でも、元の3次元物体の表面形状を把握しやすくする。
The shape
ここで、形状データDB261cに記憶される形状データの例について詳しく説明する。
形状データDB261cには、元の3次元物体をそれぞれ異なる分割パラメータを用いて分割して得られたNB個のストライプ状物体のそれぞれについての形状データが登録される。一方、第4の実施の形態の説明と同様に、パラメータ設定部270が出力するカメラパラメータを、焦点距離fc、視点位置Pcおよび視線方向Ncとし、パラメータ設定部270が出力する物体表示パラメータを、物体位置Pmおよび回転方向Rmとする。このとき、仮想カメラからストライプ状物体までの距離を視線方向Ncに投射したときの距離Wは、前述の式(6)で表される。
Here, an example of the shape data stored in the shape data DB 261c will be described in detail.
In the shape data DB 261c, shape data for each of the NB stripe-like objects obtained by dividing the original three-dimensional object using different division parameters is registered. On the other hand, as in the description of the fourth embodiment, the camera parameters output by the
ここで、ストライプ状物体までの仮想的な距離Wと焦点距離fcのそれぞれがとり得る範囲をあらかじめ定めておくものとする。距離Wの最小値、最大値をそれぞれW_min,W_maxとし、焦点距離fcの最小値、最大値をそれぞれfc_min,fc_maxとする。距離Wを上記範囲で一定間隔ごとにNw個に区切った距離群のリストWLを、下記の式(10)で定義し、焦点距離fcを上記範囲で一定間隔ごとにNf個に区切った焦点距離群のリストfLを、下記の式(11)で定義する。
WL={W_1,W_2,・・・,W_Nw}(ただし、W1=W_min,W_Nw=W_max) ・・・(10)
fL={fc_1,fc_2,・・・,fc_Nf}(ただし、fc_1=fc_min,fc_Nf=fc_max) ・・・(11)
距離群のリストWL内の要素と焦点距離群のリストfL内の要素とのすべての組合せを、次の式(12)に示す組合せリストPLで定義する。
PL={(W_1,fc_1),(W_1,fc_2),・・・,(W_1,fc_Nf),(W_2,fc_1),(W_2,fc_2),・・・,(W_2,fc_Nf),・・・・・・,(W_Nw,fc_1),(W_Nw,fc_2),・・・,(W_Nw,fc_Nf)} ・・・(12)
このとき、組合せリストPL内の要素数は(Nw*Nf)個となり、この個数が上記のNBに相当する。組合せリストPLの先頭要素から順に1を起点とした整数番号を振り、i番目の要素を(W_u,fc_v)とするとき(ただし、u,vはそれぞれ要素番号)、iは次の式(13)で表される。また、式(13)を基に、u,vはそれぞれ式(14)、式(15)で表される。なお、式(14)のF1は切り捨てを表し、式(15)のF2は剰余を表す。
i=u*Nw+v ・・・(13)
u=F1(i/Nw) ・・・(14)
v=F2(i/Nw) ・・・(15)
形状データDB261cには、上記の組合せリストPLが登録される。
Here, it is assumed that a range that each of the virtual distance W and the focal distance fc to the stripe-shaped object can take is determined in advance. The minimum and maximum values of the distance W are W_min and W_max, respectively, and the minimum and maximum values of the focal length fc are fc_min and fc_max, respectively. A list WL of distance groups in which the distance W is divided into Nw at regular intervals within the above range is defined by the following equation (10), and the focal length fc is divided into Nf at regular intervals within the above range. The group list fL is defined by the following formula (11).
WL = {W_1, W_2,..., W_Nw} (W1 = W_min, W_Nw = W_max) (10)
fL = {fc_1, fc_2,..., fc_Nf} (where fc_1 = fc_min, fc_Nf = fc_max) (11)
All combinations of the elements in the distance group list WL and the elements in the focal distance group list fL are defined by a combination list PL shown in the following equation (12).
PL = {(W_1, fc_1), (W_1, fc_2), ..., (W_1, fc_Nf), (W_2, fc_1), (W_2, fc_2), ..., (W_2, fc_Nf), ... ..., (W_Nw, fc_1), (W_Nw, fc_2), ..., (W_Nw, fc_Nf)} (12)
At this time, the number of elements in the combination list PL is (Nw * Nf), and this number corresponds to the above NB. When integer numbers starting from 1 are assigned in order from the first element of the combination list PL and the i-th element is (W_u, fc_v) (where u and v are element numbers, respectively), i is the following expression (13 ). Moreover, based on Formula (13), u and v are represented by Formula (14) and Formula (15), respectively. In addition, F1 of Formula (14) represents truncation, and F2 of Formula (15) represents a remainder.
i = u * Nw + v (13)
u = F1 (i / Nw) (14)
v = F2 (i / Nw) (15)
The combination list PL is registered in the shape data DB 261c.
次に、仮想カメラによって撮像される仮想撮像画像においてストライプ状物体が映る大きさEは、前述の式(7)より、焦点距離fcに比例し、距離Wに反比例する。このことから、ストライプ状物体が撮像画像上で基準となる所定の大きさで映るときの分割パラメータを、T_1,T_2,・・・T_m(ただし、mは分割面の数であり、2以上の偶数)として、前述の式(8)のようにt_kを定義する。 Next, the size E in which the striped object appears in the virtual captured image captured by the virtual camera is proportional to the focal length fc and inversely proportional to the distance W from the above-described equation (7). Therefore, the division parameters when the striped object is projected at a predetermined size as a reference on the captured image are T_1, T_2,..., T_m (where m is the number of division planes and 2 or more. T_k is defined as in the above equation (8).
組合せリストPLのi番目の要素(W_u,fc_v)について、式(8)の定義に従い、分割パラメータは次の式(16)のように定義される。
t_ki=T_k*G*W_u/fc_v ・・・(16)
このとき、組合せリストPLのi番目の要素(W_u,fc_v)についての分割パラメータの最大数c_iを、次の式(17)のように定める。
For the i-th element (W_u, fc_v) of the combination list PL, the division parameter is defined as in the following expression (16) according to the definition of the expression (8).
t_k i = T_k * G * W_u / fc_v (16)
At this time, the maximum number c_i of the division parameters for the i-th element (W_u, fc_v) of the combination list PL is determined as in the following Expression (17).
式(17)は、T_mを超えない最大のt_kiを与える添え字(k)をc_iとすることを意味する。
式(16)および式(17)より、組合せリストPLのi番目の要素(W_u,fc_v)についての分割パラメータの集合tLiを、次の式(18)のように定義する。
tLi={t_1i,t_2i,・・・,t_c_ii} ・・・(18)
集合tLiは、組合せリストPLのi番目の要素のそれぞれについて定義される。集合tLiを用いて、前述の式(2)より各分割パラメータに対応する分割面が求められる。そして、求められた分割面に沿って、元の3次元物体をストライプ状に分割することで、i番目の要素のそれぞれに対応するストライプ状物体の形状データHiが求められる。形状データHiは、例えば、ストライプ状物体の表面形状を構成する多角形パッチの頂点座標を含む。
Equation (17), means that the c_i subscript (k) to give the maximum of t_k i does not exceed the T_m.
From equation (16) and formula (17), i th element of the combination list PL (W_u, fc_v) a set tL i division parameters for, defined as the following equation (18).
tL i = {t — 1 i , t — 2 i ,..., t_c_i i } (18)
The set tL i is defined for each i-th element of the combination list PL. Using the set tL i , the division plane corresponding to each division parameter is obtained from the above equation (2). Then, along the dividing plane which is determined, by dividing the original three-dimensional object in a stripe shape, shape data H i striped object corresponding to each of the i-th element is required. The shape data Hi includes, for example, vertex coordinates of polygonal patches that form the surface shape of the striped object.
組合せリストPLの要素にそれぞれ対応するストライプ状物体の形状データの集合HLを、次の式(19)によって定義する。形状データDB261aには、組合せリストPLとともに、形状データの集合HLも登録される。
HL={H1,H2,・・・,HNB} ・・・(19)
図13は、第5の実施の形態に係る画像処理装置の処理を示すフローチャートである。この図13のフローチャートは、1フレーム分の合成画像が出力される際の処理を示す。なお、図13では、図8と同じ処理が行われる処理ステップには同じ符号を付して示す。
A set HL of striped object shape data corresponding to each element of the combination list PL is defined by the following equation (19). In the shape data DB 261a, a set HL of shape data is registered together with the combination list PL.
HL = {H 1 , H 2 ,..., H NB } (19)
FIG. 13 is a flowchart illustrating processing of the image processing apparatus according to the fifth embodiment. The flowchart in FIG. 13 shows processing when a composite image for one frame is output. In FIG. 13, processing steps in which the same processing as in FIG. 8 is performed are denoted by the same reference numerals.
[ステップS51]入力デバイス271に対する入力操作により、カメラパラメータ、物体表示パラメータおよび合成パラメータが設定される。パラメータ設定部270は、入力デバイス271に対する入力操作に応じて、各パラメータを出力する。なお、出力された各パラメータは、例えば、画像処理装置200bが備えるRAM(図示せず)に一時的に記憶される。
[Step S51] Camera parameters, object display parameters, and composition parameters are set by an input operation on the
[ステップS52]形状データ選択部290は、パラメータ設定部270から出力されたカメラパラメータおよび物体表示パラメータを用いて、前述の式(6)を演算し、距離Wを算出する。
[Step S52] The shape
[ステップS53]形状データ選択部290は、形状データDB261cに登録された組合せリストPLから、パラメータ設定部270から出力された焦点距離fcと、ステップS52で算出した距離Wとにそれぞれ最も近い値が設定された要素を検索し、その要素番号iを認識する。
[Step S53] The shape
[ステップS54]形状データ選択部290は、形状データDB261cに登録された形状データの集合HLから、ステップS53で認識した要素番号iに対応するストライプ状物体の形状データを読み出す。形状データ選択部290は、読み出したストライプ状物体の形状データを、例えば、画像処理装置200bが備えるRAMに一時的に記憶される。
[Step S54] The shape
この後、図8に示したステップS13〜S16の処理が実行される。ただし、ステップS13において、データ変換部240は、カメラパラメータおよび物体表示パラメータをパラメータ設定部270から取得するとともに、ステップS54で形状データ選択部290が形状データDB261cから読み出した形状データを用いて、変換処理を行う。また、ステップS16において、画像合成部220は、合成パラメータをパラメータ設定部270から取得する。
Thereafter, the processes of steps S13 to S16 shown in FIG. 8 are executed. However, in step S13, the
以上説明した第5の実施の形態では、第4の実施の形態と同様に、合成画像に映るストライプ状物体が小さくなった場合でも、除去された領域が細かくなり過ぎなくなり、元の3次元物体の表面形状を把握しやすくなる。さらに、第5の実施の形態では、それぞれ異なる分割パラメータを用いて元の3次元物体から変形された複数のストライプ状物体のそれぞれの形状データが、形状データDB261cにあらかじめ登録される。このため、設定されるカメラパラメータごとにストライプ状物体の形状データを演算する必要がなくなり、第4の実施の形態と比較して、画像処理装置での演算負荷が軽減される。 In the fifth embodiment described above, similarly to the fourth embodiment, even when the stripe-like object shown in the composite image becomes small, the removed region does not become too fine, and the original three-dimensional object It becomes easy to grasp the surface shape. Furthermore, in the fifth embodiment, the shape data of each of the plurality of striped objects deformed from the original three-dimensional object using different division parameters is registered in advance in the shape data DB 261c. For this reason, it is not necessary to calculate the shape data of the striped object for each set camera parameter, and the calculation load on the image processing apparatus is reduced as compared with the fourth embodiment.
なお、上記各実施の形態における画像処理装置あるいは画像表示システムは、例えば、全周囲立体モニタシステム(非特許文献1を参照)に適用することができる。全周囲立体モニタシステムは、車両の周囲を撮影した画像を、車両の後方などの任意の視点から見た俯瞰画像に変換するとともに、俯瞰画像上に同じ視点から見た車両の仮想画像を合成することで、運転者の運転操作を補助するものである。 The image processing apparatus or the image display system in each of the above embodiments can be applied to, for example, an omnidirectional stereoscopic monitor system (see Non-Patent Document 1). The omnidirectional stereoscopic monitor system converts an image obtained by photographing the periphery of the vehicle into an overhead image viewed from an arbitrary viewpoint such as the rear of the vehicle and synthesizes a virtual image of the vehicle viewed from the same viewpoint on the overhead image. This assists the driving operation of the driver.
上記各実施の形態における画像処理装置の処理を、俯瞰画像上に車両の仮想画像を合成する処理に適用することにより、例えば、俯瞰画像に存在する物体のうち、車両の仮想画像によって隠れてしまう物体を、合成画像上で視認できるようになり、車両の周囲の障害物を運転者が認識しやすくなる。さらに、車両の仮想画像の表面形状を運転者が認識しやすくなり、車両の周囲の障害物と車両との位置関係を運転者がより正確に把握できるようになる。 By applying the process of the image processing device in each of the above embodiments to the process of synthesizing the virtual image of the vehicle on the overhead image, for example, the object existing in the overhead image is hidden by the virtual image of the vehicle. The object can be visually recognized on the composite image, and the driver can easily recognize obstacles around the vehicle. Furthermore, the driver can easily recognize the surface shape of the virtual image of the vehicle, and the driver can more accurately grasp the positional relationship between the obstacles around the vehicle and the vehicle.
なお、上記の各実施の形態における画像処理装置の処理は、例えば、次の図14のようなハードウェア構成のコンピュータにおいて実現することもできる。
図14は、コンピュータのハードウェア構成例を示す図である。
Note that the processing of the image processing apparatus in each of the above embodiments can be realized, for example, by a computer having a hardware configuration as shown in FIG.
FIG. 14 is a diagram illustrating a hardware configuration example of a computer.
図14に示すコンピュータ400は、CPU(Central Processing Unit)401によって装置全体が制御されている。CPU401には、バス409を介して、RAM402と複数の周辺機器が接続されている。
The computer 400 shown in FIG. 14 is entirely controlled by a CPU (Central Processing Unit) 401. A
RAM402は、コンピュータ400の主記憶装置として使用される。RAM402には、CPU401に実行させるOS(Operating System)プログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、RAM402には、CPU401による処理に必要な各種データが格納される。
The
バス409に接続されている周辺機器としては、HDD403、グラフィック処理装置404、入力I/F(インタフェース)405、光学ドライブ装置406、ネットワークI/F407および通信I/F408がある。
Peripheral devices connected to the
HDD403は、内蔵した磁気ディスクに対して、磁気的にデータの書き込みおよび読み出しを行う。HDD403は、コンピュータ400の二次記憶装置として使用される。HDD403には、OSプログラム、アプリケーションプログラム、および各種データが格納される。なお、二次記憶装置としては、フラッシュメモリなどの半導体記憶装置を使用することもできる。
The
グラフィック処理装置404には、モニタ404aが接続されている。グラフィック処理装置404は、CPU401からの命令に従って、画像をモニタ404aに表示させる。なお、モニタ404aは、例えば、LCDである。また、モニタ404aは、コンピュータ400の本体と一体化されていてもよい。
A monitor 404 a is connected to the
入力I/F405には、キーボード405aおよびマウス405bが接続されている。入力I/F405は、キーボード405aやマウス405bからの出力信号をCPU401に送信する。なお、マウス405bは、ポインティングデバイスの一例であり、他のポインティングデバイスを使用することもできる。他のポインティングデバイスとしては、タッチパネル、タブレット、タッチパッド、トラックボールなどがある。また、キーボード405aなどの入力デバイスは、コンピュータ400の本体と一体化されていてもよい。
A keyboard 405a and a mouse 405b are connected to the input I /
光学ドライブ装置406は、レーザ光などを利用して、光ディスク406aに記録されたデータの読み取りを行う。光ディスク406aは、光の反射によって読み取り可能なようにデータが記録された可搬型の記録媒体である。光ディスク406aには、DVD(Digital Versatile Disc)、DVD−RAM、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(Rewritable)などがある。
The
ネットワークI/F407は、ネットワーク407aに接続されている。ネットワークI/F407は、ネットワーク407aを介して他の機器との間でデータを送受信する。
通信I/F408には、撮像装置408aが接続されている。通信I/F408は、撮像装置408aから出力された画像信号を、CPU401に対して出力する。なお、撮像装置408aからの出力画像信号がアナログ信号である場合、通信I/F408は、撮像装置408aからの出力画像信号をデジタル化する機能を備えていてもよい。
The network I /
An imaging device 408a is connected to the communication I /
ここで、図1,図6,図9,図10,図12にそれぞれ示した画像処理装置内の各機能ブロックの処理は、例えば、上記コンピュータ400のCPU401が所定のプログラムを実行することで実現される。また、これらの画像処理装置内の少なくとも一部の機能ブロックの処理は、例えば、グラフィック処理装置404などの専用の回路によって実現されてもよい。
Here, the processing of each functional block in the image processing apparatus shown in FIGS. 1, 6, 9, 10, and 12 is realized by the
このように、上記の各実施の形態における画像処理装置の処理機能は、コンピュータによって実現することができる。その場合、各画像処理装置が有すべき機能の処理内容を記述したプログラムが提供され、そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記憶装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記憶装置には、ハードディスク装置(HDD)、フレキシブルディスク(FD)、磁気テープなどがある。光ディスクには、DVD、DVD−RAM、CD−ROM/RWなどがある。光磁気記録媒体には、MO(Magneto-Optical disk)などがある。 Thus, the processing function of the image processing apparatus in each of the above embodiments can be realized by a computer. In that case, a program describing the processing contents of the functions that each image processing apparatus should have is provided, and the processing functions are realized on the computer by executing the program on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium. Examples of the computer-readable recording medium include a magnetic storage device, an optical disk, a magneto-optical recording medium, and a semiconductor memory. Examples of the magnetic storage device include a hard disk device (HDD), a flexible disk (FD), and a magnetic tape. Optical discs include DVD, DVD-RAM, CD-ROM / RW, and the like. Magneto-optical recording media include MO (Magneto-Optical disk).
プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD、CD−ROMなどの可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。 When distributing the program, for example, a portable recording medium such as a DVD or a CD-ROM in which the program is recorded is sold. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.
プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムまたはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、ネットワークを介して接続されたサーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。 The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. In addition, each time a program is transferred from a server computer connected via a network, the computer can sequentially execute processing according to the received program.
以上の各実施の形態に関し、さらに以下の付記を開示する。
(付記1) 第1の3次元物体の一部が除去されることによって前記第1の3次元物体が複数の部位に分割された第2の3次元物体の表面形状を示す第1の画像を出力する画像出力部と、
前記画像出力部から出力された前記第1の画像を半透明状態で第2の画像に合成する画像合成部と、
を有することを特徴とする画像処理装置。
Regarding the above embodiments, the following supplementary notes are further disclosed.
(Supplementary note 1) A first image showing a surface shape of a second three-dimensional object obtained by dividing a part of the first three-dimensional object into a plurality of parts by removing the first three-dimensional object. An image output unit to output;
An image composition unit for compositing the first image output from the image output unit with a second image in a semi-transparent state;
An image processing apparatus comprising:
(付記2) 前記第1の3次元物体から除去される領域の切断面は、前記第1の3次元物体の形状データが定義された3次元座標空間における所定の平面に沿うことを特徴とする付記1記載の画像処理装置。 (Supplementary Note 2) The cut surface of the region removed from the first three-dimensional object is along a predetermined plane in a three-dimensional coordinate space in which shape data of the first three-dimensional object is defined. The image processing apparatus according to appendix 1.
(付記3) 前記第2の3次元物体の表面は、前記第1の3次元物体の形状データが定義された3次元座標空間における所定の基準平面に平行な複数の分割面に沿って、前記第1の3次元物体の表面がストライプ状に除去された形状をなすことを特徴とする付記2記載の画像処理装置。 (Supplementary Note 3) The surface of the second three-dimensional object is along a plurality of division planes parallel to a predetermined reference plane in a three-dimensional coordinate space in which shape data of the first three-dimensional object is defined. The image processing apparatus according to appendix 2, wherein the surface of the first three-dimensional object is formed in a striped shape.
(付記4) 前記基準平面は、前記画像合成部での合成処理時に前記第2の3次元物体が射影される3次元座標空間における水平面と一致することを特徴とする付記3記載の画像処理装置。 (Supplementary note 4) The image processing apparatus according to supplementary note 3, wherein the reference plane coincides with a horizontal plane in a three-dimensional coordinate space onto which the second three-dimensional object is projected during the composition processing in the image composition unit. .
(付記5) 前記画像出力部は、前記画像合成部から出力される画像における前記第2の3次元物体の見え方を決定するパラメータに基づいて、前記第2の3次元物体において前記第1の3次元物体から除去された領域の数を決定することを特徴とする付記3または4記載の画像処理装置。 (Additional remark 5) The said image output part is based on the parameter which determines the appearance of the said 2nd three-dimensional object in the image output from the said image synthetic | combination part, In the said 2nd three-dimensional object, the said 1st The image processing apparatus according to appendix 3 or 4, wherein the number of regions removed from the three-dimensional object is determined.
(付記6) 前記画像出力部は、前記画像合成部から出力される画像に現れる前記第1の画像の大きさを決定するパラメータに基づいて、前記第2の3次元物体において前記第1の3次元物体から除去された領域の数を決定することを特徴とする付記5記載の画像処理装置。 (Additional remark 6) The said image output part WHEREIN: Based on the parameter which determines the magnitude | size of the said 1st image which appears in the image output from the said image synthetic | combination part, in said 2nd three-dimensional object, said 1st 3 The image processing apparatus according to appendix 5, wherein the number of regions removed from the three-dimensional object is determined.
(付記7) 前記第2の3次元物体は、前記第1の3次元物体の複数箇所が除去されることによって前記複数の部位に分割されたものであることを特徴とする付記1〜4のいずれか1つに記載の画像処理装置。 (Supplementary note 7) The supplementary notes 1 to 4, wherein the second three-dimensional object is divided into the plurality of parts by removing a plurality of portions of the first three-dimensional object. The image processing apparatus according to any one of the above.
(付記8) 前記画像出力部は、前記第1の3次元物体の表面形状を定義した形状データを基に、前記第2の3次元物体の形状データを算出し、算出した形状データを基に前記第1の画像を出力することを特徴とする付記1〜7のいずれか1つに記載の画像処理装置。 (Supplementary Note 8) The image output unit calculates shape data of the second three-dimensional object based on shape data defining a surface shape of the first three-dimensional object, and based on the calculated shape data The image processing apparatus according to any one of appendices 1 to 7, wherein the first image is output.
(付記9) 前記第2の3次元物体の表面形状を示す形状データは、記憶装置にあらかじめ記憶され、
前記画像出力部は、前記記憶装置から読み出した形状データを基に前記第1の画像を出力することを特徴とする付記1〜7のいずれか1つに記載の画像処理装置。
(Supplementary Note 9) Shape data indicating the surface shape of the second three-dimensional object is stored in advance in a storage device,
The image processing apparatus according to any one of appendices 1 to 7, wherein the image output unit outputs the first image based on shape data read from the storage device.
(付記10) 第1の3次元物体の一部が除去されることによって前記第1の3次元物体が複数の部位に分割された第2の3次元物体の表面形状を示す第1の画像を出力する画像出力部と、
前記画像出力部から出力された前記第1の画像を半透明状態で第2の画像に合成する画像合成部と、
を有する画像処理装置と、
前記画像合成部によって合成された画像を表示する表示装置と、
を有することを特徴とする画像表示システム。
(Supplementary Note 10) A first image showing a surface shape of a second three-dimensional object obtained by dividing a part of the first three-dimensional object into a plurality of parts by removing the first three-dimensional object. An image output unit to output;
An image composition unit for compositing the first image output from the image output unit with a second image in a semi-transparent state;
An image processing apparatus having
A display device for displaying an image synthesized by the image synthesis unit;
An image display system comprising:
(付記11) 画像を撮像し、撮像画像を前記画像処理装置に入力する撮像装置をさらに有し、
前記第2の画像は、前記撮像画像に基づく画像である、
ことを特徴とする付記10記載の画像表示システム。
(Additional remark 11) It has an image pick-up device which picturizes an image and inputs a picked-up image into the image processing device,
The second image is an image based on the captured image.
The image display system according to supplementary note 10, wherein
(付記12) コンピュータに、
第1の3次元物体の一部が除去されることによって前記第1の3次元物体が複数の部位に分割された第2の3次元物体の表面形状を示す第1の画像を、第2の画像に対して半透明状態で合成する、
処理を実行させることを特徴とする画像処理プログラム。
(Supplementary note 12)
A first image showing a surface shape of a second three-dimensional object obtained by dividing a part of the first three-dimensional object into a plurality of parts by removing a part of the first three-dimensional object, Compositing the image in a semi-transparent state,
An image processing program for executing a process.
1 画像処理装置
2 画像出力部
3 画像合成部
11,12 物体
11a,11b 平板
12a〜12c 部位
13 背景画像
13a 背景物体
14 合成画像
20 基準平面
21〜24 分割面
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 2 Image output part 3 Image synthetic |
Claims (7)
前記画像出力部から出力された前記第1の画像を半透明状態で第2の画像に合成する画像合成部と、
を有し、
前記第1の3次元物体から除去される領域の切断面は、前記第1の3次元物体の表面形状を定義した第1の3次元形状データが定義された3次元座標空間における所定の基準平面に沿うように設定され、
前記画像出力部は、前記第1の3次元形状データと前記基準平面から前記切断面までの距離を示す距離パラメータとに基づいて、前記第2の3次元物体の第2の3次元形状データを算出し、前記第2の3次元形状データを基に前記第1の画像を出力する、
ことを特徴とする画像処理装置。 Image output for outputting a first image showing a surface shape of a second three-dimensional object obtained by removing a part of the first three-dimensional object and dividing the first three-dimensional object into a plurality of parts And
An image composition unit for compositing the first image output from the image output unit with a second image in a semi-transparent state;
I have a,
The cut surface of the region removed from the first three-dimensional object is a predetermined reference plane in a three-dimensional coordinate space in which first three-dimensional shape data defining the surface shape of the first three-dimensional object is defined. Is set along
The image output unit outputs second 3D shape data of the second 3D object based on the first 3D shape data and a distance parameter indicating a distance from the reference plane to the cut surface. Calculating and outputting the first image based on the second three-dimensional shape data;
An image processing apparatus.
前記画像出力部から出力された前記第1の画像を半透明状態で第2の画像に合成する画像合成部と、
を有する画像処理装置と、
前記画像合成部によって合成された画像を表示する表示装置と、
を有し、
前記第1の3次元物体から除去される領域の切断面は、前記第1の3次元物体の表面形状を定義した第1の3次元形状データが定義された3次元座標空間における所定の基準平面に沿うように設定され、
前記画像出力部は、前記第1の3次元形状データと前記基準平面から前記切断面までの距離を示す距離パラメータとに基づいて、前記第2の3次元物体の第2の3次元形状データを算出し、前記第2の3次元形状データを基に前記第1の画像を出力する、
ことを特徴とする画像表示システム。 Image output for outputting a first image showing a surface shape of a second three-dimensional object obtained by removing a part of the first three-dimensional object and dividing the first three-dimensional object into a plurality of parts And
An image composition unit for compositing the first image output from the image output unit with a second image in a semi-transparent state;
An image processing apparatus having
A display device for displaying an image synthesized by the image synthesis unit;
I have a,
The cut surface of the region removed from the first three-dimensional object is a predetermined reference plane in a three-dimensional coordinate space in which first three-dimensional shape data defining the surface shape of the first three-dimensional object is defined. Is set along
The image output unit outputs second 3D shape data of the second 3D object based on the first 3D shape data and a distance parameter indicating a distance from the reference plane to the cut surface. Calculating and outputting the first image based on the second three-dimensional shape data;
An image display system characterized by that.
前記第2の画像は、前記撮像画像に基づく画像である、
ことを特徴とする請求項5記載の画像表示システム。 An image pickup device for picking up an image and inputting the picked-up image to the image processing device;
The second image is an image based on the captured image.
The image display system according to claim 5 .
第1の3次元物体の一部が除去されることによって前記第1の3次元物体が複数の部位に分割された第2の3次元物体の表面形状を示す第1の画像を出力し、
前記第1の画像を第2の画像に対して半透明状態で合成する、
処理を実行させ、
前記第1の3次元物体から除去される領域の切断面は、前記第1の3次元物体の表面形状を定義した第1の3次元形状データが定義された3次元座標空間における所定の基準平面に沿うように設定され、
前記第1の画像の出力では、前記第1の3次元形状データと前記基準平面から前記切断面までの距離を示す距離パラメータとに基づいて、前記第2の3次元物体の第2の3次元形状データを算出し、前記第2の3次元形状データを基に前記第1の画像を出力する、
ことを特徴とする画像処理プログラム。
On the computer,
Outputs a first image showing a surface shape of the second 3-dimensional object, wherein the first three-dimensional object is divided into a plurality of portions by a portion of the first three-dimensional object is removed,
Combining the first image with the second image in a translucent state;
Let the process run ,
The cut surface of the region removed from the first three-dimensional object is a predetermined reference plane in a three-dimensional coordinate space in which first three-dimensional shape data defining the surface shape of the first three-dimensional object is defined. Is set along
In the output of the first image, the second three-dimensional object of the second three-dimensional object is based on the first three-dimensional shape data and a distance parameter indicating a distance from the reference plane to the cut surface. Calculating shape data and outputting the first image based on the second three-dimensional shape data;
An image processing program characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010270182A JP5633345B2 (en) | 2010-12-03 | 2010-12-03 | Image processing apparatus, image display system, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010270182A JP5633345B2 (en) | 2010-12-03 | 2010-12-03 | Image processing apparatus, image display system, and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012118910A JP2012118910A (en) | 2012-06-21 |
JP5633345B2 true JP5633345B2 (en) | 2014-12-03 |
Family
ID=46501621
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010270182A Expired - Fee Related JP5633345B2 (en) | 2010-12-03 | 2010-12-03 | Image processing apparatus, image display system, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5633345B2 (en) |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0883298A (en) * | 1994-09-12 | 1996-03-26 | Mitsubishi Heavy Ind Ltd | Three-dimensional beam shape generating device from solid shape |
US6697761B2 (en) * | 2000-09-19 | 2004-02-24 | Olympus Optical Co., Ltd. | Three-dimensional position/orientation sensing apparatus, information presenting system, and model error detecting system |
JP4537557B2 (en) * | 2000-09-19 | 2010-09-01 | オリンパス株式会社 | Information presentation system |
JP2002248692A (en) * | 2001-02-23 | 2002-09-03 | Minolta Co Ltd | Three-dimensional shaping system, three-dimensional shaping center, program, memory medium and method for ordering three-dimensional shaping |
JP4154452B2 (en) * | 2003-03-28 | 2008-09-24 | 有限会社アート・コア | How to create a perspective image for advertising purposes. |
JP2005339377A (en) * | 2004-05-28 | 2005-12-08 | Canon Inc | Image processing method and image processor |
EP1717757A1 (en) * | 2005-04-28 | 2006-11-02 | Bayerische Motoren Werke Aktiengesellschaft | Method for graphically displaying the surroundings of a motor vehicle |
JP2007025929A (en) * | 2005-07-14 | 2007-02-01 | Ricoh Co Ltd | Three-dimensional shape display supporting device, three-dimensional shape display supporting method, and program and recording medium |
JP5134504B2 (en) * | 2008-11-06 | 2013-01-30 | クラリオン株式会社 | Vehicle perimeter monitoring system |
-
2010
- 2010-12-03 JP JP2010270182A patent/JP5633345B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2012118910A (en) | 2012-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10349033B2 (en) | Three-dimensional map generating and displaying apparatus and method | |
CN112513712B (en) | Mixed reality system with virtual content warping and method of generating virtual content using the same | |
JP4966431B2 (en) | Image processing device | |
JP5388534B2 (en) | Image processing apparatus and method, head-mounted display, program, and recording medium | |
US11012679B2 (en) | Generating apparatus, generating method, and storage medium | |
KR102359978B1 (en) | Mixed reality system with multi-source virtual content synthesis and method for creating virtual content using same | |
JP5011224B2 (en) | Arbitrary viewpoint video generation apparatus and arbitrary viewpoint video generation program | |
KR100953931B1 (en) | System for constructing mixed reality and Method thereof | |
JP6079131B2 (en) | Image processing apparatus, method, and program | |
KR101181199B1 (en) | Stereoscopic image generation method of background terrain scenes, system using the same and recording medium for the same | |
AU2016336030A1 (en) | Volumetric depth video recording and playback | |
US11995784B2 (en) | Image processing device and image processing method | |
JP7353782B2 (en) | Information processing device, information processing method, and program | |
JP2018040789A (en) | Image distance calculation device, image distance calculation method, and program for image distance calculation | |
JP6762570B2 (en) | Image processing equipment, image processing method, and image processing program | |
KR20110088995A (en) | Method and system for visualizing surveillance camera image in three-dimensional model, and recording medium | |
WO2020208976A1 (en) | Image processing device, image processing method, and program | |
US20220284544A1 (en) | Vehicle undercarriage imaging | |
JP3352454B2 (en) | Image processing apparatus and method, and storage medium | |
JP5633345B2 (en) | Image processing apparatus, image display system, and image processing program | |
JP2010152529A (en) | Vertex texture mapping device and program | |
JP5857606B2 (en) | Depth production support apparatus, depth production support method, and program | |
JP2009205522A (en) | Program, information storage medium, and information conversion system | |
JP7394566B2 (en) | Image processing device, image processing method, and image processing program | |
JP2019144958A (en) | Image processing device, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130904 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140625 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140701 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140827 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140916 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140929 |
|
LAPS | Cancellation because of no payment of annual fees |