JP5633345B2 - Image processing apparatus, image display system, and image processing program - Google Patents

Image processing apparatus, image display system, and image processing program Download PDF

Info

Publication number
JP5633345B2
JP5633345B2 JP2010270182A JP2010270182A JP5633345B2 JP 5633345 B2 JP5633345 B2 JP 5633345B2 JP 2010270182 A JP2010270182 A JP 2010270182A JP 2010270182 A JP2010270182 A JP 2010270182A JP 5633345 B2 JP5633345 B2 JP 5633345B2
Authority
JP
Japan
Prior art keywords
image
dimensional object
dimensional
shape data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010270182A
Other languages
Japanese (ja)
Other versions
JP2012118910A (en
Inventor
中山 收文
收文 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010270182A priority Critical patent/JP5633345B2/en
Publication of JP2012118910A publication Critical patent/JP2012118910A/en
Application granted granted Critical
Publication of JP5633345B2 publication Critical patent/JP5633345B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像処理装置、画像表示システムおよび画像処理プログラムに関する。   The present invention relates to an image processing apparatus, an image display system, and an image processing program.

入力された静止画像あるいは動画像に対して、3次元物体のCG(Computer Graphics)画像を合成して描画する技術が知られている。例えば、車両の周囲を撮影した画像を、車両の後方などの任意の視点から見た俯瞰画像に変換するとともに、俯瞰画像上に同じ視点から見た車両のCG画像を合成する「全周囲立体モニタシステム」と呼ばれる技術がある。また、入力画像にCG画像を合成する際に、CG画像に透過処理を施す技術もある。   A technique for synthesizing and drawing a CG (Computer Graphics) image of a three-dimensional object with an input still image or moving image is known. For example, an image that captures the surroundings of a vehicle is converted into an overhead image viewed from an arbitrary viewpoint such as the rear of the vehicle, and a CG image of the vehicle viewed from the same viewpoint is synthesized on the overhead image. There is a technology called "system". There is also a technique for performing transparency processing on a CG image when the CG image is combined with the input image.

特開平9−50541号公報JP-A-9-50541

清水誠也,外2名、「全周囲立体モニタシステム」、雑誌FUJITSU、富士通株式会社、2009年9月、VOL.60,NO.5、p.496−501Seiya Shimizu, 2 others, “Surrounding Stereo Monitor System”, magazine FUJITSU, Fujitsu Limited, September 2009, VOL. 60, NO. 5, p. 496-501

上記のように合成するCG画像に透過処理を施すことで、CG画像とともに、このCG画像と重複する背景の画像も視認できるようになる。しかしながら、透過処理されたCG画像と重複する背景の画像の色値や濃淡値は、元の色値や濃淡値から変化してしまうため、CG画像との重複領域における背景の画像の視認性は必ずしも良好とは言えなかった。   By performing the transmission process on the CG image to be synthesized as described above, a background image overlapping with the CG image can be visually recognized together with the CG image. However, since the color value and the gray value of the background image that overlaps with the CG image that has been subjected to the transmission processing change from the original color value and the gray value, the visibility of the background image in the overlapping area with the CG image is It was not necessarily good.

本発明はこのような課題に鑑みてなされたものであり、合成する画像と重複する背景の画像の視認性を向上させることが可能な画像処理装置、画像表示システムおよび画像処理プログラムを提供することを目的とする。   The present invention has been made in view of such problems, and provides an image processing apparatus, an image display system, and an image processing program capable of improving the visibility of a background image overlapping with an image to be synthesized. With the goal.

上記課題を解決するために、画像出力部と、画像合成部とを有する画像処理装置が提供される。画像出力部は、第1の3次元物体の一部が除去されることによって第1の3次元物体が複数の部位に分割された第2の3次元物体の表面形状を示す第1の画像を出力する。画像合成部は、画像出力部から出力された第1の画像を半透明状態で第2の画像に合成する。   In order to solve the above problems, an image processing apparatus having an image output unit and an image composition unit is provided. The image output unit displays a first image indicating a surface shape of the second three-dimensional object obtained by dividing a part of the first three-dimensional object and dividing the first three-dimensional object into a plurality of parts. Output. The image combining unit combines the first image output from the image output unit with the second image in a semi-transparent state.

また、上記課題を解決するために、上記の画像処理装置を含む画像表示システムが提供される。
さらに、上記課題を解決するために、上記の画像処理装置と同様の処理をコンピュータに実行させる画像処理プログラムが提供される。
In order to solve the above problems, an image display system including the image processing apparatus is provided.
Furthermore, in order to solve the above-described problems, an image processing program that causes a computer to execute the same processing as that of the above-described image processing apparatus is provided.

上記の画像処理装置、画像表示システムおよび画像処理プログラムによれば、第2の画像と重複する背景の画像の視認性が向上する。   According to the image processing apparatus, the image display system, and the image processing program described above, the visibility of the background image overlapping the second image is improved.

第1の実施の形態に係る画像処理装置の構成例およびその動作を示す図である。It is a figure which shows the structural example of the image processing apparatus which concerns on 1st Embodiment, and its operation | movement. 図2は、3次元物体および画像の例を示す図である。FIG. 2 is a diagram illustrating an example of a three-dimensional object and an image. 第1の3次元物体を分割せずに合成する場合の処理を示す図である。It is a figure which shows the process in the case of synthesize | combining a 1st three-dimensional object, without dividing | segmenting. 第1の3次元物体を分割する処理の一例を示す図である。It is a figure which shows an example of the process which divides | segments a 1st three-dimensional object. 3次元物体の形状についての認識のしやすさについて説明する図である。It is a figure explaining the easiness of recognition about the shape of a three-dimensional object. 第2の実施の形態に係る画像表示システムの構成例を示す図である。It is a figure which shows the structural example of the image display system which concerns on 2nd Embodiment. 分割パラメータの例を示す図である。It is a figure which shows the example of a division | segmentation parameter. 第2の実施の形態に係る画像処理装置の処理を示すフローチャートである。It is a flowchart which shows the process of the image processing apparatus which concerns on 2nd Embodiment. 第3の実施の形態に係る画像表示システムの構成例を示す図である。It is a figure which shows the structural example of the image display system which concerns on 3rd Embodiment. 第4の実施の形態に係る画像表示システムの構成例を示す図である。It is a figure which shows the structural example of the image display system which concerns on 4th Embodiment. 第4の実施の形態に係る画像処理装置の処理を示すフローチャートである。It is a flowchart which shows the process of the image processing apparatus which concerns on 4th Embodiment. 第5の実施の形態に係る画像表示システムの構成例を示す図である。It is a figure which shows the structural example of the image display system which concerns on 5th Embodiment. 第5の実施の形態に係る画像処理装置の処理を示すフローチャートである。It is a flowchart which shows the process of the image processing apparatus which concerns on 5th Embodiment. コンピュータのハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of a computer.

以下、実施の形態について図面を参照して説明する。
〔第1の実施の形態〕
図1は、第1の実施の形態に係る画像処理装置の構成例およびその動作を示す図である。図1に示す画像処理装置1は、画像出力部2と画像合成部3とを備える。
Hereinafter, embodiments will be described with reference to the drawings.
[First Embodiment]
FIG. 1 is a diagram illustrating a configuration example of an image processing apparatus according to the first embodiment and an operation thereof. An image processing apparatus 1 shown in FIG. 1 includes an image output unit 2 and an image composition unit 3.

画像出力部2は、第1の3次元物体を変形することで得られた第2の3次元物体の表面形状を示す画像を、画像合成部3に対して出力する。第1の3次元物体は、少なくともその表面形状が、3次元形状データによって定義されたものである。そして、第2の3次元物体は、第1の3次元物体の一部が除去されることにより、第1の3次元物体が複数の部位に分割されたものである。   The image output unit 2 outputs an image indicating the surface shape of the second three-dimensional object obtained by deforming the first three-dimensional object to the image composition unit 3. The first three-dimensional object has at least the surface shape defined by the three-dimensional shape data. The second three-dimensional object is obtained by dividing the first three-dimensional object into a plurality of parts by removing a part of the first three-dimensional object.

なお、画像出力部2は、例えば、第1の3次元物体の形状データを基に、第2の3次元物体の形状データを算出することで、第2の3次元物体の表面形状を示す画像を出力してもよい。あるいは、画像出力部2は、あらかじめ記憶部(図示せず)に用意しておいた第2の3次元物体の形状データを基に、第2の3次元物体の表面形状を示す画像を出力してもよい。   Note that the image output unit 2 calculates the shape data of the second three-dimensional object based on the shape data of the first three-dimensional object, for example, thereby displaying the surface shape of the second three-dimensional object. May be output. Alternatively, the image output unit 2 outputs an image indicating the surface shape of the second three-dimensional object based on the shape data of the second three-dimensional object prepared in advance in a storage unit (not shown). May be.

また、画像出力部2が出力する画像は、第1または第2の3次元物体の形状データがどのように定義されているかに関係なく、第2の3次元物体の表面形状のみが現れた画像とされる。例えば、第1の3次元物体が立方体などの外部に対して閉じた立体物であったとしても、画像出力部2からの出力画像には、その立体物を外側から見たときに認識できる外面の形状のみが現れ、その立体物の内部の状態は現れない。   The image output from the image output unit 2 is an image in which only the surface shape of the second three-dimensional object appears regardless of how the shape data of the first or second three-dimensional object is defined. It is said. For example, even if the first three-dimensional object is a three-dimensional object that is closed to the outside, such as a cube, the output image from the image output unit 2 is an outer surface that can be recognized when the three-dimensional object is viewed from the outside. Only the shape of appears, and the internal state of the three-dimensional object does not appear.

画像合成部3は、画像出力部2から出力された画像を他の画像に対して半透明状態で合成し、合成画像を出力する。他の画像とは、例えば、画像出力部2から出力された画像の背景となる背景画像である。   The image synthesis unit 3 synthesizes the image output from the image output unit 2 with another image in a semi-transparent state, and outputs a synthesized image. The other image is, for example, a background image that is the background of the image output from the image output unit 2.

図2は、3次元物体および画像の例を示す図である。
図2に示す物体11,12は、それぞれ上記の第1の3次元物体および第2の3次元物体の例である。物体11は、方向が互いに異なる2つの平板11a,11bが組み合わされた形状をなす。物体12は、物体11の2カ所が除去されることで3つの部位12a,12b,12cに分割された形状をなす。
FIG. 2 is a diagram illustrating an example of a three-dimensional object and an image.
Objects 11 and 12 shown in FIG. 2 are examples of the first three-dimensional object and the second three-dimensional object, respectively. The object 11 has a shape in which two flat plates 11a and 11b having different directions are combined. The object 12 has a shape divided into three parts 12a, 12b, and 12c by removing two portions of the object 11.

一方、背景画像13は、画像合成部3において物体12の表面形状を示す画像(以下、「表面画像」と称する)と合成される画像の例である。背景画像13には、背景物体13aが描画されている。   On the other hand, the background image 13 is an example of an image to be combined with an image (hereinafter referred to as “surface image”) indicating the surface shape of the object 12 in the image combining unit 3. In the background image 13, a background object 13a is drawn.

合成画像14は、画像合成部3によって、背景画像13に対して物体12の表面画像が半透明状態で合成された画像である。合成画像14では、物体12の表面画像と背景画像13とが半透明状態で合成されることにより、物体12の部位12a〜12cの各表面画像と背景物体13aとの重複領域において、物体12の部位12a〜12cと背景物体13aの両方の形状を視認できる。これに加えて、合成画像14では、物体12の部位12aと部位12bと間、および部位12bと部位12cとの間がそれぞれ離間し、これらの離間領域において、背景物体13aを含む背景画像13が、透過処理が施されることなく直接的に描画される。   The synthesized image 14 is an image obtained by synthesizing the surface image of the object 12 with the background image 13 in a translucent state by the image synthesizing unit 3. In the composite image 14, the surface image of the object 12 and the background image 13 are combined in a semi-transparent state, so that the surface of the object 12 is overlapped with the surface image of the parts 12a to 12c of the object 12 and the background object 13a. The shapes of both the parts 12a to 12c and the background object 13a can be visually recognized. In addition to this, in the synthesized image 14, the part 12 a and the part 12 b of the object 12 are separated from each other, and the part 12 b and the part 12 c are separated from each other, and the background image 13 including the background object 13 a is separated in these separated regions. The image is drawn directly without being subjected to a transparent process.

なお、画像合成部3は、物体12の表面画像を背景画像13と合成する際に、物体12の表面を構成する要素同士が重複する領域についても透過処理を施す。例えば、物体12の表面のうち、平板11aに対応する手前側の面と、平板11bに対応する奥側の面とが重複する領域では、手前側の面と奥側の面とが半透明状態で合成される。ただし、このような透過処理は、物体12の表面画像を画像合成部3に入力する前に、画像出力部2が行ってもよい。   Note that, when the image composition unit 3 composes the surface image of the object 12 with the background image 13, the image composition unit 3 also performs a transmission process on a region where elements constituting the surface of the object 12 overlap. For example, in a region where the near side surface corresponding to the flat plate 11a and the far side surface corresponding to the flat plate 11b overlap in the surface of the object 12, the near side surface and the far side surface are translucent. Is synthesized. However, such a transmission process may be performed by the image output unit 2 before the surface image of the object 12 is input to the image composition unit 3.

ここで、図3は、第1の3次元物体を分割せずに合成する場合の処理を示す図である。
物体11を複数の部位に分割しない状態のまま、背景画像13に対して半透明状態で合成した場合、図3に示す合成画像15が生成される。合成画像15では、例えば、物体11と背景画像13上の背景物体13aとの重複領域では、物体11だけでなく背景物体13aの形状も視認できる。しかしながら、この重複領域では、透過処理により、背景物体13aの色値や濃淡値は、背景物体13aの元の色値や濃淡値とは異なるものとなる。このため、合成する物体同士の明るさ、色、形状などの組合せによっては、背景の物体が視認しにくい場合がある。
Here, FIG. 3 is a diagram illustrating processing when the first three-dimensional object is synthesized without being divided.
When the object 11 is synthesized in a semi-transparent state with respect to the background image 13 without being divided into a plurality of parts, a synthesized image 15 shown in FIG. 3 is generated. In the composite image 15, for example, in the overlapping region between the object 11 and the background object 13 a on the background image 13, not only the object 11 but also the shape of the background object 13 a can be visually recognized. However, in this overlapping region, the color value and the light and shade value of the background object 13a become different from the original color value and the light and shade value of the background object 13a due to the transmission process. For this reason, depending on the combination of the brightness, color, shape, etc. of the objects to be combined, the background object may be difficult to visually recognize.

これに対して、図2の合成画像14では、物体12の部位12aと部位12bとの間、および部位12bと部位12cとの間がそれぞれ離間する。また、物体12は、物体11が複数の部位に分割された形状をなすので、物体12の表面のうち、手前側の面だけでなく奥側の面にも、部位と部位とが離間した領域が存在することが多くなる。このため、これらの離間領域では、背景画像13が物体12の表面と重複せずに露出した状態になる可能性が高い。   On the other hand, in the synthesized image 14 of FIG. 2, the part 12a and the part 12b of the object 12 and the part 12b and the part 12c are separated from each other. Further, since the object 12 has a shape in which the object 11 is divided into a plurality of parts, a region where the part and the part are separated not only on the front side but also on the back side of the surface of the object 12. There will be more to exist. For this reason, in these separated regions, there is a high possibility that the background image 13 is exposed without overlapping the surface of the object 12.

離間領域において背景画像13が物体12の表面と重複しない状態であれば、背景画像13は、元の色値や濃淡値が変化することなくそのまま描画される。従って、図3の合成画像15と比較して、図2の合成画像14の方が、背景画像13の状態の視認性が高くなり、背景画像13に含まれる背景物体13aなどの物体の形状や色などをより正確に認識できるようになる。   If the background image 13 is not overlapped with the surface of the object 12 in the separated area, the background image 13 is drawn as it is without changing the original color value or gray value. Therefore, compared with the composite image 15 of FIG. 3, the composite image 14 of FIG. 2 has higher visibility of the state of the background image 13, and the shape of the object such as the background object 13a included in the background image 13 Colors can be recognized more accurately.

なお、第1の3次元物体から除去する領域の数、すなわち、第1の3次元物体を分割して生成された第2の3次元物体の部位の数は、1つより複数個とされる方が、第2の3次元物体における部位の間の離間領域が広くなり、背景の物体の視認性が向上する。ただし、第1の3次元物体から除去する領域の数が多いほど、あるいは、その除去領域が大きいほど、必ずしも背景の物体の視認性が向上するとは言えない。第1の3次元物体から除去する領域の数や大きさは、第1の3次元物体の形状や、第2の3次元物体を画像合成部3にて合成する際の大きさなどに応じて、適切に設定されることが望ましい。   The number of regions to be removed from the first three-dimensional object, that is, the number of parts of the second three-dimensional object generated by dividing the first three-dimensional object is more than one. However, the space between the parts of the second three-dimensional object becomes wider, and the visibility of the background object is improved. However, it cannot be said that the visibility of the background object is necessarily improved as the number of areas to be removed from the first three-dimensional object is larger or the removal area is larger. The number and size of regions to be removed from the first three-dimensional object depend on the shape of the first three-dimensional object, the size when the second three-dimensional object is synthesized by the image synthesis unit 3, and the like. It is desirable to set appropriately.

ところで、上記の画像処理装置1における処理では、第1の3次元物体の一部を除去して得られる第2の3次元物体を合成して描画することで、第1の3次元物体から除去された領域の境界の形状を基に、第1の3次元物体の表面形状を認識しやすくなるという効果も生じる。このような効果は、第1の3次元物体から除去する領域の切断面を、この第1の3次元物体の形状データが定義された3次元座標空間における所定の平面に沿うようにすることで、より顕著になる。第1の3次元物体を平面に沿って切断して分割した場合、例えば、図2の物体11のように表面が平板状であれば、除去された境界は直線となる一方、表面が曲面であれば、除去された境界は曲線となる。従って、第1の3次元物体の形状を認識しやすくなる。   By the way, in the processing in the image processing apparatus 1 described above, the second three-dimensional object obtained by removing a part of the first three-dimensional object is synthesized and drawn to be removed from the first three-dimensional object. Based on the shape of the boundary of the formed region, an effect that the surface shape of the first three-dimensional object can be easily recognized is also produced. Such an effect is achieved by making the cut surface of the region to be removed from the first three-dimensional object along a predetermined plane in the three-dimensional coordinate space in which the shape data of the first three-dimensional object is defined. , Become more prominent. When the first three-dimensional object is cut along a plane and divided, for example, if the surface is flat like the object 11 in FIG. 2, the removed boundary is a straight line, while the surface is a curved surface. If so, the removed boundary is a curve. Therefore, it becomes easy to recognize the shape of the first three-dimensional object.

さらに、図2の物体11を物体12のように分割する場合のように、第1の3次元物体を互いに平行な複数の平面に沿って分割することで、第1の3次元物体の形状をより正確に認識できるようになる。   Further, as in the case where the object 11 of FIG. 2 is divided like the object 12, the first three-dimensional object is divided along a plurality of planes parallel to each other, so that the shape of the first three-dimensional object is changed. It becomes possible to recognize more accurately.

図4は、第1の3次元物体を分割する処理の一例を示す図である。
第1の3次元物体を互いに平行な平面に沿って分割する処理では、まず、第1の3次元物体の形状データが定義された3次元座標空間における任意の基準平面が選択される。そして、この基準平面20に平行な複数の分割面に沿って第1の3次元物体が切断され、互いに隣接する2つの分割面に挟まれたストライプ状の領域が除去される。
FIG. 4 is a diagram illustrating an example of a process for dividing the first three-dimensional object.
In the process of dividing the first three-dimensional object along mutually parallel planes, first, an arbitrary reference plane in the three-dimensional coordinate space in which the shape data of the first three-dimensional object is defined is selected. Then, the first three-dimensional object is cut along a plurality of division planes parallel to the reference plane 20, and the stripe-like region sandwiched between the two division planes adjacent to each other is removed.

図4では、図2に示した物体11が、基準平面20に平行な分割面21〜24に沿って分割される際の例を示す。図4中の物体11に表された一点鎖線は、分割面21〜24によって切断される際の切断線を示す。物体11から、分割面21と分割面22との間のストライプ状の領域、および、分割面23と分割面24との間のストライプ状の領域をそれぞれ除去することで、図2の物体12が得られる。   FIG. 4 shows an example in which the object 11 shown in FIG. 2 is divided along the dividing surfaces 21 to 24 parallel to the reference plane 20. The dashed-dotted line represented by the object 11 in FIG. 4 indicates a cutting line when being cut by the dividing surfaces 21 to 24. 2 is removed from the object 11 by removing the stripe-shaped region between the dividing surface 21 and the dividing surface 22 and the stripe-shaped region between the dividing surface 23 and the dividing surface 24, respectively. can get.

図5は、3次元物体の形状についての認識のしやすさについて説明する図である。
図5では、図4に示した分割面21〜24によって切断された切断線を、物体12上に太線によって示す。物体11を平面に沿って分割することで、例えば、元の物体11の表面のうちの平滑な面において切断線が現れるようになり、この切断線によって元の物体11の表面形状を把握しやすくなる。
FIG. 5 is a diagram illustrating the ease of recognizing the shape of a three-dimensional object.
In FIG. 5, the cutting lines cut by the dividing surfaces 21 to 24 illustrated in FIG. 4 are indicated by thick lines on the object 12. By dividing the object 11 along the plane, for example, a cutting line appears on a smooth surface of the surface of the original object 11, and the surface shape of the original object 11 can be easily grasped by the cutting line. Become.

特に、物体12のように、物体11を互いに平行な複数の平面に沿って切断し、隣接する平面間のストライプ状の領域を除去した場合には、元の物体11の表面が平面であれば、ストライプ状領域の両端の切断線は平行な直線となる。そして、このように元の物体11の表面が平面である場合を基準として切断線を観察することで、元の物体11の表面形状を容易に把握できる。   In particular, when the object 11 is cut along a plurality of planes parallel to each other like the object 12 and the striped region between adjacent planes is removed, the surface of the original object 11 is flat. The cutting lines at both ends of the stripe region are parallel straight lines. Then, the surface shape of the original object 11 can be easily grasped by observing the cutting line with reference to the case where the surface of the original object 11 is a flat surface.

また、分割面21〜24の基準となる基準平面20は、合成画像14において物体12が存在する仮想的な3次元座標空間における水平面(地平面に水平な面)であることが望ましい。ここで言う仮想的な3次元座標空間とは、例えば、物体12の合成対象である背景画像13が仮想的なカメラによって撮像されたものと考えたときに、その仮想カメラが撮像する仮想的な3次元座標空間を指す。そして、物体12の画像が背景画像13に合成される際には、物体12がこの仮想的な3次元座標空間に射影されることになる。   In addition, the reference plane 20 serving as a reference for the divided surfaces 21 to 24 is desirably a horizontal plane (a plane horizontal to the ground plane) in a virtual three-dimensional coordinate space in which the object 12 exists in the synthesized image 14. The virtual three-dimensional coordinate space referred to here is, for example, a virtual image captured by the virtual camera when the background image 13 that is the synthesis target of the object 12 is considered captured by the virtual camera. Refers to a three-dimensional coordinate space. When the image of the object 12 is combined with the background image 13, the object 12 is projected onto this virtual three-dimensional coordinate space.

人間が物体を認識するときには、自分が立っている地面に対して水平な面を基準として考えた方が、物体の形状を認識しやすい。従って、基準平面20を上記の仮想的な3次元座標空間における水平面とすることで、元の物体11の表面形状を認識しやすくなる。   When a human recognizes an object, it is easier to recognize the shape of the object when considering a plane parallel to the ground on which he is standing. Therefore, it becomes easy to recognize the surface shape of the original object 11 by setting the reference plane 20 as a horizontal plane in the virtual three-dimensional coordinate space.

さらに、元の物体11から複数のストライプ状領域を除去することで、物体12の表面に現れる切断線の数が増加するので、物体12上の各切断線の形状から元の物体11の表面形状をより正確に把握できるようになる。   Further, by removing a plurality of stripe regions from the original object 11, the number of cutting lines appearing on the surface of the object 12 increases, so that the surface shape of the original object 11 is changed from the shape of each cutting line on the object 12. Can be grasped more accurately.

なお、以上の第1の実施の形態では、第1の3次元物体を1つの基準平面に平行な分割面に沿って分割することで第2の3次元物体を生成したが、他の例として、第1の3次元物体を複数の基準平面にそれぞれ平行な分割面に沿って分割するようにしてもよい。例えば、第1の3次元物体をある基準平面に平行な複数の分割面に沿って分割し、分割後の3次元物体をさらに他の基準平面に平行な複数の分割面に沿って分割することで、第2の3次元物体を生成してもよい。   In the first embodiment described above, the second three-dimensional object is generated by dividing the first three-dimensional object along a division plane parallel to one reference plane. However, as another example, The first three-dimensional object may be divided along dividing planes parallel to the plurality of reference planes. For example, the first three-dimensional object is divided along a plurality of division planes parallel to a certain reference plane, and the divided three-dimensional object is further divided along a plurality of division planes parallel to another reference plane. Thus, a second three-dimensional object may be generated.

〔第2の実施の形態〕
図6は、第2の実施の形態に係る画像表示システムの構成例を示す図である。図6に示す画像表示システムは、撮像装置110、画像処理装置200および表示装置120を備える。
[Second Embodiment]
FIG. 6 is a diagram illustrating a configuration example of an image display system according to the second embodiment. The image display system illustrated in FIG. 6 includes an imaging device 110, an image processing device 200, and a display device 120.

撮像装置110は、CCD(Charge Coupled Devices)、CMOS(Complementary Metal Oxide Semiconductor)センサなどの撮像素子を用いて画像を撮像し、撮像した画像をアナログ信号として画像処理装置200に出力する。画像処理装置200は、撮像装置110によって撮像された画像に対して、仮想的な3次元物体の画像を合成する。表示装置120は、画像処理装置200によって合成処理された画像を表示する。表示装置120は、例えば、LCD(Liquid Crystal Display)、有機EL(EelectroLuminescence)ディスプレイなどである。なお、画像処理装置200と表示装置120とは、一体化されていてもよい。   The imaging device 110 captures an image using an imaging element such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) sensor, and outputs the captured image to the image processing device 200 as an analog signal. The image processing device 200 synthesizes a virtual three-dimensional object image with the image captured by the imaging device 110. The display device 120 displays the image synthesized by the image processing device 200. The display device 120 is, for example, an LCD (Liquid Crystal Display), an organic EL (EelectroLuminescence) display, or the like. Note that the image processing device 200 and the display device 120 may be integrated.

画像処理装置200は、画像入力部210、画像合成部220、分割処理部230、データ変換部240および画像出力部250を備える。なお、画像合成部220は、第1の実施の形態における画像合成部3に対応し、分割処理部230およびデータ変換部240は、第1の実施の形態における画像出力部2に対応する。   The image processing apparatus 200 includes an image input unit 210, an image synthesis unit 220, a division processing unit 230, a data conversion unit 240, and an image output unit 250. The image composition unit 220 corresponds to the image composition unit 3 in the first embodiment, and the division processing unit 230 and the data conversion unit 240 correspond to the image output unit 2 in the first embodiment.

さらに、画像処理装置200は、記憶部260を備える。記憶部260は、例えば、フラッシュメモリ、HDD(Hard Disk Drive)などの不揮発性記憶媒体である。記憶部260には、形状データDB(データベース)261、分割パラメータ262、カメラパラメータ263、物体表示パラメータ264および合成パラメータ265が記憶されている。   Further, the image processing apparatus 200 includes a storage unit 260. The storage unit 260 is, for example, a nonvolatile storage medium such as a flash memory or an HDD (Hard Disk Drive). The storage unit 260 stores a shape data DB (database) 261, a division parameter 262, a camera parameter 263, an object display parameter 264, and a composition parameter 265.

画像入力部210は、撮像装置110から出力されたアナログ画像信号をデジタル化し、画像合成部220に出力する。
合成パラメータ265には、データ変換部240からの出力データに基づく3次元物体の画像を画像合成部220で合成するための各種パラメータが設定される。合成パラメータ265は、例えば、3次元物体の表示色および透過率を含む。なお、合成パラメータ265に含まれる少なくとも一部のパラメータは、ユーザの設定操作などに応じて任意に設定可能であってもよい。
The image input unit 210 digitizes the analog image signal output from the imaging device 110 and outputs the digitized image signal to the image composition unit 220.
In the synthesis parameter 265, various parameters for synthesizing the image of the three-dimensional object based on the output data from the data conversion unit 240 by the image synthesis unit 220 are set. The synthesis parameter 265 includes, for example, the display color and transmittance of a three-dimensional object. Note that at least some of the parameters included in the synthesis parameter 265 may be arbitrarily set according to a user setting operation or the like.

画像合成部220は、データ変換部240からの出力データに基づく3次元物体の表面に、合成パラメータ265内の表示色を適用し、この3次元物体の画像を、画像入力部210からの出力画像に対して、合成パラメータ265内の透過率に基づいて半透明状態で合成する。   The image composition unit 220 applies the display color in the composition parameter 265 to the surface of the three-dimensional object based on the output data from the data conversion unit 240, and outputs the image of the three-dimensional object as an output image from the image input unit 210. On the other hand, the images are synthesized in a semi-transparent state based on the transmittance in the synthesis parameter 265.

形状データDB261には、3次元物体の表面の3次元形状を定義した形状データが登録される。形状データDB261内の形状データに基づく3次元物体は、第1の実施の形態における第1の3次元物体に対応する。形状データDB261内の形状データは、例えば、所定の基準座標を基準として各頂点の3次元座標が定義された多角形パッチの集合である。あるいは、例えば、3次元物体が直方体などの単純な幾何学形状である場合には、形状データは3次元物体の各辺の長さであってもよい。   In the shape data DB 261, shape data defining the three-dimensional shape of the surface of the three-dimensional object is registered. The three-dimensional object based on the shape data in the shape data DB 261 corresponds to the first three-dimensional object in the first embodiment. The shape data in the shape data DB 261 is, for example, a set of polygon patches in which the three-dimensional coordinates of each vertex are defined with reference to predetermined reference coordinates. Alternatively, for example, when the three-dimensional object has a simple geometric shape such as a rectangular parallelepiped, the shape data may be the length of each side of the three-dimensional object.

分割パラメータ262は、分割処理部230において3次元物体をどのように分割するかを決定するパラメータである。後述するように、分割パラメータ262は、例えば、所定の基準平面を基準とした、基準平面の法線方向に対する位置パラメータである。なお、分割パラメータ262は、ユーザによる設定操作などに応じて任意に設定可能であってもよい。   The division parameter 262 is a parameter that determines how the three-dimensional object is divided in the division processing unit 230. As will be described later, the division parameter 262 is a position parameter with respect to the normal direction of the reference plane with respect to a predetermined reference plane, for example. The division parameter 262 may be arbitrarily set according to a setting operation by the user.

分割処理部230は、形状データDB261内の形状データに基づく3次元物体を、分割パラメータ262に基づいて複数の部位に分割し、分割した3次元物体の形状データをデータ変換部240に出力する。なお、分割処理部230で分割された3次元物体は、第1の実施の形態における第2の3次元物体に対応する。   The division processing unit 230 divides the three-dimensional object based on the shape data in the shape data DB 261 into a plurality of parts based on the division parameter 262 and outputs the divided three-dimensional object shape data to the data conversion unit 240. Note that the three-dimensional object divided by the division processing unit 230 corresponds to the second three-dimensional object in the first embodiment.

本実施の形態では、分割処理部230は、形状データDB261内の形状データに基づく3次元物体から、互いに平行な複数の分割面に沿った複数のストライプ領域を除去することで、元の3次元物体を分割する。この分割処理は、図2に示した物体11を物体12のように分割する処理に対応する。以下、分割処理部230によって分割処理された3次元物体を「ストライプ状物体」と呼ぶ。分割処理部230は、形状データDB261内の形状データと分割パラメータ262とを基に、ストライプ状物体の形状データを演算し、形状データの演算結果をデータ変換部240に出力する。   In the present embodiment, the division processing unit 230 removes a plurality of stripe regions along a plurality of parallel planes from the three-dimensional object based on the shape data in the shape data DB 261, thereby obtaining the original three-dimensional Divide the object. This division process corresponds to the process of dividing the object 11 shown in FIG. Hereinafter, the three-dimensional object divided by the division processing unit 230 is referred to as a “striped object”. The division processing unit 230 calculates the shape data of the striped object based on the shape data in the shape data DB 261 and the division parameter 262, and outputs the calculation result of the shape data to the data conversion unit 240.

カメラパラメータ263は、ストライプ状物体を仮想的な3次元座標空間に射影する際の仮想的なカメラのパラメータである。カメラパラメータ263は、例えば、仮想カメラの焦点距離、視点位置および視線方向などのパラメータを含む。   The camera parameter 263 is a virtual camera parameter when a striped object is projected onto a virtual three-dimensional coordinate space. The camera parameters 263 include, for example, parameters such as the focal length, viewpoint position, and line-of-sight direction of the virtual camera.

物体表示パラメータ264は、ストライプ状物体を合成画像上にどのように表示させるかを決定するパラメータである。物体表示パラメータ264は、例えば、ストライプ状物体を上記の仮想的な3次元座標空間に射影する際のストライプ状物体の位置および回転方向などのパラメータを含む。   The object display parameter 264 is a parameter that determines how a striped object is displayed on the composite image. The object display parameter 264 includes, for example, parameters such as the position and rotation direction of the striped object when the striped object is projected onto the virtual three-dimensional coordinate space.

なお、カメラパラメータ263および物体表示パラメータ264に含まれる少なくとも一部のパラメータは、ユーザの設定操作などに応じて任意に設定可能であってもよい。
データ変換部240は、分割処理部230から出力された、ストライプ状物体の形状データを、カメラパラメータ263および物体表示パラメータ264に基づいて変換する。このデータ変換部240での変換処理により、ストライプ状物体を定義した多角形パッチの各頂点の3次元座標が、画像入力部210からの出力画像が定義された2次元座標空間における座標に変換される。
Note that at least some of the parameters included in the camera parameter 263 and the object display parameter 264 may be arbitrarily set according to a user setting operation or the like.
The data conversion unit 240 converts the shape data of the striped object output from the division processing unit 230 based on the camera parameter 263 and the object display parameter 264. By the conversion process in the data conversion unit 240, the three-dimensional coordinates of each vertex of the polygonal patch defining the striped object are converted into coordinates in the two-dimensional coordinate space in which the output image from the image input unit 210 is defined. The

画像出力部250は、画像合成部220から出力された合成画像のデジタルデータを、表示用の画像信号に変換して表示装置120に出力し、合成画像を表示装置120に表示させる。   The image output unit 250 converts the digital data of the composite image output from the image composition unit 220 into an image signal for display and outputs it to the display device 120, and causes the display device 120 to display the composite image.

次に、分割処理部230の処理例について説明する。
分割処理部230は、形状データDB261内の形状データに基づく3次元物体を、形状データが定義された3次元座標空間上に任意に設定した基準平面に平行な複数の分割面に沿って分割する。基準平面は、例えば、形状データが定義された3次元座標空間における2軸方向に沿った平面とされる。分割処理部230は、3次元物体から、隣接する分割面に挟まれたストライプ状の領域を除去することで、ストライプ状物体を生成する。
Next, a processing example of the division processing unit 230 will be described.
The division processing unit 230 divides a three-dimensional object based on shape data in the shape data DB 261 along a plurality of division planes parallel to a reference plane arbitrarily set on a three-dimensional coordinate space in which shape data is defined. . The reference plane is, for example, a plane along the two-axis direction in the three-dimensional coordinate space in which shape data is defined. The division processing unit 230 generates a striped object by removing a striped region sandwiched between adjacent divided surfaces from the three-dimensional object.

基準平面における任意の1点の3次元座標をPBとし、基準平面の法線方向を示すベクトルをnとすると、座標PBの点を通り法線方向に沿った3次元直線上の位置Lは、媒介変数tを用いて次の式(1)で表される。
L=n*t+PB ・・・(1)
式(1)のtは、基準平面の法線方向に対する基準平面からのオフセット量を示す位置パラメータである。そして、分割面のそれぞれについての位置パラメータは、式(1)のtの値として与えられる。すなわち、tの値が決定されれば、着目する分割面の3次元座標上の位置が確定される。分割面は、式(1)で与えられる3次元座標の点を通り、法線方向(ベクトルnの方向)に沿った平面となる。このような分割面は、次の式(2)のような平面式で与えられる。なお、式(2)において、nTはベクトルnの転置行列を示す。
T*(x−L)=0 ・・・(2)
記憶部260には、分割パラメータ262の例として、分割面のそれぞれについての式(1)におけるtの値が設定される。例えば、形状データDB261内の形状データに基づく3次元物体をm個(ただし、mは2以上の偶数)の分割面に沿って分割する場合、分割パラメータ262は、t1,t2,・・・,tmというm個の位置パラメータを含む。
If the three-dimensional coordinate of an arbitrary point on the reference plane is PB and the vector indicating the normal direction of the reference plane is n, the position L on the three-dimensional straight line passing through the point of the coordinate PB and along the normal direction is It is expressed by the following equation (1) using the parameter t.
L = n * t + PB (1)
In Expression (1), t is a position parameter indicating an offset amount from the reference plane with respect to the normal direction of the reference plane. Then, the position parameter for each of the divided surfaces is given as the value of t in Equation (1). That is, when the value of t is determined, the position on the three-dimensional coordinate of the target split surface is determined. The dividing plane passes through the three-dimensional coordinate point given by the equation (1) and becomes a plane along the normal direction (the direction of the vector n). Such a dividing plane is given by a plane expression such as the following expression (2). In Expression (2), n T represents a transposed matrix of the vector n.
n T * (x−L) = 0 (2)
In the storage unit 260, as an example of the division parameter 262, the value of t in Expression (1) for each division plane is set. For example, when a three-dimensional object based on shape data in the shape data DB 261 is divided along m (where m is an even number equal to or greater than 2) division surfaces, the division parameters 262 are t1, t2,. It includes m position parameters tm.

分割処理部230は、分割パラメータ262に含まれる各分割面に対応する位置パラメータを式(2)に代入することで、各分割面の式を求める。分割処理部230は、形状データDB261内の形状データに基づく3次元物体から、奇数番の分割面とその次の偶数番の分割面とに挟まれる領域を除去することで得られるストライプ状物体の形状データを、形状データDB261内の形状データと各分割面の式とを基に演算する。   The division processing unit 230 obtains an equation for each division plane by substituting the position parameter corresponding to each division plane included in the division parameter 262 into the equation (2). The division processing unit 230 removes an area between the odd-numbered divided surface and the next even-numbered divided surface from the three-dimensional object based on the shape data in the shape data DB 261. The shape data is calculated based on the shape data in the shape data DB 261 and the expression of each divided surface.

図7は、分割パラメータの例を示す図である。
図7に示す物体面301は、形状データDB261内の形状データに基づく3次元物体の表面を、基準平面に平行な方向から見たものである。また、図7では、形状データDB261内の形状データに基づく3次元物体を、基準平面にそれぞれ平行な6つの分割面311〜316によって分割する場合の例を示す。この場合、分割パラメータ262として、分割面311〜316にそれぞれ対応する位置パラメータt1〜t6が、記憶部260に設定される。そして、物体面301のうち、分割面311と分割面312との間の領域、分割面313と分割面314との間の領域、分割面315と分割面316との間の領域をそれぞれ除去することで、4つのストライプ状物体面302a〜302dを有するように分割されたストライプ状物体が得られる。
FIG. 7 is a diagram illustrating an example of the division parameter.
An object plane 301 shown in FIG. 7 is a view of the surface of a three-dimensional object based on the shape data in the shape data DB 261 as seen from a direction parallel to the reference plane. FIG. 7 shows an example in which a three-dimensional object based on shape data in the shape data DB 261 is divided by six dividing surfaces 311 to 316 that are parallel to the reference plane. In this case, position parameters t1 to t6 respectively corresponding to the dividing surfaces 311 to 316 are set in the storage unit 260 as the dividing parameters 262. Then, in the object plane 301, an area between the dividing plane 311 and the dividing plane 312, an area between the dividing plane 313 and the dividing plane 314, and an area between the dividing plane 315 and the dividing plane 316 are removed. Thus, a striped object divided so as to have four striped object surfaces 302a to 302d is obtained.

次に、データ変換部240の処理例について説明する。
カメラパラメータ263には、焦点距離fc、視点位置Pcおよび視線方向Ncが設定され、物体表示パラメータ264には、ストライプ状物体についての物体位置Pmおよび回転方向Rmが設定されるものとする。ストライプ状物体の表面を構成する多角形パッチの各頂点の3次元座標をq_i(ただし、iは多角形パッチの頂点を識別する添え字)とすると、多角形パッチの各頂点は、次の式(3)を用いて仮想的な3次元座標空間に射影される。なお、式(3)において、r_iは、仮想的な3次元座標空間におけるq_iの射影位置の座標を示す。
r_i=Rm*q_i+Pm ・・・(3)
式(3)に基づいて射影されたストライプ状物体を、焦点距離fcで撮像位置の中心を視点位置Pcに置いた仮想カメラで観測したときの仮想撮像画像での2次元空間に射影する。仮想撮像画像での2次元位置は、仮想カメラのレンズのモデルにもよるが、ここでは、通常のレンズに相当する透視射影によるカメラを仮定した場合の例を示す。仮想撮像画像での座標s_iは、次の式(4)および式(5)で求められる。
s_i(x)=fc_x*r_i(x)/r_i(z) ・・・(4)
s_i(y)=fc_y*r_i(y)/r_i(z) ・・・(5)
ただし、s_i(x),s_i(y)は、それぞれ座標s_iのx座標およびy座標を示し、fc_x,fc_yは、それぞれ焦点距離fcのx成分およびy成分を示し、r_i(x),r_i(y),r_i(z)は、それぞれ座標r_iのx座標、y座標、z座標を示す。
Next, a processing example of the data conversion unit 240 will be described.
Assume that the camera parameter 263 is set with the focal length fc, the viewpoint position Pc, and the line-of-sight direction Nc, and the object display parameter 264 is set with the object position Pm and the rotation direction Rm for the striped object. If the three-dimensional coordinates of each vertex of the polygon patch constituting the surface of the striped object is q_i (where i is a subscript for identifying the vertex of the polygon patch), each vertex of the polygon patch is expressed by the following formula: Projected into a virtual three-dimensional coordinate space using (3). In Expression (3), r_i indicates the coordinates of the projection position of q_i in the virtual three-dimensional coordinate space.
r_i = Rm * q_i + Pm (3)
The striped object projected based on Expression (3) is projected onto a two-dimensional space in a virtual captured image when observed with a virtual camera having the focal position fc and the center of the imaging position at the viewpoint position Pc. Although the two-dimensional position in the virtual captured image depends on the model of the lens of the virtual camera, here, an example in which a camera with perspective projection corresponding to a normal lens is assumed is shown. The coordinates s_i in the virtual captured image are obtained by the following expressions (4) and (5).
s_i (x) = fc_x * r_i (x) / r_i (z) (4)
s_i (y) = fc_y * r_i (y) / r_i (z) (5)
However, s_i (x) and s_i (y) respectively indicate the x coordinate and the y coordinate of the coordinate s_i, fc_x and fc_y respectively indicate the x component and the y component of the focal length fc, and r_i (x) and r_i ( y) and r_i (z) indicate the x coordinate, y coordinate, and z coordinate of the coordinate r_i, respectively.

データ変換部240は、カメラパラメータ263内の焦点距離fc、視点位置Pcおよび視線方向Ncと、物体表示パラメータ264内の物体位置Pmおよび回転方向Rmとに基づき、式(4)および式(5)に従って、ストライプ状物体を定義する多角形パッチの各頂点の座標を変換し、変換後の各頂点の座標を画像合成部220に出力する。上記の式(4)および式(5)を用いた座標変換により、多角形パッチの各頂点が、仮想撮像画像上の2次元座標に変換される。   Based on the focal length fc, the viewpoint position Pc, and the line-of-sight direction Nc in the camera parameter 263, and the object position Pm and the rotation direction Rm in the object display parameter 264, the data conversion unit 240 uses the expressions (4) and (5). Then, the coordinates of each vertex of the polygonal patch defining the striped object are converted, and the coordinates of each converted vertex are output to the image composition unit 220. Each vertex of the polygonal patch is converted into a two-dimensional coordinate on the virtual captured image by coordinate conversion using the above equations (4) and (5).

なお、以上の図6および図7の説明では、カメラパラメータ263および物体表示パラメータ264は、記憶部260にあらかじめ設定されているものとしたが、これらのパラメータを、画像処理装置200の内部あるいは外部における何らかの処理と連動させて変化させてもよい。例えば、画像入力部210に、1つまたは複数の撮像装置からの撮像画像を基に、任意の視点位置に設置した仮想カメラから3次元空間を撮影した画像を生成する機能を持たせる。この場合、仮想カメラについての視点位置および視線方向を、上記の視点位置Pcおよび視線方向Ncとしてデータ変換部240での変換処理に使用することができる。   In the above description of FIGS. 6 and 7, the camera parameter 263 and the object display parameter 264 are set in advance in the storage unit 260, but these parameters are set inside or outside the image processing apparatus 200. It may be changed in conjunction with some processing in. For example, the image input unit 210 is provided with a function of generating an image obtained by capturing a three-dimensional space from a virtual camera installed at an arbitrary viewpoint position based on captured images from one or a plurality of imaging devices. In this case, the viewpoint position and the line-of-sight direction of the virtual camera can be used for the conversion process in the data conversion unit 240 as the viewpoint position Pc and the line-of-sight direction Nc.

次に、画像処理装置200での処理についてフローチャートを用いて説明する。図8は、第2の実施の形態に係る画像処理装置の処理を示すフローチャートである。この図8のフローチャートは、1フレーム分の合成画像が出力される際の処理を示す。   Next, processing in the image processing apparatus 200 will be described using a flowchart. FIG. 8 is a flowchart showing processing of the image processing apparatus according to the second embodiment. The flowchart of FIG. 8 shows processing when a composite image for one frame is output.

[ステップS11]分割処理部230は、記憶部260に設定された分割パラメータ262に含まれる、各分割面に対応する位置パラメータを、上記の式(2)に代入する。これにより、分割処理部230は、各分割面の式を求める。   [Step S11] The division processing unit 230 substitutes the position parameter corresponding to each division plane, which is included in the division parameter 262 set in the storage unit 260, into the above equation (2). Thereby, the division | segmentation process part 230 calculates | requires the formula of each division surface.

[ステップS12]分割処理部230は、形状データDB261内の形状データに基づく3次元物体から、ステップS11で求めた分割面のうち、奇数番の分割面とその次の偶数番の分割面とに挟まれる領域を除去することで、ストライプ状物体の形状データを算出する。分割処理部230は、例えば、算出したストライプ状物体の形状データを、画像処理装置200が備えるRAM(図示せず)に一時的に記録する。   [Step S12] The division processing unit 230 converts the odd-numbered divided surface and the next even-numbered divided surface among the divided surfaces obtained in Step S11 from the three-dimensional object based on the shape data in the shape data DB 261. By removing the sandwiched area, the shape data of the striped object is calculated. For example, the division processing unit 230 temporarily records the calculated shape data of the striped object in a RAM (not shown) included in the image processing apparatus 200.

[ステップS13]データ変換部240は、ステップS12で算出されたストライプ状物体の形状データから、ストライプ状物体の表面形状を定義した1つの多角形パッチの形状データ(多角形パッチの頂点の座標)を選択する。   [Step S13] The data converter 240 uses the shape data of the striped object calculated in step S12 to determine the shape of one polygonal patch that defines the surface shape of the striped object (the coordinates of the vertexes of the polygonal patch). Select.

[ステップS14]データ変換部240は、記憶部260に設定されたカメラパラメータ263および物体表示パラメータ264に基づき、ステップS13で選択した多角形パッチの各頂点の3次元座標を、上記の式(4)および式(5)に従って、仮想撮像画像での2次元座標に変換する。データ変換部240は、得られた各頂点の2次元座標を、画像処理装置200が備えるRAMに一時的に記憶する。   [Step S14] Based on the camera parameter 263 and the object display parameter 264 set in the storage unit 260, the data conversion unit 240 converts the three-dimensional coordinates of each vertex of the polygon patch selected in Step S13 to the above equation (4). ) And Equation (5), the image is converted into two-dimensional coordinates in the virtual captured image. The data conversion unit 240 temporarily stores the obtained two-dimensional coordinates of each vertex in a RAM included in the image processing apparatus 200.

[ステップS15]データ変換部240は、ステップS12で算出されたストライプ状物体の形状データに含まれるすべての多角形パッチのデータを選択したかを判定する。データ変換部240は、未選択の多角形パッチのデータがある場合には、ステップS13に戻り、未選択の多角形パッチのデータから1つの多角形パッチのデータを選択する。   [Step S15] The data conversion unit 240 determines whether data of all polygon patches included in the shape data of the striped object calculated in step S12 has been selected. If there is unselected polygon patch data, the data conversion unit 240 returns to step S13 and selects one polygon patch data from the unselected polygon patch data.

一方、すべての多角形パッチのデータが選択済みである場合、ストライプ状物体の表面画像のデータが、各多角形パッチの2次元座標の集合として生成されたことになる。データ変換部240は、すべての多角形パッチのデータが選択済みの場合には、ステップS16の処理を実行する。   On the other hand, when the data of all the polygon patches has been selected, the surface image data of the striped object is generated as a set of two-dimensional coordinates of each polygon patch. If all the polygon patch data has been selected, the data conversion unit 240 executes the process of step S16.

[ステップS16]画像合成部220は、記憶部260に設定された合成パラメータ265から、ストライプ状物体の表示色と透過率とを抽出する。画像合成部220は、ストライプ状物体の画像を、画像入力部210からの出力画像に対して、合成パラメータ265から抽出した透過率に基づいて半透明状態で合成する。   [Step S <b> 16] The image composition unit 220 extracts the display color and transmittance of the striped object from the composition parameter 265 set in the storage unit 260. The image composition unit 220 synthesizes the image of the striped object with the output image from the image input unit 210 in a semi-transparent state based on the transmittance extracted from the composition parameter 265.

具体的には、画像合成部220は、ステップS14で変換した各多角形パッチの2次元座標に基づき、合成パラメータ265から抽出した表示色を、各多角形パッチに含まれる各画素の画素値として適用する。画像合成部220は、各多角形パッチの画素値と、画像入力部210からの出力画像の画素値とを、合成パラメータ265から抽出した透過率を適用した所定のブレンディング方法によって合成する。   Specifically, the image composition unit 220 uses the display color extracted from the composition parameter 265 as the pixel value of each pixel included in each polygon patch based on the two-dimensional coordinates of each polygon patch converted in step S14. Apply. The image synthesis unit 220 synthesizes the pixel value of each polygon patch and the pixel value of the output image from the image input unit 210 by a predetermined blending method to which the transmittance extracted from the synthesis parameter 265 is applied.

なお、多角形パッチ同士が重複する領域では、重複する多角形パッチ間でも透過処理が施される。例えば、画像合成部220は、複数の多角形パッチ同士が重複する領域において、各多角形パッチの画素値を半透明状態で合成処理することで、ストライプ状物体の画像データを生成する。その後、画像合成部220は、生成されたストライプ状物体の画像データと、画像入力部210からの出力画像のデータとを、半透明状態で合成処理する。   Note that in a region where polygon patches overlap each other, transparency processing is also performed between overlapping polygon patches. For example, the image synthesizing unit 220 generates image data of a striped object by synthesizing pixel values of each polygon patch in a semi-transparent state in a region where a plurality of polygon patches overlap. Thereafter, the image composition unit 220 synthesizes the generated image data of the striped object and the data of the output image from the image input unit 210 in a translucent state.

なお、以上の図8の処理例では、ストライプ状物体の表面の色は、合成パラメータ265内の表示色で決定されるただ1つの色とされた。この場合、合成パラメータ265に設定する表示色を変更することで、ストライプ状物体の全体の色を変更することが可能である。ただし、他の例として、ストライプ状物体の表面の色を、形状データDB261にあらかじめ登録しておいてもよい。この場合、例えば、形状データDB261に登録された多角形パッチのそれぞれの形状データに対して色情報が個別に付加されることで、ストライプ状物体の表面の色を場所によって異なる色にすることができる。   In the processing example of FIG. 8 described above, the color of the surface of the striped object is a single color determined by the display color in the synthesis parameter 265. In this case, it is possible to change the overall color of the striped object by changing the display color set in the synthesis parameter 265. However, as another example, the color of the surface of the striped object may be registered in the shape data DB 261 in advance. In this case, for example, the color information is individually added to the shape data of each of the polygon patches registered in the shape data DB 261, so that the color of the surface of the striped object varies depending on the location. it can.

以上説明した第2の実施の形態では、元の3次元物体をストライプ状物体に変形し、そのストライプ状物体を画像入力部210からの出力画像に半透明状態で合成した。これにより、ストライプ状物体の画像と重複する背景画像の状態の視認性が向上するとともに、元の3次元物体の表面形状も把握しやすくなる。   In the second embodiment described above, the original three-dimensional object is transformed into a striped object, and the striped object is combined with the output image from the image input unit 210 in a translucent state. This improves the visibility of the state of the background image that overlaps with the image of the striped object, and makes it easier to grasp the surface shape of the original three-dimensional object.

〔第3の実施の形態〕
図9は、第3の実施の形態に係る画像表示システムの構成例を示す図である。なお、図9では、図6に対応する構成要素には同じ符号を付して示す。
[Third Embodiment]
FIG. 9 is a diagram illustrating a configuration example of an image display system according to the third embodiment. In FIG. 9, components corresponding to those in FIG. 6 are denoted by the same reference numerals.

第3の実施の形態に係る画像表示システムは、図6に示した第2の実施の形態での画像処理装置200を、図9の画像処理装置200aのような構成に変形したものである。画像処理装置200aは、図6に示した分割処理部230を備えない。その代わり、画像処理装置200aのデータ変換部240は、ストライプ状物体の形状データを、記憶部260に記憶された形状データDB261aから読み込む。形状データDB261aには、図6の形状データDB261に登録された形状データを、図6の分割処理部230によって変換したものと同様の形状データが登録される。   The image display system according to the third embodiment is obtained by modifying the image processing apparatus 200 in the second embodiment shown in FIG. 6 into a configuration like the image processing apparatus 200a in FIG. The image processing apparatus 200a does not include the division processing unit 230 illustrated in FIG. Instead, the data conversion unit 240 of the image processing apparatus 200 a reads the shape data of the striped object from the shape data DB 261 a stored in the storage unit 260. In the shape data DB 261a, the same shape data as that obtained by converting the shape data registered in the shape data DB 261 in FIG. 6 by the division processing unit 230 in FIG. 6 is registered.

以上の第3の実施の形態では、第2の実施の形態で得られる効果に加え、ストライプ状物体の形状データを算出するための演算負荷が軽減され、画像処理装置200aの回路規模を小さくし、消費電力を低減できるという効果も得られる。   In the above third embodiment, in addition to the effects obtained in the second embodiment, the calculation load for calculating the shape data of the striped object is reduced, and the circuit scale of the image processing apparatus 200a is reduced. Moreover, the effect that power consumption can be reduced is also obtained.

〔第4の実施の形態〕
図10は、第4の実施の形態に係る画像表示システムの構成例を示す図である。なお、図10では、図6に対応する構成要素には同じ符号を付して示す。
[Fourth Embodiment]
FIG. 10 is a diagram illustrating a configuration example of an image display system according to the fourth embodiment. In FIG. 10, components corresponding to those in FIG. 6 are denoted by the same reference numerals.

第4の実施の形態に係る画像表示システムは、図6に示した第2の実施の形態での画像処理装置200を、図10の画像処理装置200bのような構成に変形したものである。画像処理装置200bは、形状データDB261内の形状データに基づく3次元物体をストライプ状物体に変形する際の変形の仕方を、ストライプ状物体の合成の仕方を決定するパラメータに応じて変化させることが可能になっている。   The image display system according to the fourth embodiment is obtained by modifying the image processing device 200 in the second embodiment shown in FIG. 6 into a configuration like the image processing device 200b in FIG. The image processing apparatus 200b can change the deformation method when deforming a three-dimensional object based on the shape data in the shape data DB 261 into a striped object according to a parameter that determines how to combine the striped object. It is possible.

画像処理装置200bは、図6に示した画像入力部210、画像合成部220、分割処理部230、データ変換部240および画像出力部250に加え、パラメータ設定部270および分割パラメータ出力部280を備える。また、画像処理装置200bが備える記憶部260には、図6に示した形状データDB261に加え、分割パラメータテーブル266があらかじめ記憶される。   The image processing apparatus 200b includes a parameter setting unit 270 and a divided parameter output unit 280 in addition to the image input unit 210, the image synthesis unit 220, the division processing unit 230, the data conversion unit 240, and the image output unit 250 illustrated in FIG. . In addition to the shape data DB 261 shown in FIG. 6, a division parameter table 266 is stored in advance in the storage unit 260 provided in the image processing apparatus 200b.

パラメータ設定部270には、入力デバイス271が接続されている。パラメータ設定部270は、入力デバイス271に対するユーザの入力操作に応じたパラメータを出力する。パラメータ設定部270から出力されるパラメータは、図6に示したカメラパラメータ263、物体表示パラメータ264および合成パラメータ265にそれぞれ含まれるパラメータである。   An input device 271 is connected to the parameter setting unit 270. The parameter setting unit 270 outputs a parameter corresponding to a user input operation on the input device 271. The parameters output from the parameter setting unit 270 are parameters included in the camera parameter 263, the object display parameter 264, and the synthesis parameter 265 shown in FIG.

パラメータ設定部270は、入力デバイス271への入力操作に応じて出力するパラメータのうち、カメラパラメータおよび物体表示パラメータを分割パラメータ出力部280およびデータ変換部240に出力し、合成パラメータを画像合成部220に出力する。なお、これらのパラメータのうちの一部が、入力デバイス271への入力操作に応じてパラメータ設定部270から出力され、その他のパラメータが記憶部260にあらかじめ記憶されていてもよい。   The parameter setting unit 270 outputs the camera parameter and the object display parameter among the parameters output in response to the input operation to the input device 271 to the division parameter output unit 280 and the data conversion unit 240, and the synthesis parameter to the image synthesis unit 220. Output to. Note that some of these parameters may be output from the parameter setting unit 270 in response to an input operation to the input device 271, and other parameters may be stored in the storage unit 260 in advance.

分割パラメータ出力部280は、パラメータ設定部270から出力されるカメラパラメータおよび物体表示パラメータに応じた分割パラメータを、分割処理部230に出力する。分割パラメータは、第2の実施の形態で説明したように、複数の分割面のそれぞれについての基準平面からの位置を示すパラメータである。   The division parameter output unit 280 outputs the division parameter corresponding to the camera parameter and the object display parameter output from the parameter setting unit 270 to the division processing unit 230. As described in the second embodiment, the division parameter is a parameter indicating the position of each of the plurality of division surfaces from the reference plane.

なお、パラメータ設定部270は、出力すべきパラメータの指示を、入力デバイス271の代わりに、画像処理装置200bの内部あるいは外部に設けられた処理機能から受け付けてもよい。例えば、画像入力部210に、1つまたは複数の撮像装置からの撮像画像を基に、任意の視点位置に設置した仮想カメラから3次元空間を撮影した画像を生成する機能を持たせる。この場合、パラメータ設定部270は、仮想カメラについての視点位置および視線方向を画像入力部210から受け付けて、分割パラメータ出力部280に出力してもよい。   The parameter setting unit 270 may receive an instruction for a parameter to be output from a processing function provided inside or outside the image processing apparatus 200b instead of the input device 271. For example, the image input unit 210 is provided with a function of generating an image obtained by capturing a three-dimensional space from a virtual camera installed at an arbitrary viewpoint position based on captured images from one or a plurality of imaging devices. In this case, the parameter setting unit 270 may receive the viewpoint position and the line-of-sight direction for the virtual camera from the image input unit 210 and output them to the division parameter output unit 280.

分割パラメータ出力部280は、パラメータ設定部270から出力されるカメラパラメータおよび物体表示パラメータに応じて、仮想カメラからのストライプ状物体の見え方が適切になるように、元の3次元物体をストライプ状に分割する分割の仕方を調整する。本実施の形態では、例として、分割パラメータ出力部280は、画像入力部210からの出力画像に対して合成するストライプ状物体の大きさに応じて、元の3次元物体からストライプ状に除去する領域の数を調整する。   The division parameter output unit 280 stripes the original three-dimensional object in a stripe shape so that the appearance of the stripe object from the virtual camera becomes appropriate according to the camera parameter and the object display parameter output from the parameter setting unit 270. Adjust how to divide. In the present embodiment, as an example, the division parameter output unit 280 removes the original three-dimensional object in a stripe shape according to the size of the stripe object to be combined with the output image from the image input unit 210. Adjust the number of areas.

例えば、仮想カメラの焦点距離を短くしたとき(すなわち、広角で撮像したとき)には、合成画像上にストライプ状物体が小さく映るので、ストライプ状に除去する領域の数を小さくして、分割されたそれぞれの部位がある程度の大きさを保つようにする。一方、仮想カメラの焦点距離を長くしたとき(すなわち、望遠で撮像したとき)には、合成画像上にストライプ状物体が大きく映るので、ストライプ状に除去する領域の数を大きくする。   For example, when the focal length of the virtual camera is shortened (that is, when imaging is performed at a wide angle), the striped object appears small on the composite image, so the number of areas to be striped is reduced and divided. Each part should keep a certain size. On the other hand, when the focal length of the virtual camera is increased (that is, when imaging is performed with telephoto), a striped object appears large on the composite image, so the number of regions to be striped is increased.

なお、本実施の形態では例として、分割パラメータ出力部280は、分割パラメータテーブル266を参照して分割パラメータを出力する。分割パラメータテーブル266には、元の3次元物体を分割する分割数と分割パラメータとが対応付けて登録されている。   In this embodiment, as an example, the division parameter output unit 280 refers to the division parameter table 266 and outputs the division parameters. In the division parameter table 266, the number of divisions for dividing the original three-dimensional object and the division parameters are registered in association with each other.

以下、分割パラメータ出力部280の処理の例について説明する。
パラメータ設定部270が出力するカメラパラメータを、焦点距離fc、視点位置Pcおよび視線方向Ncとし、パラメータ設定部270が出力する物体表示パラメータを、物体位置Pmおよび回転方向Rmとする。このとき、仮想カメラからストライプ状物体までの距離を視線方向Ncに投射したときの長さ(距離W)は、次の式(6)で表される。なお、式(6)において、NcTは、視線方向Ncの転置行列を示す。
W=NcT(Pm−Pc)/|Nc| ・・・(6)
仮想カメラによって撮像された仮想撮像画像においてストライプ状物体が映る大きさEは、幾何学的な関係より、次の式(7)で表される。なお、式(7)において、定数E0には代表的な大きさが設定されればよい。
E=E0*fc/W ・・・(7)
式(7)より、大きさEは、焦点距離fcに比例し、距離Wに反比例することがわかるので、以下、焦点距離fcおよび距離Wを用いた演算式を利用する。ストライプ状物体が撮像画像上で基準となる所定の大きさで映るときの分割パラメータを、T_1,T_2,・・・T_m(ただし、mは分割面の数であり、2以上の偶数)として、次の式(8)のようにt_kを定義する。
t_k=T_k*G*W/fc ・・・(8)
式(8)において、Gは、基準距離および基準焦点距離での分割面の数をT_kと同じにするための定数である。このとき、使用する分割パラメータの最大数cを、次の式(9)のように定める。
Hereinafter, an example of processing of the division parameter output unit 280 will be described.
The camera parameters output by the parameter setting unit 270 are the focal length fc, the viewpoint position Pc, and the line-of-sight direction Nc, and the object display parameters output by the parameter setting unit 270 are the object position Pm and the rotation direction Rm. At this time, the length (distance W) when the distance from the virtual camera to the striped object is projected in the line-of-sight direction Nc is expressed by the following equation (6). In Expression (6), Nc T represents a transposed matrix in the line-of-sight direction Nc.
W = Nc T (Pm−Pc) / | Nc | (6)
The size E in which the striped object appears in the virtual captured image captured by the virtual camera is expressed by the following equation (7) from the geometrical relationship. In Expression (7), a representative magnitude may be set for the constant E0.
E = E0 * fc / W (7)
From equation (7), it can be seen that the magnitude E is proportional to the focal length fc and inversely proportional to the distance W. Therefore, an arithmetic expression using the focal length fc and the distance W will be used below. T_1, T_2,..., T_m (where m is the number of divided surfaces and an even number equal to or greater than 2) when the striped object is projected at a predetermined size as a reference on the captured image, T_k is defined as in the following equation (8).
t_k = T_k * G * W / fc (8)
In Expression (8), G is a constant for making the number of division surfaces at the reference distance and the reference focal length the same as T_k. At this time, the maximum number c of division parameters to be used is determined as in the following equation (9).

Figure 0005633345
Figure 0005633345

式(9)は、T_mを超えない最大のt_kを与える添え字(k)をcとすることを意味する。式(8)および式(9)に従って分割パラメータの数(すなわち、分割面の数)を決定することで、仮想撮像画像におけるストライプ状物体の見かけの大きさが小さいほど分割面の数が少なくなり、大きさが大きいほど分割面の数が多くなるように調整される。より具体的には、焦点距離fcが小さいほど、また距離Wが大きいほど、分割面の数が少なくなる。   Equation (9) means that the subscript (k) that gives the maximum t_k not exceeding T_m is c. By determining the number of division parameters (that is, the number of division planes) according to Equation (8) and Equation (9), the number of division planes decreases as the apparent size of the striped object in the virtual captured image decreases. The larger the size, the larger the number of dividing surfaces. More specifically, the smaller the focal length fc and the larger the distance W, the smaller the number of divided surfaces.

図11は、第4の実施の形態に係る画像処理装置の処理を示すフローチャートである。この図11のフローチャートは、1フレーム分の合成画像が出力される際の処理を示す。なお、図11では、図8と同じ処理が行われる処理ステップには同じ符号を付して示す。   FIG. 11 is a flowchart illustrating the processing of the image processing apparatus according to the fourth embodiment. The flowchart of FIG. 11 shows processing when a composite image for one frame is output. In FIG. 11, processing steps in which the same processing as in FIG. 8 is performed are denoted by the same reference numerals.

[ステップS31]入力デバイス271に対する入力操作により、カメラパラメータ、物体表示パラメータおよび合成パラメータが設定される。パラメータ設定部270は、入力デバイス271に対する入力操作に応じて、各パラメータを出力する。なお、出力された各パラメータは、例えば、画像処理装置200bが備えるRAM(図示せず)に一時的に記憶される。   [Step S31] Camera parameters, object display parameters, and composite parameters are set by an input operation on the input device 271. The parameter setting unit 270 outputs each parameter according to an input operation on the input device 271. The output parameters are temporarily stored in, for example, a RAM (not shown) provided in the image processing apparatus 200b.

[ステップS32]分割パラメータ出力部280は、パラメータ設定部270が出力したパラメータを用いて、式(6)の演算を行う。分割パラメータ出力部280は、算出された距離Wを式(8)に代入するとともに、式(8)に対して、パラメータ設定部270から出力された焦点距離fcと、定数Gとを代入する。分割パラメータ出力部280は、式(8)を用いて、式(9)の条件に合致する分割パラメータ数(式(9)のc)を算出する。   [Step S <b> 32] The division parameter output unit 280 uses the parameters output from the parameter setting unit 270 to perform the calculation of Expression (6). The division parameter output unit 280 substitutes the calculated distance W into the equation (8), and substitutes the focal length fc output from the parameter setting unit 270 and the constant G into the equation (8). The division parameter output unit 280 uses Equation (8) to calculate the number of division parameters (c in Equation (9)) that matches the condition of Equation (9).

[ステップS33]分割パラメータ出力部280は、算出した分割パラメータ数を基に、分割パラメータテーブル266を参照して、複数の分割面のそれぞれについての基準平面からの位置を示す分割パラメータを出力する。   [Step S33] The division parameter output unit 280 refers to the division parameter table 266 based on the calculated number of division parameters and outputs a division parameter indicating the position of each of the plurality of division planes from the reference plane.

分割パラメータテーブル266には、分割パラメータ数と、複数の分割面のそれぞれについての分割パラメータを含む分割パラメータ群とが対応付けて登録されている。分割パラメータ出力部280は、分割パラメータテーブル266から、ステップS32で算出した分割パラメータ数に対応付けられた分割パラメータ群を読み出し、データ変換部240に出力する。   In the division parameter table 266, the number of division parameters and a division parameter group including division parameters for each of a plurality of division planes are registered in association with each other. The division parameter output unit 280 reads the division parameter group associated with the number of division parameters calculated in step S32 from the division parameter table 266, and outputs it to the data conversion unit 240.

なお、分割パラメータ出力部280は、ステップS32で算出した分割パラメータ数を基に、複数の分割面のそれぞれについての分割パラメータを計算によって求めてもよい。例えば、分割パラメータ出力部280は、基準平面の放線方向に対する長さの基準値を、ステップS32で算出した分割パラメータ数の分だけ均等に分割することで、各分割面の位置を示す分割パラメータを算出してもよい。   Note that the division parameter output unit 280 may obtain a division parameter for each of a plurality of division surfaces by calculation based on the number of division parameters calculated in step S32. For example, the division parameter output unit 280 equally divides the reference value of the length of the reference plane with respect to the normal direction by the number of division parameters calculated in step S32, so that the division parameter indicating the position of each division plane is obtained. It may be calculated.

上記のいずれの処理でも、合成画像におけるストライプ状物体の大きさが小さくなった場合でも、元の3次元物体から除去される領域間の間隔が小さくなり過ぎなくなり、合成画像において元の3次元物体の表面形状を把握しやすくなる。   In any of the above processes, even when the size of the striped object in the composite image becomes small, the interval between the regions to be removed from the original three-dimensional object does not become too small, and the original three-dimensional object in the composite image It becomes easy to grasp the surface shape.

この後、図8に示したステップS11〜S16の処理が実行される。ただし、ステップS14において、データ変換部240は、カメラパラメータおよび物体表示パラメータをパラメータ設定部270から取得する。また、ステップS16において、画像合成部220は、合成パラメータをパラメータ設定部270から取得する。   Thereafter, the processes of steps S11 to S16 shown in FIG. 8 are executed. However, in step S <b> 14, the data conversion unit 240 acquires camera parameters and object display parameters from the parameter setting unit 270. In step S <b> 16, the image composition unit 220 acquires a composition parameter from the parameter setting unit 270.

以上説明した第4の実施の形態では、合成画像におけるストライプ状物体の大きさに応じて、ストライプ状物体を生成する際に元の3次元物体から除去する領域の数を変化させた。これにより、合成画像に映るストライプ状物体が小さくなった場合でも、除去された領域が細かくなり過ぎなくなり、元の3次元物体の表面形状を把握しやすくなる。   In the fourth embodiment described above, the number of regions to be removed from the original three-dimensional object when the stripe object is generated is changed according to the size of the stripe object in the composite image. As a result, even when the striped object shown in the composite image becomes small, the removed region does not become too fine, and the surface shape of the original three-dimensional object can be easily grasped.

〔第5の実施の形態〕
図12は、第5の実施の形態に係る画像表示システムの構成例を示す図である。なお、図12では、図10に対応する構成要素には同じ符号を付して示す。
[Fifth Embodiment]
FIG. 12 is a diagram illustrating a configuration example of an image display system according to the fifth embodiment. In FIG. 12, the same reference numerals are given to the components corresponding to FIG.

第5の実施の形態に係る画像表示システムは、図10に示した第4の実施の形態での画像処理装置200bを、図12の画像処理装置200cのような構成に変形したものである。画像処理装置200cは、図10に示した分割処理部230および分割パラメータ出力部280を備えない代わりに、形状データ選択部290を備える。また、記憶部260には、形状データDB261cが記憶されている。形状データDB261cは、元の3次元物体をそれぞれ異なる分割パラメータを用いて分割した複数のストライプ状物体についての形状データを含む。   The image display system according to the fifth embodiment is obtained by modifying the image processing apparatus 200b in the fourth embodiment shown in FIG. 10 into a configuration like the image processing apparatus 200c in FIG. The image processing apparatus 200c includes a shape data selection unit 290 instead of including the division processing unit 230 and the division parameter output unit 280 illustrated in FIG. The storage unit 260 stores a shape data DB 261c. The shape data DB 261c includes shape data for a plurality of striped objects obtained by dividing the original three-dimensional object using different division parameters.

形状データ選択部290は、パラメータ設定部270から出力される各種パラメータに応じて、形状データDB261cから、パラメータに対応するストライプ状物体の形状データを選択して読み込み、読み込んだ形状データをデータ変換部240に出力する。本実施の形態では、形状データ選択部290は、カメラパラメータのうちの焦点距離に基づき、合成画像にストライプ状物体が小さく映るほど、より少ない部位に分割されたストライプ状物体の形状データを形状データDB261cから選択する。これにより、第4の実施の形態と同様に、ストライプ状物体が小さく映った場合でも、元の3次元物体の表面形状を把握しやすくする。   The shape data selection unit 290 selects and reads the shape data of the striped object corresponding to the parameter from the shape data DB 261c in accordance with the various parameters output from the parameter setting unit 270, and the read shape data is the data conversion unit. Output to 240. In the present embodiment, the shape data selection unit 290 determines the shape data of the striped object divided into fewer parts as the striped object appears smaller in the composite image based on the focal length of the camera parameters. Select from DB 261c. This makes it easy to grasp the surface shape of the original three-dimensional object even when the striped object appears small as in the fourth embodiment.

ここで、形状データDB261cに記憶される形状データの例について詳しく説明する。
形状データDB261cには、元の3次元物体をそれぞれ異なる分割パラメータを用いて分割して得られたNB個のストライプ状物体のそれぞれについての形状データが登録される。一方、第4の実施の形態の説明と同様に、パラメータ設定部270が出力するカメラパラメータを、焦点距離fc、視点位置Pcおよび視線方向Ncとし、パラメータ設定部270が出力する物体表示パラメータを、物体位置Pmおよび回転方向Rmとする。このとき、仮想カメラからストライプ状物体までの距離を視線方向Ncに投射したときの距離Wは、前述の式(6)で表される。
Here, an example of the shape data stored in the shape data DB 261c will be described in detail.
In the shape data DB 261c, shape data for each of the NB stripe-like objects obtained by dividing the original three-dimensional object using different division parameters is registered. On the other hand, as in the description of the fourth embodiment, the camera parameters output by the parameter setting unit 270 are the focal length fc, the viewpoint position Pc, and the line-of-sight direction Nc, and the object display parameters output by the parameter setting unit 270 are It is assumed that the object position Pm and the rotation direction Rm. At this time, the distance W when the distance from the virtual camera to the striped object is projected in the line-of-sight direction Nc is expressed by the above-described equation (6).

ここで、ストライプ状物体までの仮想的な距離Wと焦点距離fcのそれぞれがとり得る範囲をあらかじめ定めておくものとする。距離Wの最小値、最大値をそれぞれW_min,W_maxとし、焦点距離fcの最小値、最大値をそれぞれfc_min,fc_maxとする。距離Wを上記範囲で一定間隔ごとにNw個に区切った距離群のリストWLを、下記の式(10)で定義し、焦点距離fcを上記範囲で一定間隔ごとにNf個に区切った焦点距離群のリストfLを、下記の式(11)で定義する。
WL={W_1,W_2,・・・,W_Nw}(ただし、W1=W_min,W_Nw=W_max) ・・・(10)
fL={fc_1,fc_2,・・・,fc_Nf}(ただし、fc_1=fc_min,fc_Nf=fc_max) ・・・(11)
距離群のリストWL内の要素と焦点距離群のリストfL内の要素とのすべての組合せを、次の式(12)に示す組合せリストPLで定義する。
PL={(W_1,fc_1),(W_1,fc_2),・・・,(W_1,fc_Nf),(W_2,fc_1),(W_2,fc_2),・・・,(W_2,fc_Nf),・・・・・・,(W_Nw,fc_1),(W_Nw,fc_2),・・・,(W_Nw,fc_Nf)} ・・・(12)
このとき、組合せリストPL内の要素数は(Nw*Nf)個となり、この個数が上記のNBに相当する。組合せリストPLの先頭要素から順に1を起点とした整数番号を振り、i番目の要素を(W_u,fc_v)とするとき(ただし、u,vはそれぞれ要素番号)、iは次の式(13)で表される。また、式(13)を基に、u,vはそれぞれ式(14)、式(15)で表される。なお、式(14)のF1は切り捨てを表し、式(15)のF2は剰余を表す。
i=u*Nw+v ・・・(13)
u=F1(i/Nw) ・・・(14)
v=F2(i/Nw) ・・・(15)
形状データDB261cには、上記の組合せリストPLが登録される。
Here, it is assumed that a range that each of the virtual distance W and the focal distance fc to the stripe-shaped object can take is determined in advance. The minimum and maximum values of the distance W are W_min and W_max, respectively, and the minimum and maximum values of the focal length fc are fc_min and fc_max, respectively. A list WL of distance groups in which the distance W is divided into Nw at regular intervals within the above range is defined by the following equation (10), and the focal length fc is divided into Nf at regular intervals within the above range. The group list fL is defined by the following formula (11).
WL = {W_1, W_2,..., W_Nw} (W1 = W_min, W_Nw = W_max) (10)
fL = {fc_1, fc_2,..., fc_Nf} (where fc_1 = fc_min, fc_Nf = fc_max) (11)
All combinations of the elements in the distance group list WL and the elements in the focal distance group list fL are defined by a combination list PL shown in the following equation (12).
PL = {(W_1, fc_1), (W_1, fc_2), ..., (W_1, fc_Nf), (W_2, fc_1), (W_2, fc_2), ..., (W_2, fc_Nf), ... ..., (W_Nw, fc_1), (W_Nw, fc_2), ..., (W_Nw, fc_Nf)} (12)
At this time, the number of elements in the combination list PL is (Nw * Nf), and this number corresponds to the above NB. When integer numbers starting from 1 are assigned in order from the first element of the combination list PL and the i-th element is (W_u, fc_v) (where u and v are element numbers, respectively), i is the following expression (13 ). Moreover, based on Formula (13), u and v are represented by Formula (14) and Formula (15), respectively. In addition, F1 of Formula (14) represents truncation, and F2 of Formula (15) represents a remainder.
i = u * Nw + v (13)
u = F1 (i / Nw) (14)
v = F2 (i / Nw) (15)
The combination list PL is registered in the shape data DB 261c.

次に、仮想カメラによって撮像される仮想撮像画像においてストライプ状物体が映る大きさEは、前述の式(7)より、焦点距離fcに比例し、距離Wに反比例する。このことから、ストライプ状物体が撮像画像上で基準となる所定の大きさで映るときの分割パラメータを、T_1,T_2,・・・T_m(ただし、mは分割面の数であり、2以上の偶数)として、前述の式(8)のようにt_kを定義する。   Next, the size E in which the striped object appears in the virtual captured image captured by the virtual camera is proportional to the focal length fc and inversely proportional to the distance W from the above-described equation (7). Therefore, the division parameters when the striped object is projected at a predetermined size as a reference on the captured image are T_1, T_2,..., T_m (where m is the number of division planes and 2 or more. T_k is defined as in the above equation (8).

組合せリストPLのi番目の要素(W_u,fc_v)について、式(8)の定義に従い、分割パラメータは次の式(16)のように定義される。
t_ki=T_k*G*W_u/fc_v ・・・(16)
このとき、組合せリストPLのi番目の要素(W_u,fc_v)についての分割パラメータの最大数c_iを、次の式(17)のように定める。
For the i-th element (W_u, fc_v) of the combination list PL, the division parameter is defined as in the following expression (16) according to the definition of the expression (8).
t_k i = T_k * G * W_u / fc_v (16)
At this time, the maximum number c_i of the division parameters for the i-th element (W_u, fc_v) of the combination list PL is determined as in the following Expression (17).

Figure 0005633345
Figure 0005633345

式(17)は、T_mを超えない最大のt_kiを与える添え字(k)をc_iとすることを意味する。
式(16)および式(17)より、組合せリストPLのi番目の要素(W_u,fc_v)についての分割パラメータの集合tLiを、次の式(18)のように定義する。
tLi={t_1i,t_2i,・・・,t_c_ii} ・・・(18)
集合tLiは、組合せリストPLのi番目の要素のそれぞれについて定義される。集合tLiを用いて、前述の式(2)より各分割パラメータに対応する分割面が求められる。そして、求められた分割面に沿って、元の3次元物体をストライプ状に分割することで、i番目の要素のそれぞれに対応するストライプ状物体の形状データHiが求められる。形状データHiは、例えば、ストライプ状物体の表面形状を構成する多角形パッチの頂点座標を含む。
Equation (17), means that the c_i subscript (k) to give the maximum of t_k i does not exceed the T_m.
From equation (16) and formula (17), i th element of the combination list PL (W_u, fc_v) a set tL i division parameters for, defined as the following equation (18).
tL i = {t — 1 i , t — 2 i ,..., t_c_i i } (18)
The set tL i is defined for each i-th element of the combination list PL. Using the set tL i , the division plane corresponding to each division parameter is obtained from the above equation (2). Then, along the dividing plane which is determined, by dividing the original three-dimensional object in a stripe shape, shape data H i striped object corresponding to each of the i-th element is required. The shape data Hi includes, for example, vertex coordinates of polygonal patches that form the surface shape of the striped object.

組合せリストPLの要素にそれぞれ対応するストライプ状物体の形状データの集合HLを、次の式(19)によって定義する。形状データDB261aには、組合せリストPLとともに、形状データの集合HLも登録される。
HL={H1,H2,・・・,HNB} ・・・(19)
図13は、第5の実施の形態に係る画像処理装置の処理を示すフローチャートである。この図13のフローチャートは、1フレーム分の合成画像が出力される際の処理を示す。なお、図13では、図8と同じ処理が行われる処理ステップには同じ符号を付して示す。
A set HL of striped object shape data corresponding to each element of the combination list PL is defined by the following equation (19). In the shape data DB 261a, a set HL of shape data is registered together with the combination list PL.
HL = {H 1 , H 2 ,..., H NB } (19)
FIG. 13 is a flowchart illustrating processing of the image processing apparatus according to the fifth embodiment. The flowchart in FIG. 13 shows processing when a composite image for one frame is output. In FIG. 13, processing steps in which the same processing as in FIG. 8 is performed are denoted by the same reference numerals.

[ステップS51]入力デバイス271に対する入力操作により、カメラパラメータ、物体表示パラメータおよび合成パラメータが設定される。パラメータ設定部270は、入力デバイス271に対する入力操作に応じて、各パラメータを出力する。なお、出力された各パラメータは、例えば、画像処理装置200bが備えるRAM(図示せず)に一時的に記憶される。   [Step S51] Camera parameters, object display parameters, and composition parameters are set by an input operation on the input device 271. The parameter setting unit 270 outputs each parameter according to an input operation on the input device 271. The output parameters are temporarily stored in, for example, a RAM (not shown) provided in the image processing apparatus 200b.

[ステップS52]形状データ選択部290は、パラメータ設定部270から出力されたカメラパラメータおよび物体表示パラメータを用いて、前述の式(6)を演算し、距離Wを算出する。   [Step S52] The shape data selection unit 290 calculates the above-described equation (6) using the camera parameters and object display parameters output from the parameter setting unit 270, and calculates the distance W.

[ステップS53]形状データ選択部290は、形状データDB261cに登録された組合せリストPLから、パラメータ設定部270から出力された焦点距離fcと、ステップS52で算出した距離Wとにそれぞれ最も近い値が設定された要素を検索し、その要素番号iを認識する。   [Step S53] The shape data selection unit 290 has values closest to the focal length fc output from the parameter setting unit 270 and the distance W calculated in step S52 from the combination list PL registered in the shape data DB 261c. The set element is searched and the element number i is recognized.

[ステップS54]形状データ選択部290は、形状データDB261cに登録された形状データの集合HLから、ステップS53で認識した要素番号iに対応するストライプ状物体の形状データを読み出す。形状データ選択部290は、読み出したストライプ状物体の形状データを、例えば、画像処理装置200bが備えるRAMに一時的に記憶される。   [Step S54] The shape data selection unit 290 reads the shape data of the striped object corresponding to the element number i recognized in step S53, from the shape data set HL registered in the shape data DB 261c. The shape data selection unit 290 temporarily stores the read shape data of the striped object, for example, in a RAM included in the image processing apparatus 200b.

この後、図8に示したステップS13〜S16の処理が実行される。ただし、ステップS13において、データ変換部240は、カメラパラメータおよび物体表示パラメータをパラメータ設定部270から取得するとともに、ステップS54で形状データ選択部290が形状データDB261cから読み出した形状データを用いて、変換処理を行う。また、ステップS16において、画像合成部220は、合成パラメータをパラメータ設定部270から取得する。   Thereafter, the processes of steps S13 to S16 shown in FIG. 8 are executed. However, in step S13, the data conversion unit 240 acquires camera parameters and object display parameters from the parameter setting unit 270, and converts them using the shape data read out from the shape data DB 261c by the shape data selection unit 290 in step S54. Process. In step S <b> 16, the image composition unit 220 acquires a composition parameter from the parameter setting unit 270.

以上説明した第5の実施の形態では、第4の実施の形態と同様に、合成画像に映るストライプ状物体が小さくなった場合でも、除去された領域が細かくなり過ぎなくなり、元の3次元物体の表面形状を把握しやすくなる。さらに、第5の実施の形態では、それぞれ異なる分割パラメータを用いて元の3次元物体から変形された複数のストライプ状物体のそれぞれの形状データが、形状データDB261cにあらかじめ登録される。このため、設定されるカメラパラメータごとにストライプ状物体の形状データを演算する必要がなくなり、第4の実施の形態と比較して、画像処理装置での演算負荷が軽減される。   In the fifth embodiment described above, similarly to the fourth embodiment, even when the stripe-like object shown in the composite image becomes small, the removed region does not become too fine, and the original three-dimensional object It becomes easy to grasp the surface shape. Furthermore, in the fifth embodiment, the shape data of each of the plurality of striped objects deformed from the original three-dimensional object using different division parameters is registered in advance in the shape data DB 261c. For this reason, it is not necessary to calculate the shape data of the striped object for each set camera parameter, and the calculation load on the image processing apparatus is reduced as compared with the fourth embodiment.

なお、上記各実施の形態における画像処理装置あるいは画像表示システムは、例えば、全周囲立体モニタシステム(非特許文献1を参照)に適用することができる。全周囲立体モニタシステムは、車両の周囲を撮影した画像を、車両の後方などの任意の視点から見た俯瞰画像に変換するとともに、俯瞰画像上に同じ視点から見た車両の仮想画像を合成することで、運転者の運転操作を補助するものである。   The image processing apparatus or the image display system in each of the above embodiments can be applied to, for example, an omnidirectional stereoscopic monitor system (see Non-Patent Document 1). The omnidirectional stereoscopic monitor system converts an image obtained by photographing the periphery of the vehicle into an overhead image viewed from an arbitrary viewpoint such as the rear of the vehicle and synthesizes a virtual image of the vehicle viewed from the same viewpoint on the overhead image. This assists the driving operation of the driver.

上記各実施の形態における画像処理装置の処理を、俯瞰画像上に車両の仮想画像を合成する処理に適用することにより、例えば、俯瞰画像に存在する物体のうち、車両の仮想画像によって隠れてしまう物体を、合成画像上で視認できるようになり、車両の周囲の障害物を運転者が認識しやすくなる。さらに、車両の仮想画像の表面形状を運転者が認識しやすくなり、車両の周囲の障害物と車両との位置関係を運転者がより正確に把握できるようになる。   By applying the process of the image processing device in each of the above embodiments to the process of synthesizing the virtual image of the vehicle on the overhead image, for example, the object existing in the overhead image is hidden by the virtual image of the vehicle. The object can be visually recognized on the composite image, and the driver can easily recognize obstacles around the vehicle. Furthermore, the driver can easily recognize the surface shape of the virtual image of the vehicle, and the driver can more accurately grasp the positional relationship between the obstacles around the vehicle and the vehicle.

なお、上記の各実施の形態における画像処理装置の処理は、例えば、次の図14のようなハードウェア構成のコンピュータにおいて実現することもできる。
図14は、コンピュータのハードウェア構成例を示す図である。
Note that the processing of the image processing apparatus in each of the above embodiments can be realized, for example, by a computer having a hardware configuration as shown in FIG.
FIG. 14 is a diagram illustrating a hardware configuration example of a computer.

図14に示すコンピュータ400は、CPU(Central Processing Unit)401によって装置全体が制御されている。CPU401には、バス409を介して、RAM402と複数の周辺機器が接続されている。   The computer 400 shown in FIG. 14 is entirely controlled by a CPU (Central Processing Unit) 401. A RAM 402 and a plurality of peripheral devices are connected to the CPU 401 via a bus 409.

RAM402は、コンピュータ400の主記憶装置として使用される。RAM402には、CPU401に実行させるOS(Operating System)プログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。また、RAM402には、CPU401による処理に必要な各種データが格納される。   The RAM 402 is used as a main storage device of the computer 400. The RAM 402 temporarily stores at least part of an OS (Operating System) program and application programs to be executed by the CPU 401. The RAM 402 stores various data necessary for processing by the CPU 401.

バス409に接続されている周辺機器としては、HDD403、グラフィック処理装置404、入力I/F(インタフェース)405、光学ドライブ装置406、ネットワークI/F407および通信I/F408がある。   Peripheral devices connected to the bus 409 include an HDD 403, a graphic processing device 404, an input I / F (interface) 405, an optical drive device 406, a network I / F 407, and a communication I / F 408.

HDD403は、内蔵した磁気ディスクに対して、磁気的にデータの書き込みおよび読み出しを行う。HDD403は、コンピュータ400の二次記憶装置として使用される。HDD403には、OSプログラム、アプリケーションプログラム、および各種データが格納される。なお、二次記憶装置としては、フラッシュメモリなどの半導体記憶装置を使用することもできる。   The HDD 403 magnetically writes and reads data to and from the built-in magnetic disk. The HDD 403 is used as a secondary storage device of the computer 400. The HDD 403 stores an OS program, application programs, and various data. Note that a semiconductor storage device such as a flash memory can also be used as the secondary storage device.

グラフィック処理装置404には、モニタ404aが接続されている。グラフィック処理装置404は、CPU401からの命令に従って、画像をモニタ404aに表示させる。なお、モニタ404aは、例えば、LCDである。また、モニタ404aは、コンピュータ400の本体と一体化されていてもよい。   A monitor 404 a is connected to the graphic processing device 404. The graphic processing device 404 displays an image on the monitor 404a in accordance with a command from the CPU 401. The monitor 404a is, for example, an LCD. The monitor 404a may be integrated with the main body of the computer 400.

入力I/F405には、キーボード405aおよびマウス405bが接続されている。入力I/F405は、キーボード405aやマウス405bからの出力信号をCPU401に送信する。なお、マウス405bは、ポインティングデバイスの一例であり、他のポインティングデバイスを使用することもできる。他のポインティングデバイスとしては、タッチパネル、タブレット、タッチパッド、トラックボールなどがある。また、キーボード405aなどの入力デバイスは、コンピュータ400の本体と一体化されていてもよい。   A keyboard 405a and a mouse 405b are connected to the input I / F 405. The input I / F 405 transmits output signals from the keyboard 405a and the mouse 405b to the CPU 401. Note that the mouse 405b is an example of a pointing device, and other pointing devices can also be used. Examples of other pointing devices include a touch panel, a tablet, a touch pad, and a trackball. An input device such as the keyboard 405a may be integrated with the main body of the computer 400.

光学ドライブ装置406は、レーザ光などを利用して、光ディスク406aに記録されたデータの読み取りを行う。光ディスク406aは、光の反射によって読み取り可能なようにデータが記録された可搬型の記録媒体である。光ディスク406aには、DVD(Digital Versatile Disc)、DVD−RAM、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(Rewritable)などがある。   The optical drive device 406 reads data recorded on the optical disk 406a using a laser beam or the like. The optical disk 406a is a portable recording medium on which data is recorded so that it can be read by reflection of light. The optical disk 406a includes a DVD (Digital Versatile Disc), a DVD-RAM, a CD-ROM (Compact Disc Read Only Memory), a CD-R (Recordable) / RW (Rewritable), and the like.

ネットワークI/F407は、ネットワーク407aに接続されている。ネットワークI/F407は、ネットワーク407aを介して他の機器との間でデータを送受信する。
通信I/F408には、撮像装置408aが接続されている。通信I/F408は、撮像装置408aから出力された画像信号を、CPU401に対して出力する。なお、撮像装置408aからの出力画像信号がアナログ信号である場合、通信I/F408は、撮像装置408aからの出力画像信号をデジタル化する機能を備えていてもよい。
The network I / F 407 is connected to the network 407a. The network I / F 407 transmits / receives data to / from other devices via the network 407a.
An imaging device 408a is connected to the communication I / F 408. The communication I / F 408 outputs the image signal output from the imaging device 408a to the CPU 401. Note that when the output image signal from the imaging device 408a is an analog signal, the communication I / F 408 may have a function of digitizing the output image signal from the imaging device 408a.

ここで、図1,図6,図9,図10,図12にそれぞれ示した画像処理装置内の各機能ブロックの処理は、例えば、上記コンピュータ400のCPU401が所定のプログラムを実行することで実現される。また、これらの画像処理装置内の少なくとも一部の機能ブロックの処理は、例えば、グラフィック処理装置404などの専用の回路によって実現されてもよい。   Here, the processing of each functional block in the image processing apparatus shown in FIGS. 1, 6, 9, 10, and 12 is realized by the CPU 401 of the computer 400 executing a predetermined program, for example. Is done. Further, the processing of at least some of the functional blocks in these image processing apparatuses may be realized by a dedicated circuit such as the graphic processing apparatus 404, for example.

このように、上記の各実施の形態における画像処理装置の処理機能は、コンピュータによって実現することができる。その場合、各画像処理装置が有すべき機能の処理内容を記述したプログラムが提供され、そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、磁気記憶装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記憶装置には、ハードディスク装置(HDD)、フレキシブルディスク(FD)、磁気テープなどがある。光ディスクには、DVD、DVD−RAM、CD−ROM/RWなどがある。光磁気記録媒体には、MO(Magneto-Optical disk)などがある。   Thus, the processing function of the image processing apparatus in each of the above embodiments can be realized by a computer. In that case, a program describing the processing contents of the functions that each image processing apparatus should have is provided, and the processing functions are realized on the computer by executing the program on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium. Examples of the computer-readable recording medium include a magnetic storage device, an optical disk, a magneto-optical recording medium, and a semiconductor memory. Examples of the magnetic storage device include a hard disk device (HDD), a flexible disk (FD), and a magnetic tape. Optical discs include DVD, DVD-RAM, CD-ROM / RW, and the like. Magneto-optical recording media include MO (Magneto-Optical disk).

プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD、CD−ROMなどの可搬型記録媒体が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。   When distributing the program, for example, a portable recording medium such as a DVD or a CD-ROM in which the program is recorded is sold. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.

プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムまたはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、ネットワークを介して接続されたサーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。   The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. In addition, each time a program is transferred from a server computer connected via a network, the computer can sequentially execute processing according to the received program.

以上の各実施の形態に関し、さらに以下の付記を開示する。
(付記1) 第1の3次元物体の一部が除去されることによって前記第1の3次元物体が複数の部位に分割された第2の3次元物体の表面形状を示す第1の画像を出力する画像出力部と、
前記画像出力部から出力された前記第1の画像を半透明状態で第2の画像に合成する画像合成部と、
を有することを特徴とする画像処理装置。
Regarding the above embodiments, the following supplementary notes are further disclosed.
(Supplementary note 1) A first image showing a surface shape of a second three-dimensional object obtained by dividing a part of the first three-dimensional object into a plurality of parts by removing the first three-dimensional object. An image output unit to output;
An image composition unit for compositing the first image output from the image output unit with a second image in a semi-transparent state;
An image processing apparatus comprising:

(付記2) 前記第1の3次元物体から除去される領域の切断面は、前記第1の3次元物体の形状データが定義された3次元座標空間における所定の平面に沿うことを特徴とする付記1記載の画像処理装置。   (Supplementary Note 2) The cut surface of the region removed from the first three-dimensional object is along a predetermined plane in a three-dimensional coordinate space in which shape data of the first three-dimensional object is defined. The image processing apparatus according to appendix 1.

(付記3) 前記第2の3次元物体の表面は、前記第1の3次元物体の形状データが定義された3次元座標空間における所定の基準平面に平行な複数の分割面に沿って、前記第1の3次元物体の表面がストライプ状に除去された形状をなすことを特徴とする付記2記載の画像処理装置。   (Supplementary Note 3) The surface of the second three-dimensional object is along a plurality of division planes parallel to a predetermined reference plane in a three-dimensional coordinate space in which shape data of the first three-dimensional object is defined. The image processing apparatus according to appendix 2, wherein the surface of the first three-dimensional object is formed in a striped shape.

(付記4) 前記基準平面は、前記画像合成部での合成処理時に前記第2の3次元物体が射影される3次元座標空間における水平面と一致することを特徴とする付記3記載の画像処理装置。   (Supplementary note 4) The image processing apparatus according to supplementary note 3, wherein the reference plane coincides with a horizontal plane in a three-dimensional coordinate space onto which the second three-dimensional object is projected during the composition processing in the image composition unit. .

(付記5) 前記画像出力部は、前記画像合成部から出力される画像における前記第2の3次元物体の見え方を決定するパラメータに基づいて、前記第2の3次元物体において前記第1の3次元物体から除去された領域の数を決定することを特徴とする付記3または4記載の画像処理装置。   (Additional remark 5) The said image output part is based on the parameter which determines the appearance of the said 2nd three-dimensional object in the image output from the said image synthetic | combination part, In the said 2nd three-dimensional object, the said 1st The image processing apparatus according to appendix 3 or 4, wherein the number of regions removed from the three-dimensional object is determined.

(付記6) 前記画像出力部は、前記画像合成部から出力される画像に現れる前記第1の画像の大きさを決定するパラメータに基づいて、前記第2の3次元物体において前記第1の3次元物体から除去された領域の数を決定することを特徴とする付記5記載の画像処理装置。   (Additional remark 6) The said image output part WHEREIN: Based on the parameter which determines the magnitude | size of the said 1st image which appears in the image output from the said image synthetic | combination part, in said 2nd three-dimensional object, said 1st 3 The image processing apparatus according to appendix 5, wherein the number of regions removed from the three-dimensional object is determined.

(付記7) 前記第2の3次元物体は、前記第1の3次元物体の複数箇所が除去されることによって前記複数の部位に分割されたものであることを特徴とする付記1〜4のいずれか1つに記載の画像処理装置。   (Supplementary note 7) The supplementary notes 1 to 4, wherein the second three-dimensional object is divided into the plurality of parts by removing a plurality of portions of the first three-dimensional object. The image processing apparatus according to any one of the above.

(付記8) 前記画像出力部は、前記第1の3次元物体の表面形状を定義した形状データを基に、前記第2の3次元物体の形状データを算出し、算出した形状データを基に前記第1の画像を出力することを特徴とする付記1〜7のいずれか1つに記載の画像処理装置。   (Supplementary Note 8) The image output unit calculates shape data of the second three-dimensional object based on shape data defining a surface shape of the first three-dimensional object, and based on the calculated shape data The image processing apparatus according to any one of appendices 1 to 7, wherein the first image is output.

(付記9) 前記第2の3次元物体の表面形状を示す形状データは、記憶装置にあらかじめ記憶され、
前記画像出力部は、前記記憶装置から読み出した形状データを基に前記第1の画像を出力することを特徴とする付記1〜7のいずれか1つに記載の画像処理装置。
(Supplementary Note 9) Shape data indicating the surface shape of the second three-dimensional object is stored in advance in a storage device,
The image processing apparatus according to any one of appendices 1 to 7, wherein the image output unit outputs the first image based on shape data read from the storage device.

(付記10) 第1の3次元物体の一部が除去されることによって前記第1の3次元物体が複数の部位に分割された第2の3次元物体の表面形状を示す第1の画像を出力する画像出力部と、
前記画像出力部から出力された前記第1の画像を半透明状態で第2の画像に合成する画像合成部と、
を有する画像処理装置と、
前記画像合成部によって合成された画像を表示する表示装置と、
を有することを特徴とする画像表示システム。
(Supplementary Note 10) A first image showing a surface shape of a second three-dimensional object obtained by dividing a part of the first three-dimensional object into a plurality of parts by removing the first three-dimensional object. An image output unit to output;
An image composition unit for compositing the first image output from the image output unit with a second image in a semi-transparent state;
An image processing apparatus having
A display device for displaying an image synthesized by the image synthesis unit;
An image display system comprising:

(付記11) 画像を撮像し、撮像画像を前記画像処理装置に入力する撮像装置をさらに有し、
前記第2の画像は、前記撮像画像に基づく画像である、
ことを特徴とする付記10記載の画像表示システム。
(Additional remark 11) It has an image pick-up device which picturizes an image and inputs a picked-up image into the image processing device,
The second image is an image based on the captured image.
The image display system according to supplementary note 10, wherein

(付記12) コンピュータに、
第1の3次元物体の一部が除去されることによって前記第1の3次元物体が複数の部位に分割された第2の3次元物体の表面形状を示す第1の画像を、第2の画像に対して半透明状態で合成する、
処理を実行させることを特徴とする画像処理プログラム。
(Supplementary note 12)
A first image showing a surface shape of a second three-dimensional object obtained by dividing a part of the first three-dimensional object into a plurality of parts by removing a part of the first three-dimensional object, Compositing the image in a semi-transparent state,
An image processing program for executing a process.

1 画像処理装置
2 画像出力部
3 画像合成部
11,12 物体
11a,11b 平板
12a〜12c 部位
13 背景画像
13a 背景物体
14 合成画像
20 基準平面
21〜24 分割面
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 2 Image output part 3 Image synthetic | combination part 11,12 Object 11a, 11b Flat plate 12a-12c Part 13 Background image 13a Background object 14 Composite image 20 Reference plane 21-24 Divided surface

Claims (7)

第1の3次元物体の一部が除去されることによって前記第1の3次元物体が複数の部位に分割された第2の3次元物体の表面形状を示す第1の画像を出力する画像出力部と、
前記画像出力部から出力された前記第1の画像を半透明状態で第2の画像に合成する画像合成部と、
を有し、
前記第1の3次元物体から除去される領域の切断面は、前記第1の3次元物体の表面形状を定義した第1の3次元形状データが定義された3次元座標空間における所定の基準平面に沿うように設定され、
前記画像出力部は、前記第1の3次元形状データと前記基準平面から前記切断面までの距離を示す距離パラメータとに基づいて、前記第2の3次元物体の第2の3次元形状データを算出し、前記第2の3次元形状データを基に前記第1の画像を出力する、
ことを特徴とする画像処理装置。
Image output for outputting a first image showing a surface shape of a second three-dimensional object obtained by removing a part of the first three-dimensional object and dividing the first three-dimensional object into a plurality of parts And
An image composition unit for compositing the first image output from the image output unit with a second image in a semi-transparent state;
I have a,
The cut surface of the region removed from the first three-dimensional object is a predetermined reference plane in a three-dimensional coordinate space in which first three-dimensional shape data defining the surface shape of the first three-dimensional object is defined. Is set along
The image output unit outputs second 3D shape data of the second 3D object based on the first 3D shape data and a distance parameter indicating a distance from the reference plane to the cut surface. Calculating and outputting the first image based on the second three-dimensional shape data;
An image processing apparatus.
前記第2の3次元物体の表面は、前記基準平面に平行な複数の分割面に沿って、前記第1の3次元物体の表面がストライプ状に除去された形状をなすことを特徴とする請求項記載の画像処理装置。 Surface of said second 3-dimensional object, and characterized in that before Kimoto along a plurality of divided surfaces parallel to the quasi-plane, a shape of a surface of said first three-dimensional object is removed in stripes The image processing apparatus according to claim 1 . 前記画像出力部は、前記画像合成部から出力される画像における前記第2の3次元物体の見え方を決定するパラメータに基づいて、前記第2の3次元物体において前記第1の3次元物体から除去された領域の数を決定することを特徴とする請求項記載の画像処理装置。 The image output unit is configured to output from the first three-dimensional object in the second three-dimensional object based on a parameter that determines how the second three-dimensional object appears in the image output from the image synthesis unit. The image processing apparatus according to claim 2, wherein the number of removed regions is determined. 前記画像出力部は、前記画像合成部から出力される画像に現れる前記第1の画像の大きさを決定するパラメータに基づいて、前記第2の3次元物体において前記第1の3次元物体から除去された領域の数を決定することを特徴とする請求項記載の画像処理装置。 The image output unit removes the second three-dimensional object from the first three-dimensional object based on a parameter that determines the size of the first image that appears in the image output from the image synthesis unit. 4. The image processing apparatus according to claim 3 , wherein the number of the determined areas is determined. 第1の3次元物体の一部が除去されることによって前記第1の3次元物体が複数の部位に分割された第2の3次元物体の表面形状を示す第1の画像を出力する画像出力部と、
前記画像出力部から出力された前記第1の画像を半透明状態で第2の画像に合成する画像合成部と、
を有する画像処理装置と、
前記画像合成部によって合成された画像を表示する表示装置と、
を有し、
前記第1の3次元物体から除去される領域の切断面は、前記第1の3次元物体の表面形状を定義した第1の3次元形状データが定義された3次元座標空間における所定の基準平面に沿うように設定され、
前記画像出力部は、前記第1の3次元形状データと前記基準平面から前記切断面までの距離を示す距離パラメータとに基づいて、前記第2の3次元物体の第2の3次元形状データを算出し、前記第2の3次元形状データを基に前記第1の画像を出力する、
ことを特徴とする画像表示システム。
Image output for outputting a first image showing a surface shape of a second three-dimensional object obtained by removing a part of the first three-dimensional object and dividing the first three-dimensional object into a plurality of parts And
An image composition unit for compositing the first image output from the image output unit with a second image in a semi-transparent state;
An image processing apparatus having
A display device for displaying an image synthesized by the image synthesis unit;
I have a,
The cut surface of the region removed from the first three-dimensional object is a predetermined reference plane in a three-dimensional coordinate space in which first three-dimensional shape data defining the surface shape of the first three-dimensional object is defined. Is set along
The image output unit outputs second 3D shape data of the second 3D object based on the first 3D shape data and a distance parameter indicating a distance from the reference plane to the cut surface. Calculating and outputting the first image based on the second three-dimensional shape data;
An image display system characterized by that.
画像を撮像し、撮像画像を前記画像処理装置に入力する撮像装置をさらに有し、
前記第2の画像は、前記撮像画像に基づく画像である、
ことを特徴とする請求項記載の画像表示システム。
An image pickup device for picking up an image and inputting the picked-up image to the image processing device;
The second image is an image based on the captured image.
The image display system according to claim 5 .
コンピュータに、
第1の3次元物体の一部が除去されることによって前記第1の3次元物体が複数の部位に分割された第2の3次元物体の表面形状を示す第1の画像を出力し
前記第1の画像を第2の画像に対して半透明状態で合成する、
処理を実行させ
前記第1の3次元物体から除去される領域の切断面は、前記第1の3次元物体の表面形状を定義した第1の3次元形状データが定義された3次元座標空間における所定の基準平面に沿うように設定され、
前記第1の画像の出力では、前記第1の3次元形状データと前記基準平面から前記切断面までの距離を示す距離パラメータとに基づいて、前記第2の3次元物体の第2の3次元形状データを算出し、前記第2の3次元形状データを基に前記第1の画像を出力する、
ことを特徴とする画像処理プログラム。
On the computer,
Outputs a first image showing a surface shape of the second 3-dimensional object, wherein the first three-dimensional object is divided into a plurality of portions by a portion of the first three-dimensional object is removed,
Combining the first image with the second image in a translucent state;
Let the process run ,
The cut surface of the region removed from the first three-dimensional object is a predetermined reference plane in a three-dimensional coordinate space in which first three-dimensional shape data defining the surface shape of the first three-dimensional object is defined. Is set along
In the output of the first image, the second three-dimensional object of the second three-dimensional object is based on the first three-dimensional shape data and a distance parameter indicating a distance from the reference plane to the cut surface. Calculating shape data and outputting the first image based on the second three-dimensional shape data;
An image processing program characterized by that.
JP2010270182A 2010-12-03 2010-12-03 Image processing apparatus, image display system, and image processing program Expired - Fee Related JP5633345B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010270182A JP5633345B2 (en) 2010-12-03 2010-12-03 Image processing apparatus, image display system, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010270182A JP5633345B2 (en) 2010-12-03 2010-12-03 Image processing apparatus, image display system, and image processing program

Publications (2)

Publication Number Publication Date
JP2012118910A JP2012118910A (en) 2012-06-21
JP5633345B2 true JP5633345B2 (en) 2014-12-03

Family

ID=46501621

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010270182A Expired - Fee Related JP5633345B2 (en) 2010-12-03 2010-12-03 Image processing apparatus, image display system, and image processing program

Country Status (1)

Country Link
JP (1) JP5633345B2 (en)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0883298A (en) * 1994-09-12 1996-03-26 Mitsubishi Heavy Ind Ltd Three-dimensional beam shape generating device from solid shape
US6697761B2 (en) * 2000-09-19 2004-02-24 Olympus Optical Co., Ltd. Three-dimensional position/orientation sensing apparatus, information presenting system, and model error detecting system
JP4537557B2 (en) * 2000-09-19 2010-09-01 オリンパス株式会社 Information presentation system
JP2002248692A (en) * 2001-02-23 2002-09-03 Minolta Co Ltd Three-dimensional shaping system, three-dimensional shaping center, program, memory medium and method for ordering three-dimensional shaping
JP4154452B2 (en) * 2003-03-28 2008-09-24 有限会社アート・コア How to create a perspective image for advertising purposes.
JP2005339377A (en) * 2004-05-28 2005-12-08 Canon Inc Image processing method and image processor
EP1717757A1 (en) * 2005-04-28 2006-11-02 Bayerische Motoren Werke Aktiengesellschaft Method for graphically displaying the surroundings of a motor vehicle
JP2007025929A (en) * 2005-07-14 2007-02-01 Ricoh Co Ltd Three-dimensional shape display supporting device, three-dimensional shape display supporting method, and program and recording medium
JP5134504B2 (en) * 2008-11-06 2013-01-30 クラリオン株式会社 Vehicle perimeter monitoring system

Also Published As

Publication number Publication date
JP2012118910A (en) 2012-06-21

Similar Documents

Publication Publication Date Title
US10349033B2 (en) Three-dimensional map generating and displaying apparatus and method
CN112513712B (en) Mixed reality system with virtual content warping and method of generating virtual content using the same
JP4966431B2 (en) Image processing device
JP5388534B2 (en) Image processing apparatus and method, head-mounted display, program, and recording medium
US11012679B2 (en) Generating apparatus, generating method, and storage medium
KR102359978B1 (en) Mixed reality system with multi-source virtual content synthesis and method for creating virtual content using same
JP5011224B2 (en) Arbitrary viewpoint video generation apparatus and arbitrary viewpoint video generation program
KR100953931B1 (en) System for constructing mixed reality and Method thereof
JP6079131B2 (en) Image processing apparatus, method, and program
KR101181199B1 (en) Stereoscopic image generation method of background terrain scenes, system using the same and recording medium for the same
AU2016336030A1 (en) Volumetric depth video recording and playback
US11995784B2 (en) Image processing device and image processing method
JP7353782B2 (en) Information processing device, information processing method, and program
JP2018040789A (en) Image distance calculation device, image distance calculation method, and program for image distance calculation
JP6762570B2 (en) Image processing equipment, image processing method, and image processing program
KR20110088995A (en) Method and system for visualizing surveillance camera image in three-dimensional model, and recording medium
WO2020208976A1 (en) Image processing device, image processing method, and program
US20220284544A1 (en) Vehicle undercarriage imaging
JP3352454B2 (en) Image processing apparatus and method, and storage medium
JP5633345B2 (en) Image processing apparatus, image display system, and image processing program
JP2010152529A (en) Vertex texture mapping device and program
JP5857606B2 (en) Depth production support apparatus, depth production support method, and program
JP2009205522A (en) Program, information storage medium, and information conversion system
JP7394566B2 (en) Image processing device, image processing method, and image processing program
JP2019144958A (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140827

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140916

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140929

LAPS Cancellation because of no payment of annual fees