KR20060131145A - Randering method of three dimension object using two dimension picture - Google Patents

Randering method of three dimension object using two dimension picture Download PDF

Info

Publication number
KR20060131145A
KR20060131145A KR1020050051374A KR20050051374A KR20060131145A KR 20060131145 A KR20060131145 A KR 20060131145A KR 1020050051374 A KR1020050051374 A KR 1020050051374A KR 20050051374 A KR20050051374 A KR 20050051374A KR 20060131145 A KR20060131145 A KR 20060131145A
Authority
KR
South Korea
Prior art keywords
image
angle
dimensional
camera
viewpoint
Prior art date
Application number
KR1020050051374A
Other languages
Korean (ko)
Inventor
김태성
조항신
이민정
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020050051374A priority Critical patent/KR20060131145A/en
Publication of KR20060131145A publication Critical patent/KR20060131145A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Mathematical Optimization (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Computer Graphics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computing Systems (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Image Generation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

A rendering method of a three-dimensional object using a two-dimensional image is provided to represent the quality of an image like the three dimension image. When a view point of a camera is determined(S111), the position and angle of a 3-D(Dimensional) object rotated from an initial point to the camera(the next view point) are stored. An angle is calculated by the inner product of the first and second vectors(S113). The calculated angle is divided by the offset so that the real texture image number is obtained(S115). The position angle of the object is compared with the angle of the camera view point. At this time, when the position angle of the object is above the angle of the camera view point, the real texture image number is calculated by subtraction of the text image number(S117) and applied to the QBM(Quick Time VR and Billboard Mesh) so that a rendering operation is performed(S119).

Description

이차원 영상을 이용한 삼차원 물체의 렌더링 방법{Randering method of three dimension object using two dimension picture}Rendering method of three dimension object using two dimension picture}

도 1은 본 발명 실시 예에 따른 이차원 영상을 이용한 삼차원 물체의 렌더링 방법을 나타낸 플로우 챠트.1 is a flowchart illustrating a method of rendering a 3D object using a 2D image according to an exemplary embodiment of the present invention.

도 2는 본 발명 실시 예에 따른 이차원 영상을 이용한 삼차원 물체의 렌더링 방법을 나타낸 플로우 챠트.2 is a flowchart illustrating a method of rendering a 3D object using a 2D image according to an exemplary embodiment of the present invention.

도 3은 본 발명에 따른 삼차원 물체의 좌표에 따른 각도 계산 예를 나타낸 도면.3 is a view showing an example of calculating the angle according to the coordinates of a three-dimensional object in accordance with the present invention.

도 4는 본 발명에 따른 삼차원 물체의 좌표에 따른 각도 계산의 다른 예를 나타낸 도면.4 is a view showing another example of the angle calculation according to the coordinates of a three-dimensional object in accordance with the present invention.

본 발명은 휴대 단말기에 있어서, 특히 3차원 물체를 렌더링(rendering)할 때, 다시점 2차원 영상을 이용한 3차원 물체의 렌더링 방법에 관한 것이다.The present invention relates to a rendering method of a three-dimensional object using a multi-view two-dimensional image, particularly when rendering a three-dimensional object in a portable terminal.

일반적으로 렌더링(rendering)은 물체의 모양을 그 형이나 위치, 광원 등의 외부 정보를 고려하면서 실감나는 화상을 표현하는 컴퓨터 도형의 기법이다. 즉, 2D나 3D에서 컴퓨터 그래픽스(CG) 영상 작성 시 최종 단계로 영상을 생성하는 것이다. 2D CG에서 렌더링은 동화상에 대한 화상 처리 공정의 최종 단계로서 처리 완료된 화상을 생성하는 공정을 말하며, 또한 3D CG의 경우에는 컴퓨터 내부에 기록되어 있는 모델 데이터를 디스플레이 장치에 묘화(描畵)될 수 있도록 영상화하는 것을 말한다In general, rendering is a technique of computer graphics that expresses a realistic image while considering the shape of an object in consideration of external information such as its shape, position, and light source. In other words, when creating a computer graphics (CG) image in 2D or 3D, the final step is to generate the image. In 2D CG, rendering refers to a process of generating a processed image as a final step of an image processing process for a moving image, and in the case of 3D CG, model data recorded inside a computer can be drawn on a display device. Say that to visualize

3차원 그래픽의 디스플레이 예를 보면, 웹에서 3차원 그래픽을 보일 수 있는 QTVR(Quick Time VR(Virtual Reality))이나, 중요 시점이외의 물체를 러프하게 표현하기 위한 빌보드(Billboard) 같은 기법들을 사용하여, 3차원 그래픽을 보이는 것과 같은 이미지를 연출하기도 한다.Examples of display of 3D graphics include techniques such as Quick Time VR (QTVR), which can display 3D graphics on the web, or billboards to roughly represent non-critical objects. They also produce images that look like 3D graphics.

QTVR은 한 시점에서 3차원의 물체를 360도 회전하며 이미지 캡쳐를 한 후, 웹 상에서 사용자의 마우스 움직임에 따라 시점과 각도에 해당되는 이미지를 보여줌으로써, 3차원의 물체를 실제로 보여주는 것과 같은 효과를 볼 수 있는 기법이다.QTVR captures an image by rotating a three-dimensional object 360 degrees at a point in time, and then displays an image corresponding to the viewpoint and angle according to the user's mouse movement on the web. It is a technique that can be seen.

이러한 3차원 그래픽 표현시 특히, 잎이 많은 나무와 같은 3차원 물체를 렌더링시에는 많은 자원이 드는 반면에, 보여지는 이미지는 비슷한 느낌이 들뿐 아니라, 주된 이미지가 아니므로, 사용자의 시점에서 조금 벗어나 신경 쓰이지 않는 부분이 사용된다.When expressing such a 3D graphic, in particular, rendering a 3D object such as a leafy tree requires a lot of resources, while the image shown is not only a similar feeling, but is not the main image. The part that does not care about is used.

이러한 물체를 전체 3차원으로 표현하기보다는 플레이트(Plate) 한 판을 세워 나무의 이미지를 캡쳐한 것으로 표현하고, 이 플레이트 한 판을 사용자의 시점에 따라 로테이션 시키게되면, 사용자는 3차원의 나무가 서있는 것과 같은 느낌을 받을 수 있다. 이러한 기법을 빌보드 기법이라고 한다.Rather than representing these objects in full three-dimensional form, a plate is placed to capture the image of the tree and the plate is rotated according to the user's point of view. You can feel the same way. This technique is called the billboard technique.

이와 같이 종래에는 3차원 그래프 표현 시, 복잡한 알고리즘과 많은 계산 과정이 필요하여 수행 속도를 빠르게 하기 위해서는 PC(Personal Computer) 또는 휴대 단말기(PDA(personal digital assistant), 핸드폰, 카메라 폰 등)의 하드웨어 사양이 높아야 한다. 또한 하드웨어적 사양이 높다 하더라도, 휴대 단말기의 공간적인 제약 조건 때문에, 휴대 단말기에 지원될 수 있는 성능에 한계가 있기 때문에, 3차원 그래픽을 구현하기란 쉽지가 않다.As such, in the prior art, when expressing a 3D graph, complicated algorithms and many calculation processes are required, and thus, hardware specifications of a personal computer (PDA) or a portable terminal (PDA (personal digital assistant), a mobile phone, a camera phone, etc.) are required to increase the speed of execution. This should be high. In addition, even if the hardware specifications are high, due to the spatial constraints of the portable terminal, there is a limit to the performance that can be supported in the portable terminal, it is not easy to implement three-dimensional graphics.

본 발명은 시점간에 생기는 2차원 영상을 이용한 3차원 물체의 렌더링 방법을 제공함에 있다.The present invention provides a method of rendering a 3D object using a 2D image generated between viewpoints.

본 발명의 제 1목적은 3차원 모델을 렌더링할 때 QTVR의 장점과 빌보드의 장점을 응용하여 3차원 모델을 사각형 메쉬로 구현하여 렌더링함으로써, 낮은 사양에서도 높은 화면의 질로 전체를 3차원과 같이 표현할 수 있는 것을 그 특징으로 하고 있다.The first object of the present invention is to render the three-dimensional model as a rectangular mesh by applying the advantages of the QTVR and the billboard when rendering the three-dimensional model, it is possible to represent the whole as a three-dimensional image with a high screen quality even at a low specification It is characterized by what is possible.

본 발명의 제 2목적은 3차원 모델의 메쉬 수가 많을 이용함으로써, 낮은 사양에서도 높은 속도 값과 3차원 효과를 기대할 수 있도록 함에 있다.The second object of the present invention is to use a large number of meshes in the three-dimensional model, so that high speed values and three-dimensional effects can be expected even at low specifications.

본 발명의 제 3목적은 다 시점으로 발생되는 이미지를 이용함으로써, 사용자의 시점이 변하여도 그에 상응하는 시각 효과를 기대할 수 있도록 함에 있다.A third object of the present invention is to use an image generated from multiple viewpoints, so that a visual effect corresponding to the viewpoint of a user may be expected.

본 발명의 제 4목적은 사각형의 메쉬(mesh)에 생성한 이미지를 텍스쳐로 사 용함으로써, 원본을 이용할 때 보다 빠른 수행 속도를 제공하는데 있다.The fourth object of the present invention is to provide a faster execution speed when using the original by using the image generated in the square mesh (mesh) as a texture.

상기한 목적 달성을 위한 본 발명에 따른 2차원 영상을 이용한 3차원 물체의 렌더링 방법은,Rendering method of a three-dimensional object using a two-dimensional image according to the present invention for achieving the above object,

3차원 물체를 처음 시점에서 일정 오프셋으로 360도 회전하여 이미지를 각각 캡쳐하여, 다수개의 이미지를 생성하는 단계;Generating a plurality of images by respectively capturing images by rotating the three-dimensional object 360 degrees at a predetermined offset from an initial viewpoint;

상기 캡쳐된 이미지 중 최대 사이즈를 커버하는 사각형 메쉬를 생성하고, 그 생성된 사각형 메쉬가 놓여질 물체의 위치를 저장하는 단계;Generating a rectangular mesh covering a maximum size of the captured images, and storing a position of an object on which the generated rectangular mesh is to be placed;

이후, 런 타임시 특정 사각형 메쉬를 바라보는 카메라의 시점이 결정되면, 물체의 처음 시점에서 로테이션된 카메라 시점과 3차원 물체간에 생기는 각도를 이용하여 매핑된 이미지 번호를 추출하는 단계;Thereafter, when the viewpoint of the camera looking at the specific square mesh is determined at run time, extracting the mapped image number using an angle generated between the rotated camera viewpoint and the three-dimensional object at the initial viewpoint of the object;

상기 카메라 시점과 3차원 물체간에 생기는 각도만큼 일정 방향으로 사각형 메쉬를 로테이션시키며, 상기 추출된 이미지를 사각형 메쉬의 텍스쳐로 적용하여 렌더링을 수행하는 단계를 포함하는 것을 특징으로 한다. And rotating the rectangular mesh in a predetermined direction by an angle generated between the camera viewpoint and the 3D object, and performing rendering by applying the extracted image as a texture of the rectangular mesh.

바람직하게, 상기 카메라 시점과 3차원 물체간에 생기는 각도는 기준점과 물체 사이를 제 1벡터 및 카메라 시점과 물체 사이를 제 2벡터라 하고, 두 벡터의 내적을 구하여 각도를 계산하는 것을 특징으로 한다.Preferably, the angle generated between the camera viewpoint and the three-dimensional object is called a first vector between the reference point and the object and a second vector between the camera viewpoint and the object, and the angle is calculated by obtaining the inner product of the two vectors.

바람직하게, 상기 카메라 시점과 3차원 물체간에 생기는 각도를 오프셋으로 나누어 상기 캡쳐된 다수개의 이미지 중에서 이미지 번호를 추출하는 것을 특징으로 한다.Preferably, the image number is extracted from the plurality of captured images by dividing an angle generated between the camera viewpoint and the 3D object by an offset.

바람직하게, 상기 이미지 번호가 추출되면, 물체의 각도와 카메라의 각도를 비교하여 서로 대칭한 두 이미지 중에서 하나의 이미지 번호를 추출하는 것을 특징으로 한다.Preferably, when the image number is extracted, one image number is extracted from two images which are symmetrical with each other by comparing the angle of the object with the angle of the camera.

상기와 같은 본 발명 실시 예에 따른 2차원 영상을 이용한 3차원 물체 렌더링 방법에 대해 첨부된 도면을 참조하여 설명하면 다음과 같다.Referring to the accompanying drawings, a three-dimensional object rendering method using a two-dimensional image according to an embodiment of the present invention as described above is as follows.

본 발명은 빌보드 기법과 QTVR을 조합하여 3차원 공간에서 정교한 오브젝트를 이미지가 매칭되는, 그리고 카메라(CAM)를 바라보도록 회전하는, 평면 오브젝트를 대치하되, 평면 오브젝트에 매핑되는 이미지를 QTVR과 같이 여러 상황에 따라 미리 생성해 두고 대치하도록 함으로써, 렌더링 시간을 최소화하며 동시에 보다 사실적인 오브젝트 표현이 가능하도록 한 것이다.The present invention combines the billboard technique with QTVR to replace planar objects that rotate images to match an image in a three-dimensional space, and to look at the camera CAM. By creating and replacing them according to the situation, the rendering time is minimized and more realistic object representation is possible.

구체적으로, 본 발명은 2차원 영상을 위하여 3차원 물체로부터 일정 각도씩 나누어 360도 해당되는 이미지를 추출하며, 보이는 시점간에 생기는 이미지와, 시점과 물체간에 생기는 각도를 이용하여 3차원 물체를 사이의 각도에 따라 이미지를 보여줄 수 있도록 한다.Specifically, the present invention extracts an image corresponding to 360 degrees by dividing a predetermined angle from a three-dimensional object for a two-dimensional image, and between the three-dimensional object using an image generated between the visible viewpoint and an angle generated between the viewpoint and the object. Allows you to display the image according to the angle.

도 1은 본 발명에 따른 2차원 영상을 이용한 3차원 물체의 렌더링을 위한 전 처리 방법을 나타낸 도면이다.1 is a diagram illustrating a preprocessing method for rendering a 3D object using a 2D image according to the present invention.

3차원 모델을 사각형의 메쉬(QBM : Quick Time VR & Billboard Mesh)로 구현하기 위해서, QTVR과 빌보드 기법을 응용하기 위한 전처리 과정이 필요하게 된다. 상기 QTVR 응용을 위한 사각형 메쉬(QBM)의 텍스쳐 이미지는 3차원 모델을 360도 회전시켜 만들어진다. In order to implement a 3D model as a quad mesh (QBM: Quick Time VR & Billboard Mesh), a preprocessing process for applying QTVR and billboard technique is required. The texture image of the square mesh (QBM) for the QTVR application is made by rotating the three-dimensional model 360 degrees.

이에 따라, 3차원 물체가 있을 경우 3차원 물체가 보일 각도를 계산하게 된다. 이때, 3차원 물체는 360도 회전이 가능하기 때문에, 3차원 물체의 로테이션(Rotation)에 따른 이미지와 이미지 사이의 각도를 오프셋(Offset)으로 결정하게 된다(S101). Accordingly, when there is a 3D object, the angle at which the 3D object is viewed is calculated. In this case, since the 3D object can be rotated 360 degrees, the angle between the image and the image according to the rotation of the 3D object is determined as an offset (S101).

그리고, 도 3에 도시된 바와 같이 기준점(BP: Base Point)에서 보이는 3차원 물체(OBJ)의 방향을 기준선(BL: Base Line)으로 하여, 오프셋 각도씩 360도 회전하여 이미지를 각각 캡쳐하게 된다(S103). 상기 360도를 오프셋 각도로 나눈 만큼의 텍스쳐 이미지 개수가 생성된다(S104). As shown in FIG. 3, the image of the three-dimensional object OBJ viewed from the base point BP is the base line BL, and the image is captured by rotating 360 degrees for each offset angle. (S103). The number of texture images divided by the 360 degrees by the offset angle is generated (S104).

여기서, 기준점(BP)의 기하학적 위치는 처음 시점(ORG)과 일치하는 것으로, 상기 처음 시점(ORG)는 이미지를 획득할 당시의 시작 기점이며, 기준점(BP)는 런타임에서 QBM의 텍스쳐 이미지 번호를 산출하기 위한 내적 연산의 기준점이다. Here, the geometric position of the reference point BP coincides with the initial point of view ORG, the first point of view ORG is a starting point at the time of acquiring an image, and the reference point BP is a texture image number of QBM at runtime. It is the reference point of the inner product operation to calculate.

만약, 오프셋이 10일 경우, 360도를 10으로 나누면 36장(0~35)의 이미지가 생성된다. 이러한 오프셋 값이 작을수록 더 많은 이미지가 생성되므로, 더욱 자연스러운 시각 효과가 발생된다. 여기서, 상기 기준선(BL)은 이미지를 변화시킬 수 있도록 설정된 라인이며, 첫 번째 이미지가 보이게 되는 처음 시점(ORG)과 3차원 물체(OBJ)를 이은 선분의 수선이다.If the offset is 10, if 360 degrees are divided by 10, 36 images (0 to 35) are generated. The smaller this offset value, the more images are generated, resulting in a more natural visual effect. Here, the reference line BL is a line set to change an image, and is a line segment of a line connecting the first point of view ORG where the first image is visible and the 3D object OBJ.

그리고, 360도/오프셋 장의 이미지가 생성되면, 각각의 이미지의 사이즈는 3차원 물체를 모두 커버할 수 있는 최대 사각형(QBM: Quick Time VR & Billboard Mesh)이 생성된다(S105). 그리고, 상기 최대 사각형이 놓여질 위치 즉, 3차원 물체(OBJ)의 위치(물체의 좌표)를 저장하게 된다(S107). When an image of 360 degrees / offset is generated, a maximum rectangle (QBM: Quick Time VR & Billboard Mesh) capable of covering all three-dimensional objects is generated (S105). Then, the position where the maximum rectangle is to be placed, that is, the position (coordinate of the object) of the 3D object OBJ is stored (S107).

여기서, 빌보드 기법을 응용하기 위하여 상기 생성된 이미지들 중에서 제일 큰 사이즈를 커버할 수 있는 사각형을 빌보드로 세우게 된다. 이에 따라 모든 이미지들이 제일 큰 사이즈를 커버하는 상기 사각형 빌보드에 의해 동일한 사이즈로 보이게 된다. 또한 상기 이미지를 빌보드화하기 위하여 이미지의 바탕은 이미지에 있지 않은 색을 기본으로 한다. 이에 따라, 이미지를 제외한 바탕을 투명 처리할 수 있게 된다. Here, in order to apply the billboard technique, a rectangle that can cover the largest size among the generated images is set as the billboard. This results in all images appearing the same size by the rectangular billboard covering the largest size. In addition, in order to billboard the image, the background of the image is based on colors that are not in the image. Accordingly, the background except for the image can be transparently processed.

여기서, 상기의 이미지 사이즈는 QBM에서 보고자하는 대상 오브젝트의 크기를 말하며, 이 사이즈는 카메라의 위치나 기타 상황에 따라 틀릴 수 있다. 예를 들어 자동차의 정면 이미지에서 자동차가 정확하게 차지하는 영역의 크기 대비, 자동차의 측면 이미지에서 자동차가 차지하는 영역의 크기가 다르게 된다. Here, the image size refers to the size of the target object to be viewed in the QBM, and the size may be different according to the position of the camera or other situation. For example, the size of the area occupied by the car is different from the size of the area occupied by the car accurately in the front image of the car.

그리고, 이미지 사이즈는 QBM에 텍스쳐로 사용하기 위해 획득한 2차원이고, 4각형인 이미지에는 실제 표현하고자 하는 오브젝트와 함께 배경에 해당하는 불필요한 픽셀들도 있기 때문에, QBM을 렌더링 할 경우 배경부분을 필터링해주는 작업을 진행하게 된다. 이와 같이 필터링되는 불필요한 이미지 부분들을 최소화하기 위하여, 획득한 이미지들의 크기를 동일하게 유지하되, 최소한으로 하도록 가공하는 작업을 진행하게 된다. 그리고, 3D공간에서 가공한 이미지의 상대적인 크기에 따라, QBM의 크기도 조절이 된다. The image size is a two-dimensional image acquired for use as a texture in QBM, and since the quadrilateral image includes unnecessary objects corresponding to the background along with the object to be expressed, the background part is filtered when QBM is rendered. Will be working. In order to minimize unnecessary image parts filtered as described above, processing is performed to keep the size of the acquired images the same, but to minimize them. And, according to the relative size of the processed image in the 3D space, the size of the QBM is also adjusted.

이와 같이 다시점 2차원 영상을 이용한 3차원 물체의 렌더링을 위해, 3차원 물체를 오프셋 각도씩만큼 각각의 이미지를 캡쳐한 후, 각 이미지마다의 물체 위치를 저장함으로써, 상기 캡쳐된 2차원 이미지 영상을 3차원으로 렌더링할 수 있는 전 처리 과정이 완료된다.In order to render a three-dimensional object using a multi-view two-dimensional image as described above, by capturing each image by an offset angle of the three-dimensional object, and storing the object position for each image, the captured two-dimensional image image This completes the preprocessing process to render 3D.

이러한 전 처리 과정을 통해 2차원 영상 이미지 및 각 이미지마다의 물체 위치를 이용하여 보이는 시점 즉, 카메라 시점과 물체 사이의 각도를 이용하여 이미지를 추출한 후, 사각형 메쉬의 텍스쳐로 적용할 수 있도록 이용하게 된다.Through this preprocessing process, the image is extracted by using the two-dimensional image and the object's position for each image, that is, the angle between the camera's point of view and the object, and then applied to the texture of the square mesh. do.

도 2를 본 발명에 따른 2차원 영상을 이용한 3차원 물체의 렌더링 방법을 나타낸 플로우 챠트이다. 도 3 및 도 4는 본 발명의 설명의 편의를 위해 기준선(BL)과 처음시점(ORG), 시점(CAM), 3차원 물체의 좌표(OBJ)에 따른 각도 계산을 나타낸 도면이다.2 is a flowchart illustrating a method of rendering a 3D object using a 2D image according to the present invention. 3 and 4 are diagrams illustrating angle calculation based on a reference line BL, an initial point of view ORG, a point of view CAM, and a coordinate OBJ of a three-dimensional object for convenience of description of the present invention.

도 2 및 도 3, 4를 참조하면, 카메라의 시점이 결정되면(S111), 처음 시점(ORG)에서 카메라(다음 시점)까지의 로테이션된 3차원 물체의 위치 및 각도를 저장하게 된다. 이때, 도 3과 같이 기준선(BL)과 물체(OBJ)의 벡터 값을 제 1벡터(Vector1) 값으로 하고, 카메라 시점에서 물체 사이를 제 2벡터(Vector2)로 하여, 두 벡터의 내적으로 구하여 각도를 계산한다(S113). 여기서 제 1벡터 Vector1= BP-OBJ, 제 2벡터 Vector2 = Cam-OBJ로 구해진다. 2, 3, and 4, when the viewpoint of the camera is determined (S111), the position and angle of the rotated 3D object from the first viewpoint ORG to the camera (the next viewpoint) are stored. At this time, as shown in FIG. 3, the vector value of the reference line BL and the object OBJ is set as the first vector Vector1 value, and between the objects at the camera viewpoint as the second vector Vector2, the inner product of the two vectors is obtained. Calculate the angle (S113). Here, the first vector Vector1 = BP-OBJ and the second vector Vector2 = Cam-OBJ are obtained.

여기서, 기준선(BL)과 물체(OBJ) 사이의 각도는 θ2이며, 이 θ2에서 90도를 감산한 값이 θ1로 구해진다. 즉, 카메라 시점(CAM)은 로테이션된 3차원 물체와 90도의 각도를 유지하기 때문에, 기준선(BL)에서 카메라 시점(CAM)까지의 각도(θ2)와 상기 90도를 이용하여 첫 시점에서 카메라 시점까지의 각도(θ1)를 계산할 수 있다. 이는 벡터의 내적을 통해 θ1과 θ2를 알게 되면, 이미지 인텍스를 얻을 수 있으며, QBM의 회전각도 얻을 수 있다.Here, the angle between the reference line BL and the object OBJ is θ2, and a value obtained by subtracting 90 degrees from this θ2 is obtained as θ1. That is, since the camera viewpoint CAM maintains an angle of 90 degrees with the rotated three-dimensional object, the camera viewpoint from the first viewpoint using the angle θ2 from the reference line BL to the camera viewpoint CAM and the 90 degrees. The angle θ1 up to can be calculated. This means that if we know θ1 and θ2 through the dot product of the vector, we can get the image index and the rotation angle of QBM.

이에 따라 상기 계산된 각도를 오프셋으로 나누어 실제 텍스쳐 이미지 번호를 알 수 있게 된다(S115). 상기 이미지 번호는 QBM의 텍스쳐 이미지 번호로서, 두 벡터의 내적을 오프셋으로 나누어 계산된 값에 해당되는 이미지 번호이다. Accordingly, the actual texture image number can be known by dividing the calculated angle by an offset (S115). The image number is a texture image number of QBM and is an image number corresponding to a value calculated by dividing the inner product of two vectors by an offset.

다시 말하면, 기준점(BP)의 기하학적 위치는 처음 시점(ORG)과 일치하는 것으로, 상기 처음 시점(ORG)는 이미지를 획득할 당시의 시작 기점이며, 기준점(BP)는 런타임에서 QBM의 텍스쳐 이미지 번호를 산출하기 위한 내적 연산의 기준점이다. 이러한 두 지점(BP, ORG)를 일치시킬 경우 간단한 연산으로 이미지 번호를 산출할 수 있다. 즉, 기준벡터(BP-OBJ)와 오브젝트가 카메라를 바라보는 벡터(CAM-OBJ)를 내적하면 두 벡터의 사이각을 알 수 있으며, 그 사이각을 오프셋으로 나누면 0~35 중 어느 하나의 값이 나오게 된다. 여기서, 오프셋이 10인 경우에 대해 이미지 번호를 설명한 것으로, 예를 들면, 기분벡터(BP-OBJ)와 오브젝트가 카메라를 바라보는 벡터(CAM-OBJ)의 사이각이 36.5도이고, 오프셋이 10인 경우 ANSIC 표준의 정수 나눗셈을 이용하면 이미지 번호 = (INT)(36.5/10) =3이 된다. 즉, 3번 이미지(4번째 이미지)를 회전시킨 평면 오브젝트에 매핑하게 된다.In other words, the geometric position of the reference point BP coincides with the initial point of view ORG, where the first point of view ORG is the starting point at the time of acquiring the image, and the reference point BP is the texture image number of QBM at runtime. It is the reference point of the inner product operation to calculate. If these two points (BP, ORG) are matched, the image number can be calculated by a simple operation. That is, the internal angle between the two vectors can be known by internalizing the reference vector (BP-OBJ) and the object facing the camera (CAM-OBJ), and dividing the angle by the offset can be any one of 0 to 35. Will come out. Here, the image number has been described for the case where the offset is 10. For example, the angle between the mood vector BP-OBJ and the vector object CAM-OBJ facing the camera is 36.5 degrees, and the offset is 10. If using the ANSIC standard integer division, the image number = (INT) (36.5 / 10) = 3. That is, the third image (the fourth image) is mapped to the rotated plane object.

더블어, 상기 로테이션 위치가 360도를 기준으로 서로 대칭한 위치를 명확하게 구분하기 위해서 상기 물체의 위치 각도와 카메라 시점의 각도를 비교하게 된다. 이때, 물체의 위치 각도가 카메라 시점의 각도 이상이면 360에서 상기 텍스트 이미지 번호를 감산하여 실제 텍스쳐 이미지 번호를 구하고(S117), QBM에 적용하여 렌더링하게 된다(S119).In order to clearly distinguish the positions where the rotation positions are symmetric with respect to each other based on 360 degrees, the position angle of the object and the angle of the camera viewpoint are compared. At this time, if the position angle of the object is greater than the angle of the camera viewpoint, the text image number is subtracted from 360 to obtain the actual texture image number (S117), and applied to QBM to render (S119).

또한, 물체의 각도가 카메라의 각도 보다 작으면 사각형 메쉬(QBM)의 로테이 션된 값은 -1을 곱하여 반대편에 위치한 값(= -1*로테이션 값)으로 이미지 번호를 계산하여, 사각형 메쉬(QBM)에 적용 및 렌더링하게 된다. Also, if the angle of the object is smaller than the angle of the camera, the rotated value of the square mesh (QBM) is multiplied by -1 to calculate the image number by the value located on the opposite side (= -1 * rotation value), and the square mesh (QBM) Will be applied and rendered.

여기서, 상기 텍스쳐로 사용할 이미지들은 물체를 중심으로 카메라를 오프셋 각도 만큼씩 움직이면서 얻을 수 있으므로, 기준점(ORG 또는 BP)를 정면 이미지라고 했을때, 오프셋이 90도이면 좌측면이미지, 180도이면 후면 이미지, 270도이면 우측면 이미지라고 할 수 있다. 런타임(runtime)에서 이미지 인덱스는 결국, 현재 카메라의 위치와 물체의 위치 관계가 이미지 획득시의 어떤 오프셋 값과 가장 유사한가를 판별하여 얻는 값이 되며, 오프셋 값을 찾았을 때, 이에 해당하는 이미지를 매핑하게 된다. 따라서, 런타임에서 카메라와 오브젝의 위치관계에 따라 매핑되는 이미지가 다르므로 카메라의 위치가 중요하게 되며, 매핑될 이미지를 선택하기 위해 미리 오프렛에 따른 이미지 인텍스 정보를 저장하고 있어야 하며, 오프셋을 측정하는 기준점으로 처음 시점 또는 기준점에 대한 정보도 가지고 있게 된다. Here, the images to be used as the texture can be obtained by moving the camera by an offset angle around an object. When the reference point (ORG or BP) is referred to as the front image, the left side image when the offset is 90 degrees, and the rear image when it is 180 degrees. If it is 270 degrees, it is a right side image. At runtime, the image index is obtained by determining which offset value the object's position is most similar to the current camera's position. When the offset value is found, the corresponding image is obtained. Will be mapped. Therefore, since the mapped image is different according to the positional relationship between the camera and the object at runtime, the position of the camera becomes important. In order to select the image to be mapped, the image index information according to the outlet must be stored in advance. As a reference point to measure, it also has information about the first time point or reference point.

여기서, 도 3 및 도 4에 도시된 바와 같이, 서로 대칭한 카메라 시점(CAM)(A)에서 구해지는 각도를 보면, θ1은 로테이션 각도이며, θ2는 QBM의 텍스쳐를 위한 각도이며, θ3는 OBJ>CAM일 때의 QBM의 텍스쳐를 위한 각도이다. 이는 360도의 이미지 번호를 오프셋 10으로 나눌 경우 36장(0~35)이 생기지면, 이동된 카메라 시점이 이미지 번호 8이거나 이미지 번호 26 중에서 하나이므로, 물체 각도와 카메라 시점 각도를 비교하여 텍스쳐 이미지 번호를 찾게 된다.3 and 4, when the angles obtained from the camera views CAM A are symmetrical with each other, θ1 is a rotation angle, θ2 is an angle for texture of QBM, and θ3 is an OBJ. Angle for the texture of the QBM when> CAM. This means that if 36 (0 ~ 35) images are generated by dividing the 360 degree image number by the offset 10, the moved camera viewpoint is either image number 8 or one of image number 26, so the texture image number is compared by comparing the object angle with the camera viewpoint angle. You will find.

즉, 특정 벡터를 기준(ORG-OBJ)으로 0~9도 일때는 0번 이미지, 10~19도 일때는 1번이미지 등과 같이 설정되며(offset = 10 인경우 가정), 이와 같은 값을 구하 기 위해서 기준 벡터(BP-OBJ)와 벡터 2(CAM-OBJ)를 내적하며, 내적으로 얻어진 사이각(θ)에 따라 이미지 번호를 찾게 된다.That is, it is set as image 0 when 0 ~ 9 degrees and image 1 when 10 ~ 19 degrees based on a specific vector (ORG-OBJ) (assumes when offset = 10). To do this, the reference vector BP-OBJ and vector 2 (CAM-OBJ) are internalized, and the image number is found according to the obtained angle θ.

그리고, 상기 S119 단계에서의 렌더링시 상기 각도 만큼 반대 방향으로 사각형 메쉬(QBM)을 로테이션 시키게 되며, 더블어 상기에서 계산된 이미지를 사각형 메쉬(QBM)의 텍스쳐로 적용하게 된다. 즉, 카메라를 바라보도록 평면(QBM)이 계속적으로 회전하며, 매핑하는 이미지를 선택하기 위해서 QBM이 얼마나 회전하게 되는가 하는 각도 정보를 이용하여 사각형 메쉬의 텍스쳐를 적용하게 된다.In operation S119, the rectangular mesh QBM is rotated in the opposite direction by the angle, and the image calculated above is applied as the texture of the rectangular mesh QBM. That is, the plane QBM continuously rotates to look at the camera, and the texture of the square mesh is applied using angle information of how much the QBM rotates to select an image to be mapped.

이와 같이, 기준선과 3차원 물체와 시점으로 생기는 선분 사이의 각도를 계산하여, 그 계산된 각도에 상응하는 이미지를 각각 적용함으로써, 2차원 영상을 이용하여 3차원 물체의 렌더링이 가능하게 된다. 또한 렌더링시 상기 생성된 이미지를 사용자에게 보이기 위하여 빌보드(Billboard)화한 이미지를 현 시점과 90도의 각도를 유지하게 된다. In this way, by calculating the angle between the reference line and the three-dimensional object and the line segment generated from the viewpoint, and by applying the image corresponding to the calculated angle, respectively, it becomes possible to render the three-dimensional object using the two-dimensional image. In addition, in order to show the generated image to the user during rendering, the billboarded image is maintained at an angle of 90 degrees with the current view.

본 발명은 카메라 시점(보는 시점)에 따른 2차원 영상을 위하여 360도에 해당되는 이미지를 추출하며, 카메라 시점과 3차원 물체 사이의 각도를 이용하여 추출한 이미지를 보이게 된다. 이는 원 3차원 모델 전체를 렌더링하는 것에 비하여, 사각형 메쉬(QBM)를 렌더링함으로써, 속도를 최대 70%나 향상시켜 줄 수 있다. 또한 영상 질에 대해 원 모델을 사용하는 것 보다 더 좋은 영상을 볼 수 있다.The present invention extracts an image corresponding to 360 degrees for the two-dimensional image according to the camera viewpoint (viewing viewpoint), and shows the extracted image using the angle between the camera viewpoint and the three-dimensional object. This can improve the speed by up to 70% by rendering a rectangular mesh (QBM) compared to rendering the entire three-dimensional model. You can also view better images than using the original model for image quality.

본 발명은 저 사양의 PC나 PDA, 휴대 단말기에서 게임이나 아바타 등의 3차원 그래픽 구현시에 사용자에게 사실 감을 전달할 수 있다. 또한 휴대 전화 단말기와 같은 제한된 사양에서는 최소의 자원을 이용하여 불필요한 자원 낭비를 줄일 수 있다. The present invention can convey a sense of fact to a user when implementing 3D graphics such as a game or an avatar in a PC, PDA, or portable terminal having a low specification. In addition, in limited specifications such as a mobile phone terminal, it is possible to reduce unnecessary resource waste by using minimum resources.

이제까지 본 발명에 대하여 그 바람직한 실시 예를 중심으로 살펴보았으며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 본질적 기술 범위 내에서 상기 본 발명의 상세한 설명과 다른 형태의 실시 예들을 구현할 수 있을 것이다. 여기서 본 발명의 본질적 기술범위는 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been described with reference to the preferred embodiments, and those skilled in the art to which the present invention pertains to the detailed description of the present invention and other forms of embodiments within the essential technical scope of the present invention. Could be implemented. Here, the essential technical scope of the present invention is shown in the claims, and all differences within the equivalent range will be construed as being included in the present invention.

본 발명은 2차원 영상을 이용한 3차원 물체의 렌더링 방법에 의하면, 3차원 물체를 렌더링할 때, 카메라 시점간에 생기는 이미지 및 카메라 시점과 물체간에 생기는 각도를 이용하여 구해진 정보를 이용하여 3차원 메쉬를 대신 렌더링함으로써, 보다 빠른 속도로 3차원 물체의 렌더링을 수행할 수 있는 효과가 있다.According to the method of rendering a 3D object using a 2D image, when rendering a 3D object, a 3D mesh is generated using information obtained by using an image generated between a camera viewpoint and an angle generated between the camera viewpoint and the object. Instead, rendering has the effect of rendering a three-dimensional object at a higher speed.

또한 다시점을 이용한 2차원 이미지를 사각형 메쉬의 텍스쳐로 사용하여, 3차원 모델 대신 렌더링함으로써 원본 보다 더 좋은 영상을 얻을 수 있으며, 빠른 속도를 지원할 수 있다.In addition, by using a multi-dimensional 2D image as a rectangular mesh texture, a 3D model can be rendered instead of a 3D model to obtain a better image than the original and can support high speed.

본 발명은 저 사양의 PC나 PDA, 휴대 단말기에서 게임이나 아바타 등의 3차원 그래픽 구현시에 사용자에게 사실감을 느낄 수 있는 효과를 볼 수 있다. The present invention can see the effect that can be felt by the user when realizing a three-dimensional graphics, such as a game or avatar in a low-spec PC, PDA, portable terminal.

또한 휴대 전화 단말기와 같은 제한된 사양에서는 최소의 자원을 이용하여 불필요한 자원 낭비를 방지하는 효과가 있다. In addition, in a limited specification such as a mobile phone terminal, there is an effect of preventing unnecessary resource waste by using a minimum of resources.

Claims (4)

3차원 물체를 처음 시점에서 일정 오프셋으로 360도 회전하여 이미지를 각각 캡쳐하여, 다수개의 이미지를 생성하는 단계;Generating a plurality of images by respectively capturing images by rotating the three-dimensional object 360 degrees at a predetermined offset from an initial viewpoint; 상기 캡쳐된 이미지 중 최대 사이즈를 커버하는 사각형 메쉬를 생성하고, 그 생성된 사각형 메쉬가 놓여질 물체의 위치를 저장하는 단계;Generating a rectangular mesh covering a maximum size of the captured images, and storing a position of an object on which the generated rectangular mesh is to be placed; 이후, 런 타임시 특정 사각형 메쉬를 바라보는 카메라의 시점이 결정되면, 물체의 처음 시점에서 로테이션된 카메라 시점과 3차원 물체간에 생기는 각도를 이용하여 매핑된 이미지 번호를 추출하는 단계;Thereafter, when the viewpoint of the camera looking at the specific square mesh is determined at run time, extracting the mapped image number using an angle generated between the rotated camera viewpoint and the three-dimensional object at the initial viewpoint of the object; 상기 카메라 시점과 3차원 물체간에 생기는 각도만큼 일정 방향으로 사각형 메쉬를 로테이션시키며, 상기 추출된 이미지를 사각형 메쉬의 텍스쳐로 적용하여 렌더링을 수행하는 단계를 포함하는 것을 특징으로 하는 이차원 영상을 이용한 삼차원 물체의 렌더링 방법.Rotating a rectangular mesh in a predetermined direction by an angle generated between the camera viewpoint and the three-dimensional object, and performing the rendering by applying the extracted image as a texture of the rectangular mesh, the three-dimensional object using a two-dimensional image Method of rendering. 제 1항에 있어서, The method of claim 1, 상기 카메라 시점과 3차원 물체간에 생기는 각도는 기준점과 물체 사이를 제 1벡터 및 카메라 시점과 물체 사이를 제 2벡터라 하고, 두 벡터의 내적을 구하여 각도를 계산하는 것을 특징으로 하는 이차원 영상을 이용한 삼차원 물체의 렌더링 방법.The angle generated between the camera viewpoint and the three-dimensional object is called a first vector between the reference point and the object and a second vector between the camera viewpoint and the object, and the angle is calculated by calculating the inner product of the two vectors. How to render three-dimensional objects. 제 1항에 있어서, 상기 카메라 시점과 3차원 물체간에 생기는 각도를 오프셋으로 나누어 상기 캡쳐된 다수개의 이미지 중에서 이미지 번호를 추출하는 것을 특징으로 하는 이차원 영상을 이용한 삼차원 물체의 렌더링 방법.The method of claim 1, wherein an image number is extracted from the plurality of captured images by dividing an angle generated between the camera viewpoint and the 3D object by an offset. 제 1항에 있어서,The method of claim 1, 상기 이미지 번호가 추출되면, 물체의 각도와 카메라의 각도를 비교하여 서로 대칭한 두 이미지 중에서 하나의 이미지 번호를 추출하는 것을 특징으로 하는 이차원 영상을 이용한 삼차원 물체의 렌더링 방법.When the image number is extracted, a method of rendering a three-dimensional object using a two-dimensional image, characterized in that by comparing the angle of the object and the angle of the camera to extract one image number from the two symmetric images.
KR1020050051374A 2005-06-15 2005-06-15 Randering method of three dimension object using two dimension picture KR20060131145A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050051374A KR20060131145A (en) 2005-06-15 2005-06-15 Randering method of three dimension object using two dimension picture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050051374A KR20060131145A (en) 2005-06-15 2005-06-15 Randering method of three dimension object using two dimension picture

Publications (1)

Publication Number Publication Date
KR20060131145A true KR20060131145A (en) 2006-12-20

Family

ID=37811258

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050051374A KR20060131145A (en) 2005-06-15 2005-06-15 Randering method of three dimension object using two dimension picture

Country Status (1)

Country Link
KR (1) KR20060131145A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008137967A1 (en) * 2007-05-07 2008-11-13 Microsoft Corporation Creating optimized gradient mesh of a vector-based image from a raster-based image
WO2009151794A1 (en) * 2008-06-12 2009-12-17 Microsoft Corporation 3d content aggregation built into devices
KR101028766B1 (en) * 2009-07-07 2011-04-14 (주)이지스 A Method For Generating 3-D Building Data Using Node and Image of 2-D Polygon
CN101388108B (en) * 2007-09-11 2011-11-23 普罗姆泰克软件公司 Slice data structure and mounting method to gpu and so on
US9013482B2 (en) 2010-04-20 2015-04-21 Samsung Electronics Co., Ltd. Mesh generating apparatus, method and computer-readable medium, and image processing apparatus, method and computer-readable medium
WO2016043401A1 (en) * 2014-09-19 2016-03-24 한화테크윈 주식회사 Image processing method
WO2018121383A1 (en) * 2016-12-26 2018-07-05 华为技术有限公司 Apparatus and method of playing virtual reality video
KR101885066B1 (en) * 2017-07-19 2018-08-03 대한민국 Apparatus and method for analyxing of tool trace, and computer program for executing the method
US10217294B2 (en) 2008-05-07 2019-02-26 Microsoft Technology Licensing, Llc Procedural authoring
WO2021003048A1 (en) * 2019-07-02 2021-01-07 Billups, Inc. Digital image processing system for object location and facing

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8773423B2 (en) 2007-05-07 2014-07-08 Microsoft Corporation Creating optimized gradient mesh of a vector-based image from a raster-based image
WO2008137967A1 (en) * 2007-05-07 2008-11-13 Microsoft Corporation Creating optimized gradient mesh of a vector-based image from a raster-based image
CN101388108B (en) * 2007-09-11 2011-11-23 普罗姆泰克软件公司 Slice data structure and mounting method to gpu and so on
US10217294B2 (en) 2008-05-07 2019-02-26 Microsoft Technology Licensing, Llc Procedural authoring
WO2009151794A1 (en) * 2008-06-12 2009-12-17 Microsoft Corporation 3d content aggregation built into devices
US8204299B2 (en) 2008-06-12 2012-06-19 Microsoft Corporation 3D content aggregation built into devices
KR101028766B1 (en) * 2009-07-07 2011-04-14 (주)이지스 A Method For Generating 3-D Building Data Using Node and Image of 2-D Polygon
US9013482B2 (en) 2010-04-20 2015-04-21 Samsung Electronics Co., Ltd. Mesh generating apparatus, method and computer-readable medium, and image processing apparatus, method and computer-readable medium
WO2016043401A1 (en) * 2014-09-19 2016-03-24 한화테크윈 주식회사 Image processing method
WO2018121383A1 (en) * 2016-12-26 2018-07-05 华为技术有限公司 Apparatus and method of playing virtual reality video
KR101885066B1 (en) * 2017-07-19 2018-08-03 대한민국 Apparatus and method for analyxing of tool trace, and computer program for executing the method
US10460200B2 (en) 2017-07-19 2019-10-29 Republic of Korea (National Forensic Service Director Ministry of Public Administration and Security) Apparatus and method of analyzing tool trace, and computer program for executing the method
WO2021003048A1 (en) * 2019-07-02 2021-01-07 Billups, Inc. Digital image processing system for object location and facing
US10930011B2 (en) 2019-07-02 2021-02-23 Billups, Inc. Digital image processing system for object location and facing

Similar Documents

Publication Publication Date Title
US10460512B2 (en) 3D skeletonization using truncated epipolar lines
CN106355153B (en) A kind of virtual objects display methods, device and system based on augmented reality
KR20060131145A (en) Randering method of three dimension object using two dimension picture
US20190362539A1 (en) Environment Synthesis for Lighting An Object
US20020158873A1 (en) Real-time virtual viewpoint in simulated reality environment
US20170213396A1 (en) Virtual changes to a real object
KR101885090B1 (en) Image processing apparatus, apparatus and method for lighting processing
TWI502546B (en) System, method, and computer program product for extruding a model through a two-dimensional scene
JP2017016577A (en) Information processor, and control method, and program, for the same
Kim et al. Stereoscopic 3D line drawing
JP2021056679A (en) Image processing apparatus, method and program
JP2016071645A (en) Object three-dimensional model restoration method, device, and program
JP4463597B2 (en) 3D drawing model generation method and program thereof
CN108734772A (en) High accuracy depth image acquisition methods based on Kinect fusion
Petkov et al. Interactive visibility retargeting in vr using conformal visualization
CN108230430B (en) Cloud layer mask image processing method and device
WO2019042028A1 (en) All-around spherical light field rendering method
Hartl et al. Rapid reconstruction of small objects on mobile phones
CA3155612A1 (en) Method and system for providing at least a portion of content having six degrees of freedom motion
Hapák et al. Real-time 4D reconstruction of human motion
CN114820980A (en) Three-dimensional reconstruction method and device, electronic equipment and readable storage medium
Dong et al. Resolving incorrect visual occlusion in outdoor augmented reality using TOF camera and OpenGL frame buffer
CN111652807B (en) Eye adjusting and live broadcasting method and device, electronic equipment and storage medium
Lai et al. Exploring manipulation behavior on video see-through head-mounted display with view interpolation
JP5865092B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination