KR101222155B1 - the Apparatus of Augmented Reality Using Fisheye Lens and the Method of the Same - Google Patents

the Apparatus of Augmented Reality Using Fisheye Lens and the Method of the Same Download PDF

Info

Publication number
KR101222155B1
KR101222155B1 KR1020100022930A KR20100022930A KR101222155B1 KR 101222155 B1 KR101222155 B1 KR 101222155B1 KR 1020100022930 A KR1020100022930 A KR 1020100022930A KR 20100022930 A KR20100022930 A KR 20100022930A KR 101222155 B1 KR101222155 B1 KR 101222155B1
Authority
KR
South Korea
Prior art keywords
image
augmented reality
correction
fisheye lens
module
Prior art date
Application number
KR1020100022930A
Other languages
Korean (ko)
Other versions
KR20110103724A (en
Inventor
황성재
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020100022930A priority Critical patent/KR101222155B1/en
Publication of KR20110103724A publication Critical patent/KR20110103724A/en
Application granted granted Critical
Publication of KR101222155B1 publication Critical patent/KR101222155B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/12Panospheric to cylindrical image transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은 어안렌즈를 이용한 증각현실 구현 장치 및 그 방법에 관한 것으로서, 보다 구체적으로는 모바일 디바이스를 기울기에 상관없이 정면 시각을 확보할 수 있도록 어안렌즈를 사용하여 주변 시각의 데이터를 모두 확보한 후, 타원체의 구면기하를 이용한 왜곡 보정 알고리즘을 통해 왜곡된 형상을 바로잡고, 기울기에 따라 영상의 일부분을 사용자에게 표시하는 장치 및 그 제공 방법에 관한 것이다.The present invention relates to an apparatus for implementing augmented reality using a fisheye lens and a method thereof, and more particularly, to secure all front view data using a fisheye lens so as to secure frontal vision regardless of tilting a mobile device. The present invention relates to a device for correcting a distorted shape through a distortion correction algorithm using spherical geometry of an ellipsoid and displaying a portion of an image to a user according to a tilt, and a method of providing the same.

Description

어안렌즈를 이용한 증강현실 구현 시스템 및 그 구현 방법{the Apparatus of Augmented Reality Using Fisheye Lens and the Method of the Same} Augmented Reality Using Fisheye Lens and the Method of the Same}

본 발명은 어안렌즈를 이용한 증강현실 구현 장치 및 그 방법에 관한 것으로서, 보다 구체적으로는 모바일 디바이스를 기울기에 상관없이 정면 시각을 확보할 수 있도록 어안렌즈를 사용하여 주변 시각의 데이터를 모두 확보한 후, 타원체의 구면기하를 이용한 왜곡 보정 알고리즘을 통해 왜곡된 형상을 바로잡고, 기울기에 따라 영상의 일부분을 사용자에게 표시하는 장치 및 그 제공 방법에 관한 것이다. 또한, 사용자가 원하는 부분을 선택하는 경우, 이를 중심으로 영상을 출력하는 장치 및 그 제공 방법에 관한 것이다. The present invention relates to an apparatus and method for implementing augmented reality using a fisheye lens, and more particularly, to secure all front view data using a fisheye lens so as to secure frontal vision regardless of tilting the mobile device. The present invention relates to a device for correcting a distorted shape through a distortion correction algorithm using spherical geometry of an ellipsoid and displaying a portion of an image to a user according to a tilt, and a method of providing the same. The present invention also relates to an apparatus for outputting an image based on the selection and a method of providing the same.

최근 가상 환경(VE: Virtual Environment)과 실시계 환경(RE: Real Environment)를 서로 혼합하여 사용자에게 보다 높은 현실감을 제공하는 Mixed Reality에 대한 연구가 활발히 진행되고 있다. Mixed Reality는 가상 환경과 실제 현실 환경 중 어느 것을 기반으로 하는가에 따라 증강현실(AR: Augmented Reality)과 증강 가상 현실(AV: Augmented Virtuality)로 나누어진다. 여기에서, 증강현실(Augmented Reality)은 실세계에 3차원 가상물체를 겹쳐 보여주는 기술로, 사용자가 보고 있는 실사 영상에 가상 영상을 겹쳐(overlap), 현실 환경과 가상화면의 구분이 모호해지도록 하여 사용자를 더욱 몰입하게 하는 기술이다. Recently, research on mixed realities that provide a higher realism to users by mixing a virtual environment (VE) and a real environment (RE) has been actively conducted. Mixed Reality is divided into Augmented Reality (AR) and Augmented Virtuality (AV) according to whether it is based on a virtual environment or a real world environment. Here, Augmented Reality is a technology of superimposing three-dimensional virtual objects in the real world, overlapping the virtual image on the real-life image that the user is viewing, and blurring the distinction between the real environment and the virtual screen. It's a more immersive technique.

최근 모바일 디바이스의 발전으로 모바일 환경을 활용한 증강현실 서비스가 개발되었지만, 정보를 취득하기 위해 휴대용 기기를 해당 정보가 위치된 물체를 향해 들어야 하고, 이러한 형태는 사용자아게 물리적 무게를 감당하게 할 뿐 아니라, 외부 사용자에게 어떤 정보를 보고 있는지 알리게 되어 정보보호 측면에서도 문제가 될 소지가 있다. Recently, with the development of mobile devices, augmented reality services using mobile environments have been developed, but in order to acquire information, a portable device must be directed toward the object on which the information is located. In other words, it can be a problem in terms of information security as well.

또한, 이를 해결하기 위해 다수의 렌즈를 구비한 발명이 제시되었지만, 다수의 렌즈를 위한 비용이 크게 들고, 휴대용 기기의 크기를 키우는 단점이 있다. In addition, the invention with a plurality of lenses has been proposed to solve this problem, there is a disadvantage in that the cost for a large number of lenses is large, and the size of a portable device is increased.

이를 위해 휴대용 기기에 장착된 카메라의 렌즈가 정보를 취득하는 물체를 직접적으로 향하지 않아도 그 정보를 획득할 수 있는 방안이 논의되고 있다. To this end, a method for acquiring the information without having the lens of the camera mounted on the portable device directly faces the object for obtaining the information is being discussed.

현재 광역의 영상을 획득할 수 있도록 하는 시스템으로는 크게 기계적으로 PTZ(Pan/Tilt/Zoom) 카메라를 이용하는 시스템, 어안렌즈를 구비하는 카메라를 이용하는 시스템, 다수개의 CCD 카메라를 이용하는 다중 카메라 시스템, 및 특수 제작된 NTSC(national Television System Committee Method) 카메라를 이용하는 카타디옵트릭(catadioptric) 시스템 등이 존재한다. Currently, a system capable of acquiring a wide range of images includes a system using a PTZ (Pan / Tilt / Zoom) camera largely mechanically, a system using a camera equipped with a fisheye lens, a multiple camera system using a plurality of CCD cameras, and There are catadioptric systems using specially constructed NTSC (national television system committee method) cameras.

이중 가장 간편하고 저렴한 방식은 어안렌즈를 구비하는 카메라를 이용하는 시스템이다. The simplest and cheapest method is a system using a camera equipped with a fisheye lens.

일반적인 렌즈의 경우 화각이 45도 전후이지만, 광각(wide-angle)의 경우 60~90도의 화각을 가지게 된다. 어안렌즈(Fisheye lens)의 경우 광각렌즈보다 더 넓은 시야각을 가지는 90도 이상의 렌즈를 의미하며, 입사광의 입사각과 상 크기가 대체로 비례하는 렌즈를 지칭한다. 그러나 진정한 의미에서의 어안렌즈는 화각이 180도 이상이며, 입사광의 입사각과 상 크기가 대체로 비례하는 렌즈이다. 이러한 장점으로 어안렌즈는 로보틱스, 모니터링 CCTC, 차량 후방 카메라 등에서 널리 사용되고 있다. 특히, 보안, 감시나 엔터테인먼트 등 많은 응용 예에서 화각이 180도 이상인 어안 렌즈를 필요로 한다. 하지만 렌즈의 특성상 매우 큰 방사왜곡을 가지는 단점을 가지고 있다. In general lens, the angle of view is around 45 degrees, but in the case of wide-angle, the angle of view is 60 to 90 degrees. Fisheye lens refers to a lens of 90 degrees or more having a wider viewing angle than a wide-angle lens, and refers to a lens in which an incident angle of incident light and an image size are generally proportional to each other. However, in the true sense, the fisheye lens has an angle of view of more than 180 degrees, and the angle of incidence of the incident light and the image size are generally proportional to each other. This is why fisheye lenses are widely used in robotics, monitoring CCTCs, and rear cameras. In particular, many applications such as security, surveillance or entertainment require a fisheye lens having an angle of view of more than 180 degrees. However, due to the characteristics of the lens has a disadvantage of having a very large radiation distortion.

어안렌즈는 의도적으로 통모양의 왜곡을 생기게 하여 180도 이상의 화각 전면에 걸쳐 균일한 밝기와 선예도를 유지할 수 있게 만든 렌즈로, 렌즈 중심점부의 피사체는 극단적으로 크게 찍히고 주변의 것은 아주 작게 찍히게 된다. 즉, 어안렌즈는 광역의 영상을 획득할 수 있도록 하나, 이때의 획득한 영상은 심한 왜곡을 가진다. The fisheye lens intentionally creates a cylindrical distortion to maintain uniform brightness and sharpness over the entire angle of view of more than 180 degrees. The subject at the center point of the lens is extremely large and the surroundings are very small. That is, the fisheye lens can acquire a wide range of images, but the obtained image has a severe distortion.

이에 어안렌즈를 구비하는 카메라를 이용하는 시스템은 어안렌즈를 통해 광역의 영상을 획득하고, 이의 왜곡을 보정하여 사용자가 필요로 하는 영상을 제공하여 준다. Accordingly, a system using a camera having a fisheye lens acquires an image of a wide area through the fisheye lens and corrects its distortion to provide an image that a user needs.

이러한 영상의 왜곡을 보정하기 위해 현재 많은 영상 보정 방법이 개시되고 사용되고 있는데, 그 예로는 Nayar 방법과 Xianghua 방법들이 있다. Currently, many image correction methods are disclosed and used to correct distortion of an image, and examples thereof include the Nayar method and the Xianghua method.

Nayar 방법은 비메트릭(non-metric) 접근법으로서, 영상 왜곡의 원인으로 비점 수차와 선형 왜곡만이 있다고 본다. 이러한 가정 하에, Nayar 방법은 각각의 에러 모델을 다항식으로 표현한 후, 계수를 구하는 문제로 보고, 사영 기하학 곧, 직선은 직선으로 투용된다는 성질을 이용하여 왜곡된 곡선을 직선으로 펴는 과정을 통해 다항식의 계수를 구한다. 그리고 계산된 다항식 계수를 이용하여 렌즈의 왜곡을 보정하여 준다. 이러한 Nayar 방법은 시점의 변경과 관계없이 항상 광역의 영상에 대해 알고리즘을 수행하기 때문에, 실시간으로 시점을 변경하고자 하는 시스템에서는 적절하지 못하다. Nayar's method is a non-metric approach, which assumes that only astigmatism and linear distortion are responsible for image distortion. Under these assumptions, the Nayar method expresses each error model as a polynomial, and then considers it as a problem of obtaining coefficients, and uses the property of projective geometry, that is, the straight line is accepted as a straight line, Find the coefficient. The lens distortion is corrected using the calculated polynomial coefficients. This Nayar method always performs the algorithm on the wide image regardless of the change of viewpoint, so it is not suitable for the system that wants to change the viewpoint in real time.

그리고 Xianghua 방법은 메트릭(metric) 접근법으로서 일반 어안 렌즈의 경우, 왜곡이 발생하는 원인을 피사체의 중심점(Center Of Projection; COP)이 한 개가 아니라, 여러 개로 존재하기 때문이라고 본다. 이러한 가정 하에 Xianghua 방법은 캘리브레이션 패턴과 왜곡된 영상간의 매핑을 직접 지정해 준 후, 이를 기반으로 각각의 COP가 하나로 수렴토록 함으로써 왜곡을 보정한다. 이러한 Xianghua 방법의 경우, 켈리브레이션 패턴 상에 존재하는 3차원 점의 좌표를 정확히 알아야 하며, 사용자가 매핑 관계를 직접 지정해 주어야 하는 번거로움이 있으며, 그 과정에서 많은 양의 에러가 존재할 확률이 높다. 이로 인해, 왜곡 영상 보정을 하는 과정에서 정확도가 감소한다. 하지만 실시간으로 영상을 출력해야 장치의 경우에는 이러한 정확도의 감소는 해결해야 하는 중요한 문제이다. In addition, the Xianghua method is a metric approach, and in the case of a general fisheye lens, the cause of distortion occurs because the center of projection (COP) of the subject is not one, but several. Under these assumptions, the Xianghua method directly specifies the mapping between the calibration pattern and the distorted image, and then corrects the distortion by having each COP converge to one. In the case of the Xianghua method, it is necessary to know the coordinates of the three-dimensional point existing on the calibration pattern, and it is cumbersome for the user to directly specify the mapping relationship, and there is a high possibility of a large amount of errors in the process. As a result, the accuracy is reduced during the distortion image correction process. However, in the case of devices that output images in real time, this reduction of accuracy is an important problem to be solved.

본 발명에서는 상기의 문제점을 해결하기 위해, 모바일 디바이스를 기울기에 상관없이 정면 시각을 확보할 수 있도록 어안렌즈를 사용하여 주변 시각의 데이터를 모두 확보한 후, 타원체의 구면기하를 이용한 왜곡 보정 알고리즘을 통해 왜곡된 형상을 바로 하고, 기울기에 따라 영상의 일부분을 사용자에게 표시하는 것을 목적으로 한다. 또한, 일반 카메라 뷰에서 보이지 않는 가상의 증강(Augmented) 오브젝트 정보를 확인하기 위해 사용자의 몸을 돌려 해당 오브젝트를 정면으로 바라보아야 했던 불편함을 줄여 사용자의 편의성을 높이는 것을 목적으로 한다. In the present invention, to solve the above problems, after securing all the data of the peripheral vision using the fisheye lens to ensure the front vision irrespective of the tilting of the mobile device, a distortion correction algorithm using the spherical geometry of the ellipsoid The object is to straighten the distorted shape and display a part of the image to the user according to the tilt. In addition, the object of the present invention is to increase the user's convenience by reducing the inconvenience of having to turn the user's body to face the object in order to check virtual augmented object information that is not visible in the general camera view.

더 나아가, 증강현실 환경에서 다수의 가상의 오브젝트가 겹쳐지는 폐색(Occlusion) 현상을 뷰의 각도에 따라 없애는 것을 목적으로 한다. 폐색 현상이란, 실제 현실의 대상이 근처에 있는 경우, 증강 현실의 가상의 오브젝트들이 겹쳐 보이게 되는 것이다. 본 발명에서는 이를 해결하기 위해 head tracking(motion tracking)과 같은 기법을 사용하지 않고, 관심대상의 뷰의 위치를 조절하여 폐색 현상을 해결하는 효과를 제공한다. Furthermore, the object of the present invention is to eliminate occlusion in which a plurality of virtual objects overlap in an augmented reality environment according to the angle of view. The occlusion phenomenon is that virtual objects of augmented reality are overlapped when an object of the real reality is nearby. The present invention provides an effect of solving the occlusion by adjusting the position of the view of interest without using a technique such as head tracking (motion tracking) to solve this problem.

특히, 증강 현실을 사용하여 모바일 디바이스를 이용하여 걸어가면서 문자 등을 입력하는 과정에서, 모바일 디바이스의 디스플레이를 통해 주변 사물을 보이게 하여 사용자의 안전성 및 편의성을 향상시키는 것을 목적으로 한다. In particular, in the process of inputting text and the like while walking using the mobile device using augmented reality, the object is to improve the safety and convenience of the user by making the surrounding objects visible through the display of the mobile device.

특히, 사용자가 특정 부분을 선택한 후 사용자 휴대용 기기의 기울기 상태에 따라 해당 위치를 보여주는 기능을 제공하는 것을 목적으로 한다. 특히, 특정 부분을 선택한 후 사용자 휴대용 기기의 시각이 이동되더라도 선택된 부분의 보정이 가능하게 하는 것을 목적으로 한다. In particular, an object of the present invention is to provide a function of showing a corresponding position according to a tilt state of a user portable device after a user selects a specific part. In particular, an object of the present invention is to enable correction of the selected portion even if the time of the user portable device is moved after selecting a specific portion.

본 발명은 상기의 목적을 달성하기 위해 다음과 같은 과제 해결 수단을 포함한다. The present invention includes the following problem solving means to achieve the above object.

본 발명은 모바일 디바이스에 제공되고, 어안 렌즈를 이용한 증강 현실 구현 시스템이고, 카메라(16)를 내장한 모바일 디바이스에 장착 가능한 어안 렌즈(15)와, 어안 렌즈(15)를 통해 왜곡 영상을 획득하고 보정하는 왜곡 영상 보정 모듈(10)과, 문자 또는 그림 등 가상 현실을 입력하는 가상 현실 입력 모듈(18)과, 상기 왜곡 영상 보정 모듈(10)을 통해 보정된 실제 현실의 영상과 상기 가상 현실 입력 모듈(18)을 통해 입력된 가상 현실을 혼합하여 증강 현실을 생성하는 증강 현실 생성 모듈(19)과, 증강 현실 생성 모듈(19)로부터 생성된 영상을 모바일 디바이스에 표시하는 디스플레이 장치(20)를 포함하고, 상기 왜곡 영상 보정 모듈(10)은, 상기 어안 렌즈를 통한 왜곡 영상의 파라메터와, 보정 전 이미지의 특정 좌표를 획득하는 왜곡 계수 획득 모듈(11)과, 획득된 상기 파라메터를 이용하여 보정 전 이미지의 특정 좌표를 보정 후 이미지의 특정 좌표로 보정하는 영상 보정 모듈(12)을 포함한다. The present invention provides a mobile device, a system for implementing augmented reality using a fisheye lens, and obtains a distorted image through a fisheye lens 15 and a fisheye lens 15 that can be attached to a mobile device having a camera 16. Distortion image correction module 10 for correcting, a virtual reality input module 18 for inputting a virtual reality such as a character or a picture, and the image of the real reality corrected by the distortion image correction module 10 and the virtual reality input An augmented reality generating module 19 for generating augmented reality by mixing the virtual reality input through the module 18 and a display device 20 for displaying an image generated from the augmented reality generating module 19 on a mobile device. The distortion image correction module 10 may include: a parameter of the distortion image through the fisheye lens, a distortion coefficient acquisition module 11 for acquiring specific coordinates of the image before correction; Using said parameter includes an image correction module 12 for correcting the specific coordinates of the uncorrected image to a specific coordinate of the image after correction.

또한, 다른 실시예로서, 모바일 디바이스에 제공되고, 어안 렌즈를 이용한 증강 현실 구현 시스템에 있어서, 카메라(16)를 내장한 모바일 디바이스에 장착 가능한 어안 렌즈(15)와, 어안 렌즈(15)를 통해 왜곡 영상을 획득하고 보정하는 왜곡 영상 보정 모듈(10)과, 상기 획득된 영상 중 관심 대상을 입력하는 관심 대상 입력 모듈(17)과, 문자 또는 그림 등 가상 현실을 입력하는 가상 현실 입력 모듈(18)과, 상기 왜곡 영상 보정 모듈(10)을 통해 보정된 실제 현실의 영상과 상기 가상 현실 입력 모듈(18)을 통해 입력된 가상 현실을 혼합하여 증강 현실을 생성하는 증강 현실 생성 모듈(19)과, 증강 현실 생성 모듈(19)로부터 생성된 영상을 모바일 디바이스에 표시하는 디스플레이 장치(20)를 포함하고, 상기 왜곡 영상 보정 모듈(10)은, 상기 어안 렌즈를 통한 왜곡 영상의 파라메터와, 보정 전 이미지의 특정 좌표를 획득하는 왜곡 계수 획득 모듈(11)과, 획득된 상기 파라메터를 이용하여 보정 전 이미지의 특정 좌표를 보정 후 이미지의 특정 좌표로 보정하는 영상 보정 모듈(12)과, 상기 입력된 관심 대상을 중심으로 보정된 영상을 표시하는 관심 대상 처리 모듈(13)을 포함한다. In addition, as another embodiment, in the augmented reality implementation system provided in the mobile device, using a fisheye lens, the fisheye lens 15 and the fisheye lens 15, which can be attached to the mobile device with the built-in camera 16, A distortion image correction module 10 for acquiring and correcting a distorted image, an object of interest input module 17 for inputting an object of interest among the acquired images, and a virtual reality input module 18 for inputting a virtual reality such as a character or a picture And an augmented reality generation module 19 for generating an augmented reality by mixing the image of the real reality corrected by the distortion image correction module 10 and the virtual reality input through the virtual reality input module 18. And a display device 20 for displaying the image generated from the augmented reality generating module 19 on the mobile device, wherein the distorted image correction module 10 includes a distorted image through the fisheye lens. And a distortion coefficient acquisition module 11 for acquiring specific coordinates of the image before correction, and the image correction module 12 for correcting specific coordinates of the image before correction by using the obtained parameters. And the interest processing module 13 for displaying the corrected image based on the input interest.

이 때, 상기 파라메터는 초점 거리 및 왜곡 중심인 것이 바람직하다. In this case, the parameter is preferably a focal length and distortion center.

또한, 상기 가상 현실 입력 모듈(18)은, 문자 메시지 입력 모듈인 것이 바람직하다. 그리고, 상기 가상 현실 입력 모듈(18)은, 상기 디스플레이 장치에 생성된 증강 현실이 표시된 상태에서 실시간으로 입력이 가능한 것이 바람직하다. In addition, the virtual reality input module 18 is preferably a text message input module. In addition, the virtual reality input module 18 may be input in real time in a state where an augmented reality generated on the display device is displayed.

또한, 상기 관심 대상 입력 모듈(17)은, 상기 디스플레이 장치에 표시된 보정 전 이미지 또는 보정 후 이미지 중 영역을 선택하여 관심 대상을 입력하는 것이 바람직하다. 그리고, 상기 관심 대상 처리 모듈(13)은, 상기 보정 후 이미지를 상기 관심 대상을 중심 위치로 하여 재구성하는 것이 바람직하다. In addition, the object of interest input module 17 may input an object of interest by selecting an area of a pre-correction image or a post-correction image displayed on the display device. In addition, the object-of-interest processing module 13 may reconstruct the corrected image with the object of interest as a center position.

본 발명은, 모바일 디바이스에 제공되고, 어안 렌즈를 이용한 증강 현실 구현 방법을 제공하며, 상기의 방법은, 상기 어안 렌즈(15)를 통해 왜곡 영상을 획득하는 단계; 상기 왜곡 영상의 파라메터와, 왜곡 영상의 보정 전 이미지의 특정 좌표를 획득하는 단계와; 획득된 상기 파라메터를 이용하여 보정 전 이미지의 특정 좌표를 보정 후 이미지의 특정 좌표로 보정하는 단계와; 문자 또는 그림 등 가상 현실을 입력받는 단계와; 보정된 실제 현실의 영상과 입력된 가상 현실을 혼합하여 증강 현실을 생성하는 단계와; 생성된 증강 현실을 디스플레이 장치에 표시하는 단계를 포함한다. The present invention provides a method for implementing augmented reality using a fisheye lens provided in a mobile device, the method comprising: obtaining a distorted image through the fisheye lens (15); Acquiring parameters of the distorted image and specific coordinates of the image before correction of the distorted image; Correcting specific coordinates of the image before correction by using the obtained parameters to specific coordinates of the image after correction; Receiving a virtual reality such as a text or a picture; Generating an augmented reality by mixing the corrected real image and the input virtual reality; Displaying the generated augmented reality on the display device.

다른 실시 예로서, 상기 어안 렌즈(15)를 통해 왜곡 영상을 획득하는 단계; 상기 왜곡 영상의 파라메터와, 왜곡 영상의 보정 전 이미지의 특정 좌표를 획득하는 단계와; 상기 보정 전 이미지 중 관심 대상을 입력 받는 단계와; 획득된 상기 파라메터를 이용하여 보정 전 이미지의 특정 좌표를 보정 후 이미지의 특정 좌표로 보정하는 단계와; 상기 보정 후 이미지 중 상기 입력 받은 관심 대상을 표시하는 단계와; 문자 또는 그림 등 가상 현실을 입력 받는 단계와; 보정된 실제 현실의 영상과 입력된 가상 현실을 혼합하여 증강 현실을 생성하는 단계와; 생성된 증강 현실을 디스플레이 장치에 표시하는 단계를 포함할 수 있다. In another embodiment, the method may further include obtaining a distorted image through the fisheye lens 15; Acquiring parameters of the distorted image and specific coordinates of the image before correction of the distorted image; Receiving an object of interest in the pre-correction image; Correcting specific coordinates of the image before correction by using the obtained parameters to specific coordinates of the image after correction; Displaying the received object of interest in the corrected image; Receiving a virtual reality such as a text or a picture; Generating an augmented reality by mixing the corrected real image and the input virtual reality; And displaying the generated augmented reality on the display device.

또 다른 실시 예로서, 상기 어안 렌즈(15)를 통해 왜곡 영상을 획득하는 단계; 상기 왜곡 영상의 파라메터와, 왜곡 영상의 보정 전 이미지의 특정 좌표를 획득하는 단계와; 획득된 상기 파라메터를 이용하여 보정 전 이미지의 특정 좌표를 보정 후 이미지의 특정 좌표로 보정하는 단계와; 문자 또는 그림 등 가상 현실을 입력 받는 단계와; 상기 보정 후 이미지 중 관심 대상을 입력 받는 단계와; 상기 보정 후 이미지를 상기 입력 받은 관심 대상을 중심으로 재구성하는 단계와, 상기 보정된 실제 현실의 영상과 입력된 가상 현실을 혼합하여 증강 현실을 생성하는 단계와; 생성된 증강 현실을 디스플레이 장치에 표시하는 단계를 포함할 수 있다.In another embodiment, the method may include obtaining a distorted image through the fisheye lens 15; Acquiring parameters of the distorted image and specific coordinates of the image before correction of the distorted image; Correcting specific coordinates of the image before correction by using the obtained parameters to specific coordinates of the image after correction; Receiving a virtual reality such as a text or a picture; Receiving an object of interest in the image after the correction; Reconstructing the corrected image based on the received object of interest, and generating an augmented reality by mixing the corrected real image and the input virtual reality; And displaying the generated augmented reality on the display device.

이 때, 상기 파라메터는 초점 거리 및 왜곡 중심인 것이 바람직하다. In this case, the parameter is preferably a focal length and distortion center.

또한, 상기 가상 현실 입력 단계는, 상기 디스플레이 장치에 표시된 증강 현실을 보면서 실시간으로 입력하는 것이 바람직하다. In addition, the virtual reality input step, it is preferable to input in real time while watching the augmented reality displayed on the display device.

또한, 상기 관심 대상을 입력하는 단계는, 상기 디스플레이 장치에 표시된 증강 현실의 이미지 중 영역을 선택하여 관심 대상을 입력하는 것이 바람직하다. The inputting the interested object may include selecting an area of the image of the augmented reality displayed on the display device to input the interested object.

또한, 상기 어안 렌즈의 초점이 이동하는 경우, 상기 입력된 관심 대상을 중심으로 증강 현실의 이미지를 상기 디스플레이 장치에 표시하는 단계를 더 포함하는 것이 바람직하다. In addition, when the focal point of the fisheye lens is moved, it is preferable to further include displaying an image of augmented reality on the display device around the input target of interest.

또한, 상기 파라메터는 초점 거리 및 왜곡 중심을 포함하고, 상기 보정 전 이미지의 특정 좌표를 보정 후 이미지의 특정 좌표로 보정하는 단계는, 상기 왜곡 중심으로부터 상기 관심 대상이 틸트된 값을 추가로 반영하여 보정하는 것이 바람직하다. The parameter may include a focal length and a distortion center, and the correcting of the specific coordinate of the pre-correction image to the specific coordinate of the post-correction image may further include a tilted value of the object of interest from the distortion center. It is desirable to correct.

본 발명은 상기의 과제 해결 수단을 통해, 원하는 증강현실의 환경에서 정보의 습득과 조작이 편리해져 사용성이 증대된다. 즉, 증강 현실을 사용하여 모바일 디바이스를 이용하여 걸어가면서 문자 등을 입력하는 과정에서, 모바일 디바이스의 디스플레이를 통해 주변 사물을 보이게 하여 사용자의 안전성 및 편의성을 향상시키는 효과가 있다. The present invention facilitates the acquisition and manipulation of information in the environment of the desired augmented reality through the above-mentioned means for solving the problem, the usability is increased. That is, in the process of inputting text and the like while walking using the mobile device using augmented reality, the surrounding objects are visible through the display of the mobile device, thereby improving the safety and convenience of the user.

특히, 사용자가 특정 부분을 선택한 후 사용자 휴대용 기기의 기울기 상태에 따라 해당 위치를 보여주는 효과가 있으며, 특정 부분을 선택한 후 사용자 휴대용 기기의 시각이 이동되더라도 선택된 부분의 보정이 가능하게 된다는 효과를 제공한다. In particular, after the user selects a specific part, the user can display the corresponding location according to the inclination state of the user's portable device, and the selected part can be corrected even if the time of the user's portable device is shifted after selecting the specific part. .

도 1은 본 발명에 따른 어안 렌즈를 이용한 증강 현실 구현 시스템의 개략적인 내부 구성도.
도 2는 본 발명에 따른 어안 렌즈를 이용한 증강 현실 구현 방법의 흐름도.
도 3은 본 발명에 따른 어안 렌즈를 이용한 왜곡 영상의 보정 실시예.
도 4는 본 발명에 따른 어안 렌즈를 이용한 증강 현실 구현의 일 실시예.
도 5는 본 발명에 따른 어안 렌즈를 이용한 증강 현실 구현의 일 실시예.
도 6은 본 발명에 따른 어안 렌즈를 이용한 증강 현실 구현의 일 실시예.
도 7은 본 발명에 따른 어안 렌즈를 이용한 증강 현실 구현의 일 실시예.
도 8은 본 발명에 따른 어안 렌즈를 이용한 증강 현실 구현의 일 실시예.
도 9는 본 발명에 따른 어안 렌즈를 이용한 왜곡 영상 보정 실시예.
도 10은 본 발명에 따른 디스플레이 시점에 따른 좌표계 변화의 관계도.
1 is a schematic internal configuration diagram of an augmented reality implementation system using a fisheye lens according to the present invention.
2 is a flowchart of a method for implementing augmented reality using a fisheye lens according to the present invention;
3 is an embodiment of correcting a distorted image using a fisheye lens according to the present invention.
4 is an embodiment of an augmented reality implementation using a fisheye lens according to the present invention.
5 is an embodiment of an augmented reality implementation using a fisheye lens according to the present invention.
6 is an embodiment of an augmented reality implementation using a fisheye lens according to the present invention.
7 is an embodiment of an augmented reality implementation using a fisheye lens according to the present invention.
8 is an embodiment of an augmented reality implementation using a fisheye lens according to the present invention.
9 is a distortion image correcting embodiment using a fisheye lens according to the present invention.
10 is a relationship diagram of coordinate system change according to a display time point according to the present invention.

먼저 본 발명에서 사용되는 어안렌즈의 왜곡을 보정하는 알고리즘에 대해 구체적으로 설명하기로 한다. First, the algorithm for correcting the distortion of the fisheye lens used in the present invention will be described in detail.

3차원 공간상의 한 점이 카메라의 영상평면(image plane)에 투용되는 과정은 다음과 같다. The process in which a point in three-dimensional space is used in the image plane of the camera is as follows.

Figure 112010016333012-pat00001
Figure 112010016333012-pat00001

여기에서 R 과 t 는 카메라의 외부 파라메터로서, R은 3x3 회전행렬(rotation matrix),t는 3x1 병진벡터(translation vector)이다. (X, Y, Z)는 월드좌표계(world coordinate system)상의 한 점이고, (x, y, z)는 렌즈의 초점(focal point)을 원점으로 하는 카메라 좌표계 상의 한 점이다.Where R and t are external parameters of the camera, R is a 3x3 rotation matrix, and t is a 3x1 translation vector. (X, Y, Z) is a point on the world coordinate system, and (x, y, z) is a point on the camera coordinate system with the focal point of the lens as the origin.

Figure 112010016333012-pat00002
Figure 112010016333012-pat00002

Figure 112010016333012-pat00003
Figure 112010016333012-pat00003

위 식은 카메라좌표계상의 점

Figure 112010016333012-pat00004
이 초점거리 f 인 렌즈를 통해 2차원의 영상평면에 투영될 때의 관계식을 나타낸다. The above equation is a point on the camera coordinate system.
Figure 112010016333012-pat00004
The relational expression when projected onto the two-dimensional image plane through the lens having the focal length f is shown.

렌즈왜곡은 이상점(ideal point)

Figure 112010016333012-pat00005
를 왜곡된 영상점
Figure 112010016333012-pat00006
로 변환시킨다. 영상의 왜곡모델은 획득된 영상에서 관측되는 왜곡된 좌표로부터 왜곡이 없는 좌표로의 맵핑으로 주어진다. Lens distortion is an ideal point
Figure 112010016333012-pat00005
Distorted image point
Figure 112010016333012-pat00006
. The distortion model of the image is given by mapping from the distorted coordinates observed in the acquired image to coordinates without distortion.

본 발명에서는 접선방향의 왜곡은 고려하지 않고 원주방향의 왜곡만을 고려한다. 역변환이 가능한 다음과 같은 함수 R을 원주방향 왜곡함수라 하면,In the present invention, only the distortion in the circumferential direction is considered, not the distortion in the tangential direction. A function R capable of inverse transformation is called circumferential distortion function.

Figure 112010016333012-pat00007
Figure 112010016333012-pat00007

여기에서

Figure 112010016333012-pat00008
Figure 112010016333012-pat00009
는 각각 영상평면과 카메라의 광축이 만나는 원점(principal point)으로부터
Figure 112010016333012-pat00010
Figure 112010016333012-pat00011
까지의 거리를 나타낸다. 이 원점이 왜곡중심이다. 렌즈의 원주방향의 왜곡보정을 위한 왜곡모델로 다음과 같은 무한급수로 표현된 모델을 이용한다. From here
Figure 112010016333012-pat00008
Wow
Figure 112010016333012-pat00009
From the principal point where the image plane and the optical axis of the camera meet, respectively.
Figure 112010016333012-pat00010
Wow
Figure 112010016333012-pat00011
Indicates the distance to. This origin is the distortion center. As a distortion model for distortion correction in the circumferential direction of the lens, the model represented by the infinite series is used.

Figure 112010016333012-pat00012
Figure 112010016333012-pat00012

여기에서

Figure 112010016333012-pat00013
이며, k는 왜곡상수이다. 고차항을 제외하고 단순화하면 다음과 같다.From here
Figure 112010016333012-pat00013
K is the distortion constant. Simplified except for higher order terms,

Figure 112010016333012-pat00014
Figure 112010016333012-pat00014

이 때 왜곡함수의 역함수

Figure 112010016333012-pat00015
는 다음과 같다. In this case, the inverse of the distortion function
Figure 112010016333012-pat00015
Is as follows.

Figure 112010016333012-pat00016
Figure 112010016333012-pat00016

여기에서

Figure 112010016333012-pat00017
이다.
Figure 112010016333012-pat00018
가 주어졌을 때, 위의 식은 다음과 같이
Figure 112010016333012-pat00019
에 대한 3차 방정식이 된다. From here
Figure 112010016333012-pat00017
to be.
Figure 112010016333012-pat00018
Given the equation above,
Figure 112010016333012-pat00019
Becomes the cubic equation for.

Figure 112010016333012-pat00020
Figure 112010016333012-pat00020

Figure 112010016333012-pat00021
는 카르다노(cardano)의 3차 방정식의 대수적 해법에 의해 구할 수 있다.
Figure 112010016333012-pat00021
Can be found by the algebraic solution of cardano's cubic equation.

Figure 112010016333012-pat00022
의 비례식을 이용하여 다음과 같이
Figure 112010016333012-pat00023
에 대해 정리하면 다음과 같은 식이 얻어진다.
Figure 112010016333012-pat00022
Using the proportional expression of
Figure 112010016333012-pat00023
In summary, the following equations are obtained.

Figure 112010016333012-pat00024
Figure 112010016333012-pat00024

Figure 112010016333012-pat00025
를 알 때, 뉴튼법에 의해 가장 오차를 작게 갖는
Figure 112010016333012-pat00026
Figure 112010016333012-pat00027
를 구한다. 3차원 공간상에서 기지의 N개의 표적 점들(target points) 각각의 좌표를 위의 수식을 통해 영상평면상으로 투영하여 N 개의 이상점들을 얻고, 이 점들 각각에 대해 왜곡중심에서 이 점들까지의 거리
Figure 112010016333012-pat00028
를 얻는다. 그리고 이러한 표적점들의 왜곡이 된 디지털 영상점들 각각을 영상평면상으로 역투영한다. 이렇게 역투영된 점들 각각에 대해 왜곡중심에서 이 점들까지의 거리
Figure 112010016333012-pat00029
를 얻고,
Figure 112010016333012-pat00030
를 얻는다.
Figure 112010016333012-pat00025
When we know that the Newton method has the smallest error
Figure 112010016333012-pat00026
Wow
Figure 112010016333012-pat00027
. Project the coordinates of each of the known N target points in three-dimensional space onto the image plane using the above equation to obtain N outliers, and for each of these points the distance from the center of distortion to these points
Figure 112010016333012-pat00028
Get Each of the distorted digital image points is projected onto the image plane. The distance from the center of distortion to these points for each of these backprojected points
Figure 112010016333012-pat00029
Gained,
Figure 112010016333012-pat00030
Get

원주방향의 어안왜곡 보정은 가장 작은 오차를 제공하는 모델을 선택하여 다음과 같이 행한다. 첫째, 왜곡된 영상과 선택된 모델의 왜곡상수의 차수에 부합되도록 왜곡보정 후 구출될 영상의 가로, 세로 크기를 결정한다. 둘째, 보정후 영상의 각 픽셀의 위치에 채워질 밝기값을 입력된 왜곡영상으로부터 취한다. 이를 위해 보정후 영상의 임의의 픽셀의 위치를

Figure 112010016333012-pat00031
라 할 때, 이에 대응되는 왜곡영상의 위치
Figure 112010016333012-pat00032
를 선택된 모델에 맞게 뉴튼법으로 구한다. 도 3은 상기의 알고리즘을 통하여 어안렌즈를 통해 획득한 왜곡 형상을 보정한 영상의 실시예이다. The fisheye distortion correction in the circumferential direction is performed by selecting a model that provides the smallest error as follows. First, the horizontal and vertical sizes of the image to be rescued after the distortion correction are determined to match the order of the distorted image and the distortion constant of the selected model. Second, the brightness value to be filled in the position of each pixel of the image after correction is taken from the input distortion image. To do this, adjust the position of any pixel in the image after correction.
Figure 112010016333012-pat00031
In this case, the position of the corresponding distortion image
Figure 112010016333012-pat00032
Find the Newton method for the selected model. 3 is an embodiment of an image of correcting a distortion shape acquired through a fisheye lens through the above algorithm.

본 발명은 어안렌즈를 통해 획득한 왜곡 형상을 바라보는 시점을 자유롭게 변화시키는 것 또한 기술적 구성요소로 포함하고 있다. The present invention also includes freely changing the viewpoint of viewing the distortion shape acquired through the fisheye lens as a technical component.

사용자가 보정전 이미지의 특정 좌표 (a, b, f)를 선택하여 디스플레이 시점을 변경하면, 변경된 디스플레이 시점에서의 보정후 이미지를 획득하기 위해 (a, b, f)에 대응되는 새로운 좌표계를 정의 및 생성한다. 새로운 좌표계를 생성하는 방법 중 하나로 다음을 들 수 있다. When the user changes the display viewpoint by selecting specific coordinates (a, b, f) of the pre-correction image, a new coordinate system corresponding to (a, b, f) is defined to obtain the post-correction image at the changed display viewpoint. And generate. One way to create a new coordinate system is to:

새로운 좌표계를 정의 및 생성하기 위해, 먼저 사용자가 선택한 보정전 이미지의 특정 좌표(a, b, f)에 대응되는 구상의 표면상의 좌표 (a, b, f’)를 획득하고, 획득된 구상의 표면내에 좌표 (a, b, f’)와 구상의 중심점 (0, 0, 0)을 지나는 벡터로부터 새로운 좌표계의 유닛 벡터를 정의한다. 도 10은 이에 대한 좌표계를 도시한 그림이다. To define and create a new coordinate system, first obtain the coordinates (a, b, f ') on the surface of the sphere corresponding to the specific coordinates (a, b, f) of the user-selected precorrection image, and obtain the acquired sphere Define a unit vector of the new coordinate system from the vector passing through the coordinates (a, b, f ') and the sphere's center point (0, 0, 0) within the surface. 10 is a diagram illustrating a coordinate system for this.

이러한 방식으로 새로운 좌표계의 유닛 벡터를 정의한 후, 앞에서 설명한 수식을 변환하면 변경된 디스플레이 시점에 맞는 보정 후 영상을 획득할 수 있다.In this way, after defining the unit vector of the new coordinate system, by converting the above-described formula it is possible to obtain a post-correction image suitable for the changed display time.

이렇듯 본 발명에서 사용하는 왜곡 영상을 보정하는 방법은 대상을 바라보는 시점을 기준으로 하여 영상을 재구성하게 되므로, 카메라 렌즈의 위치 및 방향에 관계없이 정확한 영상을 획득할 수 있다. As described above, in the method for correcting the distorted image used in the present invention, the image is reconstructed based on the viewpoint of the object. Thus, an accurate image can be obtained regardless of the position and the direction of the camera lens.

도 9에서 도시된 바와 같이 카메라 렌즈가 향하는 방향이 다르더라도 동일한 영상을 획득할 수 있는 효과가 있다. 본 발명은 이러한 왜곡 영상을 단순히 보정하는 것에 증강 현실 구현 시스템을 더욱 결합한 것을 주요 특징으로 하고 있다. As shown in FIG. 9, even when the camera lens faces in different directions, the same image may be obtained. The present invention is characterized by further combining an augmented reality realization system with simply correcting such a distorted image.

이하, 첨부된 도면을 참조하여 본 발명의 어안렌즈를 이용한 증강현실 구현 방법 및 그 시스템에 대해 자세하게 설명하기로 한다. Hereinafter, with reference to the accompanying drawings will be described in detail a method and system for implementing augmented reality using the fisheye lens of the present invention.

도 1은 본 발명에 따른 어안 렌즈를 이용한 증강 현실 구현 시스템의 개략적인 내부 구성도이다. 1 is a schematic internal configuration diagram of an augmented reality implementation system using a fisheye lens according to the present invention.

도 1에 도시된 바와 같이, 본 시스템은 모바일 디바이스에 제공된다. 카메라(16)를 내장한 모바일 디바이스에 장착 가능한 어안 렌즈(15)와, 어안 렌즈(15)를 통해 왜곡 영상을 획득하고 보정하는 왜곡 영상 보정 모듈(10)과, 획득된 영상 중 관심 대상을 입력하는 관심 대상 입력 모듈(17)과, 문자 또는 그림 등 가상 현실을 입력하는 가상 현실 입력 모듈(18)과, 왜곡 영상 보정 모듈(10)을 통해 보정된 실제 현실의 영상과 가상 현실 입력 모듈(18)을 통해 입력된 가상 현실을 혼합하여 증강 현실을 생성하는 증강 현실 생성 모듈(19)과, 증강 현실 생성 모듈(19)로부터 생성된 영상을 모바일 디바이스에 표시하는 디스플레이 장치(20)를 포함한다. As shown in FIG. 1, the system is provided in a mobile device. A fisheye lens 15 that can be mounted on a mobile device having a built-in camera 16, a distortion image correction module 10 that acquires and corrects a distortion image through the fisheye lens 15, and an object of interest among the acquired images is inputted. The target input module 17 of interest, the virtual reality input module 18 for inputting a virtual reality such as a character or a picture, and the image and the virtual reality input module 18 of the real reality corrected by the distortion image correction module 10. An augmented reality generating module 19 for generating an augmented reality by mixing the virtual reality input through the) and a display device 20 for displaying an image generated from the augmented reality generating module 19 on the mobile device.

카메라(16)는 어안 렌즈를 통해 180도 이상의 화각을 가지는 3차원의 영상을 2차원의 이미지로 획득한다. 이 때, 획득한 이미지는 매우 심한 왜곡을 가지게 된다. 특히, 어안 렌즈의 광학 중심점에 위치한 피사체는 왜곡을 가지지 않고, 주변에 위치한 피사체는 매우 심한 왜곡을 가지게 된다. The camera 16 acquires a three-dimensional image having an angle of view of 180 degrees or more through a fisheye lens as a two-dimensional image. At this time, the acquired image has a very severe distortion. In particular, the subject located at the optical center point of the fisheye lens does not have distortion, and the subject located at the periphery has very severe distortion.

가상 현실 입력 모듈(18)은, 사용자가 문자나 아이콘 등의 그림을 입력하는 모듈이다. 바람직하게는, 문자 메시지 및 대화 입력 모듈이다. 본 발명의 일실시예는, 모바일 디바이스의 디스플레이에 어안 렌즈를 통한 실제 주변 영상을 표시하고, 이와 동시에 문자 메시지 입력 모듈을 표시하는 것이다. The virtual reality input module 18 is a module in which a user inputs a picture such as a character or an icon. Preferably, it is a text message and conversation input module. One embodiment of the present invention is to display the actual surrounding image through the fisheye lens on the display of the mobile device, and at the same time to display the text message input module.

이 경우, 모바일 디바이스 사용자는 앞을 보지 않고 이동을 하면서, 즉 문자를 입력하면서 이동하더라도, 문자 메시지 입력 모듈과 함께 표시된 실제 주변 영상을 통해 위험 요소를 인지하거나 상황을 인지할 수 있게 된다. 따라서 사용자의 안전성 및 편의성이 향상되는 장점이 있다.In this case, even when the mobile device user moves without looking ahead, that is, while entering text, the mobile device user can recognize a risk factor or a situation through the actual surrounding image displayed with the text message input module. Therefore, there is an advantage of improving the safety and convenience of the user.

도 4는 모바일 디바이스 사용자가 문자를 입력하면서 걸어가는 과정에서, 본 발명에 의한 증강현실을 구현한 모바일 디바이스의 디스플레이 장치만을 보면서 안전하게 걸어갈 수 있는 일 실시예이다. FIG. 4 is an embodiment in which a mobile device user can walk safely while only watching a display device of a mobile device implementing augmented reality according to the present invention while walking while inputting a text.

따라서 가상 현실 입력 모듈(18)은 모바일 디바이스의 디스플레이 장치에 생성된 증강 현실이 표시된 상태에서 실시간으로 입력하는 것이 바람직하다. Therefore, the virtual reality input module 18 preferably inputs in real time while the augmented reality generated on the display device of the mobile device is displayed.

관심 대상 입력 모듈(17)은 상기 디스플레이 장치에 표시된 보정 전 이미지 또는 보정 후 이미지 중 특별한 관심을 갖는 물체 및 영역을 입력하는 모듈이다. 관심 대상은 모바일 디바이스 사용자가 실제 현실의 영상을 보고 싶어하는 시점이라 할 수도 있다. 따라서, 관심 대상 처리 모듈(13)을 사용하여 보정 후 이미지를 관심 대상을 중심 위치로 하여 재구성하는 것이 바람직하다. 이에 대한 구체적인 알고리즘에 대해서는 앞에서 설명한 바 있다.The object of interest input module 17 is a module for inputting an object and an area having a particular interest among the pre-correction image or the post-correction image displayed on the display device. The object of interest may be a point in time at which the mobile device user wants to see an image of a real reality. Therefore, it is desirable to reconstruct the image after correction using the object of interest processing module 13 as the center of interest. The detailed algorithm for this has been described above.

관심 대상 처리 모듈(13)은 모바일 디바이스의 카메라 방향이 바뀌거나 위치가 이동된다고 하더라도, 관심 대상의 위치를 파악하여 보정 후 이미지를 재구성하게 된다. The object-of-interest processing module 13 reconstructs the image after the correction by grasping the position of the object of interest even if the camera direction of the mobile device is changed or the position is moved.

도 8은 어안렌즈를 통한 왜곡 영상에서 사용자가 원하는 관심 대상을 선택하는 경우, 관심 대상을 중심으로 하여 보정된 영상을 보여주는 일 실시예이다. 도 8의 위의 그림은 두 개의 가상현실이 겹쳐진 모습니다. 본 발명에서의 일실시예로서, 뷰의 위치를 아래 그림과 같이 좌측으로 옮기면 두 개의 가상현실이 이격되어 표현된다. 디스플레이 시점이 변화가 되어 두 개의 가상현실의 폐색이 제거되는 예시를 나타내고 있다. FIG. 8 illustrates an example of displaying a corrected image centering on a target of interest when a user selects a target of interest from a distorted image through a fisheye lens. The figure above in Figure 8 shows two virtual reality overlapping. In one embodiment of the present invention, when the position of the view is moved to the left as shown in the following two virtual reality is spaced apart. The display viewpoint is changed to show an example in which the occlusion of two virtual reality is removed.

증강 현실 생성 모듈(19)은 보정 후 이미지 영상과 가상 현실을 혼합하여 표시하는 모듈이다. 증강 현실 생성 모듈은 3차원 모델링을 통해 가상 객체(virtual object)를 생성하는 그래픽 랜더링을 수행할 수도 있다. 또한, 증강 현실 생성 모듈은 관심 대상의 위치 트래킹(position tracking)을 하여, 관심 대상의 위치 및 이동에 대한 감지와 추적을 수행하고, 가상 객체의 렌더링을 수행할 수도 있다. The augmented reality generating module 19 is a module for mixing and displaying an image image and a virtual reality after correction. The augmented reality generation module may perform graphic rendering to generate a virtual object through 3D modeling. In addition, the augmented reality generating module may perform position tracking of the object of interest, detect and track the position and movement of the object of interest, and perform rendering of the virtual object.

증강 현실 생성 모듈은 입력된 가상 현실 혹은 생성된 가상 객체를 보정 후 이미지 영상에 위치시킨다. 특히 가상 객체 등을 현실 장면과 괴리되지 않은 모습으로 보여지도록 정합(registration) 과정을 수행한다. 이때 어색함이 없이 자연스럽게 합성되도록 끊김없는(seamless) 증강 현실을 구현한다. The augmented reality generation module locates the input virtual reality or the generated virtual object in the image image after correction. In particular, a registration process is performed so that virtual objects and the like are shown in a manner that is not different from the real scene. In this case, seamless augmented reality is realized so that it is naturally synthesized without awkwardness.

이를 위하여, 정적 오차(static error), 동적 오차(dynamic error)를 고려하여야 한다. 여기서, 정적 오차란 실제 현실 환경에 가상 환경을 기하학적으로 정합할 때 발생되는 오차로서, 실제 현실 좌표계와 가상 세계의 좌표계가 일치하지 않아 발생하는 오차이다. 이러한 정적 오차를 줄이기 위해서는 관심 대상의 위치와 방향을 정확하게 측정하기 위한 위치 트래킹이 중요하다. 동적 오차란 관심 대상의 위치와 시선이 계속 변함에 따라, 가상 객체를 렌더링 하는 과정에서 발생하는 시간 지연으로 실제 현실 환경과 가상 환경의 영상 간에 서로 시각 동기가 맞지 않는 것으로 발생되는 오차이다. For this purpose, static error and dynamic error should be considered. Here, the static error is an error generated when the virtual environment is geometrically matched to the real world environment and is an error that occurs because the real world coordinate system and the virtual world coordinate system do not coincide with each other. In order to reduce this static error, position tracking to accurately measure the position and orientation of the object of interest is important. The dynamic error is a time delay that occurs during the rendering of the virtual object as the position and the gaze of the object of interest are constantly changing, and is an error caused by the visual synchronization between the image of the real environment and the virtual environment being inconsistent with each other.

왜곡 영상 보정 모듈(10)은, 어안 렌즈를 통한 왜곡 영상의 파라메터와, 보정 전 이미지의 특정 좌표를 획득하는 왜곡 계수 획득 모듈(11)과, 획득된 상기 파라메터를 이용하여 보정 전 이미지의 특정 좌표를 보정 후 이미지의 특정 좌표로 보정하는 영상 보정 모듈(12)이 주요 구성요소이다. 다만, 입력된 관심 대상을 중심으로 보정된 영상을 표시하는 관심 대상 처리 모듈(13)을 더 포함할 수 있다. The distortion image correction module 10 may include a parameter of the distortion image through the fisheye lens, a distortion coefficient acquisition module 11 to acquire specific coordinates of the image before correction, and specific coordinates of the image before correction using the acquired parameters. The main component is the image correction module 12 which corrects the to a specific coordinate of the image after the correction. However, the method may further include an object-of-interest processing module 13 for displaying a corrected image based on the input object of interest.

왜곡 영상의 파라메터는 초점 거리 및 왜곡 중심이 바람직하다. 본 명세서에서는 왜곡이 생기지 않는 어안 렌즈의 광학 중심점은 왜곡 중심이라는 용어로 사용되고 있다.The parameter of the distorted image is preferably a focal length and a distortion center. In the present specification, the optical center point of the fisheye lens that does not cause distortion is used in the term of distortion center.

왜곡 계수 획득 모듈(11)이 왜곡 중심을 획득하는 방법은 정방형 격자 무늬를 가지는 테스트 이미지를 복수개의 방향에 대해 캡쳐한 경우, 왜곡 없이 나타나는 직선들이 교차되는 하나의 점을 어안 렌즈의 왜곡 중심으로 획득한다. 일반적으로, 왜곡 중심은 획득된 이미지의 정중앙점이 되며, 다만 필요에 따라 변경될 수 있다. The method of obtaining the distortion center by the distortion coefficient obtaining module 11 acquires a point at which the straight lines that appear without distortion intersect as the distortion center of the fisheye lens when a test image having a square grid is captured in a plurality of directions. do. In general, the distortion center becomes the center point of the acquired image, but may be changed as necessary.

영상 보정 모듈(12)이 보정 전 이미지의 특정 좌표를 보정 후 이미지의 특정 좌표로 변환하는 알고리즘에 대해서는 전술한 바 있으므로 자세한 설명은 생략하기로 한다. Since the image correction module 12 converts the specific coordinates of the pre-correction image to the specific coordinates of the post-correction image, the detailed description will be omitted.

이하, 본 발명에 의한 어안렌즈를 이용한 증강 현실 구현 방법에 대해 설명하기로 한다. 도 2는 본 발명의 구현 방법에 대한 흐름도이다. Hereinafter, a method for implementing augmented reality using a fisheye lens according to the present invention will be described. 2 is a flowchart of an implementation method of the present invention.

일 실시예로서, 어안 렌즈(15)를 통해 왜곡 영상을 획득하는 단계; 상기 왜곡 영상의 파라메터와, 왜곡 영상의 보정 전 이미지의 특정 좌표를 획득하는 단계와; 획득된 상기 파라메터를 이용하여 보정 전 이미지의 특정 좌표를 보정 후 이미지의 특정 좌표로 보정하는 단계와; 문자 또는 그림 등 가상 현실을 입력받는 단계와; 보정된 실제 현실의 영상과 입력된 가상 현실을 혼합하여 증강 현실을 생성하는 단계와; 생성된 증강 현실을 디스플레이 장치에 표시하는 단계를 포함한다. In an embodiment, the method may include obtaining a distorted image through the fisheye lens 15; Acquiring parameters of the distorted image and specific coordinates of the image before correction of the distorted image; Correcting specific coordinates of the image before correction by using the obtained parameters to specific coordinates of the image after correction; Receiving a virtual reality such as a text or a picture; Generating an augmented reality by mixing the corrected real image and the input virtual reality; Displaying the generated augmented reality on the display device.

다만, 본 발명은 실시간으로 변화하는 실제 현실의 영상을 처리하는 것이기 때문에, 상기의 단계가 계속적으로 반복적으로 이루어지는 것도 권리범위에 속한다. However, since the present invention processes an image of a real reality that changes in real time, it is also within the scope of the right to repeatedly perform the above steps.

각 용어에 대해서는 앞에서 자세하게 설명하였으므로 재차 설명은 생략하기로 한다. Each term has been described in detail above, so a description thereof will be omitted again.

본 발명에 의한 구현 방법의 다른 실시 예로서, 어안 렌즈(15)를 통해 왜곡 영상을 획득하는 단계; 왜곡 영상의 파라메터와, 왜곡 영상의 보정 전 이미지의 특정 좌표를 획득하는 단계와; 보정 전 이미지 중 관심 대상을 입력 받는 단계와; 획득된 파라메터를 이용하여 보정 전 이미지의 특정 좌표를 보정 후 이미지의 특정 좌표로 보정하는 단계와; 보정 후 이미지 중 입력 받은 관심 대상을 표시하는 단계와; 문자 또는 그림 등 가상 현실을 입력 받는 단계와; 보정된 실제 현실의 영상과 입력된 가상 현실을 혼합하여 증강 현실을 생성하는 단계와; 생성된 증강 현실을 디스플레이 장치에 표시하는 단계를 포함한다. As another embodiment of the implementation method according to the present invention, obtaining a distorted image through the fisheye lens 15; Obtaining parameters of the distorted image and specific coordinates of the image before correction of the distorted image; Receiving an object of interest among images before correction; Correcting the specific coordinates of the image before correction to the specific coordinates of the image after correction using the obtained parameters; Displaying an object of interest received from the image after correction; Receiving a virtual reality such as a text or a picture; Generating an augmented reality by mixing the corrected real image and the input virtual reality; Displaying the generated augmented reality on the display device.

또 다른 실시 예로서, 어안 렌즈(15)를 통해 왜곡 영상을 획득하는 단계와; 왜곡 영상의 파라메터와, 왜곡 영상의 보정 전 이미지의 특정 좌표를 획득하는 단계와; 획득된 파라메터를 이용하여 보정 전 이미지의 특정 좌표를 보정 후 이미지의 특정 좌표로 보정하는 단계와; 문자 또는 그림 등 가상 현실을 입력 받는 단계와; 보정 후 이미지 중 관심 대상을 입력 받는 단계와; 보정 후 이미지를 상기 입력 받은 관심 대상을 중심으로 재구성하는 단계와, 보정된 실제 현실의 영상과 입력된 가상 현실을 혼합하여 증강 현실을 생성하는 단계와; 생성된 증강 현실을 디스플레이 장치에 표시하는 단계를 포함한다. In another embodiment, the method may include obtaining a distorted image through the fisheye lens 15; Obtaining parameters of the distorted image and specific coordinates of the image before correction of the distorted image; Correcting the specific coordinates of the image before correction to the specific coordinates of the image after correction using the obtained parameters; Receiving a virtual reality such as a text or a picture; Receiving an object of interest in the image after correction; Reconstructing the corrected image based on the received object of interest, and generating an augmented reality by mixing the corrected real image and the input virtual reality; Displaying the generated augmented reality on the display device.

가상 현실 입력 단계는 디스플레이 장치에 표시된 증강 현실을 보면서 실시간으로 입력하는 방식은 앞에서 설명한 바와 같다. In the virtual reality input step, the input method in real time while viewing the augmented reality displayed on the display device is as described above.

관심 대상을 입력하는 단계는 디스플레이 장치에 표시된 증강 현실의 이미지 중 해당 영역을 선택하여 입력하는 것이 바람직하다. 따라서 디스플레이 장치는 터치스크린 방식의 것이 바람직하다. 관심 대상을 입력하는 단계는 보정 전의 이미지 또는 보정 후의 이미지에서 선택하는 것 모두 가능하다. In the step of inputting an object of interest, it is preferable to select and input a corresponding region of the image of the augmented reality displayed on the display device. Therefore, the display device is preferably a touch screen type. The step of inputting an object of interest may be selected from an image before correction or an image after correction.

관심 대상이란, 관심 대상을 바라보는 디스플레이 시점이라고 표현될 수도 있다. 앞에서 설명한 바와 같이 도 8의 위쪽 그림과 같이 두 개의 가상 현실이 겹쳐 보이는 경우(폐색), 관심 대상을 바라보는 디스플레이 시점을 화살표와 같이 터치스크린으로부터 입력받아, 폐색이 없어지도록 재구성을 하는 것이다(도 8의 아래쪽 그림). The object of interest may be expressed as a display viewpoint looking at the object of interest. As described above, when two virtual realitys overlap (closed) as shown in the upper image of FIG. 8, a display point of view of an object of interest is input from the touch screen as an arrow to reconstruct such that the blockage is eliminated (FIG. Bottom figure of 8).

이와 같이 사용자가 관심 대상을 바라보는 디스플레이 시점을 변경하면, 선택된 특정 좌표값에 대응되는 새로운 좌표계를 정의 및 생성하여 처리하면 된다. 이는 종래에 head tracking기술로 널리 알려져 있는 기술이므로 자세한 설명은 생략하기로 한다.As such, when the user changes the display viewpoint of looking at the object of interest, the user may define, generate, and process a new coordinate system corresponding to the selected specific coordinate value. Since this is a technique widely known as a head tracking technique in the related art, a detailed description thereof will be omitted.

관심 대상이 이동하거나, 어안 렌즈의 초점이 이동하는 경우, 입력된 관심 대상을 중심으로 증강 현실의 이미지를 재구성하는 것이 필요하다. 즉, 왜곡 중심으로부터 관심 대상이 틸트(tilt)된 값을 추가로 반영하여 보정하는 것도 가능하다. When the object of interest moves, or when the focal point of the fisheye lens moves, it is necessary to reconstruct the image of the augmented reality around the input object of interest. That is, it is also possible to correct by further reflecting the value of the object of interest tilted from the distortion center.

도 5는 본 발명에는 모션 트랙킹(motion tracking, head tracking) 기술이 결합하여, 관심 대상이 이동하는 경우, 관심 대상을 중심으로 하여 증강 현실을 재구성하는 예이다. 즉, 전체 영상을 획득한 후에, 모션 트랙킹 기술을 이용하여, 사용자의 방향을 추출하여 정확한 형태로 재구성하는 것도 가능할 수 있다. FIG. 5 illustrates an example in which a motion tracking (head tracking) technology is combined with the present invention to reconstruct augmented reality around an object of interest when the object of interest moves. That is, after acquiring the entire image, it may be possible to extract the user's direction and reconstruct it into an accurate form using a motion tracking technique.

도 6은 사용자의 위치를 중심으로 맵뷰로 나타내는 방식을 구현하는 실시예이다. 사용자가 모바일 디바이스를 지면을 향하게 하거나 하늘을 향해 위치시키고, 어안렌즈를 통해 주위의 360도 영상을 획득하고, 이 획득한 영상 위에 영상물의 정보를 표시하는 증강현실의 구현 예이다.FIG. 6 is an embodiment for implementing a method of displaying a map view centering on a location of a user. An embodiment of an augmented reality in which a user places the mobile device toward the ground or toward the sky, obtains a 360 degree image of the surrounding through a fisheye lens, and displays information of the image on the acquired image.

도 7은 본 발명의 또 다른 실시예로서, 사회적 인식으로 인해 피사체를 향하여 직접적으로 렌즈를 향하지 못하는 경우, 렌즈가 향하는 방향을 달리하여 피사체의 형상을 얻을 수 있다. 또한, 이에 증강현실을 추가한 응용도 가능할 수 있다. FIG. 7 is another embodiment of the present invention. If the lens does not directly face the lens due to social recognition, the shape of the subject may be obtained by changing the direction in which the lens faces. In addition, it may be possible to add an application to the augmented reality.

이상 첨부 도면을 참조하여 본 발명의 실시 예에 대하여 설명하였지만 본 발명의 권리범위는 첨부하는 특허청구범위에 의하여 결정되며, 전술한 실시 예에 제한되는 것으로 해석되어서는 아니 된다.Although the embodiments of the present invention have been described above with reference to the accompanying drawings, the scope of the present invention is determined by the appended claims and should not be construed as being limited to the embodiments described above.

또한, 당업자에게 자명하고 특허청구범위에 기재되어 있는 발명의 본질에서 벗어나지 않는, 변경, 개량 내지 수정된 기술도 본 발명의 권리범위에 포함됨이 명백하게 이해된다. It is also clearly understood that modifications, improvements or modifications are also included in the scope of the invention, which will be apparent to those skilled in the art and which do not depart from the spirit of the invention as set forth in the claims.

10 : 왜곡 영상 보정 모듈, 15 : 어안렌즈, 16 : 카메라, 17 : 관심 대상 입력 모듈, 18 : 가상 현실 입력 모듈, 19 : 증강 현실 생성 모듈, 20 : 디스플레이 장치10: distortion image correction module, 15: fisheye lens, 16: camera, 17: input module of interest, 18: virtual reality input module, 19: augmented reality generation module, 20: display device

Claims (15)

삭제delete 모바일 디바이스에 제공되고, 어안 렌즈를 이용한 증강 현실 구현 시스템에 있어서,
카메라(16)를 내장한 모바일 디바이스에 장착 가능한 어안 렌즈(15)와,
어안 렌즈(15)를 통해 왜곡 영상을 획득하고 보정하는 왜곡 영상 보정 모듈(10)과,
상기 획득된 영상 중 관심 대상을 입력하는 관심 대상 입력 모듈(17)과,
문자 또는 그림을 포함하는 가상 현실을 입력하는 가상 현실 입력 모듈(18)과,
상기 왜곡 영상 보정 모듈(10)을 통해 보정된 실제 현실의 영상과 상기 가상 현실 입력 모듈(18)을 통해 입력된 가상 현실을 혼합하여 증강 현실을 생성하는 증강 현실 생성 모듈(19)과,
증강 현실 생성 모듈(19)로부터 생성된 영상을 모바일 디바이스에 표시하는 디스플레이 장치(20)를 포함하고,
상기 왜곡 영상 보정 모듈(10)은,
상기 어안 렌즈를 통한 왜곡 영상의 파라메터와, 보정 전 이미지의 특정 좌표를 획득하는 왜곡 계수 획득 모듈(11)과,
획득된 상기 파라메터를 이용하여 보정 전 이미지의 특정 좌표를 보정 후 이미지의 특정 좌표로 보정하는 영상 보정 모듈(12)과,
상기 입력된 관심 대상을 중심으로 보정된 영상을 표시하는 관심 대상 처리 모듈(13)을 포함하며, 여기에서 상기 가상 현실 입력 모듈(18)은, 문자 메시지 입력 모듈이며, 상기 가상 현실 입력 모듈(18)은, 상기 디스플레이 장치에 생성된 증강 현실이 표시된 상태에서 실시간으로 입력이 가능한 것을 특징으로 하는 어안 렌즈를 이용한 증강 현실 구현 시스템.
In the augmented reality implementation system provided to a mobile device, using a fisheye lens,
The fisheye lens 15 which can be attached to the mobile device which incorporated the camera 16,
A distorted image correction module 10 for acquiring and correcting a distorted image through the fisheye lens 15,
An object of interest input module 17 for inputting an object of interest among the obtained images;
A virtual reality input module 18 for inputting a virtual reality including a character or a picture,
An augmented reality generation module 19 for generating an augmented reality by mixing an image of a real reality corrected by the distortion image correction module 10 and a virtual reality input through the virtual reality input module 18;
A display device 20 for displaying the image generated from the augmented reality generation module 19 to the mobile device,
The distortion image correction module 10,
A distortion coefficient acquisition module 11 for acquiring a parameter of the distorted image through the fisheye lens and specific coordinates of the image before correction;
An image correction module 12 for correcting a specific coordinate of the image before correction by using the obtained parameter, to a specific coordinate of the image after correction;
An object-of-interest processing module 13 for displaying a corrected image based on the input object of interest, wherein the virtual reality input module 18 is a text message input module and the virtual reality input module 18. A), the augmented reality implementation system using a fisheye lens, characterized in that input is possible in real time in a state in which the augmented reality generated on the display device is displayed.
청구항 2에 있어서,
상기 파라메터는 초점 거리 및 왜곡 중심인,
어안 렌즈를 이용한 증강 현실 구현 시스템.
The method according to claim 2,
Where the parameters are focal length and distortion center,
Augmented Reality Implementation System Using Fisheye Lens.
삭제delete 삭제delete 청구항 2에 있어서,
상기 관심 대상 입력 모듈(17)은,
상기 디스플레이 장치에 표시된 보정 전 이미지 또는 보정 후 이미지 중 영역을 선택하여 관심 대상을 입력하는,
어안 렌즈를 이용한 증강 현실 구현 시스템.
The method according to claim 2,
The object of interest input module 17,
Selecting an area of a pre-correction image or a post-correction image displayed on the display device to input an object of interest;
Augmented Reality Implementation System Using Fisheye Lens.
청구항 2에 있어서,
상기 관심 대상 처리 모듈(13)은,
상기 보정 후 이미지를 상기 관심 대상을 중심 위치로 하여 재구성하는,
어안 렌즈를 이용한 증강 현실 구현 시스템.
The method according to claim 2,
The subject processing module 13 of interest is
Reconstructing the image after the correction with the object of interest as a center position,
Augmented Reality Implementation System Using Fisheye Lens.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020100022930A 2010-03-15 2010-03-15 the Apparatus of Augmented Reality Using Fisheye Lens and the Method of the Same KR101222155B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100022930A KR101222155B1 (en) 2010-03-15 2010-03-15 the Apparatus of Augmented Reality Using Fisheye Lens and the Method of the Same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100022930A KR101222155B1 (en) 2010-03-15 2010-03-15 the Apparatus of Augmented Reality Using Fisheye Lens and the Method of the Same

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020120053552A Division KR101222153B1 (en) 2012-05-21 2012-05-21 the Apparatus of Augmented Reality Using Fisheye Lens and the Method of the Same

Publications (2)

Publication Number Publication Date
KR20110103724A KR20110103724A (en) 2011-09-21
KR101222155B1 true KR101222155B1 (en) 2013-01-15

Family

ID=44954846

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100022930A KR101222155B1 (en) 2010-03-15 2010-03-15 the Apparatus of Augmented Reality Using Fisheye Lens and the Method of the Same

Country Status (1)

Country Link
KR (1) KR101222155B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024029792A1 (en) * 2022-08-05 2024-02-08 Samsung Electronics Co., Ltd. Method of correcting image transformations in video see-through augmented-reality system

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101683763B1 (en) * 2015-09-14 2016-12-07 주식회사 프레스토솔루션 Augmented Reality Robot Simulation System And Method Using 360 Degree Camera
CN109863533B (en) * 2016-08-22 2024-03-15 奇跃公司 Virtual, augmented and mixed reality systems and methods
KR20190065754A (en) 2017-12-04 2019-06-12 재단법인대구경북과학기술원 Method and apparatus for correcting image distortion for virtual reality for endoscope

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090000186A (en) * 2007-01-25 2009-01-07 삼성전자주식회사 Point of interest displaying apparatus and method for using augmented reality
KR20090021778A (en) * 2007-08-28 2009-03-04 중앙대학교 산학협력단 Image synthesizer capable of compositing image by real-time and method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090000186A (en) * 2007-01-25 2009-01-07 삼성전자주식회사 Point of interest displaying apparatus and method for using augmented reality
KR20090021778A (en) * 2007-08-28 2009-03-04 중앙대학교 산학협력단 Image synthesizer capable of compositing image by real-time and method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024029792A1 (en) * 2022-08-05 2024-02-08 Samsung Electronics Co., Ltd. Method of correcting image transformations in video see-through augmented-reality system

Also Published As

Publication number Publication date
KR20110103724A (en) 2011-09-21

Similar Documents

Publication Publication Date Title
CN113382168B (en) Apparatus and method for storing overlapping regions of imaging data to produce an optimized stitched image
KR100922250B1 (en) Panoramic video system with real-time distortion-free imaging
US20170363949A1 (en) Multi-tier camera rig for stereoscopic image capture
JP6584664B2 (en) Image generating apparatus and image generating method
CN104246795B (en) The method and system of adaptive perspective correction for extrawide angle lens image
CN110456967B (en) Information processing method, information processing apparatus, and program
WO2017212686A1 (en) Image generation device and image generation method
KR101912396B1 (en) Apparatus and Method for Generating Image at any point-view based on virtual camera
JP7182920B2 (en) Image processing device, image processing method and program
JP5743016B2 (en) Apparatus and method for generating images
WO2017029885A1 (en) Image generating device and image display control device
CN107563959B (en) Panorama generation method and device
KR20140090775A (en) Correction method of distortion image obtained by using fisheye lens and image display system implementing thereof
KR101222153B1 (en) the Apparatus of Augmented Reality Using Fisheye Lens and the Method of the Same
KR101222155B1 (en) the Apparatus of Augmented Reality Using Fisheye Lens and the Method of the Same
US9143700B2 (en) Image capturing device for capturing an image at a wide angle and image presentation system
JP2019029721A (en) Image processing apparatus, image processing method, and program
CN110060349B (en) Method for expanding field angle of augmented reality head-mounted display equipment
JP7006912B2 (en) Image processing device, image display device and image processing program
CN114257733A (en) Method and system for image processing of omni-directional image with viewpoint offset
JP2020167657A (en) Image processing apparatus, head-mounted display, and image display method
JP2001256492A (en) Device and method for composing image and computer readable recording medium for recording its program
CN110913198A (en) VR image transmission method
Byun et al. Air: Anywhere immersive reality with user-perspective projection
JP2012191380A (en) Camera, image conversion apparatus, and image conversion method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
A107 Divisional application of patent
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160115

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee