KR102616646B1 - Realtime dynamic image warping system for screen based glasses-free VR and its verification method - Google Patents
Realtime dynamic image warping system for screen based glasses-free VR and its verification method Download PDFInfo
- Publication number
- KR102616646B1 KR102616646B1 KR1020220176095A KR20220176095A KR102616646B1 KR 102616646 B1 KR102616646 B1 KR 102616646B1 KR 1020220176095 A KR1020220176095 A KR 1020220176095A KR 20220176095 A KR20220176095 A KR 20220176095A KR 102616646 B1 KR102616646 B1 KR 102616646B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- location
- real
- user
- screen
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 19
- 238000012795 verification Methods 0.000 title claims description 8
- 238000003702 image correction Methods 0.000 claims description 41
- 238000012937 correction Methods 0.000 claims description 28
- 238000009826 distribution Methods 0.000 claims description 24
- 230000008859 change Effects 0.000 claims description 23
- 238000012545 processing Methods 0.000 claims description 19
- 238000005259 measurement Methods 0.000 claims description 17
- 230000006870 function Effects 0.000 claims description 10
- 238000013507 mapping Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 8
- 238000012790 confirmation Methods 0.000 claims description 6
- 239000003550 marker Substances 0.000 claims description 4
- 230000004044 response Effects 0.000 claims description 4
- 230000035945 sensitivity Effects 0.000 claims description 2
- 230000000007 visual effect Effects 0.000 abstract description 8
- 238000013461 design Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000011161 development Methods 0.000 description 4
- 238000009434 installation Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000012384 transportation and delivery Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- 238000007654 immersion Methods 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 238000007726 management method Methods 0.000 description 2
- 206010012186 Delayed delivery Diseases 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000003631 expected effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000004410 intraocular pressure Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000007665 sagging Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- G06T3/0093—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/302—Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/363—Image reproducers using image projection screens
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
본 발명은 모든 스크린에 적용 가능한 무안경 몰입형 가상현실 영상정합 시스템 및 그 영상정합 검증방법에 관한 것으로, 보다 상세하게는 스크린 투사 면에 투영되는 삼차원 콘텐츠 및 영상의 기하학적 각도를 사용자 위치기반으로 실시간으로 추적, 일치시켜 스크린 표면에 투영되는 삼차원 영상을 시야각적으로 실세계를 바라보는 것과 동일한 시각효과를 얻도록 하는 스크린 기반 무안경 VR을 위한 실시간 영상정합 시스템 및 그 영상정합 검증방법에 관한 것이다.The present invention relates to a glasses-free immersive virtual reality image registration system applicable to all screens and a method for verifying the image registration. More specifically, the present invention relates to the geometric angle of three-dimensional content and images projected on the screen projection surface in real time based on the user's location. This relates to a real-time image matching system for screen-based glasses-free VR that tracks and matches three-dimensional images projected on the screen surface to obtain the same visual effect as looking at the real world from a viewing angle, and a method for verifying the image matching.
Description
본 발명은 모든 스크린에 적용 가능한 무안경 몰입형 가상현실 영상정합 시스템 및 그 영상정합 검증방법에 관한 것으로, 보다 상세하게는 스크린 투사 면에 투영되는 삼차원 콘텐츠 및 영상의 기하학적 각도를 사용자 위치기반으로 실시간으로 추적, 일치시켜 스크린 표면에 투영되는 삼차원 영상을 시야각적으로 실세계를 바라보는 것과 동일한 시각효과를 얻도록 하는 스크린 기반 무안경 VR을 위한 실시간 영상정합 시스템 및 그 영상정합 검증방법에 관한 것이다.The present invention relates to a glasses-free immersive virtual reality image registration system applicable to all screens and a method for verifying the image registration. More specifically, the present invention relates to the geometric angle of three-dimensional content and images projected on the screen projection surface in real time based on the user's location. This relates to a real-time image matching system for screen-based glasses-free VR that tracks and matches three-dimensional images projected on the screen surface to obtain the same visual effect as looking at the real world from a viewing angle, and a method for verifying the image matching.
메타버스 플랫폼, 민간 및 군용 시뮬레이션, 놀이 및 전시 시설, 공장자동화, 스마트농장 등에 가상현실, 증강현실, 복합현실 등의 가시화 기술이 적용될 경우, 통상 Head Mounted Display(HMD) 형태의 장비가 많이 이용되고 있다. 그런데 HMD 형태의 장비는 착용의 불편함, 외부세계와의 시각적 차단으로 인한 안전사고 발생, 원경 영상과 디스플레이 장치에 대한 근접 초점으로 인한 안압 상승, 실세계와 상이한 원근효과, 장시간 사용의 불편함 등의 문제가 많이 있다.When visualization technologies such as virtual reality, augmented reality, and complex reality are applied to metaverse platforms, civilian and military simulations, play and exhibition facilities, factory automation, and smart farms, equipment in the form of Head Mounted Display (HMD) is usually used. there is. However, HMD-type equipment has problems such as inconvenience in wearing, safety accidents due to visual blocking from the outside world, increased intraocular pressure due to distant images and close focus on display devices, perspective effects that are different from the real world, and inconvenience in long-term use. There are many problems.
이러한 사유로 고비용이 적용되더라도 HMD를 사용하지 않는 스크린 기반 삼차원 시뮬레이션 또는 전시 콘텐츠시스템에서, 실시간으로 체험자의 위치를 추적하여 가상현실의 몰입감을 극대화하는 기술이 절실히 필요한 실정이다.For this reason, even if high costs are applied, there is an urgent need for technology that maximizes the sense of immersion in virtual reality by tracking the location of the experiencer in real time in a screen-based three-dimensional simulation or exhibition content system that does not use an HMD.
이에 본 발명자는 무안경 타입의 가상현실 구현 시스템을 개발하게 된 것이다.Accordingly, the present inventor developed a glasses-free type virtual reality implementation system.
본 발명에 앞서 그 기초가 되는 선행발명(특허 제10-2245223호)에서는, 불규칙하고 비정형화된 투사 면에 다층구조 빔프로젝션 콘텐츠 전시를 위한 가상현실 구현 기술이 제시되었다. 상기 발명은 삼차원 지오메트리 모델에 빔프로젝션 콘텐츠를 투영하여 얻은 이미지와, 상기 투사면에 상기 빔프로젝션 콘텐츠를 투영하여 얻은 이미지를 비교한 후, 무게중심 기반 위치변경 보정 알고리즘을 이용하여 투사 이미지를 보정한다. 도 5a 내지 5c와 같이, 꼭지점 A, B, C에 대한 무게중심은 P지점이 되고 이미지 워핑을 하여 꼭지점의 위치가 변경되면 새로운 꼭지점 A', B', C'에 의하여 생성된 무게중심 P'로 이동되고, 면적(w) 분포가 w'로 변형되며 면적에 해당하는 이미지가 변형되어지는 와핑알고리즘을 이용하여, 시각적으로 왜곡되지 않게 디스플레이가 가능한 콘텐츠 전시가 가능한 기술이다. In the prior invention (Patent No. 10-2245223), which is the basis of the present invention, a virtual reality implementation technology for displaying multi-layered beam projection content on an irregular and unstructured projection surface was presented. The invention compares an image obtained by projecting beam projection content on a three-dimensional geometric model with an image obtained by projecting the beam projection content on the projection surface, and then corrects the projected image using a center of gravity-based position change correction algorithm. . As shown in Figures 5a to 5c, the center of gravity for vertices A, B, and C becomes point P, and when the position of the vertex is changed through image warping, the center of gravity P' created by the new vertices A', B', and C' It is a technology that allows content to be displayed without visual distortion by using a warping algorithm in which the area (w) distribution is transformed into w' and the image corresponding to the area is transformed.
그런데 이 기술은 사용자의 위치변경에 따라 실시간으로 다이나믹하게 변경되어 보다 몰입감 있는 가상현실을 구현하는데는 한계가 있다.However, this technology has limitations in realizing a more immersive virtual reality as it changes dynamically in real time according to the user's location change.
이러한 한계를 극복하기 위해, 본 발명은 상기 와핑알고리즘을 기반으로 하되, 실시간 변형되는 와핑 알고리즘을 적용하였다. 영상정합(Image warping)은 영상스크린의 물리적 설계에 따른 빔프로젝터의 투사범위, 위치를 결정하는 빔 프로젝션 설계, 및 영상스크린의 물리적 형상에 영상콘텐츠의 이미지가 시야각적으로 일치하도록 보정하는 기술로서, 체험자(또는 이용자)의 위치 내지 시야각을 추적하여 체험자가 보다 자연스럽고 몰입감 있는 가상현실을 체험하도록 하였고, 영상정합 알고리즘은 삼차원 콘텐츠에 직접 탑재하여 처리하는 방식으로 콘텐츠 개발과정에서 영상지연전달과 시현 성능제한의 문제들을 모두 해결하였다.To overcome these limitations, the present invention is based on the above warping algorithm, but applies a warping algorithm that is modified in real time. Image warping is a beam projection design that determines the projection range and position of the beam projector according to the physical design of the video screen, and a technology that corrects the image of video content to match the viewing angle to the physical shape of the video screen. By tracking the location or viewing angle of the experiencer (or user), the experiencer can experience a more natural and immersive virtual reality, and the image matching algorithm is mounted directly on the three-dimensional content and processed to improve image delay delivery and presentation performance during the content development process. All limitations issues have been resolved.
이에 따라 본 발명은 상기한 문제점을 해결하기 위해 착안 된 것으로서, 스크린 투사 면에 투영되는 삼차원 콘텐츠 및 영상의 기하학적 각도를 사용자 위치기반으로 실시간으로 추적, 일치시켜 스크린 표면에 투영되는 삼차원 영상을 시야각적으로 실세계를 바라보는 것과 동일한 시각효과를 얻도록 하는 스크린 기반 무안경 VR을 위한 실시간 영상정합 시스템 및 그 영상정합 검증방을 제공하는 것에 그 목적이 있다.Accordingly, the present invention was conceived to solve the above-mentioned problems, and the geometric angle of the three-dimensional content and image projected on the screen projection surface is tracked and matched in real time based on the user's location to adjust the viewing angle of the three-dimensional image projected on the screen surface. The purpose is to provide a real-time image matching system for screen-based glasses-free VR that achieves the same visual effect as looking at the real world and a verification room for the image matching.
이러한 목적을 달성하기 위해 본 발명에 따른 스크린 기반 무안경 VR을 위한 실시간 영상정합 시스템은, 메모리, 마이크로 프로세스 수단을 구비하는 기기로서 영상맵핑부(102), 저장부(103), 위치추적부(104), 실시간 영상보정부(105), 영상출력부(106) 및 제어부(101)를 포함하는 영상 처리 장치(100)와, 상기 영상출력부(106)에서 출력된 영상을 투사하는 빔프로젝트와 같은 기기로서 영상시현장치(110), 상기 위치추적부(104)가 사용자의 실시간 위치정보를 제어부(101)에서 전달하기 위해 사용자의 위치를 실시간 추적하는 초분광 위치추적장치(120) 및 상기 영상출력부(106)에서 실시간영상보정부(105)의 영상보정정보를 영상콘텐츠에 반영하여 최종 출력하여 가상현실을 구현하는 영상스크린(130)을 포함하여 구성된 것을 특징으로 한다. To achieve this purpose, the real-time image matching system for screen-based glasses-free VR according to the present invention is a device equipped with a memory and microprocessor, and includes an image mapping unit 102, a storage unit 103, and a location tracking unit ( 104), an image processing device 100 including a real-time image correction unit 105, an image output unit 106, and a control unit 101, and a beam projector for projecting the image output from the image output unit 106. As the same device, an image display device 110, a hyperspectral location tracking device 120 in which the location tracking unit 104 tracks the user's location in real time in order to transmit real-time location information of the user to the control unit 101, and the image The output unit 106 reflects the image correction information of the real-time image correction unit 105 into the image content and finally outputs the video content, thereby including an image screen 130 that implements virtual reality.
그리고, 스크린 기반 무안경 VR을 위한 실시간 영상정합 검증방법은 사용자 시작 위치 정의, 시야각 분포 측정 및 표시를 통해 영상보정의 기준점을 설정하는 단계 (S10)와 상기 기준점 설정 후 컴퓨터(100)를 실행하고 콘텐츠 투사 후, 영상보정 기능을 통해 콘텐츠에 표시되는 시야각 분포 그리드를, 스크린에 표시된 해당 시야각 마커와 일치시키는 초기화 영상 보정단계(S20), 상기 초기화 보정이 완료 후, 초분광 위치추적장치 (120)를 작동하고 사용자가 초기위치에서 임의의 위치로 이동하는 위치를 추적하여 변경된 위치를 측정하는 단계(S30) 및 상기 이동 위치에 따른 위치변경 지점 시야각 분포를 측정하는 단계 (S40), 측정포인트와 콘텐츠 시야각 분포 오차확인단계(S50), 측정종료 및 결과확인단계(S60)를 포함하는 것을 특징으로 한다.In addition, the real-time image registration verification method for screen-based glasses-free VR includes the steps of setting a reference point for image correction through defining the user starting position, measuring and displaying the viewing angle distribution (S10), and running the computer 100 after setting the reference point. After projecting the content, an initialization image correction step (S20) of matching the viewing angle distribution grid displayed in the content with the corresponding viewing angle marker displayed on the screen through the image correction function. After the initialization correction is completed, the hyperspectral positioning device 120 A step of operating and measuring the changed position by tracking the position where the user moves from the initial position to a random position (S30) and measuring the viewing angle distribution of the position change point according to the moving position (S40), measurement point and content It is characterized by including a viewing angle distribution error confirmation step (S50), measurement completion and result confirmation step (S60).
본 발명은 실시간 영상정합 테스트모듈과 영상보정 소프트웨어 개발을 통해 사용자의 실시간 위치변경을 추적하여, 사용자에게 스크린환경 내에서 위치이동을 자유롭게 하더라도 항상 실세계와 유사한 시야각과 영상을 제공하는 시스템을 제공함으로써 체험자가 자신의 위치 변화에 관계없이 항상 영상이 왜곡되지 않고 본인의 시야각과 일치하는 영상을 경험할 수 있게 되므로, HMD를 사용하기 곤란하거나 원하지 않는 단독형 사격 시뮬레이터, 체험시뮬레이터 등의 분야에서 보다 극적인 시각적 효과를 제공할 수 있게 된다.The present invention tracks the real-time location change of the user through the development of a real-time image registration test module and image correction software, and provides a system that provides the user with a viewing angle and image similar to the real world even if the user is free to move the location within the screen environment. Because users can always experience images that match their viewing angle without being distorted regardless of changes in their position, this creates a more dramatic visual effect in fields such as stand-alone shooting simulators and experience simulators where it is difficult or unwanted to use an HMD. can be provided.
그리고, 본 발명은 실시예로 제시한 평면스크린 기반 외에 곡면 및 구형스크린 기반으로 확대하여, 고도화 및 유효성 시험을 통해 상업성을 확보하는 것이 가능하므로 다양한 민관군 시뮬레이션 영상시스템과 체험관, 전시관 등에 보다 몰입감 있는 콘텐츠시스템을 제공할 수 있다.In addition, the present invention can be expanded to curved and spherical screen-based in addition to the flat screen-based presented as an example, and to secure commercial feasibility through advancement and effectiveness testing, so that more immersive content can be created in various public-private-military simulation video systems, experience centers, exhibition halls, etc. system can be provided.
도 1은 본 발명에 의한 무안경 VR시스템의 구성도
도 2는 도 1의 영상 처리 장치의 블럭 구성도
도 3은 본 발명에 의한 무안경 VR시스템의 실시간 영상정합 실시예 구성도
도 4는 사용자 시각과 프로젝션 상관도
도 5는 사용자 시점 변화에 따른 영상 왜곡 현상의 예시
도 6은 본 발명에 의한 무안경 VR시스템의 콘텐츠 실시예
도 7은 본 발명에 의한 스크린 기반 무안경 VR을 위한 실시간 영상정합 방법 순서도
도 8은 본 발명에 의한 무안경 VR시스템의 콘텐츠 투사 및 초기 영상보정
도 9는 본 발명에 의한 무안경 VR시스템의 보정완료 영상
도 10은 초분광위치추적장치를 이용한 사용자 위치 추적
도 11은 소프트웨어 일시정지 후 측정단계
도 12는 보정 전의 사용자위치 영상
도 13은 보정 후의 사용자위치 영상Figure 1 is a configuration diagram of a glasses-free VR system according to the present invention.
Figure 2 is a block diagram of the image processing device of Figure 1
Figure 3 is a configuration diagram of an embodiment of real-time image registration of the glasses-free VR system according to the present invention.
Figure 4 shows the correlation between user vision and projection.
Figure 5 is an example of image distortion phenomenon according to change in user viewpoint.
Figure 6 shows an example of content of the glasses-free VR system according to the present invention.
Figure 7 is a flowchart of a real-time image matching method for screen-based glasses-free VR according to the present invention.
Figure 8 shows content projection and initial image correction of the glasses-free VR system according to the present invention.
Figure 9 is a correction completed image of the glasses-free VR system according to the present invention.
Figure 10 shows user location tracking using a hyperspectral location tracking device.
Figure 11 shows the measurement stage after the software is paused.
Figure 12 is a user location image before correction
Figure 13 is a user location image after correction
본 발명의 실현에는 영상스크린의 물리적 설계, 영상투사장치의 광학설계, 삼차원 콘텐츠의 시야각 설계, 실시간 영상정합 및 에지블렌딩(Edge-Blending) 처리, 체험자의 위치추적, 지연전달 처리 등 복합적인 요소들을 고려한 설계 및 시스템 처리가 요구된다. 또 발명은 논파라메틱(Non-parametic)구조 기반의 영상보정을 통해 달성되는데, 논파라메틱 영상보정은 전체 이미지에서 보정하고자 하는 지점을 중심으로 주위의 좌표와 연계하여 타 영역에 영향을 최소화하며 보정이 가능한 알고리즘이다. 본 발명은 영상 상의 각도 위치를 사용자의 위치변화에 따라 실시간으로 재배분하여 사용자가 임의의 위치에 가더라도 항상 동일한 시야각을 제공하도록 하는 것이다. The realization of the present invention involves complex factors such as the physical design of the video screen, the optical design of the video projection device, the viewing angle design of the three-dimensional content, real-time image matching and edge-blending processing, location tracking of the experiencer, and delayed delivery processing. Consideration of design and system processing is required. In addition, the invention is achieved through image correction based on a non-parametic structure. Non-parametric image correction minimizes the impact on other areas by linking the surrounding coordinates around the point to be corrected in the entire image. It is an algorithm that can be corrected. The present invention redistributes the angular position on the image in real time according to changes in the user's position to always provide the same viewing angle no matter where the user goes.
이를 도면을 통해 상세히 설명한다.This will be explained in detail through drawings.
도 1은 본 발명에 의한 무안경 VR시스템의 구성도이고, 도 2는 도 1의 영상 처리 장치의 블럭 구성도이다.Figure 1 is a block diagram of a glasses-free VR system according to the present invention, and Figure 2 is a block diagram of the image processing device of Figure 1.
본 발명은 영상처리장치(100),영상시현장치(110), 초분광 위치추적장치(120) 및 영상스크린(130)를 포함한다.The present invention includes an image processing device 100, an image display device 110, a hyperspectral location tracking device 120, and an image screen 130.
상기 영상처리장치(100)는 메모리, 마이크로 프로세스 수단을 구비하는 기기라면 본 발명의 영상처리장치로 이용되는데 아무런 제한이 없다. There is no limitation in using the image processing device 100 as an image processing device of the present invention as long as it is a device equipped with a memory and a microprocessor.
영상시현장치(110)는 영상을 투사하는 빔프로젝트와 같은 기기로서 복수개 (111,112,113...n) 가 구비될 수 있다. The image display device 110 is a beam projector-like device that projects images and may be provided in plural numbers (111, 112, 113...n).
초분광 위치추적장치(120)는 사용자의 위치를 추적하는 장치이다. 스테레오 카메라, IMU, 초음파센서 등을 사용하는 통상의 장치들을 사용할 경우 감지반응속도가 느리거나, 위치추적의 오차가 누적되는 현상 등이 발생하여 제한이 있으므로, 라이다(Lidar) 센서를 사용하는 것이 바람직하다. 라이다(Lidar)는 사용자의 실시간 위치추적의 정밀도와 신속한 응답속도를 확보할 수 있다. The hyperspectral location tracking device 120 is a device that tracks the user's location. When using conventional devices that use stereo cameras, IMUs, ultrasonic sensors, etc., there are limitations due to slow detection response speed or accumulation of position tracking errors, so it is recommended to use Lidar sensors. desirable. Lidar can secure the precision and rapid response speed of the user's real-time location tracking.
영상스크린(130)의 종류로서 평면, 곡면형, 구형 등 다양한 형태가 존재한다. 통상적인 가상현실구현을 위해서는 구형스크린이 가장 적합하고, 몰입감에서도 구형 스크린이 가장 우수하다.There are various types of video screens 130, such as flat, curved, and spherical. For typical virtual reality implementation, spherical screens are most suitable, and spherical screens are also the best for immersion.
도 2를 통해 본 발명에 의한 무안경 VR시스템에서 영상 처리 장치(100)를 설명한다. 2, the image processing device 100 in the glasses-free VR system according to the present invention will be described.
영상 처리 장치(100)는 영상맵핑부(102), 저장부(103), 위치추적부(104), 실시간 영상보정부(105), 영상출력부(106) 및 제어부(101)를 포함한다.The image processing device 100 includes an image mapping unit 102, a storage unit 103, a location tracking unit 104, a real-time image correction unit 105, an image output unit 106, and a control unit 101.
상기 영상맵핑부(102)는 영상보정 모듈로 워핑(Warping)기능을 통해 영상을 스크린의 물리적인 형상에 맞추어 최초의 보정을 실행하는 실행하는 역할을 한다. 이 보정 정보가 초기화의 기준점 설정 정보가 된다.The image mapping unit 102 is an image correction module that performs initial correction to match the image to the physical shape of the screen through a warping function. This correction information becomes the reference point setting information for initialization.
상기 저장부(103)는 영상맵핑부(102)를 통해 획득된 보정 정보 저장, 사용자 기준위치 변경, 스크린의 물리적 변경 등의 필요에 의해 변경된 정보를 갱신하는 역할을 수행한다. The storage unit 103 functions to store correction information acquired through the image mapping unit 102 and update information changed as needed, such as changing the user's reference position or physically changing the screen.
상기 위치추적부(104)는 라이다센서(120)에서 획득된 사용자의 실시간 위치정보를 제어부(101)에서 가공, 전달하는 역할로 위치정보전달, 민감도 조정 및 위치보정을 수행한다.The location tracking unit 104 processes and transmits the user's real-time location information obtained from the lidar sensor 120 to the control unit 101 and performs location information delivery, sensitivity adjustment, and location correction.
상기 실시간 영상보정부(105)는 위치추적부(104)에서 획득되어 가공된 위치정보에 따라 변경된 사용자의 위치에 따라, 저장부(103)에 저장된 워핑(Warping)정보를 사용자의 실시간 위치에 적합한 워핑 정보로 보정하는 역할을 수행한다. 이는 임시적인 데이터로 사용중지 시, 저장부(103)에 저장되어 있는 초기의 위치 워핑(Warping)데이터인 S30으로 회기한다.The real-time image correction unit 105 adjusts the warping information stored in the storage unit 103 according to the user's location changed according to the location information obtained and processed from the location tracking unit 104 to match the real-time location of the user. It performs the role of correction with warping information. This is temporary data, and when stopped being used, it returns to S30, which is the initial position warping data stored in the storage unit 103.
상기 영상출력부(106)는 실시간영상보정부(105)의 영상보정정보를 영상콘텐츠에 반영하여 최종 출력(렌더링)을 수행하는 영역이다.The image output unit 106 is an area that performs final output (rendering) by reflecting the image correction information of the real-time image correction unit 105 to the image content.
상기 제어부(101)는 영상맵핑부(102)의 작동인터페이스, 저장부(103)의 데이터관리, 위치추적부(104) 데이터 수신관리, 실시간영상보정부(105) 실시간 정합처리, 영상출력부(106)의 콘텐츠 영상출력을 통합관리하는 역할을 수행한다.The control unit 101 operates the operation interface of the image mapping unit 102, data management of the storage unit 103, data reception management of the location tracking unit 104, real-time matching processing of the real-time image correction unit 105, and image output unit ( 106) It performs the role of integrated management of content video output.
도 3을 통해 본 발명에 의한 무안경 VR시스템의 실시간 영상정합 알고리즘을 설명한다.Through Figure 3, the real-time image matching algorithm of the glasses-free VR system according to the present invention is explained.
본 발명의 전체 시스템을 유기적으로 살펴보면, 영상처리장치(100)은 메모리, 마이크로 프로세스 수단을 구비하는 컴퓨터로서, 라이다센서(120)를 통해 추적된 사용자의 위치정보를 가공하고 해당 위치에 적합한 영상보정을 실시간으로 처리한다. 상기 컴퓨터(100)에 탑재된 영상콘텐츠에 반영하여 영상시현장치인 빔프로젝터(110)를 통해 그 영상이 스크린(130)에 투영되어, 이를 통해 사용자는 실시간 위치 변화에 관계없이 항상 일정하게 보정된 영상을 체험하여 몰입감을 가지게 된다.Looking at the entire system of the present invention organically, the image processing device 100 is a computer equipped with a memory and a microprocessor, and processes the user's location information tracked through the LiDAR sensor 120 and produces an image suitable for the location. Correction is processed in real time. The image is reflected on the image content mounted on the computer 100 and projected on the screen 130 through the beam projector 110, which is an image display device, through which the user always receives a constantly corrected image regardless of real-time location changes. You will experience a sense of immersion.
컴퓨터 하드웨어 성능의 향상으로 소프트웨어적으로 콘텐츠 컴퓨터의 그래픽카드에서 직접 영상출력신호를 후킹(Hooking)하여 영상정합을 처리하는 기술이 발달하여, 영상지연전달에 관한 부담은 사라졌으나 이미지프로세싱이 직접적으로 콘텐츠 컴퓨터의 성능자원을 소모하므로 영상시현성능(Frame rate)을 저하시키는 문제점은 여전히 존재한다. 본 발명은 Dynamic Image Warping 알고리즘을 삼차원 콘텐츠에 직접 탑재하여 처리하는 방식으로 콘텐츠 개발과정에서 영상시현성능을 관리하면서 Dynamic Image Warping을 적용하므로 영상지연전달과 시현성능제한 문제가 모두 해결된다.With the improvement of computer hardware performance, software technology has been developed to process image registration by hooking video output signals directly from the graphics card of the content computer, so the burden of video delay delivery has disappeared, but image processing is directly connected to the content. There is still a problem of deteriorating image display performance (frame rate) because it consumes computer performance resources. The present invention applies Dynamic Image Warping while managing image presentation performance during the content development process by directly loading and processing the Dynamic Image Warping algorithm on three-dimensional content, thereby solving both the problems of image delay delivery and limitations in presentation performance.
즉, 사용자의 실시간 위치변화에 따라 와핑이 자동으로 재조정되어 사용자의 시각에 적합한 시야각 분포가 되었음을 확인할 수 있다. 이를 통하여 사용자는 어느 위치에서든 항상 본인에게 적합한 시야각 분포를 갖게 되어 마치 HMD장치를 착용한 것과 유사한 효과를 가지게 되는 것이다. 이때, 영상이 투영되는 스크린의 형상과 각도에 영향을 받으므로 스크린형상에 따른 수식이 상기 표 1과 같이 적용된다. 상기 표 1의 알고리즘은 통상적인 가상현실구현을 위해서는 구형스크린이 가장 적합하므로 그에 관한 알고리즘을 제시한 것이다.In other words, it can be confirmed that the warping is automatically readjusted according to the user's real-time location change, resulting in a viewing angle distribution suitable for the user's perspective. Through this, the user always has a viewing angle distribution suitable for him/her at any location, resulting in an effect similar to wearing an HMD device. At this time, since the image is affected by the shape and angle of the screen on which it is projected, a formula according to the screen shape is applied as shown in Table 1 above. The algorithm in Table 1 above is presented because a spherical screen is most suitable for implementing typical virtual reality.
도 4를 통해 사용자 시각과 삼차원 콘텐츠 시각처리에 대해 설명한다.Through Figure 4, user vision and three-dimensional content visual processing will be explained.
스크린 프로젝션 상황에서, 사용자의 시점(Eyepoint)위치로부터 결정된 시야각(Field of view)과 스크린과의 거리에 따라 스크린의 크기 즉 영상투영 범위와 각도가 결정된다. In a screen projection situation, the size of the screen, that is, the image projection range and angle, is determined according to the field of view determined from the user's eyepoint location and the distance from the screen.
이러한 이유로 시야각이 고정될 경우, 시점과 스크린의 거리가 멀어질수록 스크린은 커져야 하고 거리가 가까워지면 스크린은 작아져야 하며, 그에 따라 투영되는 콘텐츠의 투영범위와 가상시현 각도가 변화 한다.For this reason, when the viewing angle is fixed, as the distance between the viewpoint and the screen increases, the screen must become larger, and as the distance approaches, the screen must become smaller, and the projection range and virtual presentation angle of the projected content change accordingly.
도 5 (a)(b)는 실제 시점 위치와 스크린간의 거리에 변화에 따라 투영 각도가 변화하지 않을 때 영상왜곡 현상이 어떻게 발생하는지 보여준다.Figure 5 (a) (b) shows how image distortion occurs when the projection angle does not change according to the change in the distance between the actual viewpoint position and the screen.
도면과 같이 스크린에 투사된 영상이 사용자의 시선 각도에 맞추어 고르게 배치, 투사되어도 사용자의 위치가 변경됨에 따라 스크린의 물리적인 시야각이 확장됨에 따라 투사된 영상이 확장되고 확장된 시야각과 비례하여 영상이 중앙으로 집중, 굴절되는 왜곡 현상이 발생하며, 이는 실세계에서 바라보는 각도와 상이하게 된다. As shown in the drawing, even if the image projected on the screen is evenly arranged and projected according to the user's viewing angle, as the user's position changes and the physical viewing angle of the screen expands, the projected image expands and the image changes in proportion to the expanded viewing angle. Distortion occurs where the image is concentrated and refracted in the center, which is different from the angle viewed in the real world.
도 6(a)는 본 발명에 의한 콘텐츠 실시예이고, 도 6(b) 최종 산출된 콘텐츠를 보여준다.Figure 6(a) shows an example of content according to the present invention, and Figure 6(b) shows the final calculated content.
도 6(a)는 본 발명을 검증하기 위한 실시간 3차원 콘텐츠의 개발화면으로 사용자의 시점과 대응되는 가상카메라와 이를 중심으로 하는 가상구체가 제공되며, 가상구체에는 가상카메라 시점에서 각도를 확인할 수 있는 5도 간격의 격자와 각도숫자를 텍스트로 시현한다. 도 6(b)는 콘텐츠의 실행화면으로 가상카메라 시점(사용자 시점과 동일)에서 확인되는 시점별 각도분포를 시현하고 있다. Figure 6(a) is a real-time 3D content development screen for verifying the present invention. A virtual camera corresponding to the user's viewpoint and a virtual sphere centered around it are provided, and the angle of the virtual sphere can be confirmed from the virtual camera's viewpoint. The grid and angle numbers at 5-degree intervals are displayed as text. Figure 6(b) is a content execution screen, showing the angle distribution for each viewpoint as seen from the virtual camera viewpoint (same as the user's viewpoint).
본 발명의 일실시례로서 실시간 영상정합 모듈 시스템은 정확도 점검과 신속한 수정 보완을 위하여 단일영상출력 하에서 평면스크린 기준으로 진행하였다.As an example of the present invention, the real-time image registration module system was performed on a flat screen basis under single image output to check accuracy and make quick corrections.
시야각 각도 변화량 측정의 정밀도 확보를 위해 평면 스크린을 적용 시, 5000 Lumen의 고휘도, 1920 x 1200 pixel(WUXGA)의 고해상도 레이져광원 빔프로젝터를 적용하고, 근거리 투사와 함께 사용자의 위치변화를 크게 확보하기 위하여 투사비율 0.81 : 1의 렌즈비율을 적용하였다. 사용자의 실시간 위치추적의 정밀도와 신속한 응답속도를 확보하기 위해 라이다센서를 사용하여, 최대9000Hz로 위치추적을 할 수 있으나, 너무 과도한 데이터 검출 시, 콘텐츠 소프트 웨어가 성능상 수용불가하므로 90Hz로 조정하였다. 영상보정솔루션은 논파라메틱(Non-parametic)구조 기반으로, 전체 이미지에서 보정하고자 하는 지점을 중심으로 주위의 좌표와 연계하여 타영역에 영향을 최소화하며 보정이 가능한 알고리즘이 사용된다.When applying a flat screen to ensure precision in measuring the viewing angle angle change, a high-resolution laser light source beam projector with high brightness of 5000 lumens and 1920 A lens ratio of 0.81:1 projection ratio was applied. In order to secure the precision and quick response speed of the user's real-time location tracking, the LiDAR sensor can be used to track the location at a maximum of 9000Hz. However, when too much data is detected, the content software cannot accept the performance, so it was adjusted to 90Hz. . The image correction solution is based on a non-parametic structure, and an algorithm is used that allows correction while minimizing the impact on other areas by linking the surrounding coordinates to the point to be corrected in the entire image.
시험을 진행하기 위한 컴퓨터 탑재형 콘텐츠로 삼차원 공간을 표현하는 임의의 영상 콘텐츠이며, 사용자의 시점(Eye point)변경에 따라 시야각 분포를 확인할 수 있는 시야각 분포 격자 출력 기능을 포함했다. It is a computer-mounted content for conducting tests. It is arbitrary image content that expresses a three-dimensional space, and includes a viewing angle distribution grid output function that can check the viewing angle distribution according to the user's eye point change.
시험용 콘텐츠는 게임엔진(Unity3D)기반으로 제작되었으며, 실시간 동적영상으로 구성되었다. 또한 초분광위치추적장치(Lidar)로부터 전달된 위치정보를 기반으로 사용자의 위치변화(X, Y 평면좌표)에 따라 변화되는 시야각 분포에 적합하게 영상보정 조정점(Warping Control point)들이 실시간으로 배치되는 기능을 탑재하였다.The test content was produced based on a game engine (Unity3D) and consisted of real-time dynamic video. In addition, based on the location information transmitted from the hyperspectral location tracking device (Lidar), image correction control points (Warping Control points) are arranged in real time to suit the viewing angle distribution that changes according to the user's location change (X, Y plane coordinates). It is equipped with the following functions.
도 7은 본 발명에 의한 스크린 기반 무안경 VR을 위한 실시간 영상정합 검증방법을 설명한다.Figure 7 explains the real-time image registration verification method for screen-based glasses-free VR according to the present invention.
본 발명은 영상보정의 기준점 설정 단계 (S10), 초기 영상보정단계(S20), 위치추적 및 위치변경 측정단계(S30), 위치변경지점 시야각 분포 측정단계(S40), 분포 간 오차확인단계(S50), 측정종료 및 결과확인단계 (S60)를 포함한다.The present invention includes a reference point setting step for image correction (S10), an initial image correction step (S20), a position tracking and position change measurement step (S30), a viewing angle distribution measurement step at the location change point (S40), and an error checking step between distributions (S50). ), measurement completion and result confirmation step (S60).
영상보정의 기준점은 사용자의 시작 시점(Eye point)를 설정하기 위해 스크린의 중앙점을 확인하고 사용자의 위치를 정의하는 단계이다. 사용자의 시작 위치에 측각기를 사용자 눈높이에 맞추어 설치하고 5도 간격으로 시야각을 측정하고 마커를 표시하여 해당 각도를 시각적으로 확인할 수 있도록 한다. The reference point of image correction is the step of confirming the center point of the screen and defining the user's location in order to set the user's starting point (eye point). A goniometer is installed at the user's starting position at the user's eye level, measures the viewing angle at 5-degree intervals, and displays a marker to visually confirm the angle.
도 8은 본 발명에 의한 무안경 VR시스템의 콘텐츠 투사 및 초기 영상보정을 하는 작업을 보여준다. 이를 통해 사용자 시작 위치 정의, 시야각 분포 측정 및 표시를 통해 이 마커들이 초기 영상보정과 각도 변화의 기준점이 설정된다.(S10)Figure 8 shows the content projection and initial image correction work of the glasses-free VR system according to the present invention. Through this, these markers are set as reference points for initial image correction and angle change by defining the user starting position, measuring and displaying the viewing angle distribution (S10).
상기 기준점 설정 후 컴퓨터(100)를 실행하고 콘텐츠 투사 후, 영상보정 기능을 통해 콘텐츠에 표시되는 시야각 분포 그리드를, 스크린에 표시된 해당 시야각 마커와 일치시키는 초기화 영상 보정단계를 수행한다.(S20) After setting the reference point, the computer 100 is run, the content is projected, and an initial image correction step is performed to match the viewing angle distribution grid displayed in the content with the corresponding viewing angle marker displayed on the screen through the image correction function (S20).
도 9는 본 발명에 의한 무안경 VR시스템의 초기화 보정완료 영상을 보여준다. 이 단계에서 영상보정은 최초 초기화 보정으로서, 이후에는 적용하지 않아도 되며, 보정작업이 정상적으로 수행되면 투사된 영상의 시야각 격자가 초기 설정 위치에서 바라볼 때 고르게 분포되고 정사각형 형태에 가깝게 보인다.Figure 9 shows an image of the initialization and correction completion of the glasses-free VR system according to the present invention. At this stage, the image correction is the initial initialization correction and does not need to be applied thereafter. If the correction operation is performed normally, the viewing angle grid of the projected image is evenly distributed and appears close to a square shape when viewed from the initial setting position.
상기 초기화 보정이 완료되면, 초분광 위치추적장치를 작동하고 사용자가 초기위치에서 임의의 위치로 이동하는 위치를 추적하여 변경된 위치를 측정하는 단계를 수행한다(S30). When the initialization correction is completed, the hyperspectral location tracking device is operated and the user moves from the initial location to a random location to track the location to measure the changed location (S30).
도 10은 초분광위치추적장치를 이용한 사용자 위치 추적 과정을 수행하는 과정을 보여준다. 사용자 위치 변화량 측정이 용이하도록, 가능한 한 스크린 범위 내에서 초기위치와 멀리 이동한다. Figure 10 shows the process of performing a user location tracking process using a hyperspectral location tracking device. To facilitate measuring the change in user position, move as far away from the initial position as possible within the screen range.
이동 후 측각기를 설치하고 해당 위치에서 다시 시야각 분포를 측정해야 하므로 이동된 변경 위치를 표시한다. 이때 위치추적기능 중단 및 콘텐츠를 일시적으로 멈춘 상태에서 이동위치를 표시하는데, 도 11은 소프트웨어를 일시 중지하고 측정하는 상태를 보여준다. After moving, a goniometer must be installed and the viewing angle distribution must be measured again at that location, so the moved location is indicated. At this time, the location tracking function is stopped and the content is temporarily stopped, and the moving position is displayed. Figure 11 shows the state in which the software is paused and measured.
상기 이동 위치에 따른 위치변경 지점 시야각 분포를 측정하는 단계 (S40)는, 사용자의 위치이동 후, 영상처리 장치(100)에 의해 자동으로 변경되는 영상정합 정보(Warping)가 사용자의 변경 위치에서 측정되는 실제 시야각도 정보와 일치하는지를 검증하는 단계이다.In the step (S40) of measuring the viewing angle distribution of the position change point according to the moving position, image registration information (Warping), which is automatically changed by the image processing device 100 after the user moves, is measured at the user's changed position. This is the step to verify whether it matches the actual viewing angle information.
사용자의 이동 및 변경위치를 라이다 센서(120)로 추적하여 그 위치데이터가 검증콘텐츠로 전달되면 자동으로 영상보정이 적용되고, 이때 콘텐츠를 일시정지하여 보정상태를 유지시키고 사용자 변경위치에 측각기를 설치하여 콘텐츠에서 시현하는 시야각 격자 정보의 실제 각도를 측정한다. 이 측정을 통해 콘텐츠 시야각 격자의 표시 각도가 실제 측정각도와 유사할수록 사용자에게 실제와 유사한 상황의 영상을 제공하게 된다. When the user's movement and change location is tracked with the LiDAR sensor 120 and the location data is transmitted to the verification content, image correction is automatically applied. At this time, the content is paused to maintain the correction state and a goniometer is placed at the user's changed location. Install it to measure the actual angle of the viewing angle grid information displayed in the content. Through this measurement, the closer the display angle of the content viewing angle grid is to the actual measurement angle, the more images of situations similar to the actual situation are provided to the user.
본 단계는 실시간 영상보정 알고리즘이 정상적으로 작동하여, 사용자의 변경위치에 적합하게 영상보정이 적용되어 콘텐츠에 표시된 각도와 실제 측정 각도가 유사한지 확인하기 위해 필요한 절차이다.This step is a necessary procedure to ensure that the real-time image correction algorithm operates normally, that image correction is applied appropriately to the user's changed position, and that the angle displayed in the content is similar to the actual measured angle.
측정포인트와 콘텐츠 시야각 분포 오차확인단계(S50)는 신뢰성을 높이기 위한 단계이다. The measurement point and content viewing angle distribution error confirmation step (S50) is a step to increase reliability.
이론적으로는 변경위치에서 측정한 실제 시야각 분포가 콘텐츠상 시현되는 격자 각도와 일치하여야 하지만 현실적으로 스크린의 물리적 균일함, 측각기 설치간 발생하는 위치변화 및 눈높이 변화 등 다양한 변수요소로 인하여 오차가 발생할 수 있다.In theory, the actual viewing angle distribution measured at the changed position should match the grid angle displayed in the content, but in reality, errors may occur due to various variables such as the physical uniformity of the screen, position changes that occur during installation of the goniometer, and eye level changes. .
다만, 일반적으로 사용되는 기존의 고정시점 기준 영상보정에서도 미미한 오차는 무시하고 운용되므로 상기 명시한 변수로 인한 소폭의 오차는 운용상 이상이 없는 것으로 판단한다.However, since minor errors are ignored and operated in the existing commonly used fixed-point image correction, the minor errors due to the variables specified above are judged to be no abnormalities in operation.
S30으로 돌아가는 루틴을 설정하여 측정 수치에 대한 신뢰성을 더욱 확보할 수 있다. 즉 오차를 수차례 측정하여 평균적인 데이터를 얻어 더욱 신뢰성을 높일 수 있다. 실제 콘텐츠에 적용하여 사용할 시에는 측정단계를 수행하지 않을 수 있으며, 허용오차의 경우, 1도 이내로 보는 것이 적합하다. 변경 위치에서 측각기의 설치가 수동으로 이루어지므로 설치 간 발생하는 미미한 위치 오차는 무시하도록 한다. 이는 사용자의 목 움직임, 자세 변화 등에 따라 미세한 각도 변화를 가져올 수 있기 때문이다. 또한 이로 인한 각도 오차는 1도 범위 내외로 정밀측정을 하지 않고 시각적 판단만으로는 구분이 어렵다.By setting up a routine that returns to S30, you can further secure the reliability of the measurement values. In other words, reliability can be further increased by measuring the error several times and obtaining average data. When applying to actual content, the measurement step may not be performed, and in the case of tolerance, it is appropriate to view it as within 1 degree. Since the installation of the goniometer at the changed location is done manually, minor positional errors that occur during installation should be ignored. This is because subtle angle changes can occur depending on the user's neck movements, changes in posture, etc. In addition, the angle error caused by this is within a range of 1 degree, so it is difficult to distinguish through visual judgment alone without precise measurement.
상기 [표 2]는 콘텐츠 상 표시되는 격자의 표시각도(측정 시야각)를 측각기로 측정하였을 때 측각기에 표시되는 실제각도와의 오차 값을 적시한 것이다. 예컨대, 콘텐츠에 표시되는 격자의 X: 15°, Y: 0° 지점을 측각기로 측정하였을 때 측각기 수치표시창에 X: 15°6’10”, Y: 0°4’34”가 표시된다.[Table 2] above shows the error value compared to the actual angle displayed on the goniometer when the display angle (measurement viewing angle) of the grid displayed on the content is measured with a goniometer. For example, when the X: 15°, Y: 0° points of the grid displayed in the content are measured with a goniometer,
측정종료 및 결과확인단계(S60)Measurement completion and result confirmation stage (S60)
[표 2]의 측정 결과와 오차분석을 통해 기대했던 효과와 같이 사용자 위치변경에 따른 시야각 변경을 확인하였다. 다만 앞에서도 언급한 바와 같이 측각기 설치 간 발생하는 위치오차와 스크린 표면의 미세한 물리적 굴곡으로 인한 0.1도 내외의 오차는 발생하였다.Through the measurement results and error analysis in [Table 2], the change in viewing angle according to the user's location was confirmed, in line with the expected effect. However, as mentioned earlier, an error of approximately 0.1 degrees occurred due to the positioning error that occurred between the installation of the goniometer and the slight physical curvature of the screen surface.
도 12는 보정전의 사용자위치 영상으로서, 사용자는 동일하게 대각방향으로 스크린을 바라보고 있으나 보정 전의 영상은 스크린의 방향과 소실점으로 시야각이 늘어지는 것을 관찰할 수 있으며, 콘텐츠에서 보이는 이미지 또한 소실 방향으로 늘어지는 것이 확인된다. Figure 12 is an image of the user's position before correction, and the user is looking at the screen in the same diagonal direction. However, in the image before correction, it can be observed that the viewing angle is stretched according to the direction of the screen and the vanishing point, and the image visible in the content is also oriented in the direction of disappearance. It is confirmed that it is sagging.
도 13은 보정 후의 사용자 위치 영상으로서, 보정 후 영상은 소실점과 관계없이 시야각이 사용자의 시각에 맞추어 고르게 분포됨을 확인할 수 있으며, 실세계에서 사물을 바라보는 것과 동일한 효과가 나타남과 동시에 콘텐츠 이미지가 왜곡되지 않음을 확인할 수 있다.Figure 13 is an image of the user's location after correction. It can be seen that the viewing angle of the image after correction is evenly distributed according to the user's perspective regardless of the vanishing point, and the same effect as looking at an object in the real world is displayed and the content image is not distorted. You can confirm that it is not.
100 : 영상 처리 장치 101 : 제어부
102 : 영상맵핑부 103 : 저장부
104 : 위치추적부 105 : 영상보정부
106 : 영상출력부 110 : 영상시현장치
120 : 초분광 위치추적장치 130 : 영상스크린 100: image processing device 101: control unit
102: Image mapping unit 103: Storage unit
104: Location tracking unit 105: Image correction unit
106: video output unit 110: video display device
120: Hyperspectral location tracking device 130: Video screen
Claims (8)
상기 영상맵핑부(102)는 영상보정의 기준점으로 사용자의 시작 시점(Eye point)를 설정하기 위해 스크린의 중앙점을 확인하여 사용자의 위치를 정의하고, 영상보정 모듈로 워핑 기능을 통해 영상을 스크린의 물리적인 형상에 맞추어 최초의 보정을 실행하여 이 보정 정보가 초기화의 기준점 설정 정보가 되도록 하며,
상기 실시간 영상보정부(105)는 위치추적부(104)에서 획득되어 가공된 위치정보에 따라 변경된 사용자의 위치에 따라, 저장부(103)에 저장된 워핑(Warping)정보를 사용자의 실시간 위치에 적합한 워핑 정보로 보정하는 역할을 수행하며, 사용자의 실시간 위치변화에 따라 와핑이 자동으로 재조정되어 변경된 사용자의 위치로부터 결정된 시야각(Field of view)과 스크린과의 거리에 따라 스크린의 크기 또는 영상투영범위와 각도가 아래 식과 같이 결정되어,
상기 초분광 위치추적장치 (120)로부터 전달된 위치정보를 기반으로 사용자의 위치변화(X, Y 평면좌표)에 따라 변화되는 시야각 분포에 적합하게 영상보정 조정점(Warping Control point)들이 실시간으로 배치되는 기능이 포함된 것을 특징으로 하는 스크린 기반 무안경 VR을 위한 실시간 영상정합 시스템It is a device equipped with memory and microprocessor and includes an image mapping unit 102, a storage unit 103, a location tracking unit 104, a real-time image correction unit 105, an image output unit 106, and a control unit 101. An image processing device 100 including; An image display device 110 as a device such as a beam projector that projects the image output from the image output unit 106; The location tracking unit 104 transmits the user's real-time location information from the control unit 101 to the user. A hyperspectral location tracking device 120 that tracks the location in real time; And an image screen 130 for implementing virtual reality by reflecting the image correction information of the real-time image correction unit 105 in the image output unit 106 to the image content and finally outputting it. In the image registration system including,
The image mapping unit 102 defines the user's location by checking the center point of the screen to set the user's starting point (eye point) as a reference point for image correction, and uses the warping function as an image correction module to display the image on the screen. The first correction is performed according to the physical shape of and this correction information becomes the reference point setting information for initialization.
The real-time image correction unit 105 adjusts the warping information stored in the storage unit 103 according to the user's location changed according to the location information obtained and processed from the location tracking unit 104 to match the real-time location of the user. It performs the role of correction with warping information, and the warping is automatically readjusted according to the user's real-time location change, adjusting the screen size or image projection range according to the field of view determined from the changed user's location and the distance to the screen. The angle is determined as in the equation below,
Based on the location information transmitted from the hyperspectral location tracking device 120, image correction control points are arranged in real time to suit the viewing angle distribution that changes according to the user's location change (X, Y plane coordinates). A real-time image matching system for screen-based glasses-free VR, characterized by including the function
상기 위치추적부(104)는 라이다센서(120)에서 획득된 사용자의 실시간 위치정보를 제어부(101)에서 가공, 전달하는 역할로 위치정보전달, 민감도 조정 및 위치보정을 수행하는 것을 특징으로 하는 스크린 기반 무안경 VR을 위한 실시간 영상정합 시스템 According to clause 1,
The location tracking unit 104 processes and transmits the user's real-time location information obtained from the lidar sensor 120 by the control unit 101, and is characterized in that it transmits location information, adjusts sensitivity, and performs location correction. Real-time image matching system for screen-based glasses-free VR
시야각 각도 변화량 측정의 정밀도 확보를 위해 평면 스크린을 적용 시, 5000 Lumen의 고휘도, 1920 x 1200 pixel(WUXGA)의 고해상도 레이져광원 빔프로젝터를 적용하고, 근거리 투사와 함께 사용자의 위치변화를 크게 확보하기 위하여 투사비율 0.81 : 1의 렌즈비율을 적용하는 것을 특징으로 하는 스크린 기반 무안경 VR을 위한 실시간 영상정합 시스템According to clause 1,
When applying a flat screen to ensure precision in measuring the viewing angle angle change, a high-resolution laser light source beam projector with high brightness of 5000 lumens and 1920 A real-time image registration system for screen-based glasses-free VR, characterized by applying a lens ratio of 0.81:1 projection ratio.
사용자의 실시간 위치추적의 정밀도와 신속한 응답속도를 확보하기 위해 라이다센서를 사용하여, 최대9000Hz로 위치추적을 하되, 90Hz로 조정하는 것을 특징으로 하는 스크린 기반 무안경 VR을 위한 실시간 영상정합 시스템According to clause 1,
A real-time image registration system for screen-based glasses-free VR that uses a lidar sensor to track the user's real-time location and ensures fast response speed by tracking the location at up to 9000Hz and adjusting it to 90Hz.
상기 기준점 설정 후 컴퓨터(100)를 실행하고 콘텐츠 투사 후, 영상보정 기능을 통해 콘텐츠에 표시되는 시야각 분포 그리드를, 스크린에 표시된 해당 시야각 마커와 일치시키는 초기화 영상 보정단계(S20);
상기 초기화 보정이 완료 후, 초분광 위치추적장치(120)를 작동하고 사용자가 초기위치에서 임의의 위치로 이동하는 위치를 추적하여 변경된 위치를 측정하는 단계(S30);
상기 변경된 위치 데이터가 검증콘텐츠로 전달되면 자동으로 영상보정이 적용되고, 이때 콘텐츠를 일시 정지하여 보정상태를 유지시키고 사용자 변경위치에 측각기를 설치하여 콘텐츠에서 시현하는 시야각 격자 정보의 실제 각도를 측정하여, 이동 위치에 따른 위치변경 지점 시야각 분포를 측정하는 단계(S40);
상기 변경된 위치에서 시야각 허용오차를 1도 이내로 하여 S30으로 돌아가는 루틴을 설정하고, 측정포인트와 콘텐츠 시야각 분포 오차확인단계(S50);
측정종료 및 결과확인단계(S60);를 포함하는 것을 특징으로 하는 스크린 기반 무안경 VR을 위한 실시간 영상정합 검증방법Setting a reference point for image correction by measuring and displaying the viewing angle distribution at 5-degree intervals from the user's starting position (S10);
After setting the reference point, running the computer 100 and projecting the content, an initialization image correction step (S20) of matching the viewing angle distribution grid displayed on the content with the corresponding viewing angle marker displayed on the screen through an image correction function;
After the initialization correction is completed, operating the hyperspectral location tracking device 120 and measuring the changed location by tracking the location where the user moves from the initial location to a random location (S30);
When the changed location data is transmitted to the verification content, image correction is automatically applied. At this time, the content is paused to maintain the correction state, and a goniometer is installed at the user's changed location to measure the actual angle of the viewing angle grid information displayed in the content. , measuring the viewing angle distribution of the position change point according to the moving position (S40);
Setting up a routine to return to S30 with the viewing angle tolerance within 1 degree at the changed position, and checking the measurement point and content viewing angle distribution error step (S50);
Real-time image registration verification method for screen-based glasses-free VR, comprising a measurement completion and result confirmation step (S60).
S30으로 돌아가는 루틴을 설정하여 측정 수치에 대한 신뢰성이 더욱 확보되도록 하는 단계를 수행하는 것을 특징으로 하는 스크린 기반 무안경 VR을 위한 실시간 영상정합 검증방법According to clause 7,
Real-time image registration verification method for screen-based glasses-free VR, characterized by performing steps to further ensure reliability of measured values by setting a routine returning to S30
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220176095A KR102616646B1 (en) | 2022-12-15 | 2022-12-15 | Realtime dynamic image warping system for screen based glasses-free VR and its verification method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220176095A KR102616646B1 (en) | 2022-12-15 | 2022-12-15 | Realtime dynamic image warping system for screen based glasses-free VR and its verification method |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102616646B1 true KR102616646B1 (en) | 2023-12-21 |
Family
ID=89320651
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220176095A KR102616646B1 (en) | 2022-12-15 | 2022-12-15 | Realtime dynamic image warping system for screen based glasses-free VR and its verification method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102616646B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118033662A (en) * | 2024-01-09 | 2024-05-14 | 大庆安瑞达科技开发有限公司 | Method for projecting 360-degree radar image based on three-dimensional geographic information |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170013704A (en) * | 2015-07-28 | 2017-02-07 | 주식회사 카이 | Method and system for generation user's vies specific VR space in a Projection Environment |
KR20200059530A (en) * | 2018-11-21 | 2020-05-29 | 스크린엑스 주식회사 | Method and system for generating multifaceted images using virtual camara |
-
2022
- 2022-12-15 KR KR1020220176095A patent/KR102616646B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170013704A (en) * | 2015-07-28 | 2017-02-07 | 주식회사 카이 | Method and system for generation user's vies specific VR space in a Projection Environment |
KR20200059530A (en) * | 2018-11-21 | 2020-05-29 | 스크린엑스 주식회사 | Method and system for generating multifaceted images using virtual camara |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118033662A (en) * | 2024-01-09 | 2024-05-14 | 大庆安瑞达科技开发有限公司 | Method for projecting 360-degree radar image based on three-dimensional geographic information |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10896497B2 (en) | Inconsistency detecting system, mixed-reality system, program, and inconsistency detecting method | |
US10867407B2 (en) | System and methods for extrinsic calibration of cameras and diffractive optical elements | |
US9846968B2 (en) | Holographic bird's eye view camera | |
JP6008397B2 (en) | AR system using optical see-through HMD | |
US11156843B2 (en) | End-to-end artificial reality calibration testing | |
US20120218306A1 (en) | System and method for presenting virtual and augmented reality scenes to a user | |
US10950057B2 (en) | Virtual spatially registered video overlay display | |
US10606347B1 (en) | Parallax viewer system calibration | |
CN110312111B (en) | Apparatus, system, and method for automatic calibration of image devices | |
US10634918B2 (en) | Internal edge verification | |
JP2024096981A (en) | Information processing apparatus, information processing method, and computer program | |
US9747862B2 (en) | Method of immersive rendering for wide field of view | |
KR102616646B1 (en) | Realtime dynamic image warping system for screen based glasses-free VR and its verification method | |
KR20200052984A (en) | Displaying objects based on a plurality of models | |
US20240119610A1 (en) | Smooth and Jump-Free Rapid Target Acquisition | |
US20200134927A1 (en) | Three-dimensional display method, terminal device, and storage medium | |
US11061471B2 (en) | Screen estimation | |
JP2014106642A (en) | Ar system using optical see-through type hmd | |
JP2022541100A (en) | Joint environment reconstruction and camera calibration | |
Xiang et al. | Towards mobile projective AR for construction co-robots | |
US10339702B2 (en) | Method for improving occluded edge quality in augmented reality based on depth camera | |
CN114723923B (en) | Transmission solution simulation display system and method | |
CN115100257A (en) | Sleeve alignment method and device, computer equipment and storage medium | |
CN115728943A (en) | VR projection system | |
CN113920501A (en) | Augmented reality-based inspection method, inspection equipment and remote assistance method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |