KR102121088B1 - 입체시 이미지 출력 시스템 - Google Patents

입체시 이미지 출력 시스템 Download PDF

Info

Publication number
KR102121088B1
KR102121088B1 KR1020157021855A KR20157021855A KR102121088B1 KR 102121088 B1 KR102121088 B1 KR 102121088B1 KR 1020157021855 A KR1020157021855 A KR 1020157021855A KR 20157021855 A KR20157021855 A KR 20157021855A KR 102121088 B1 KR102121088 B1 KR 102121088B1
Authority
KR
South Korea
Prior art keywords
image
data
right eye
left eye
parallel projection
Prior art date
Application number
KR1020157021855A
Other languages
English (en)
Other versions
KR20150120974A (ko
Inventor
키요나리 키시카와
츠바사 토미타카
마사야 아다
타츠지 키무라
Original Assignee
가부시키가이샤 지오 기쥬츠켄큐쇼
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가부시키가이샤 지오 기쥬츠켄큐쇼 filed Critical 가부시키가이샤 지오 기쥬츠켄큐쇼
Publication of KR20150120974A publication Critical patent/KR20150120974A/ko
Application granted granted Critical
Publication of KR102121088B1 publication Critical patent/KR102121088B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)

Abstract

본 발명의 목적은 평행 투영을 사용하여 이미지의 입체시를 실현하는 것이다.
오른쪽 눈에 대한 이미지 및 왼쪽 눈에 대한 이미지를 각각 오른쪽 눈 및 왼쪽 눈에 의해 시각적으로 인식함으로써 입체시 가능한 표시부가 제공된 단말(300)이 준비된다. 배경이 되는 지도 데이터(211)로서, 3차원 모델의 평행 투영 결과가 모든 영역에 대한 이미지 데이터로 생성된다. 이때, 오른쪽 눈/왼쪽 눈에 대한 시차를 주는 투영 조건을 설정함으로써, 오른쪽 눈/왼쪽 눈에 대한 평행 투영 데이터가 모든 영역에 대해서 준비될 수 있다. 상기처럼 생성된 왼쪽 눈/오른쪽 눈에 대한 이미지에서, 기준선들은 화살표(FAL 및 FAR)와 같은 상이한 방향의 벡터이다. 따라서, 사용자가 지도 상에서 화살표(SR) 방향으로 스크롤링을 지시하면, 왼쪽 눈/오른쪽 눈에 대한 이미지 각각의 스크롤링 방향으로 보정이 행해지고, 각각의 이미지 내의 개별적인 방향으로 스크롤링이 수행된다.

Description

입체시 이미지 출력 시스템 { STEREOSCOPIC IMAGE OUTPUT SYSTEM }
본 발명은 시차를 갖는 오른쪽 눈에 대한 이미지 및 왼쪽 눈에 대한 이미지를 출력함으로써 입체시(立體視)를 수행하는 입체시 이미지 출력 시스템에 관한 것이다.
내비게이션 장치, 컴퓨터 화면 등에 사용되는 전자 지도에서, 건물과 같은 특징을 3차원 방식으로 표현한 3차원 지도가 사용되는 경우가 있다. 3차원 지도는 통상 3차원 모델을 원근 투영(perspective projection) 등을 사용하여 3차원 방식으로 그림으로써 표현된다.
여기서, 3차원 지도는 다수의 특징을 포함하고, 3차원 모델의 개수 또한 많으므로, 3차원 지도의 그림 처리의 부하는 매우 높아진다. 이러한 부하를 줄이기 위한 방법으로, 특허 문헌 1은 3차원 모델을 미리 평행 투영하여 얻은 투영 이미지를 2차원 이미지 데이터베이스로 구축하고, 그것을 사용하여 3차원 지도가 표시되는 기술을 공개한다.
한편, 시차를 갖는 오른쪽 눈에 대한 이미지 및 왼쪽 눈에 대한 이미지를 표시하는 입체시의 기술이 최근 보급되어, 이러한 입체시를 실현하기 위한 표시 장치가 넓게 이용되기 시작하고 있다.
특허 문헌 2 및 3은 이러한 입체시에 관한 기술이다. 특허 문헌 2는 원근 투영에 의해 얻어진 이미지의 원근을 제거하기 위한 보정 처리를 적용함으로써 입체시를 실현하는 기술을 공개한다. 특허 문헌 3은 시차를 주기 위해 아이콘과 같은 2차원 객체를 오른쪽 또는 왼쪽으로 옮김으로써(shift) 입체시를 실현하는 기술을 공개한다.
이들 입체시 기술들을 적용함으로써, 3차원 지도의 깊이감이 보다 현실적으로 느껴질 될 수 있으며, 3차원 지도의 유용성이 향상될 수 있다.
미심사된 일본 특허 출원 공개 번호 제2012-150823호 미심사된 일본 특허 출원 공개 번호 제2009-211718호 미심사된 일본 특허 출원 공개 번호 제2012-174237호
그러나, 입체시를 실현하기 위해, 오른쪽 눈 및 왼쪽 눈에 대한 2대의 가상 카메라 각각에 의해 원근 투영을 수행함으로써 왼쪽 눈에 대한 이미지 및 오른쪽 눈에 대한 이미지를 생성하기 위해 상기 2대의 가상 카메라가 3차원 지도의 시점(viewpoint)에 설치될 필요가 있으므로, 보통의 원근 투영의 2배의 처리 부하가 요구된다. 3차원 지도는 내비게이션 장치 또는 휴대용 단말과 같은 처리 능력이 낮은 단말 상에 표시될 수도 있으므로, 그리기에 대한 처리 부하의 증가는 무시할 수 없는 문제이다.
처리 부하를 줄이기 위해서, 평행 투영에 의해 얻은 이미지를 사용하여 입체시를 실현하는 것이 고려될 수 있지만, 3차원 모델을 투영하여 얻은 이미지는, 2차원 객체와는 달리, 단지 왼쪽 또는 오른쪽으로 옮겨지는 것만으로는 입체시를 실현할 수 없다. 또한, 그것이 지도로 사용되는 한, 지도 표시의 중심점이 이동되고 지도가 스크롤되더라도, 왼쪽 눈에 대한 이미지 및 오른쪽 눈에 대한 이미지는 입체시가 실현되도록 융상(fuse)되야 한다.
이러한 문제는, 지도가 전자적으로 표시될 때뿐만이 아니라, 입체시를 실현하도록 지도 내의 임의의 장소(spot)가 분할되고(segmented) 왼쪽 눈에 대한 이미지 및 오른쪽 눈에 대한 이미지가 인쇄될 때도 발생한다. 또한, 이것은 지도뿐 아니라 컴퓨터 그래픽 등에 의해 생성된 가상공간, 기계, 건물 등에 대한 설계 모델과 같은 다양한 3차원 모델의 입체시가 가능한 이미지의 출력에서도 공통의 문제이다. 본 발명은 이러한 문제의 관점에서 만들어진 것이며, 평행 투영을 사용하여 이미지의 입체시를 실현하는 목적을 갖는다.
본 발명은 이미지의 입체시를 위한 입체시 이미지 출력 시스템이며, 이는:
각각 왼쪽 눈 및 오른쪽 눈에 의해 시각적으로 인식될 수 있는, 시차를 갖는 왼쪽 눈에 대한 이미지 및 오른쪽 눈에 대한 이미지를 출력함으로써 입체시를 실현하는 입체시 출력부; 왼쪽 눈과 오른쪽 눈 간에 시차를 생성하도록, 각각 설정된 소정의 투영각만큼 수직 방향으로부터 기울어진 사선 방향들로부터의 평행 투영에 의해, 입체시의 대상이 되는 3차원 모델을 평면 상에 투영함으로써 얻은 2차원 그림 데이터로서 왼쪽 눈에 대한 평행 투영 데이터 및 오른쪽 눈에 대한 평행 투영 데이터를 저장하는 이미지 데이터베이스 저장부; 및 왼쪽 눈에 대한 평행 투영 데이터 및 오른쪽 눈에 대한 평행 투영 데이터에 기초하여 지정된 출력 범위의 이미지를 출력하기 위해, 시차를 갖는 왼쪽 눈에 대한 이미지 및 오른쪽 눈에 대한 이미지를 입체시 출력부에 출력하는 출력 제어부를 포함하고, 출력 범위가 이동하면, 출력 제어부는 왼쪽 눈에 대한 이미지 및 오른쪽 눈에 대한 이미지의 이동 방향을 개별적으로 결정하고, 이동 방향에 따라 왼쪽 눈에 대한 평행 투영 데이터 및 오른쪽 눈에 대한 평행 투영 데이터를 판독하고, 왼쪽 눈에 대한 이미지 및 오른쪽 눈에 대한 이미지를 출력하도록 구성될 수 있다.
본 발명에 따라, 왼쪽 및 오른쪽 눈들에 시차를 주도록 투영각을 개별적으로 설정함으로써, 평행 투영에서도 입체시가 실현될 수 있다. 즉, 평행 투영에서, 투영은 3차원 느낌의 투영을 수행하기 위해 수직 방향으로부터 기울어진 사선 방향으로 행해진다. 이 투영 방향은 수직 방향으로부터 제 1 기준 방향으로의 기울기를 나타내는 피치각(pitch angle)과 수직각 및 제 1 기준 방향을 포함하는 평면에 대한 기울기를 나타내는 편주각(yaw angle)에 의해 표현될 수 있다. 좌측 및 우측 눈의 편주각들의 부호들을 역전시킴으로써, 두 눈에 시차가 주어질 수 있다. 평행 투영에서는, 관점의 개념이 없고, 왼쪽 및 오른쪽 눈들에 해당하는 가상 카메라 위치가 설정될 수 없지만, 전술된 바대로, 왼쪽 및 오른쪽 눈 간에 투영 방향을 상이하게 함으로써, 입체시가 실현될 수 있다.
평행 투영에서는 특정한 관점이 없기 때문에, 투영 이미지, 즉, 평행 투영 데이터는 모든 영역에 대해서 미리 생성될 수 있다. 입체시가 실현될 때도, 왼쪽 및 오른쪽 눈들에 대한 이미지들이 각각 평행 투영에 의해 생성되므로, 이러한 이점이 없어지지 않는다. 따라서, 본 발명에 따라, 준비된 왼쪽 및 오른쪽 눈들에 대한 평행 투영 데이터를 미리 적절하게 판독하여 출력하는 것만으로, 가벼운 부하를 가지면서 입체시가 실현될 수 있는 이점이 있다.
본 발명에서, 입체시는 상기처럼 평행 투영에 의해 실현되지만, 출력 범위가 이동할 때, 왼쪽 눈에 대한 이미지 및 오른쪽 눈에 대한 이미지의 이동 방향들이 개별적으로 더욱 확실해진다. 본 발명에서는, 평행 투영의 투영 방향이 왼쪽 눈과 오른쪽 눈 간에 상이하므로, 왼쪽 눈에 대한 이미지 내의 좌표 값과 오른쪽 눈에 대한 이미지 내의 좌표 값이 서로 동일하더라도, 그 좌표 값들은 반드시 동일한 지점을 나타내는 것은 아니다. 따라서, 이미지들의 출력 범위가 이동될 때, 왼쪽 눈에 대한 이미지 및 오른쪽 눈에 대한 이미지 모두가 동일한 방향으로 동일한 이동량만큼 이동하면, 왼쪽 및 오른쪽 눈에 대해 상이한 출력 범위가 출력되는 현상이 발생한다. 본 발명에서, 평행 투영에 의해 생성된 왼쪽 및 오른쪽 눈들에 대한 이미지들의 특징에 기초하여, 왼쪽 눈에 대한 이미지 및 오른쪽 눈에 대한 이미지에 대한 이동 방향을 개별적으로 결정함으로써, 두 이미지들 간의 출력 범위들의 불일치의 발생이 억제될 수 있고, 입체시가 지속될 수 있다.
본 발명에서 입체시의 대상이 되는 3차원 모델로서, 지도, 컴퓨터 그래픽 등에서 생성된 가상공간, 및 기계, 건물 등과 같은 설계 모델을 포함하는 다양한 3차원 모델이 고려될 수 있다. 특히, 지도의 입체시의 경우의 3차원 모델로서, 인공물, 자연물 등과 같은 특징의 형상을 3차원적으로 표현한 모델이 응용가능하다.
또한, 본 발명의 입체시 출력부로서, 일례로 왼쪽 눈에 대한 이미지 및 오른쪽 눈에 대한 이미지가 각각 왼쪽 및 오른쪽 눈들에 의해 개별적으로 인식될 수 있도록, 그들을 표시하는 입체시 표시부가 사용될 수 있다. 렌티큐러(lenticular)라고 불리는 입체시를 위한 렌즈들의 뒤에 둠으로써 입체시가 실현되도록 왼쪽 눈에 대한 이미지 및 오른쪽 눈에 대한 이미지를 배치하고 인쇄하는 인쇄 장치가 사용될 수 있다. 그것은 단순히 왼쪽 눈에 대한 이미지 및 오른쪽 눈에 대한 이미지를 좌측 및 우측 상에 배열하여 인쇄하는 인쇄 장치일 수도 있다.
본 발명에서, 왼쪽 눈에 대한 이미지 및 오른쪽 눈에 대한 이미지의 이동 방향은 다양한 방법으로 결정될 수 있는데, 예를 들어, 출력 제어부는 평행 투영의 매개변수에 기초하여 왼쪽 눈에 대한 이미지 및 오른쪽 눈에 대한 이미지의 이동 방향을 결정할 수 있다.
출력 범위가 이동될 때의 왼쪽 눈에 대한 이미지와 오른쪽 눈에 대한 이미지 간의 이동 방향의 차이는 두 이미지들의 평행 투영의 매개변수의 차이에 의해 발생된다. 따라서, 평행 투영의 매개변수를 고려함으로써, 왼쪽 눈에 대한 이미지와 오른쪽 눈에 대한 이미지의 출력 범위를 일치시키기 위한 이동 방향이 정확하게 결정될 수 있다. 이동 방향은, 예를 들어, 평행 투영의 매개변수에 기초하여 수직적으로 아래로 보았을 때 평면을 나타내는 2차원의 좌표 축으로부터 왼쪽 눈에 대한 이미지 및 오른쪽 눈에 대한 이미지에 대한 어떤 좌표 축이 변환되는가 알아지고 이 좌표 변환 상에서 계산이 행해지는 방법에 의해 계산될 수 있다. 이동 방향은 출력 범위의 각각의 이동에 대해 계산될 수도 있지만, 평행 투영에서는, 이동 방향이 모든 영역들에 대해 공통이기 때문에, 왼쪽 눈 및 오른쪽 눈에 대한 이동 방향을 미리 구할 수도 있다.
본 발명에서, 이미지 데이터 저장부는 2차원 객체를 이미지에 출력하기 위한 2차원 객체 데이터를 저장하고, 출력 제어부는 2차원 객체 데이터를 소정의 출력 위치에 대해서 좌측 또는 우측으로 오프셋팅(offsetting)함으로써 시차를 갖는 왼쪽 눈에 대한 이미지 및 오른쪽 눈에 대한 이미지를 출력할 수 있다.
2차원 객체로서, 특징 및 다른 3차원 모델들의 명칭을 나타내는 문자, 다양한 심볼 등이 응용가능하다.
이러한 2차원 객체에 3차원 모델과는 상이한 방법으로 시차를 줌으로써, 2차원 객체가 입체시 이미지에 가벼운 부하로 표현될 수 있다. 또한, 2차원 객체에서, 좌측 또는 우측으로의 변위 양을 변화시켜 깊이감에 변화를 줄 수 있으므로, 깊이감은 객체 종류 등에 따라 변화될 수 있고, 다양한 입체시가 실현될 수 있다.
전술된 양태에서, 왼쪽 눈에 대한 이미지 및 오른쪽 눈에 대한 이미지가 출력될 때, 2차원 객체에 시차가 주어질 수 있다. 또한, 사전에 왼쪽 눈과 오른쪽 눈 간에 시차를 갖고 배치된 2차원 객체의 이미지 데이터를 포함하는 상태에서는, 왼쪽 눈에 대한 평행 투영 데이터 및 오른쪽 눈에 대한 평행 투영 데이터가 준비될 수 있다.
본 발명에서, 전술된 다양한 특징 모두를 갖출 필요는 없으며, 본 발명은 그것의 일부를 적절하게 생략하거나 조합하여 구성될 수 있다.
또한, 본 발명은 또한 입체시 이미지 출력 시스템으로서의 구성 이외에 다양한 양태로 구성될 수 있다.
예를 들어, 본 발명은 시차를 가진 왼쪽 눈에 대한 이미지 및 오른쪽 눈에 대한 이미지가 각각 왼쪽 눈 및 오른쪽 눈에 의해 시각적으로 인식될 수 있도록 그들을 출력함으로써, 입체시 이미지를 출력하는 입체시 이미지 출력 시스템에 대한 이미지 데이터를 생성하는 이미지 데이터 생성 장치로 구성될 수 있으며, 이미지 데이터 생성 장치에는: 입체시의 대상이 되는 3차원 모델 및 입체시 이미지 내에 2차원 객체를 출력하기 위한 2차원 객체 데이터를 저장하는 3D 이미지 데이터베이스 저장부; 소정의 크기를 갖는 메시(mesh) 단위로, 왼쪽 눈과 오른쪽 눈 간에 시차를 생성하도록, 각각 설정된 소정의 투영각들만큼 수직 방향으로부터 기울어진 사선 방향으로부터의 평행 투영에 의해, 3차원 모델을 평면 상에 투영함으로써 얻은 2차원 그림 데이터로서 왼쪽 눈에 대한 평행 투영 데이터 및 오른쪽 눈에 대한 평행 투영 데이터를 생성하는 평행 투영부; 2차원 객체 데이터를 소정의 출력 위치에 대해서 좌측 또는 우측으로 오프셋팅하여 시차를 줌으로써 왼쪽 눈에 대한 2차원 객체 이미지 데이터 및 오른쪽 눈에 대한 2차원 객체 이미지 데이터를 생성하는 2차원 객체 이미지 데이터 생성부; 및 시차를 고려한 위치들에서, 생성된 왼쪽 눈에 대한 2차원 객체 이미지 데이터 및 오른쪽 눈에 대한 2차원 객체 이미지 데이터를 왼쪽 눈에 대한 평행 투영 데이터 및 오른쪽 눈에 대한 평행 투영 데이터 상에 중첩함으로써, 왼쪽 눈에 대한 이미지 데이터 및 오른쪽 눈에 대한 이미지 데이터를 생성하는 중첩 처리부가 제공된다.
이러한 양태에 따라, 왼쪽 및 오른쪽 눈에 대한 평행 투영 데이터가 3차원 모델에 기초하여 평행 투영에 의해 생성될 수 있다. 또한, 2차원 객체 데이터를 좌측 또는 우측으로 오프셋팅함으로써 시차가 제공되어, 왼쪽 및 오른쪽 눈들에 대한 2차원 객체 이미지 데이터가 생성될 수 있다. 그리고, 왼쪽 및 오른쪽 눈들에 대한 이미지 데이터 양자가 중첩된 왼쪽 및 오른쪽 눈들에 대한 이미지 데이터가 또한 생성될 수 있다. 이와 같은 방식으로, 왼쪽 및 오른쪽 눈들에 대한 이미지 데이터로부터 출력 범위에 해당하는 데이터를 판독하여 출력함으로써, 2차원 객체를 포함하는 입체시 이미지가 가벼운 부하로 출력될 수 있다.
본 발명은 컴퓨터에 의해 입체시 이미지를 출력하기 위한 입체시 이미지 출력 방법으로 구성되거나 컴퓨터로 하여금 이러한 출력을 실행시키도록 허용하기 위한 컴퓨터 프로그램으로도 구성될 수 있다. 또한, 본 발명은 이러한 컴퓨터 프로그램을 기록한 컴퓨터-판독가능 기록 매체로도 구성될 수 있다. 기록 매체로서, 플렉서블 디스크(flexible disk), CD-ROM, 광자기 디스크, IC 카드, ROM 카트리지, 펀치 카드, 바코드와 같은 코드가 인쇄된 인쇄물, 컴퓨터의 내부 저장 장치 (RAM 및 ROM과 같은 메모리) 및 외부 저장 장치 등의 다양한 매체가 사용될 수 있다.
본 발명에 따라, 준비된 왼쪽 및 오른쪽 눈들에 대한 평행 투영 데이터를 미리 적절하게 판독하여 출력하는 것만으로, 가벼운 부하를 가지면서 입체시가 실현될 수 있는 이점이 있다.
본 발명에서 입체시의 대상이 되는 3차원 모델로서, 지도, 컴퓨터 그래픽 등에서 생성된 가상공간, 및 기계, 건물 등과 같은 설계 모델을 포함하는 다양한 3차원 모델이 고려될 수 있다. 특히, 지도의 입체시의 경우의 3차원 모델로서, 인공물, 자연물 등과 같은 특징의 형상을 3차원적으로 표현한 모델이 응용가능하다는 효과를 기대할 수 있다.
도 1은 평행 투영에 의한 입체시의 원리를 나타내는 설명도.
도 2는 오른쪽 눈/왼쪽 눈에 대한 평행 투영 데이터의 예를 나타내는 설명도.
도 3은 평행 투영 매개변수들을 설정하는 방법(1)을 나타내는 설명도.
도 4는 평행 투영 매개변수를 설정하는 방법(2)을 나타내는 설명도.
도 5는 평행 투영과 메시 간의 관계를 나타내는 설명도.
도 6은 평행 투영이 스크롤링(scrolling)에 미치는 영향을 나타내는 설명도.
도 7은 입체시 지도 표시 시스템의 구성을 나타내는 설명도.
도 8은 특징 데이터의 배치를 나타내는 설명도.
도 9는 특징 데이터 생성 처리의 흐름도.
도 10은 지도 표시 처리의 흐름도.
도 11은 스크롤링 처리의 흐름도.
도 12는 변형 사례에서의 문자 이미지의 배치 예들을 나타내는 설명도.
도 13은 변형 사례에서의 특징 데이터 생성 처리의 흐름도.
도 14는 변형 사례에서의 특징 데이터 예를 나타내는 설명도.
[예 1]
본 발명에 대하여, 입체시 이미지의 예로서 입체시 지도를 표시하는 입체시 지도 표시 시스템으로 구성된 예가 설명될 것이다. 여기서, 평행 투영에 의해 3차원 방식으로 그리고 입체시 가능하게 지도를 표시하고 또한 거기에 그려진 문자 등을 표시하기 위한 시스템이 입체시 가능하다고 예시될 것이다. 단순히 3차원적으로 그려진 지도가 아니라 입체시 가능한 지도라는 의미로, 이 예에서 표시되는 지도는 입체시 지도로 언급될 것이다.
또한, 지도는 3차원적으로 표시되지만, 문자, 심볼 등은 2차원 데이터이므로, 이들은 이하의 예에서 2차원 객체로도 언급될 수 있다.
A. 평행 투영에 의한 입체시의 원리:
우선, 평행 투영에 의해 입체시를 실현하는 원리가 설명될 것이다.
도 1은 평행 투영에 의한 입체시의 원리를 나타내는 설명도이다. 도 1A에 나타낸 바와 같이, 3개의 축이 정의된다. 즉, x-축 및 z-축은 수평면 상에 정의되고, y-축은 수직 아래 방향으로 정의된다. x-축, y-축, 및 z-축은 오른-손 좌표계이다. 나타낸 바와 같이, 카메라는 특징의 수직으로 위쪽에 위치되고, 평행 투영이 수행되어, 2차원 지도가 그려진다. 이 예에서 언급되는 평행 투영은 이 상태에서 카메라가 기울어진 투영이다.
평행 투영에서는, 원근 투영과 달리 "시점"이 없다. 이 명세서에서, 카메라라는 용어가 평행 투영에 관련하여 사용되면, 투영 방향은 개략적으로 나타내진다.
도 1A에서, x-축을 중심으로 카메라를 회전시키면, 이는 수직 방향으로부터의 사선으로 기울어진 평행 투영과 같으므로, x-축 주위의 회전은 피치각을 나타낸다. 또한, 카메라가 y-축 방향으로 회전되면, 그것은 수평 방향으로 평행 투영의 방위를 변화시키므로, y-축 주위의 회전은 투영 방위를 나타낸다. 그리고, 카메라가 z-축 중심으로 회전되면, 시차가 이하에 설명된 바와 같이 주어질 수 있다.
도 1B는 시차가 발생하는 이유를 나타낸다. 도 1B는 특징이 z-축 방향으로 보여진 상태, 즉, z-축이 특징 평면에 수직인 상태이다. 시차는 이 특징이 수직적으로 위에서 y-축 방향으로 보여질 때, 오른쪽 눈과 왼쪽 눈의 위치의 차이에 의해 생기는 시선 방향의 차이이다. 따라서, 도면 내에서 기준 카메라 위치(CC)에 대해 오른쪽 눈으로부터 보여진 상태에 대응하는 카메라 위치(CR) 및 왼쪽 눈으로부터 보여진 상태에 대응하는 카메라 위치(CL)에서 투영함으로써, 시차를 갖는 오른쪽 눈/왼쪽 눈에 대한 이미지가 생성될 수 있다. 시차, 즉, z-축 주위의 회전각(δ)은 임의로 설정될 수 있지만, 예를 들어, 불편한 느낌이 없는 시차를 줄 수 있는 각으로는 약 20도가 설정될 수 있다.
전술된 바대로 투영각 및 투영 방위 이외에 도 1B에 나타낸 시차를 고려하여 평행 투영을 수행함으로써, 입체시 가능한 오른쪽 눈/왼쪽 눈에 대한 이미지가 평행 투영에 의해서라도 생성될 수 있다.
도 2는 오른쪽 눈/왼쪽 눈에 대한 평행 투영 데이터의 예를 나타내는 설명도이다. 도 2A는 오른쪽 눈에 대한 평행 투영 데이터를 나타내며, 도 2B는 왼쪽 눈에 대한 평행 투영 데이터를 나타낸다. 각각의 이미지들에서, 특징은 평행 투영에 의해 3차원적으로 표시된다. 예를 들어, 영역(A1)과 영역(B1) 및 영역(A2)과 영역(B2)를 각각 비교하면, 오른쪽 눈/왼쪽 눈에 대한 시차의 차이가 건물 측벽이 그려진 방법 등으로부터 인식될 수 있다. 상기와 같이 비교된 오른쪽 눈/왼쪽 눈에 대한 평행 투영 데이터를 사용함으로써, 3차원 지도가 3차원적으로 보여질 수 있다.
B. 평행 투영에 의한 영향:
도 3은 평행 투영 매개변수를 설정하는 방법(1)을 나타내는 설명도이다.
도 3A는 3차원 모델의 예를 나타낸다. 여기서, 나타낸 바와 같이, 각각의 높이를 가진 알파벳 A 내지 I의 3차원 형상들의 모델이 예로서 설명될 것이다.
도 3B는 카메라(CA)가 수직적으로 아래를 향해 설정된 경우의 평행 투영의 상태를 나타낸다. 나타낸 바와 같이, 평행 투영을 위한 카메라(CA)는 중앙의 알파벳 "E"를 포함한 영역(F1) 바로 위에 수직적으로 아래를 향해 설정된다. 전술된 바대로, 평행 투영에는 특정 "시점"이 없으므로, 도 3B에 나타낸 카메라(CA)는 단지 평행 투영의 투영 방향을 개략적으로 나타낸다.
도 3C는 도 3B의 평행 투영에 의해서 얻어진 투영 결과를 나타낸다. 수직적으로 아래로의 투영에 의해, 도 3C와 같이 평면적인 투영 결과를 얻게 된다. 즉, 도 3A에 나타낸 바와 같은 3차원 모델에 관련하여 소위 2차원 지도를 얻게 된다.
도 3D는 카메라(CA)가 수직적으로 아래에서부터 알파벳 "B"의 방향으로 피치각만큼 사선으로 기울어진 상태를 나타낸다. 그 결과, 카메라(CA)에 의해 투영된 영역(F2)은 피치각에 따라 기울어진 방향으로 확장된 직사각형을 갖는다.
도 3E는 카메라(CA)가 도 3D에서처럼 기울어진 경우의 투영 결과를 나타낸다.
도 4는 평행 투영 매개변수를 설정하는 방법(2)을 나타내는 설명도이다.
도 4A는 도 3D에서처럼 피치각 만큼만 기울여진 상태에서 편주각을 옮김으로써 얻어진 상태, 즉, 모델이 도 1B에 나타낸 각(δ) 만큼만 회전된 상태를 나타낸다. 상기와 같이 편주각을 옮김으로써, 투영되는 영역(F3)은 나타낸 바와 같이 평행사변형을 갖는다.
도 4B는 도 4A의 상태에서의 평행 투영에 의해 얻은 투영 결과를 나타낸다. 상기와 같이 피치각 및 편주각을 옮겨 시선 방향으로부터 평행 투영을 수행함으로써, 3차원 모델이 3차원적으로 표현될 수 있다.
도 4C는 전술된 평행 투영에 의해 생성된 왼쪽 눈에 대한 이미지를 나타내고, 도 4D는 오른쪽 눈에 대한 이미지를 나타낸다. 평행 투영에 의한 입체시에서, 도면 내의 알파벳 "E"을 둘러싼 영역으로부터 알 수 있듯이, 왼쪽 및 오른쪽 눈들의 도 4B의 편주각들의 부호들을 역전시킴으로써 시차가 주어지고, 투영되는 영역은 왼쪽 눈에 대한 이미지에 대해서는 왼쪽 사선 방향의 평행사변형 및 오른쪽 눈에 대한 이미지에 대해서는 오른쪽 사선 방향의 평행사변형을 갖는다.
도 5는 평행 투영과 메시 간의 관계를 나타내는 설명도이다. 지도 데이터는 보통 메시로 불리는 일정 크기를 각각 갖는 직사각형 영역들로 나뉘어 준비된다. 도 5는 상기와 같이 평행 투영에 의한 입체시가 메시로 나뉜 지도에 적용된 경우의 영향을 나타낸다.
도 5A는, 메시들로 나뉜 지도가 평행 투영된 상태를 나타낸다. 도 4에 나타낸 바와 같이, 평행 투영되면, 카메라(CA)에 의해 투영된 영역은 영역들(FA 및 FB)과 같이 평행사변형이 된다. 어떤 메시의 평행 투영 결과가 영역(FA)으로 표현된다고 가정하면, 화살표(D)방향으로 인접한 메시의 평행 투영 결과는 영역(FB)으로 표현된다. 즉, 평행 투영 전에는, 직사각형 메시가 정렬되지만, 평행 투영 이후에는, 각각의 메시가 평행사변형으로 변형되고 영역(FA 및 FB) 사이에 나타낸 바와 같은 불일치가 발생한다.
도 5B는 영역들(FA 및 FB)의 확대도이다. 각각의 영역의 형상만이 나타나있다. 전술된 바로서, 오프셋 양(OST)을 갖는 불일치가 영역(FA 및 FB)과 접한 측(SA 및 SB) 사이에 생성된다. 거리(OST)는 평행 투영 매개변수, 즉, 평행 투영시의 피치각(θ) 및 편주각(δ)에 따라서 결정된다. 즉, 단위 길이의 메시는 피치각(θ) 및 편주각(δ)만큼만 연속으로 회전시키는 좌표 변환에 의해 다음과 같이
OST = sinδ·sinθ·cosθ
로 표현될 수 있다.
따라서, 영역(FA 및 FB)가 정렬되면, 화살표(A) 방향으로 오프셋 양(OST)만큼 옮길 필요가 있다.
도 5C는 영역(FA 및 FB)이 정렬되지 않고 배치된 상태를 나타낸다. 즉, 도 5A에서 나타낸 바와 같이 영역(FA 및 FB) 간에 불일치가 있더라도, 그들은 간단히 배치된다. 도 5A는 영역의 형상을 나타내기 위한 것이며, 알파벳(A 내지 I)의 위치는 평행 투영 전의 상태로 나타나있지만, 실제로는 평행 투영이 각각의 메시에 대해 수행되면, 도 5C에 나타낸 바와 같이 영역(FA 및 FB) 간의 경계(B)에의 이미지들 간에 불일치가 발생한다.
평행 투영에서 사용되는 피치각(θ) 및 편주각(δ)은 임의로 설정될 수 있지만, 입체시를 실현하기 위한 평행 투영에서 사용되는 매개변수로는, 예를 들어, 대략 피치각(θ) = 22.5도 및 편주각(δ)= 20도 이도록 설정할 수 있다. 이러한 평행 투영 매개변수가 사용되면, 도 5C에 나타낸 불일치는 대략 몇개의 화소들에 포함되는 것으로 알려져있다.
도 6은 평행 투영이 스크롤링에 미치는 영향을 나타내는 설명도이다.
도 6A에 나타낸 바와 같이, 표시 범위가 2차원 "지도" 상에서 알파벳 "B"에서 "E"로, 즉, 화살표(SR) 방향으로 이동된다고 가정하자.
도 6B는 입체시를 실현하기 위해 평행 투영에 의해 얻은, 왼쪽 눈에 대한 이미지(FAL 및 FBL) 및 오른쪽 눈에 대한 이미지(FAR 및 FBR)를 나타낸다. 스크롤링 전의 상태에서는, 아래 측에 나타낸 영역(FAL 및 FAR) 내에 알파벳 "B" 부분이 표시된다고 가정된다. 이때, 왼쪽 눈에 대한 이미지(FAL)와 오른쪽 눈에 대한 이미지(FAR) 간의 시차는 거리(L1)이며, 양자의 융상이 이 시차에 의해 실현되고, 입체시가 가능하다고 가정된다.
이어서, 표시 범위가 SR 방향으로 이동된다. 이때, 상기 도 4에 나타낸 바와 같이, 왼쪽 눈에 대한 이미지(FAL 및 FBL) 및 오른쪽 눈에 대한 이미지(FAR 및 FBR) 각각이 그것의 원래의 직사각형 영역이 평행 투영에 의해 평행사변형 영역에 투영되는 것을 고려하지 않고, 표시 범위가 단순히 2차원 평면과 마찬가지로 화살표(SR) 방향으로 이동됐다고 가정된다. 그러면, 표시 범위는 알파벳(B, E, H, B)의 배열에 따라 이동되었어야 하지만, 왼쪽 눈에 대한 이미지(FAL 및 FBL)에서는, 배열의 우측 상에 많은 쓸데없는 부분들이 포함되면고, 오른쪽 눈에 대한 이미지(FAR 및 FBR)에서는, 반대로 좌측 상에 많은 쓸데없는 부분들이 포함된다. 그 결과, 예를 들어, 알파벳 "B"의 부분에서는, 시차(L2)가 초기의 시차(L1)보다 커지고, 융상이 달성되지 못하고, 입체시가 실현될 수 없게 된다. 즉, 알파벳 "B"는 시각적으로 단지 이중으로 옮겨진 상태로 인식된다. 이러한 현상을 피하기 위해, 평행 투영이 각각 왼쪽 눈에 대한 이미지(FAL 및 FBL) 및 오른쪽 눈에 대한 이미지(FAR 및 FBR) 내의 평행사변형에 수행될 것을 고려하여, 표시 범위의 이동 방향이 화살표(SRL 및 SRR)처럼 개별적으로 설정될 필요가 있다.
이런 현상은 미리 모든 영역들에 대해 왼쪽 눈에 대한 이미지(FAL 및 FBL) 및 오른쪽 눈에 대한 이미지(FAR 및 FBR)를 준비함으로써 발생된다. 이 예에서는, 전술된 바대로, 왼쪽 눈에 대한 이미지 및 오른쪽 눈에 대한 이미지에 대해 스크롤링 방향을 개별적으로 설정함으로써, 입체시가 실현되면서 스크롤링이 달성된다.
B. 시스템 구성:
도 7은 입체시 지도 표시 시스템의 구성을 나타내는 설명도이다.
도 7은 네트워크(NE2) 등을 통해 서버(200)로부터 제공되는 지도 데이터에 기초하여 단말(300)의 표시부(300d) 상에 지도를 표시하는 구성 예를 나타낸다. 단말(300)로서 스마트폰이 사용되지만, 휴대 전화, 개인용 컴퓨터, 내비게이션 장치 등도 또한 사용될 수 있다. 또한, 3차원 입체시 지도 표시 시스템은 단말(300) 및 서버(200)로 구성된 시스템 외에 단독으로 동작하는 시스템으로 구성될 수도 있다.
도면에서, 지도 데이터를 생성하는 데이터 생성 장치(100)가 또한 나타나있다.
단말(300)의 표시부(300d)는 오른쪽 눈에 대한 이미지 및 왼쪽 눈에 대한 이미지가 각각 오른쪽 눈 및 왼쪽 눈에 의해 시각적으로 인식될 수 있도록 그들을 표시할 수 있는 입체시 기능을 갖는다. 이 예에서, 소위 맨눈으로 입체시를 할 수 있는 표시부(300d)가 사용되지만, 입체시용 안경 등을 사용하는 입체시용 디바이스가 또한 사용될 수 있다.
단말(300)에, 주제어부(304) 하에서 동작하는 다양한 기능 블록이 구성되어 있다. 이 예에서, 주로 제어부(304) 및 각각의 기능 블록은 각각의 기능을 실현하는 소프트웨어를 설치함으로써 구성되지만, 그들의 일부 또는 전부는 하드웨어를 사용하여 구성될 수도 있다.
전송/수신부(301)는 네트워크(NE2)를 통해 서버(200)와 통신을 실시한다. 이 예에서, 입체시 지도를 표시하기 위한 지도 데이터 및 명령들의 전송/수신이 주로 실시된다.
명령 입력 장치(302)는 버튼 또는 터치 패널의 조작 등을 통해서 사용자로부터의 지시를 입력한다. 이 예에서의 지시로서, 3차원 지도의 표시 범위, 확대/축소의 지정, 경로 안내가 제공될 때의 출발지 및 목적지의 설정 등이 언급될 수 있다.
GPS 입력부(303)는 GPS(Global Positioning System) 신호에 기초하여 위도 및 경도의 좌표 값을 얻는다. 또한, 경로 안내에서는, 진행 방향이 위도/경도의 변화에 기초하여 계산된다.
지도 정보 저장부(305)는 서버(200)로부터 제공되는 지도 데이터를 일시적으로 저장하기 위한 버퍼이다. 표시될 지도가 경로 안내의 경우에서처럼 계속하여 변하면, 지도 정보 저장부(305)로는 불충분한 범위의 지도 데이터가 지도를 표시하기 위해 서버(200)로부터 수신된다.
표시 제어부(306)는 지도 정보 저장부(305)에 저장된 지도 데이터를 사용하여 단말(300)의 표시부(300d) 상에 입체시 지도를 표시한다.
스크롤링 제어부(307)는 사용자로부터 스크롤링 지시가 주어질 때 왼쪽 눈에 대한 이미지 및 오른쪽 눈에 대한 이미지 각각에 대한 스크롤링 방향을 결정하고, 입체시를 유지하면서 스크롤링을 실현한다.
서버(200)에는, 나타낸 기능 블록이 구성되어 있다. 이 예에서, 이들 기능 블록은 각각의 기능을 실현하는 소프트웨어를 설치함으로써 구성되지만, 그들의 일부 또는 전부는 하드웨어로 구성될 수도 있다.
지도 데이터베이스(210)는 입체시 지도를 표시하기 위한 데이터베이스이다. 이 예에서, 특징 데이터(211), 2차원 객체(212), 및 네트워크 데이터(213)를 포함하는 지도 데이터가 저장된다. 네트워크 데이터(213)는 생략될 수 있다.
특징 데이터(211)는 도로, 건물 등과 같은 특징들을 3차원적이고 입체시 가능하게 표시하기 위한 평행 투영 데이터이며, 투영 조건을 변경시킴으로서 각각 오른쪽 눈/왼쪽 눈에 대한 특징의 3차원 모델을 평행 투영함으로써 얻은 2차원 폴리곤 데이터(polygon data)이다. 즉, 특징 데이터(211)로서, 하나의 지도 영역에 대한 오른쪽 눈에 대한 조건하에서 평행 투영에 의해 얻어지는 2차원 이미지 데이터로서의 오른쪽 눈에 대한 평행 투영 데이터 및 왼쪽 눈에 대한 조건하에서 평행 투영에 의해 얻어진 2차원 이미지 데이터로서의 왼쪽 눈에 대한 평행 투영 데이터가 저장된다.
2차원 객체(212)는 특징 이외에 지도 상에 표시되어야 할 특징의 명칭, 지명, 안내 정보 등을 표현하는 문자, 지도 심볼/교통 통제 표지, 경로 안내 내에서 현재 위치를 나타내는 심볼 데이터, 및 경로를 구성하는 화살표의 폴리곤 데이터 등이다. 현재 위치 또는 경로와 같은 쉽게 변하는 표시 위치를 갖는 것을 제외하고, 2차원 객체(212)는 표시해야 할 문자 및 심볼과 같은 데이터 및 서로 연관된 표시 위치를 저장한다. 표시 위치는 3차원 공간 상의 위치 또는 평행 투영된 투영 이미지 상의 위치 좌표일 수 있다. 또한, 특징 명칭과 같이 특정 특징에 연관된 2차원 객체(212)에 대해서는, 특징과의 연관성을 나타내는 데이터가 또한 저장된다.
이 예에서, 2차원 객체(212)는 표시에 시차를 주기 위한 것이지만, 변형 사례로서, 시차가 미리 정해진 입체시가 가능하게 구성될 수도 있다. 이러한 경우, 2차원 객체(212)는 입체시 가능한 오른쪽 눈에 대한 이미지 및 왼쪽 눈에 대한 이미지의 형식으로 저장될 수 있다. 또는, 특징 데이터(211)와 2차원 객체(212)가 중첩된 상태의 이미지 데이터가 특징 데이터(211)로서 저장될 수 있다.
네트워크 데이터(213)는 노드 및 링크의 모음으로 도로를 표현한 데이터이다. 노드는 도로들의 교차점이나 도로의 종점에 대응하는 데이터이다. 링크는 노드를 다른 노드와 연결하는 선분이고 도로에 대응하는 데이터이다. 이 예에서, 네트워크 데이터(213)를 구성하는 노드 및 링크의 위치는 위도, 경도, 및 높이의 3차원 데이터로 결정된다.
전송/수신부(201)는 네트워크(NE2)를 통한 단말(300)과의 데이터의 전송/수신을 실시한다. 이 예에서, 3차원 지도를 표시하기 위한 지도 데이터 및 명령의 전송/수신이 주로 실시된다. 또한, 전송/수신부(201)는 네트워크(NE1)를 통해 데이터 생성 장치(100)와의 통신을 실시한다. 이 예에서, 생성된 지도 데이터의 송신/수신이 주로 실시된다.
데이터베이스 제어부(202)는 지도 데이터베이스(210)에 관련하여 데이터를 판독 및 기록하는 것을 제어한다.
경로 탐색부(203)는 지도 데이터베이스(210) 내의 네트워크 데이터(213)를 사용하여 경로 탐색을 행한다. 경로 탐색에 대하여, 다익스트라 알고리즘(Dijkstra's algorithm) 등이 사용될 수 있다. 상기 설명된 바와 같이, 경로 탐색에 의해서 얻어진 경로를 나타내는 화살표 등이 또한 2차원 객체에 속한다.
데이터 생성 장치(100) 내에, 나타낸 기능 블록이 구성된다. 이 예에서, 이러한 기능 블록은 개인용 컴퓨터에 각각의 기능들을 실현하는 소프트웨어를 설치함으로써 구성되지만, 그중 일부 또는 전부는 하드웨어를 사용하여 구성될 수도 있다.
전송/수신부(105)는 네트워크(NE1)를 통해 서버(200)에 데이터를 송신하고 서버(200)로부터 데이터를 수신한다.
명령 입력 장치(101)는 키보드 등을 통해 조작자의 지시를 입력한다. 이 예에서, 지도 데이터가 생성되야 할 영역의 지정, 평행 투영 매개변수의 지정 등이 포함된다. 평행 투영 매개변수들은 평행 투영이 수행될 때의 피치각 및 편주각을 의미한다. 피치각은 투영에서 수직 방향으로부터의 기울기의 양을 의미한다. 편주각은 시차를 주기 위해 왼쪽 및 오른쪽 눈들에 대해서 상이한 방향으로 기울어진 각(도 1 참조)을 의미한다.
3D 지도 데이터베이스(104)는 지도 데이터를 생성하기 위해 사용되는 3차원 모델을 저장하기 위한 데이터베이스이다. 도로 및 건물과 같은 특징에 대해서, 3차원 형상을 나타내는 전자 데이터가 저장된다. 또한, 지도 상에 표시되어야 할 문자 및 심볼과 같은 2차원 객체가 저장된다.
평행 투영부(102)는 3D 지도 데이터베이스(104)에 기초하여 평행 투영을 사용하는 그리기에 의해 특징 데이터를 생성한다. 그려진 투영 이미지는 평행 투영 데이터(103)로 저장되고 전송/수신부(105)를 통해 서버(200)의 지도 데이터베이스(210)의 특징 데이터(211)에 저장된다. 투영 매개변수 수정부(106)는 평행 투영이 수행될 때 편주각 값의 부호가 역전되도록 지정된 평행 투영 매개변수를 수정하고, 오른쪽 눈/왼쪽 눈에 대한 평행 투영 매개변수가 설정된다. 이 방식으로, 입체시를 위한 오른쪽 눈에 대한 이미지 및 왼쪽 눈에 대한 이미지가 각각 생성될 수 있다.
도 8은 특징 데이터의 배치를 나타내는 설명도이다.
도 8A에서, 평행 투영 전의 3D 지도 데이터의 메시는 실선으로, 왼쪽 눈에 대한 이미지는 파선으로, 오른쪽 눈에 대한 이미지는 중첩하여 일점 쇄선으로 나타냈다. 오른쪽 하단에, 2개의 메시에 대한 확대도를 나타냈다. 이 예에서, 확대도 내의 영역(M1 및 M2)에 나타낸 바와 같이 직사각형 영역에 정렬된 각각의 메시에 대해 평행 투영 전의 지도 데이터가 준비된다. 각각의 메시가 평행 투영되면, 각각의 메시는 왼쪽 눈에 대한 이미지(M1L 및 M2L) 및 오른쪽 눈에 대한 이미지(M1R 및 M2R)와 같이 평행사변형 영역에 투영된다. 이 예에서, 상기와 같이 각각 메시 단위로 생성된 평행사변형 형상을 갖는 왼쪽 눈에 대한 이미지 및 오른쪽 눈에 대한 이미지는 도 8A에 나타낸 것처럼 정렬되지 않고 저장된다. 따라서, 엄밀히 보면, 도 5C에 나타낸 바와 같이, 평행사변형 영역들 간에 대략 몇 개의 화소들 사이에 불일치가 존재한다.
도 8B는 변형 사례로서 특징 데이터의 배치 예이다. 이 예에서, 각각의 메시에 대해 생성된 평행사변형 영역 간에 발생되는 불일치가 매치되고 배치된다. 그 결과 평행 투영 전에 도면에서 수직으로 배열된 메시(M1 및 M2)가 왼쪽 눈에 대한 이미지에 대해서는 영역(M1L 및 M2L)과 같이 왼쪽 사선 방향으로 배열되고 오른쪽 눈에 대한 이미지에 대해서는 영역(M1R 및 M2R)과 같이 오른쪽 사선 방향으로 배열된다. 특징 데이터는 상기와 같이 영역 간의 불일치를 매치된 형식으로 준비될 수 있다.
C. 특징 데이터 생성 처리:
이어서, 특징 데이터(211), 즉, 투영 조건을 변경하여 오른쪽 눈/왼쪽 눈에 대한 특징의 3차원 모델을 평행 투영함으로써 얻은 2차원 폴리곤 데이터를 생성하는 처리가 설명될 것이다. 이 처리는 주로 데이터 생성 장치(100)의 평행 투영부(102)에 의해 실행되는 처리이며, 하드웨어적으로는 데이터 생성 장치(100)의 CPU에 의해 실행되는 처리이다.
도 9는 특징 데이터 생성 처리의 흐름도이다.
처리가 시작되면, 데이터 생성 장치(100)는 처리될 메시를 지정하고 평행 투영 매개변수를 입력한다(단계(S10)). 메시를 지정하는 방법으로서, 메시에 고유한 색인, 메시의 좌표 등이 사용될 수 있다. 조작자에 의해 지정된 지도 상의 점의 좌표 값을 포함하는 메시가 데이터 생성 장치(100)에 의해 분석되고, 메시가 처리될 메시로 설정되는 방법도 있다.
평행 투영 매개변수는 피치각 및 투영 방위이다. 이 단계에서, 시차, 즉, 편주각은 0도로 설정된다. 이는 특징 데이터가 생성될 때마다 조작자에 의해 지정되거나 디폴트 값이 사용될 수 있다.
투영 방위는 어느 하나의 방위일 수도 있지만, 이 예에서, 평행 투영은 특징 데이터를 생성하도록 모든 방위를 45도 옮겨서 얻은 각각의 8방위에 대해 수행된다. 상기와 같이 복수개의 방위에 특징 데이터를 준비함으로써, 투영 방위들 중 어느 하나에 건물 뒤와 같은 사각 지대가 생성되더라도, 다른 투영 방위를 사용하여 사각 지대를 피하는 표시가 실현될 수 있다는 이점이 있다.
평행 투영 매개변수들은 피치각 및 투영 방위 중 하나에 대해 임의로 설정될 수 있고, 단일 값을 취하는 방법, 복수의 값을 매개변수로서 사용하는 방법 등과 같은 다수의 값을 취할 수 있다.
이어서, 데이터 생성 장치(100)는 대상 메시 및 대상 메시 주변의 소정의 범위의 메시에 대해서 3D 지도 데이터베이스를 판독한다(단계(S20)). 또한 주변의 소정의 범위의 메시를 판독하는 이유는 다음과 같다.
이 예에서, 특징 데이터는 수직 방향에 대해 소정의 투영각만큼 기울어진 사선 방향으로부터 3D 지도 데이터베이스에 포함된 3차원 모델을 평행 투영함으로써 생성된다. 상기와 같이 사선 방향으로부터의 평행 투영의 경우, 처리될 메시 주변의 메시에 존재하는 특징의 일부가 투영될 수 있다. 반대로, 평행 투영이 단지 대상 메시에 대해서만 3D 지도 데이터베이스를 사용하여 수행되면, 다른 메시에 존재하는 특징의 투영도가 부족해지고, 적절한 특징 데이터를 얻을 수 없다. 이를 피하기 위해, 이 예에서는, 대상 메시 주변의 메시 또한 판독된다. 판독 범위는 임의로 설정될 수 있지만, 이 예에서는, 대상 메시에서 2구역 이내의 메시들에 속하는 3D 지도 데이터가 판독된다.
이어서, 데이터 생성 장치(100)는 왼쪽 눈에 대한 시차 및 오른쪽 눈에 대한 시차, 즉, 각각의 편주각을 설정한다(단계(S30)). 상기 도 1B에 나타낸 바와 같이, 편주각이 평행 투영 매개변수로서 주어지고, 평행 투영이 수행된다. 시차를 주기 위해, 왼쪽 눈에 대한 시차 및 오른쪽 눈에 대한 시차의 방향의 부호들은 서로 반대로 설정된다. 이 처리는 투영 매개변수 수정부(106)의 처리에 대응한다. 또한, 오프셋 양(OST)이 상기처럼 설정된 평행 투영 매개변수들, 즉, 피치각 및 편주각을 사용하여 계산된다. 오프셋 양은, 도 5B에 나타낸 바와 같이, 평행 투영 후의 메시 각각에 대응하는 평행사변형 영역 간의 불일치를 나타내는 숫자 값이며, 후술될 바와 같이 왼쪽/오른쪽 눈에 대한 이미지 내에서 스크롤링 방향을 결정하는데 사용된다.
데이터 생성 장치(100)는 상기와 같이 설정된 왼쪽 눈에 대한 시차를 사용하여 평행 투영을 수행함으로써 왼쪽 눈에 대한 이미지를 생성하고(단계(S40)), 오른쪽 눈에 대한 시차를 사용하여 평행 투영을 수행함으로써 오른쪽 눈에 대한 이미지를 생성한다(단계(S50)). 각각 생성되는 이미지는 평행 투영에 의해 특징을 3차원적으로 표현하는 2차원 이미지 데이터이다. 평행 투영에 의해 생성된 왼쪽 눈/오른쪽 눈에 대한 이미지는 어떤 경우에서 왼쪽 눈/오른쪽 눈에 대한 평행 투영 데이터로 불린다.
데이터 생성 장치(100)는 각각 상기와 같이 얻어진 왼쪽 눈/오른쪽 눈에 대한 이미지로부터 대상 메시에 대응하는 영역을 분할하고(단계(S60)), 그것을 오프셋 양(OST)과 함께 왼쪽 눈에 대한 이미지 데이터 및 오른쪽 눈에 대한 이미지 데이터로 만들어진 특징 데이터로 저장한다(단계(S70)). 이미지 데이터는 2차원 폴리곤 데이터로 저장되지만, 또한 래스터 데이터(raster data)로 저장될 수도 있다. 또한, 왼쪽 눈/오른쪽 눈에 대한 이미지 데이터의 분할 및 저장 시, 각각의 폴리곤에 명칭, 위치, 형상 등의 속성이 제공될 수 있다.
모든 투영 방위들 및 모든 메시에 대해 상기의 처리를 실행함으로써, 데이터 생성 장치(100)는 이 예의 특징 데이터(211)를 제공할 수 있다.
D. 지도 표시 처리:
D1. 전체 처리:
도 10은 지도 표시 처리의 흐름도이다. 여기서, 배경이 될 지도가 사용자에 의해 지정된 지점 및 방위에 따라 입체시 가능하게 표시되고, 문자 등과 같은 2차원 객체가 그 앞에 입체시 가능하게 표시되는 처리의 예가 나타나있다. 이 처리는 경로 탐색과 함께 사용됨으로써, 경로 안내 표시로 사용될 수도 있다.
지도 표시 처리는 단말(300)의 주제어부(304) 및 표시 제어부(306)에 의해 실행되는 처리이며, 하드웨어적으로는 단말의 CPU에 의해 실행되는 처리이다.
이 처리에서, 우선, 단말(300)은 사용자에 의해 지정된 표시 지점, 방위, 및 범위를 입력한다(단계(S100)). 표시 지점은, 예를 들어, GPS에 의해 얻어지는 현재 위치를 사용할 수 있다.
그리고, 단말(300)은 지정된 표시 위치 등에 따라 스크롤링 처리를 실행한다(단계(S200)). 스크롤링 처리의 내용들은 후술되겠지만, 이것은 지정된 표시 지점이 종전의 지점으로부터 이동되면, 즉, 사용자에 의해 스크롤링이 지정되면, 왼쪽 눈에 대한 이미지 및 오른쪽 눈에 대한 이미지에 적합한 스크롤링 방향들이 결정되고, 표시 지점이 왼쪽 눈에 대한 이미지 및 오른쪽 눈에 대한 이미지의 각각에 대해서 설정되는 처리이다.
단말(300)은 스크롤링 처리의 결과에 따라 지도 정보 저장부(305)로부터 왼쪽 눈/오른쪽 눈에 대한 평행 투영 데이터를 판독한다(단계(S300)). 지도 정보 저장부(305)에 누적되지 않은 영역의 데이터가 필요하면, 단말(300)은 서버(200)로부터 데이터를 다운로드한다.
여기서, 왼쪽 눈/오른쪽 눈에 대한 평행 투영 데이터에서, 이 예에서는, 도 8A에 나타낸 바와 같이, 오프셋 양(OST)만큼의 불일치가 각각의 평행사변형 영역 간에 생성된다. 따라서, 단계(S300)에서 왼쪽 눈/오른쪽 눈에 대한 평행 투영 데이터가 판독될 때, 단말(300)은 이 불일치를 해소하기 위한 방향으로 영역들 간에 오프셋 양(OST)만큼만 옮겨 그것을 배치한다. 도면에 나타낸 바와 같이, 왼쪽 눈에 대한 이미지(PL1 및 PL2) 간에 오프셋 양(OST)만큼만의 불일치가 있으므로, 영역(PL2)은 영역(PL1)에 매치하도록 오프셋 양(OST)만큼만 좌측으로 옮겨진다. 오른쪽 눈에 대한 이미지(PR1 및 PR2) 간에도 불일치가 있으므로, 영역(PR2)은 영역(PR1)에 매치하도록 오프셋 양(OST)만큼만 우측으로 옮겨진다.
이어서, 단말(300)은 마찬가지로 지도 정보 저장부(305)로부터 2차원 객체(문자, 심볼(지도 심볼/교통 통제 표지 포함), 현재 위치, 경로 표시 등)의 데이터를 판독한다(단계(S310)). 2차원 객체와 관련하여, 지도의 기능 등에 따라 필요한 것만 판독될 수 있다.
표시 위치는 2차원 객체에 대해서 3차원 공간 내에 지정되므로, 단말(300)은 판독한 2차원 객체에 좌표 변환 처리를 적용하고, 2차원 객체의 위치를 왼쪽 눈에 대한 이미지 및 오른쪽 눈에 대한 이미지 각각에 대해서 좌측 또는 우측으로 옮김으로써 시차를 주어, 왼쪽 눈/오른쪽 눈에 대한 2차원 객체 이미지를 생성한다(단계(S320)).
전술한 좌표 변환은 평행 투영 매개변수로서의 피치각 및 투영 방위에 기초하여 3차원 위치 정보를 y-축 주위에서 투영 방위(β도로 가정됨)만큼만 회전시킨 뒤, x-축 주위에서 피치각(θ도로 가정됨)만큼만 회전시키기 위한 좌표 변환 행렬을 요구하고, 이 좌표 변환 행렬을 2차원 객체의 위치 상에서 동작시킴으로써 달성될 수 있다.
2차원 객체의 왼쪽 눈/오른쪽 눈에 대한 시차는 표시 깊이의 설정에 기초할 수 있다. 표시 깊이는 모든 2차원 객체에 대해서 동일하거나 2차원 객체의 종류에 따라 변할 수도 있다. 예를 들어, 우선순위가 문자, 심볼, 및 경로 표시의 순서로 설정되어, 문자가 가장 앞에 표시되고 다음으로 현재 위치와 교통 통제를 나타내는 심볼 및 경로 표시가 이 순서로 그 깊이 상에 표시되도록 구성될 수 있다. 또한, 2차원 객체들이 겹쳐지면, 그들의 표시 깊이는 서로 상이할 수 있다.
상기와 같이 표시 깊이를 설정하면, 2차원 객체는 설정된 표시 깊이(h)에 대응하는 3차원 위치에 설정되고, 시차(편주각)(δ)에 의한 회전 행렬은 x-좌표의 변위를 얻도록 작용될 수 있는데, 이는 오른쪽 눈/왼쪽 눈에 대한 2차원 객체의 옮기는 양이 된다. 이때, 옮기는 양은 표시 깊이(h)의 함수이고, "옮기는 양 = h·tanδ"로 주어질 수 있다.
마지막으로, 단말(300)은 왼쪽 눈/오른쪽 눈에 대한 이미지들, 즉, 특징 및 2차원 객체를 중첩되는 방식으로 표시하고(단계(S330)), 지도 표시 처리를 종료한다. 상기와 같이 표시된 오른쪽 눈에 대한 이미지를 오른쪽 눈으로 그리고 왼쪽 눈에 대한 이미지를 왼쪽 눈으로 인식함으로써, 사용자는 배경의 지도 및 2차원 객체를 입체적으로 볼 수 있다.
왼쪽 눈/오른쪽 눈에 대한 평행 투영 데이터는 단지 평행 투영이 수행된 후의 2차원 폴리곤 데이터이므로, 단계(S501)의 처리에서 투영 처리를 수행하지 않으면서 얻은 데이터에 따라 단지 폴리곤을 그림으로써 가벼운 부하로 입체시가 실현될 수 있다.
D2. 스크롤링 처리:
도 11은 스크롤링 처리의 흐름도이다. 지도 표시 처리(도 10)의 단계(S200)에 대응하는 처리이고, 단말(300)의 스크롤링 설정부(307)에 의해 실행되는 처리에 대응한다.
이 처리가 시작되면, 단말(300)은 스크롤링 벡터를 입력한다(단계(S210)). 스크롤링 벡터는 지도의 이동 방향의 벡터, 즉, 이전의 표시 지점에서부터 새롭게 지시된 표시 지점으로 가는 벡터이다. 입체시를 하고 있는 사용자가 그 입체시 지도 상에서 시각적으로 인식하고자 하는 방향을 지정하므로, 이 스크롤링 벡터는 평행 투영 전의 3차원 모델의 이동 방향에 대응한다.
단말(300)은 이어서 스크롤링 방향을 보정하고 왼쪽 눈/오른쪽 눈에 대한 스크롤링 벡터를 설정한다(단계(S220)).
스크롤링 방향을 보정하는 방법이 도면에 나타나있다. 도면의 우측 상에 나타낸 그림에서, 예를 들어, 스크롤링이 3차원 모델 내에서 수직 v-축 방향으로 지정된다고 가정하면, 메시가 평행 투영에 의해 평행사변형으로 변하기 때문에, 지정된 스크롤링에 대응하는 스크롤링 방향은 이 평행사변형 영역 내의 사선 측에 따른 방향이다. 즉, v-축 방향의 스크롤링 방향은 수정각(γ)만큼만 보정될 필요가 있다. 이 각(γ)은 오프셋 양(OST)에 대한 메시의 v-축 방향의 거리(VM)의 비에 기초하여 얻을 수 있다. 즉, 그것은 tanγ = OST/VM이다. 수정각(γ)은 평행 투영 매개변수(피치각, 편주각)가 결정될 때 고유하게 결정되는 값이므로, 그것은 오프셋 양(OST)과 마찬가지로 미리 계산될 수 있다.
단말(300)은 좌측 상의 그림에 나타낸 바와 같이 수정각(γ)에 기초하여 스크롤링 벡터(VS)를 보정한다. 즉, 오른쪽 눈에 대한 이미지에 대해서는, 스크롤링 벡터(VS)를 시계 방향으로 수정각(γ)만큼만 회전시켜 얻은 방향의 벡터(VSR)가 스크롤링 방향이고, 왼쪽 눈에 대한 이미지에 대해서는, 수정각(γ)만큼만 반대 방향으로 회전시켜 얻은 방향의 벡터(VSL)가 스크롤링 방향이다.
스크롤링의 방향은 상기와 같이 평행 투영의 영향으로 인해 보정될 필요가 있지만, v-축 방향의 진행 거리는 왼쪽/오른쪽 눈들에 대해 매치될 필요가 있다. 따라서, 왼쪽 눈/오른쪽 눈에 대한 이미지에 대한 스크롤링 벡터(VSL 및 VSR) 및 스크롤링 벡터(VS)의 첨단(tip end)이 u-축에 평행하는 직선상에 정렬되도록, 왼쪽 눈/오른쪽 눈에 대한 이미지에 대한 스크롤링 벡터들(VSL 및 VSR)의 크기가 설정된다.
단말(300)은 상기의 처리에 의해 설정된 왼쪽 눈/오른쪽 눈에 대한 이미지에 대한 스크롤링 벡터들(VSL 및 VSR)에 기초하여 왼쪽 눈/오른쪽 눈에 대한 이미지 각각에 대해서 스크롤링한 후 표시 지점을 설정하고(단계(S230)), 스크롤링 처리를 종료한다.
E. 효과:
전술한 이 예의 입체시 지도 표시 시스템에 따라, 평행 투영에 의해 입체시가 실현될 수 있다. 평행 투영에서는, 입체시를 위한 왼쪽 눈/오른쪽 눈에 대한 이미지가 시점 위치에 무관하게 미리 모든 영역에 대해 생성될 수 있고. 입체시는 매우 가벼운 부하로 실현될 수 있다.
또한, 이 예에서, 스크롤링이 지시될 때, 스크롤링 방향은 왼쪽 눈/오른쪽 눈에 대한 이미지에 대해 개별적으로 지정되므로, 평행 투영에 의해 원래 메시가 평행사변형으로 변형됨으로써 발생하는 영향을 피할 수 있으며, 입체시가 유지되는 상태에서 스크롤링이 실현될 수 있다.
F. 변형 사례:
예에서, 특징 데이터 및 2차원 객체는 개별적으로 준비되고, 표시시에 2차원 객체에 시차를 주는 방법이 예시된다. 다른 한편으로, 왼쪽 눈/오른쪽 눈에 대한 이미지가 2차원 객체와 특징 데이터가 중첩된 상태에서 준비되는 양태가 채용될 수 있다. 이러한 방법을 사용하는 예가 변형 사례로서 나타내진다.
도 12는 변형 사례에서의 문자 이미지의 배치 예를 나타내는 설명도이다. 전술된 바대로, 2차원 객체가 미리 특징 데이터에 중첩하면 발생하는 문제가 설명될 것이다.
도 12A는 2차원 객체에 대한 평행 투영의 영향을 나타낸다. 도 12A의 좌측 상에 나타낸 바와 같이, 지도 내의 메시는 평행 투영에 의해 평행사변형 영역(M1 및 M2)으로 변형된다. 평행 투영 시, 도면의 우측 상에 나타낸 바와 같이, 영역(M1 및 M2)은 그들 간에 오프셋 양(OST)을 갖는 불일치가 생성된 상태로 저장되지만, 지도 표시 처리 시, 이 오프셋 양은 보정되고(도 10의 단계(S300)를 참조), 도 12A의 좌측에 나타낸 바와 같이 정렬된 상태로 표시된다.
이런 경우, 문자(CH)가 도면 내의 해칭된(hatched) 부분처럼 영역(M1 및 M2) 간의 경계 부분 상에 표시된다고 가정하자. 문자(CH)는 미리 영역(M1 및 M2) 상에 이미지로서 중첩된다고 가정된다. 이때, 문자(CH)는 오프셋 양이 보정된, 도 12A의 좌측 상에 나타낸 바와 같이 영역(M1 및 M2) 간의 경계 상에서 불일치 없이 표시되어야 한다. 따라서, 오프셋 양이 보정되기 전에 영역(M1 및 M2) 각각의 특징 데이터(도 12A의 우측 상의 상태)에서, 문자(CH1 및 CH2)는 영역(M1 및 M2)의 경계 상에서 오프셋 양(OST)에 대응하는 양만큼 불일치를 갖는 상태여야 한다.
즉, 도 12B에 나타낸 바와 같이 영역(M1 및 M2)이 저장되고 특징의 이미지 데이터 상에 중첩된 상태로 문자(CH)가 그려지면, 오프셋 양이 도 12A에서와 같이 보정될 때, 문자(CH)가 경계 간에 차이를 가질 것이다.
변형 사례에서는, 오프셋 양이 상기에서와 같이 경계 부근의 문자의 표시 위치에 반영되면서, 특징의 이미지 데이터와 문자의 이미지가 중첩된 특징 데이터가 생성된다.
도 13은 변형 사례에서의 특징 데이터 생성 처리의 흐름도이다.
3D 지도 데이터를 사용하여 특징을 표현하는 왼쪽 눈에 대한 이미지 및 오른쪽 눈에 대한 이미지를 생성하는 처리는 상기 예에서(도 9) 단계(S10 내지 S50)와 같다. 이어서, 데이터 생성 장치(100)는 지도에 표시할 2차원 객체(문자, 심볼)를 판독한다(단계(S51)). 여기서, 지도가 현재 위치 및 경로 안내 표시로서 표시될 때 동적으로 이동하는 2차원 객체 대신, 미리 지도 데이터로 준비될 수 있는 2차원 객체를 대상으로 한다.
그런 다음, 특징 데이터 생성 장치(100)는 2차원 객체의 좌표 변환을 수행하고, 왼쪽 눈/오른쪽 눈에 대한 2차원 객체 이미지를 생성한다(단계(S52)). 이 좌표 변환은 평행 투영 매개변수에 기초하여 2차원 객체의 표시 위치를 왼쪽 눈/오른쪽 눈에 대한 이미지 내의 표시 위치로 변환하기 위한 처리이다. 좌표 변환은 또한 시차를 주기 위해, 왼쪽 눈/오른쪽 눈에 대한 이미지에 대한 2차원 객체의 표시 위치를 좌측 또는 우측으로 옮기는 처리를 포함한다.
2차원 객체 이미지가 왼쪽 눈/오른쪽 눈에 대한 이미지 각각에 대해 생성되면, 특징 데이터 생성 장치(100)는 오프셋 양(OST)을 고려하여 왼쪽 눈/오른쪽 눈에 대한 이미지를 배치하고, 왼쪽 눈/오른쪽 눈에 대한 2차원 객체 이미지를 붙인다(단계(S53)). 그런 다음, 특징 데이터 생성 장치(100)는 왼쪽 눈/오른쪽 눈에 대한 각각의 이미지로부터 대상 메시에 대응하는 영역을 분할하고(단계(S60)), 특징 데이터 및 오프셋 양(OST)을 저장한다(단계(S70)).
도 12A의 우측 상에 나타낸 바와 같이, 문자(CH)는 단계(S53) 및 이후의 처리에 의해서 문자 영역(M1 및 M2) 간에 불일치를 가지며 배치된다. 그러나, 이 처리가 수행될 때, 문자(CH)의 이미지를 각각의 영역으로 나누고 그것을 옮기는 등의 처리를 수행할 필요는 없다. 전술된 바대로, 왼쪽 눈/오른쪽 눈에 대한 이미지는 각각의 영역에 대해 생성되고, 그 방법으로서 대상 메시의 주변을 포함하는 평행 투영 이미지를 생성하고 대상 메시들에 대응하는 영역(M1 및 M2) 등을 분할하는 방법이 사용된다. 따라서, 영역(M2)이 생성될 때에는, 단지 도 12A의 우측 상의 CH1의 위치에서 영역(M2)을 튀어나온 부분을 포함하는 전체 문자 이미지를 배치할 필요가 있다. 이로부터 영역(M2)에 대응하는 부분을 분할함으로써, 문자(CH1)의 부분만을 포함하는 특징 데이터가 복잡한 이미지 처리를 수행하지 않고서 생성된다. 같은 것이 영역(M1)에 대해서도 적용된다. 영역(M1)이 생성될 때는, 단지 문자(CH2)의 위치에 전체 문자 이미지를 배치한 후 영역(M1)에 대응하는 부분을 분할할 필요가 있다.
도 14는 변형 사례의 특징 데이터 예를 나타내는 설명도이다.
도 14A는 지도가 표시될 때 오프셋 양에 대한 보정이 행해지기 전의 특징 데이터를 나타낸다. 여기서, 영역은 직사각형 형상을 가진 것으로 표현되었다. 이러한 상태는 특징 데이터 생성 처리(도 13)의 분할(단계(S60))에서 평행사변형이 아니라 직사각형 형상으로 분할함으로써 용이하게 실현될 수 있다.
도 14A에서, 오프셋 양에 대한 보정이 실행되지 않았으므로, 경계들(BH 및 BV)은 일직선으로 정렬된다. 그러나, 경계(BH)에 걸친 문자열들 "도라노몬 35 모리 빌딩(Toranomon 35 Mori Building)" 및 "치샤크인-베트수인-싱프크지(Chishakuin-Betsuin-Shinpukuji)"는 경계(BH)의 위측과 아래측 간에 수평적인 불일치를 갖는다고 알려져있다. 이것은 상기 도 12A의 우측 상에 나타낸 문자(CH1 및 Ch2) 간의 불일치에 대응하는 상태이다.
도 14B는 오프셋 양이 보정된 상태를 나타낸다. 즉, 세로 방향의 경계선(BV1 및 BV2)이 경계(BH)의 수직 방향으로 불일치를 갖는다. 상기와 같은 오프셋 양의 보정 결과, 경계(BH)에 걸친 문자열의 불일치가 조정되고, 문자열은 불일치가 없는 상태로 표시된다.
상기 예와 마찬가지로, 전술된 변형 사례에 따라, 입체시가 미리 평행 투영에 의해 생성된 왼쪽 눈/오른쪽 눈에 대한 이미지를 사용하여 가벼운 부하를 갖고 실현될 수 있으며, 그들은 또한 문자도 포함하는 왼쪽 눈/오른쪽 눈에 대한 이미지 내에 생성되므로, 문자를 표시하기 위한 처리 부하가 또한 줄어들 수 있고, 입체시가 더욱 가벼운 처리 부하로 실현될 수 있다. 또한, 변형 사례에서는, 문자들이 미리 표시시의 오프셋 양에 대한 보정에 기초하여 배치되므로, 문자는 표시 시에 각각의 영역 간의 경계에서 불일치 없이 표시될 수 있다.
변형 사례에서, 현재 위치, 경로 안내 등과 같은 표시 동안 이동하는 2차원 객체가 추가적으로 포함될 수 있다. 2차원 객체는 상기 예와 마찬가지로 표시 시에 시차를 줌으로써 표시될 수 있다.
본 발명의 예들이 설명되었다. 입체시 지도 표시 시스템에는 반드시 전술한 예들의 모든 기능이 제공될 필요는 없지만, 그중 일부만이 실현될 수도 있다. 또한, 전술한 내용 중에 추가 기능이 포함되었을 수도 있다.
본 발명은 전술된 예에 제한되지 않고, 그것의 취지를 벋어나지 않는 범위 내에서 다양한 구성이 채용될 수 있다는 것은 말할 필요도 없다. 예를 들어, 예시에서 하드웨어적으로 구성되는 부분은 소프트웨어적으로 구성될 수도 있으며, 그 반대도 가능하다. 또한, 지도뿐 아니라 다양한 입체시 이미지들이 대상으로 사용될 수 있다. 더 나아가, 입체시 이미지의 출력은 표시부 상에 표시하는 것에만 제한되지 않고, 인쇄될 수도 있다.
100: 데이터 생성 장치
101: 명령 입력 장치
102: 평행 투영부
103: 평행 투영 데이터
104: 3D 지도 데이터베이스
105: 전송/수신부
106: 투영 매개변수 수정부
200: 서버
201: 전송/수신부
202: 데이터베이스 제어부
203: 경로 탐색부
210: 지도 데이터베이스
211: 특징 데이터
212: 2차원 객체
213: 네트워크 데이터
300: 단말
300d: 표시부
301: 전송/수신부
302: 명령 입력 장치
303: GPS 입력 장치
304: 주 제어부
305: 지도 정보 저장부
306: 표시 제어부
307: 스크롤링 제어부

Claims (6)

  1. 이미지의 입체시를 위한 입체시 이미지 출력 시스템에 있어서,
    시차를 가진 왼쪽 눈에 대한 이미지 및 오른쪽 눈에 대한 이미지가 각각 왼쪽 눈 및 오른쪽 눈에 의해 시각적으로 인식될 수 있도록 상기 이미지를 출력함으로써 입체시를 실현하는 입체시 출력부;
    왼쪽 눈과 오른쪽 눈 간에 시차를 생성하도록, 각각 설정된 소정의 투영각만큼 수직 방향으로부터 기울어진 사선 방향으로부터의 평행 투영에 의해, 입체시의 대상이 되는 3차원 모델을 평면 상에 투영함으로써 얻은 2차원 그림 데이터로서 왼쪽 눈에 대한 평행 투영 데이터 및 오른쪽 눈에 대한 평행 투영 데이터를 저장하는 이미지 데이터베이스 저장부; 및
    상기 왼쪽 눈에 대한 평행 투영 데이터 및 상기 오른쪽 눈에 대한 평행 투영 데이터에 기초하여 지정된 출력 범위의 이미지를 출력하기 위해, 시차를 가진 상기 왼쪽 눈에 대한 이미지 및 상기 오른쪽 눈에 대한 이미지를 상기 입체시 출력부에 출력하는 출력 제어부를 포함하고,
    상기 출력 제어부는 상기 평행 투영의 매개변수에 기초하여 상기 왼쪽 눈에 대한 이미지 및 상기 오른쪽 눈에 대한 이미지의 이동 방향을 결정하고, 2차원 객체 데이터를 소정의 출력 위치에 대해서 좌측 또는 우측으로 오프셋팅(offsetting)함으로써 시차를 갖는 왼쪽 눈에 대한 이미지 및 오른쪽 눈에 대한 이미지를 출력하며,
    상기 출력 범위가 이동하면, 상기 출력 제어부는 상기 왼쪽 눈에 대한 이미지 및 상기 오른쪽 눈에 대한 이미지의 이동 방향을 개별적으로 결정하고, 이동 방향에 따라 상기 왼쪽 눈에 대한 평행 투영 데이터 및 상기 오른쪽 눈에 대한 평행 투영 데이터를 판독하고, 상기 왼쪽 눈에 대한 이미지 및 상기 오른쪽 눈에 대한 이미지를 출력하는, 입체시 이미지 출력 시스템.
  2. 삭제
  3. 제 1 항에 있어서,
    상기 이미지 데이터 저장부는 2차원 객체를 상기 이미지에 출력하기 위한 2차원 객체 데이터를 저장하고, 상기 출력 제어부는 상기 2차원 객체 데이터를 소정의 출력 위치에 대해서 좌측 또는 우측으로 오프셋팅(offsetting)하여 시차를 줌으로써 상기 왼쪽 눈에 대한 이미지 및 상기 오른쪽 눈에 대한 이미지를 출력하는, 입체시 이미지 출력 시스템.
  4. 제 1 항에 기재된 시차를 가진 왼쪽 눈에 대한 이미지 및 오른쪽 눈에 대한 이미지가 각각 왼쪽 눈 및 오른쪽 눈에 의해 시각적으로 인식될 수 있도록 상기 이미지를 출력함으로써, 입체시 이미지를 출력하는 입체시 이미지 출력 시스템에 대한 이미지 데이터를 생성하는 이미지 데이터 생성 장치에 있어서,
    입체시의 대상이 되는 3차원 모델 및 상기 입체시 이미지 내에 2차원 객체를 출력하기 위한 2차원 객체 데이터를 저장하는 3D 이미지 데이터베이스 저장부;
    소정의 크기를 가진 메시 단위로, 왼쪽 눈과 오른쪽 눈 간에 시차를 생성하도록, 각각 설정된 소정의 투영각만큼 수직 방향으로부터 기울어진 사선 방향으로부터의 평행 투영에 의해, 상기 3차원 모델을 평면 상에 투영함으로써 얻은 2차원 그림 데이터로서 왼쪽 눈에 대한 평행 투영 데이터 및 오른쪽 눈에 대한 평행 투영 데이터를 생성하는 평행 투영부;
    상기 2차원 객체 데이터를 소정의 출력 위치에 대해서 좌측 또는 우측으로 오프셋팅하여 시차를 줌으로써 왼쪽 눈에 대한 2차원 객체 이미지 데이터 및 오른쪽 눈에 대한 2차원 객체 이미지 데이터를 생성하는 2차원 객체 이미지 데이터 생성부; 및
    각각의 시차를 고려한 위치들에서 생성된 상기 왼쪽 눈에 대한 2차원 객체 이미지 데이터 및 상기 오른쪽 눈에 대한 2차원 객체 이미지 데이터를 상기 왼쪽 눈에 대한 평행 투영 데이터 및 상기 오른쪽 눈에 대한 평행 투영 데이터 상에 중첩함으로써, 왼쪽 눈에 대한 이미지 데이터 및 오른쪽 눈에 대한 이미지 데이터를 생성하는 중첩 처리부를 포함하는, 이미지 데이터 생성 장치.
  5. 시차를 가진 왼쪽 눈에 대한 이미지 및 오른쪽 눈에 대한 이미지가 각각 왼쪽 눈 및 오른쪽 눈에 의해 시각적으로 인식될 수 있도록 상기 이미지를 출력함으로써, 입체시를 실현하는 입체시 출력부를 사용하는 컴퓨터에 의한 이미지의 입체시를 위한 입체시 이미지 출력 방법에 있어서,
    상기 컴퓨터에 의해, 왼쪽 눈과 오른쪽 눈 간에 시차를 생성하도록 각각 설정된 소정의 투영각만큼 수직 방향으로부터 기울어진 사선 방향으로부터의 평행 투영에 의해, 입체시의 대상이 되는 3차원 모델을 평면 상에 투영하여 얻은 2차원 그림 데이터로서 왼쪽 눈에 대한 평행 투영 데이터 및 오른쪽 눈에 대한 평행 투영 데이터를 저장하는 이미지 데이터베이스 저장부로부터 데이터를 판독하는 단계;
    상기 컴퓨터에 의해, 상기 왼쪽 눈에 대한 평행 투영 데이터 및 상기 오른쪽 눈에 대한 평행 투영 데이터에 기초하여 지정된 출력 범위의 이미지를 출력하기 위해, 시차를 가진 상기 왼쪽 눈에 대한 이미지 및 상기 오른쪽 눈에 대한 이미지를 상기 입체시 출력부에 출력하는 출력 제어 단계를 포함하고,
    상기 출력 제어 단계는,
    상기 평행 투영의 매개변수에 기초하여 상기 왼쪽 눈에 대한 이미지 및 상기 오른쪽 눈에 대한 이미지의 이동 방향을 결정하고, 2차원 객체 데이터를 소정의 출력 위치에 대해서 좌측 또는 우측으로 오프셋팅(offsetting)함으로써 시차를 갖는 왼쪽 눈에 대한 이미지 및 오른쪽 눈에 대한 이미지를 출력하며,
    상기 출력 범위가 이동할 때, 상기 왼쪽 눈에 대한 이미지 및 상기 오른쪽 눈에 대한 이미지의 이동 방향들이 개별적으로 결정되고, 이동 방향들에 따라 상기 왼쪽 눈에 대한 평행 투영 데이터 및 상기 오른쪽 눈에 대한 평행 투영 데이터가 판독되고, 상기 왼쪽 눈에 대한 이미지 및 상기 오른쪽 눈에 대한 이미지가 출력되는, 입체시 이미지 출력 방법.
  6. 시차를 가진 왼쪽 눈에 대한 이미지 및 오른쪽 눈에 대한 이미지가 각각 왼쪽 눈 및 오른쪽 눈에 의해 시각적으로 인식될 수 있도록 상기 이미지를 출력함으로써, 입체시를 실현하는 입체시 출력부를 사용하여 이미지를 입체시하기 위한 컴퓨터 프로그램에 있어서, 컴퓨터로 하여금,
    왼쪽 눈과 오른쪽 눈 간에 시차를 생성하도록 각각 설정된 소정의 투영각만큼 수직 방향으로부터 기울어진 사선 방향으로부터의 평행 투영에 의해, 입체시의 대상이 되는 3차원 모델을 평면 상에 투영하여 얻은 2차원 그림 데이터로서 왼쪽 눈에 대한 평행 투영 데이터 및 오른쪽 눈에 대한 평행 투영 데이터를 저장하는 이미지 데이터베이스 저장부로부터 데이터를 판독하는 기능; 상기 왼쪽 눈에 대한 평행 투영 데이터 및 상기 오른쪽 눈에 대한 평행 투영 데이터에 기초하여 지정된 출력 범위의 이미지를 출력하기 위해 시차를 가진 상기 왼쪽 눈에 대한 이미지 및 상기 오른쪽 눈 이미지를 상기 입체시 출력부에 출력하는 기능; 및 상기 출력 범위가 이동하면, 상기 왼쪽 눈에 대한 이미지 및 상기 오른쪽 눈에 대한 이미지의 이동 방향을 개별적으로 결정하고, 상기 이동 방향에 따라 상기 왼쪽 눈에 대한 평행 투영 데이터 및 상기 오른쪽 눈에 대한 평행 투영 데이터를 판독하고, 상기 왼쪽 눈에 대한 이미지 및 상기 오른쪽 눈에 대한 이미지를 출력하는 기능을 포함하는 매체에 저장된 컴퓨터 프로그램.
KR1020157021855A 2013-02-20 2014-02-18 입체시 이미지 출력 시스템 KR102121088B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JPJP-P-2013-031106 2013-02-20
JP2013031106A JP6066066B2 (ja) 2013-02-20 2013-02-20 立体視画像出力システム
PCT/JP2014/000816 WO2014129174A1 (en) 2013-02-20 2014-02-18 Stereoscopic image output system

Publications (2)

Publication Number Publication Date
KR20150120974A KR20150120974A (ko) 2015-10-28
KR102121088B1 true KR102121088B1 (ko) 2020-06-17

Family

ID=51390972

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020157021855A KR102121088B1 (ko) 2013-02-20 2014-02-18 입체시 이미지 출력 시스템

Country Status (7)

Country Link
US (1) US9609309B2 (ko)
EP (1) EP2959686A4 (ko)
JP (1) JP6066066B2 (ko)
KR (1) KR102121088B1 (ko)
CN (1) CN104995913A (ko)
HK (1) HK1214898A1 (ko)
WO (1) WO2014129174A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018201048A1 (en) * 2017-04-27 2018-11-01 Google Llc Synthetic stereoscopic content capture
CN110161527B (zh) * 2019-05-30 2020-11-17 华中科技大学 一种基于rfid和激光雷达的三维地图重构系统及方法
CN112818991B (zh) * 2021-02-18 2024-04-09 长江存储科技有限责任公司 图像处理方法及图像处理装置、电子设备、可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005181377A (ja) 2003-12-16 2005-07-07 Sophia Co Ltd 遊技機
JP2008244835A (ja) 2007-03-27 2008-10-09 Toshiba Corp 立体表示装置および立体画像表示方法
US20100194864A1 (en) * 2009-02-05 2010-08-05 Yoshiyuki Kokojima Apparatus and method for drawing a stereoscopic image

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001331169A (ja) * 2000-05-22 2001-11-30 Namco Ltd 立体視映像表示装置、及び情報記憶媒体
JP2003322824A (ja) * 2002-02-26 2003-11-14 Namco Ltd 立体視映像表示装置および電子機器
US7321682B2 (en) 2002-11-12 2008-01-22 Namco Bandai Games, Inc. Image generation system, image generation method, program, and information storage medium
CN100459719C (zh) * 2003-09-04 2009-02-04 株式会社东芝 三维影像显示装置和方法及三维显示用影像数据生成方法
JP4365303B2 (ja) * 2004-10-06 2009-11-18 株式会社コナミデジタルエンタテインメント 画像処理プログラムが記憶された記録媒体
JP4489610B2 (ja) * 2005-01-28 2010-06-23 株式会社 日立ディスプレイズ 立体視可能な表示装置および方法
JP5405264B2 (ja) * 2009-10-20 2014-02-05 任天堂株式会社 表示制御プログラム、ライブラリプログラム、情報処理システム、および、表示制御方法
JP4754031B2 (ja) * 2009-11-04 2011-08-24 任天堂株式会社 表示制御プログラム、情報処理システム、および立体表示の制御に利用されるプログラム
JP5223062B2 (ja) * 2010-03-11 2013-06-26 株式会社ジオ技術研究所 3次元地図描画システム
CN101872492B (zh) * 2010-06-09 2012-11-28 中国科学院深圳先进技术研究院 三维仿真城市的多角度地图实现方法
JP2012017437A (ja) 2010-07-09 2012-01-26 Mitsubishi Pencil Co Ltd 水性ボールペン
KR101763686B1 (ko) * 2010-11-15 2017-08-01 삼성전자 주식회사 입체 영상 처리 장치 및 그 처리 방법
JP5698529B2 (ja) * 2010-12-29 2015-04-08 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、および表示制御方法
JP5725902B2 (ja) * 2011-02-24 2015-05-27 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理方法および画像処理システム
JP2012174237A (ja) 2011-02-24 2012-09-10 Nintendo Co Ltd 表示制御プログラム、表示制御装置、表示制御システム、及び表示制御方法
JP5757790B2 (ja) * 2011-06-03 2015-07-29 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、及び、情報処理方法
JP5921102B2 (ja) * 2011-07-19 2016-05-24 株式会社東芝 画像処理システム、装置、方法及びプログラム
JP6058290B2 (ja) * 2011-07-19 2017-01-11 東芝メディカルシステムズ株式会社 画像処理システム、装置、方法及び医用画像診断装置
KR101193115B1 (ko) * 2011-10-07 2012-10-19 한국항공우주산업 주식회사 3d 전자 지도 시스템
KR20130054176A (ko) * 2011-11-14 2013-05-24 삼성전자주식회사 3d 영상의 안정피로 측정 방법 및 장치
JP2012150823A (ja) 2012-02-28 2012-08-09 Geo Technical Laboratory Co Ltd 3次元地図描画システム
JP5903023B2 (ja) * 2012-10-04 2016-04-13 株式会社ジオ技術研究所 立体視地図表示システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005181377A (ja) 2003-12-16 2005-07-07 Sophia Co Ltd 遊技機
JP2008244835A (ja) 2007-03-27 2008-10-09 Toshiba Corp 立体表示装置および立体画像表示方法
US20100194864A1 (en) * 2009-02-05 2010-08-05 Yoshiyuki Kokojima Apparatus and method for drawing a stereoscopic image

Also Published As

Publication number Publication date
KR20150120974A (ko) 2015-10-28
WO2014129174A1 (en) 2014-08-28
HK1214898A1 (zh) 2016-08-05
JP6066066B2 (ja) 2017-01-25
EP2959686A4 (en) 2016-10-05
US20150334377A1 (en) 2015-11-19
US9609309B2 (en) 2017-03-28
JP2014160969A (ja) 2014-09-04
CN104995913A (zh) 2015-10-21
EP2959686A1 (en) 2015-12-30

Similar Documents

Publication Publication Date Title
US10964079B2 (en) Method and apparatus for editing road element on map, electronic device, and storage medium
US6677939B2 (en) Stereoscopic image processing apparatus and method, stereoscopic vision parameter setting apparatus and method and computer program storage medium information processing method and apparatus
KR102090852B1 (ko) 입체지도 표시 시스템
KR101799945B1 (ko) 3차원 지도 묘화 시스템, 지물 데이터 생성 방법, 3차원 지도 묘화 방법 및 컴퓨터 판독가능한 기록 매체
EP2643821B1 (en) Path planning for street level navigation in a three-dimensional environment, and applications thereof
KR100634010B1 (ko) 디지털 지도의 좌표 값 변환방법
JP6096634B2 (ja) 仮想現実を用いた3次元地図表示システム
WO2015141301A1 (ja) 3次元地図表示システム
JP5725908B2 (ja) 地図データ生成システム
KR102121088B1 (ko) 입체시 이미지 출력 시스템
JP6022386B2 (ja) 3次元地図表示装置、3次元地図表示方法、および、コンピュータプログラム
US10976177B2 (en) Navigation system and navigation program
CN115683152A (zh) 基于坐标转换的车辆导航指引方法、装置及电子设备
JP6091676B2 (ja) 3次元地図表示システム
JP6161348B2 (ja) 立体視画像データ生成装置
JP6899715B2 (ja) 図面作成システム、図面作成方法及びプログラム
CN105474270A (zh) 立体地图显示系统
JP5964611B2 (ja) 3次元地図表示システム
JP6512425B2 (ja) 3次元地図表示システム
JP3851887B2 (ja) ステレオ写真方式による立体視地図表示装置および方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant