WO2009151220A2 - 사용자 뷰 출력 시스템 및 방법 - Google Patents

사용자 뷰 출력 시스템 및 방법 Download PDF

Info

Publication number
WO2009151220A2
WO2009151220A2 PCT/KR2009/002789 KR2009002789W WO2009151220A2 WO 2009151220 A2 WO2009151220 A2 WO 2009151220A2 KR 2009002789 W KR2009002789 W KR 2009002789W WO 2009151220 A2 WO2009151220 A2 WO 2009151220A2
Authority
WO
WIPO (PCT)
Prior art keywords
screen
user
output
camera
view
Prior art date
Application number
PCT/KR2009/002789
Other languages
English (en)
French (fr)
Other versions
WO2009151220A3 (ko
Inventor
서정각
김윤한
Original Assignee
팅크웨어(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 팅크웨어(주) filed Critical 팅크웨어(주)
Priority to EP09762607.1A priority Critical patent/EP2293269A4/en
Priority to CN2009801218773A priority patent/CN102057413A/zh
Priority to US12/996,685 priority patent/US20110181718A1/en
Publication of WO2009151220A2 publication Critical patent/WO2009151220A2/ko
Publication of WO2009151220A3 publication Critical patent/WO2009151220A3/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/0969Systems involving transmission of navigation instructions to the vehicle having a display in the form of a map
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • G09B29/106Map spot or coordinate position indicators; Map reading aids using electronic means

Definitions

  • the present invention relates to a user view output system and method, and more particularly, to a user view output system and method for positioning the camera at the user's position, and controls the user's field of view to output the screen from the user's point of view.
  • the present invention provides a user view output system and method that can represent a realistic 3D object and more easily grasp the current position by positioning the camera at the user's location and controlling the user's viewing angle to output the screen from the user's point of view. .
  • the present invention outputs a screen from a user's point of view and at the same time outputs a minimap screen at a different point in time, so that the current location and the screen of another region can be viewed together, and a user view output system can satisfy various user's needs. And methods.
  • a user view output system includes a data receiver configured to receive screen output data, a camera located at a user's viewpoint, a viewing angle controller configured to control an output of the camera to match a user's viewing angle, and the screen output data. And a user view output unit for outputting a screen shot of the camera as a basis.
  • it may include a mini-map output unit for outputting the image taken from the camera viewpoint located above the user.
  • the mini-map may be output in consideration of the location of the route line and the building on the user view screen.
  • the size of the minimap may be larger than or equal to a predetermined size and at the same time minimize the area overlapping the route line and the building.
  • the user view output screen and the minimap may maintain a camera that operates independently and share the screen output data.
  • the screen output mode when the screen is touched, the screen output mode may be switched to the camera view screen over the user.
  • a user view output method comprises the steps of: receiving screen output data, positioning a camera at a user's point of view, controlling the output of the camera to coincide with a user viewing angle, and outputting the screen output data. And outputting a screen shot of the camera based on the screen.
  • the method may further include positioning a camera over the user and outputting a mini-map photographed at a camera viewpoint positioned over the user.
  • the camera by positioning the camera at the user's location, and controls the user's field of view to output the screen from the user's point of view, the user view output to express the realistic 3D object and more easily grasp the current position.
  • FIG. 1 is a flowchart illustrating a user view output system according to an exemplary embodiment of the present invention.
  • FIG. 2 is a diagram illustrating a user view output system according to another exemplary embodiment of the present invention.
  • FIG. 3 is a flowchart illustrating a user view output method according to an embodiment of the present invention.
  • FIG. 4 is a diagram for describing a change of a screen output mode when a user screen is touched according to one embodiment of the present invention.
  • FIG. 5 is a diagram for describing a user view output screen outputting a minimap together according to one embodiment of the present invention.
  • FIG. 1 is a flowchart illustrating a user view output system according to an exemplary embodiment of the present invention.
  • the user view output system 100 includes a data receiver 130, a camera 110, a viewing angle controller 120, and a user view output unit 140.
  • the data receiver 130 receives map data or the like necessary for outputting a screen from a database.
  • the map data may include roads, facilities, and points of interest (POIs) to be displayed on the screen.
  • POIs points of interest
  • the camera 110 is a camera located at the viewpoint of the user.
  • the camera assumes the user's eyes looking at the screen and refers to an object looking at a three-dimensional space.
  • the user's point of view may mean a point in time at which the user of the terminal drives a moving means, and the like for a driver such as a vehicle, and may mean a point of view of a driver and a pedestrian point of view for a pedestrian.
  • the viewing angle controller 120 controls the output of the camera to match the viewing angle of the user. That is, the viewing angle controller 120 may match the viewing angle of the camera to be similar to the viewing angle of the camera and the actual human viewing angle.
  • the user view output unit 140 controls to output the captured image of the camera 110 to the screen based on the screen output data. That is, an image captured at the time when the camera 110 is located may be output on the screen based on the screen output data.
  • the changed output screen mode may be a top view mode of 2D. That is, it may be set in advance so as to change to a mode that is easy for the user to recognize.
  • FIG. 2 is a diagram illustrating a user view output system according to another exemplary embodiment of the present invention.
  • the user view output system 200 may include a data receiver 230, a first camera 210, a second camera 240, and a viewing angle controller ( 220, the user view outputter 240 and the minimap outputter 260 may be included. That is, a minimap for displaying a screen shot from another viewpoint may be output while simultaneously outputting a captured image of the user's viewpoint.
  • the data receiver 230 receives map data to be displayed on a screen from a database.
  • the screen of the mini-map and the user's point of view outputs the same point in a different view mode, so that the data received by the data receiver 230 may be shared and output in different modes based on each camera when outputting the screen.
  • the first camera 210 is a camera located at the user's viewpoint
  • the second camera 240 is a camera located over the user.
  • the second camera 240 may be positioned in the air spaced apart from the user at a predetermined distance, and may provide a top view that provides an image by photographing from the viewpoint of the user as if looking down from the sky.
  • the viewing angle controller 220 controls the output of the first camera 210 to match the viewing angle of the user.
  • the user view output unit 250 may output a captured image of the first camera 210 to output an image of a user's viewpoint.
  • the minimap output unit 260 may output the captured image of the second camera 240 to a predetermined portion of the screen.
  • the minimap may be a top view image in the 2D mode.
  • the minimap may output at least one of a turn point and a point of interest (POI). That is, since the output screen of the user's point of view does not output the turn point, the point of interest (POI) and the user's back, a minimap for outputting them may be output together to compensate for this. That is, the minimap may be set to be output together with the user view screen by the user's selection.
  • POI point of interest
  • the minimap when the user touches a predetermined area of the minimap or a predetermined area of the user view screen, the minimap may be enlarged and output on the full screen.
  • the user touches a predetermined area of the minimap or user view screen the user can observe the minimap on the enlarged screen and determine that the user wants to move the coordinates by touching the bar.
  • the user's convenience can be achieved.
  • the minimap may be enlarged to be output to the full screen, and the camera may be moved to a predetermined area of the touched minimap or a predetermined area of the user view screen to output the full screen.
  • the second camera 240 of the minimap may move to the touched predetermined area to output the screen. Therefore, when the user wants to see the back of the user, the user can touch the area of the minimap to see the desired place.
  • the location and size of the mini-map outputted on the screen may consider the location of the route line and the building on the viewpoint screen.
  • the size of the minimap may be larger than or equal to a predetermined size and at the same time, a size that minimizes an area overlapping the path line and the building.
  • the minimap sets the minimum size that is easy to be recognized by the user, and calculates the optimal size that is more than the minimum size that is set above and at the same time minimizes the path lines and buildings that are output on the screen of the user's point of view. Can be set.
  • the size of the minimap may be changed by an experimental value, etc., and may allow the user to set and change the size.
  • FIG. 3 is a flowchart illustrating a user view output method according to an embodiment of the present invention.
  • step S310 data to be output on the screen is received.
  • the data refers to map data and the like, and may include road data, facility data, and the like necessary for screen output.
  • step S320 the camera is positioned at the user's point of view.
  • the viewpoint may be output differently according to the position of the camera, and the camera may be positioned at the user's viewpoint to output the image viewed from the viewpoint of the user.
  • the output of the camera is controlled to match the viewing angle of the user.
  • the viewing angle of the camera can be matched to be similar to the viewing angle of the real person.
  • the camera photographed image is output based on the screen output data. That is, the image captured from the camera's point of view may be output on the screen based on the received map data.
  • a separate camera may be positioned over the user and the captured image may be output as a minimap. Since the output point of the user's point of view does not display turn points, POIs, etc., a separate minimap can be output together for user convenience.
  • the minimap has a separate camera, and the data for screen output may be shared with the screen output data for the output image of the user's viewpoint.
  • the mini-map may be a top view viewed from the user's top, and may be configured in 2D.
  • FIG. 4 is a diagram for describing a change of a screen output mode when a user screen is touched according to one embodiment of the present invention.
  • the user view screen 410 outputs a 3D screen from the viewpoint of the user and provides the same to the user.
  • the user view may provide a more realistic and realistic image, so that the road may be more easily recognized and accurate point grasping may be possible.
  • the user may change the screen to another mode through a screen touch.
  • the user view screen 410 may be touched to be changed to the top view screen 420, and the turn point 422 and the POI 421 may appear on the top view screen.
  • the top view screen can check the rear of the user, and when the user touches a desired point, the camera may move to the corresponding point to output the screen.
  • a more realistic and highly visible screen can be provided to the user, and the user can change the screen to another view mode through a simple method such as touching the user view screen for user convenience. have.
  • FIG. 5 is a diagram for describing a user view output screen outputting a minimap together according to one embodiment of the present invention.
  • the mini map 520 may be output at the same time as the user view screen 510 is output.
  • the minimap may be output at a predetermined size or more so that the user can easily recognize the minimap.
  • the size of the minimap is too large, it is difficult to obtain the effectiveness of the user view mode by overlapping the building and the path line on the user view screen 510, so that the size of the minimap overlapping with the building, the path line and the like can be set as much as possible. have. That is, the size of the minimap is larger than a predetermined size and at the same time, the size of the minimap to minimize the area overlapping the path line and the building, which can be selected by an experiment or the like.
  • the user may set the size arbitrarily and output it.
  • the minimap 520 is simultaneously made with the user view output 510, a turn point 521, a POI 522, and the like that do not appear in the user view may appear, and the user may also recognize a situation behind the user. .
  • a more realistic and realistic screen is output to allow the user to recognize the road situation more easily, and simultaneously outputs a minimap to provide a realistic screen.
  • Outputs such as turn points, POIs, etc. can also be checked.
  • the user view output method includes a computer readable medium including program instructions for performing operations implemented by various computers.
  • the computer readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • the medium or program instructions may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks.
  • Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)
  • Instructional Devices (AREA)

Abstract

사용자 뷰 출력 시스템 및 방법이 개시된다. 사용자의 시점에서 화면을 출력하는 사용자 뷰 출력 시스템은, 화면 출력 데이터를 수신하는 데이터 수신부, 사용자 시점에 위치하는 카메라, 상기 카메라의 출력이 사용자 시야각과 일치하도록 제어하는 시야각 제어부 및 상기 화면출력 데이터를 기초로 상기 카메라의 촬영 영상을 화면 출력하기 위한 사용자 뷰 출력부를 포함한다.

Description

사용자 뷰 출력 시스템 및 방법
본 발명은 사용자 뷰 출력 시스템 및 방법에 관한 것으로 특히, 사용자의 위치에 카메라를 위치시키고, 사용자 시야각을 제어하여 사용자의 시점에서 화면을 출력하는 사용자 뷰 출력 시스템 및 방법에 관한 것이다.
운전자 등을 위한 화면을 출력하는 경우 3D 출력화면을 통해 보다 사실감 있게 사물을 표현하여 쉽고 정확하게 운전하고자 하는 기술이 요구된다. 3D 화면 출력에 있어서, 사용자의 시점에서 화면을 출력한다면 보다 현실감 있고 사실적인 사물의 표현이 가능할 수 있다.
사용자의 시점에서 화면을 출력하는 경우, 현재위치와 지나가야 할 먼거리의 주행화면도 함께 볼 수 있는 별도의 맵을 출력하는 기술이 요구될 수 있다.
따라서, 사물의 시인성을 높이고 현실감 있는 사물을 표현하기 위한 사용자 시점의 화면을 출력하기 위한 기술이 요구되고, 별도의 미니맵을 통해 다양한 사용자의 요구를 만족시키기 위한 기술이 요구된다.
본 발명은 사용자의 위치에 카메라를 위치시키고, 사용자 시야각을 제어하여 사용자의 시점에서 화면을 출력함으로써, 현실감 있는 3D 객체를 표현하고 현재 위치를 보다 쉽게 파악할 수 있는 사용자 뷰 출력 시스템 및 방법을 제공한다.
본 발명은 사용자의 시점에서 화면을 출력함과 동시에 상이한 시점에서의 미니맵 화면을 출력함으로써, 현재위치 및 다른 지역의 화면도 함께 볼 수 있어, 다양한 사용자의 요구를 만족시킬 수 있는 사용자 뷰 출력 시스템 및 방법을 제공한다.
본 발명의 일실시예에 따른 사용자 뷰 출력 시스템은, 화면 출력 데이터를 수신하는 데이터 수신부, 사용자 시점에 위치하는 카메라, 상기 카메라의 출력이 사용자 시야각과 일치하도록 제어하는 시야각 제어부 및 상기 화면출력 데이터를 기초로 상기 카메라의 촬영 영상을 화면 출력하기 위한 사용자 뷰 출력부를 포함한다
본 발명의 일측면에 따르면, 상기 사용자의 상공에 위치하는 카메라 시점에서 촬영한 영상을 출력하는 미니맵 출력부를 포함할 수 있다.
본 발명의 일측면에 따르면, 상기 미니맵은 사용자 시점 화면 상의 경로선 및 건물의 위치를 고려하여 출력할 수 있다.
본 발명의 일측면에 따르면, 상기 미니맵의 크기는 기설정된 크기 이상이고, 동시에 상기 경로선 및 건물과 중첩되는 영역을 최소화하는 크기일 수 있다.
본 발명의 일측면에 따르면, 사용자 시점 출력 화면과 상기 미니맵은 독립적으로 동작하는 카메라를 유지하고, 상기 화면 출력 데이터를 공유할 수 있다.
본 발명의 일측면에 따르면, 화면 터치 시 사용자 상공의 카메라 시점 화면으로 화면 출력 모드를 변환할 수 있다.
본 발명의 일실시예에 따른 사용자 뷰 출력 방법은, 화면 출력 데이터를 수신하는 단계, 사용자 시점에 카메라를 위치시키는 단계, 상기 카메라의 출력이 사용자 시야각과 일치하도록 제어하는 단계 및 상기 화면 출력 데이터를 기초로 상기 카메라의 촬영 영상을 화면 출력하는 단계를 포함한다
본 발명의 일측면에 따르면, 상기 사용자의 상공에 카메라를 위치시키고, 상기 사용자의 상공에 위치하는 카메라 시점에서 촬영한 미니맵을 출력하는 단계를 더 포함할 수 있다.
본 발명의 일실시예에 따르면, 사용자의 위치에 카메라를 위치시키고, 사용자 시야각을 제어하여 사용자의 시점에서 화면을 출력함으로써, 현실감 있는 3D 객체를 표현하고 현재 위치를 보다 쉽게 파악할 수 있는 사용자 뷰 출력 시스템 및 방법이 제공된다.
본 발명의 일실시예에 따르면, 사용자의 시점에서 화면을 출력함과 동시에 상이한 시점에서의 미니맵 화면을 출력함으로써, 현재위치 및 다른 지역의 화면도 함께 볼 수 있어, 다양한 사용자의 요구를 만족시킬 수 있는 사용자 뷰 출력 시스템 및 방법이 제공된다.
도 1은 본 발명의 일실시예에 있어서, 사용자 뷰 출력 시스템을 도시한 흐름도이다.
도 2는 본 발명의 다른 일실시예에 있어서, 사용자 뷰 출력 시스템을 도시한 도면이다.
도 3은 본 발명의 일실시예에 있어서, 사용자 뷰 출력 방법을 도시한 흐름도이다.
도 4는 본 발명의 일실시예에 있어서, 사용자 화면 터치시 화면 출력 모드의 변경을 설명하기 위한 도면이다.
도 5는 본 발명의 일실시예에 있어서, 미니맵을 함께 출력하는 사용자 뷰 출력 화면을 설명하기 위한 도면이다.
이하, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명에 따른 실시예를 상세하게 설명한다. 다만, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.
도 1은 본 발명의 일실시예에 있어서, 사용자 뷰 출력 시스템을 도시한 흐름도이다.
도 1을 참고하면, 사용자 뷰 출력 시스템(100)은 데이터 수신부(130), 카메라(110), 시야각 제어부(120), 사용자 뷰 출력부(140)를 포함한다.
데이터 수신부(130)는 화면을 출력하는데 필요한 지도 데이터 등을 데이터 베이스로부터 수신한다. 이때, 지도 데이터는 화면에 출력하고자 하는 도로, 시설물 및 POI(Point of Interest) 등을 포함할 수 있다.
카메라(110)는 사용자의 시점에 위치한 카메라이다. 이때, 카메라는 스크린을 바라보는 사용자의 눈을 가정한 것으로 3차원 공간을 바라보는 개체를 의미한다. 여기서 사용자 시점은 단말기의 사용자가 이동수단 등을 운전하는 시점을 의미하는 것으로, 차량 등의 운전자의 경우에는 운전자의 시점을 의미하고 보행자 등의 경우에는 보행자의 시점을 의미할 수 있다.
시야각 제어부(120)는 상기 카메라의 출력이 사용자 시야각과 일치하도록 제어한다. 즉, 시야각 제어부(120)는 카메라의 시야각과 실제 사람의 시야각과 유사하도록 카메라의 시야각을 일치시킬 수 있다.
사용자 뷰 출력부(140)는 상기 화면 출력 데이터를 기초로 카메라(110)의 촬영 영상을 화면에 출력하도록 제어한다. 즉, 상기 화면 출력 데이터를 기초로 카메라(110)가 위치한 시점에서 촬영한 영상을 화면에 출력할 수 있다.
이 경우, 사용자 시점의 출력 화면을 사용자가 터치하는 경우, 출력화면의 모드를 변경하고자 하는 것으로 판단하여 출력화면 모드를 변경할 수 있다. 이때, 변경되는 출력화면 모드는 2D의 탑 뷰(top view) 모드일 수 있다. 즉, 사용자가 인식하기 용이한 모드로 변경되도록 미리 설정할 수 있다.
상기와 같이, 지도 상의 사용자의 위치에 카메라를 위치시키고, 사용자 시야각을 제어하여 사용자의 시점에서 화면을 출력함으로써, 현실감 있는 3D 객체를 표현하여 현재 위치를 보다 쉽게 파악하도록 할 수 있다.
도 2는 본 발명의 다른 일실시예에 있어서, 사용자 뷰 출력 시스템을 도시한 도면이다.
도 2를 참고하면, 사용자 뷰 출력 시스템의 다른 실시예를 도시한 것으로, 사용자 뷰 출력 시스템(200)은 데이터 수신부(230), 제1 카메라(210), 제2 카메라(240), 시야각 제어부(220), 사용자 뷰 출력부(240), 미니맵 출력부(260)를 포함할 수 있다. 즉, 사용자 시점의 촬영 영상을 출력함과 동시에 다른 시점에서 촬영한 화면을 표시하는 미니맵을 출력할 수 있다.
데이터 수신부(230)는 도 1과 마찬가지로 화면에 출력하고자 하는 지도 데이터 등을 데이터 베이스로부터 수신한다. 이때, 미니맵과 사용자 시점의 화면은 같은 지점을 다른 뷰 모드로 출력하는 것이므로 데이터 수신부(230)에서 수신한 데이터를 공유하고 화면 출력시 각각의 카메라를 기초로 각기 다른 모드로 출력하도록 수 있다.
제1 카메라(210)는 사용자의 시점에 위치한 카메라이고, 제2 카메라(240)는 사용자의 상공에 위치한 카메라이다. 이때 제2 카메라(240)는 사용자와 기설정된 거리 이격된 상공에 위치할 수 있으며, 하늘에서 내려다보듯 사용자 상공의 시점에서 촬영하여 영상을 제공하는 탑 뷰(top view)를 제공할 수 있다.
시야각 제어부(220)는 제1 카메라(210)의 출력이 사용자 시야각과 일치하도록 제어한다.
사용자 뷰 출력부(250)는 제1 카메라(210)의 촬영 영상을 출력하여 사용자 시점의 영상을 출력할 수 있다.
미니맵 출력부(260)는 제2 카메라(240)의 촬영 영상을 화면의 소정 부분에 출력할 수 있다. 이때, 미니맵은 2D 모드의 탑 뷰 영상일 수 있다.
또한, 미니맵은 턴 포인트 및 POI(Point of Interest) 중 적어도 하나를 출력할 수 있다. 즉, 사용자 시점의 출력화면은 턴 포인트, POI(Point of Interest) 및 사용자 후방을 출력하지 않으므로 이를 보완하기 위해 이들을 출력하는 미니맵을 함께 출력할 수 있다. 즉, 사용자의 선택에 의해 사용자 뷰 화면과 함께 미니맵을 출력하도록 설정할 수 있다.
이때, 사용자가 미니맵의 소정 영역 또는 사용자 뷰 화면의 소정영역을 터치하는 경우, 미니맵을 확대하여 전체 화면으로 출력하도록 할 수 있다. 사용자가 미니맵 또는 사용자 뷰 화면의 소정영역을 터치하는 경우는 미니맵을 확대된 화면으로 관찰하고 터치를 통한 좌표이동을 하고자 하는 것으로 판단할 수 있는 바, 미니맵을 확대하여 전체화면으로 보여지도록 하여 사용자의 편의를 도모할 수 있다. 여기서, 미니맵을 확대하여 전체화면으로 출력함과 동시에, 터치된 미니맵의 소정 영역 또는 사용자 뷰 화면의 소정영역으로 카메라가 이동하여 전체화면을 출력하도록 할 수 있다.
이때, 미니맵을 전체화면으로 확대한 후 미니맵의 소정 영역을 터치하는 경우, 미니맵의 제2 카메라(240)가 상기 터치된 소정 영역으로 이동하여 화면을 출력하도록 할 수 있다. 따라서, 사용자가 사용자의 후방 등을 보고자 하는 경우, 미니맵 내의 보고자 하는 영역을 터치하여 원하는 곳을 볼 수 있다.
또한 화면 출력되는 미니맵의 위치 및 크기는 시점 화면 상의 경로선 및 건물의 위치를 고려할 수 있다. 이때, 미니맵의 크기는 기설정된 크기 이상이고, 동시에 상기 경로선 및 건물과 중첩되는 영역을 최소화하는 크기일 수 있다. 예를 들어, 미니맵이 사용자에게 인식되기 쉬운 최소한의 크기를 설정하고 상기 설정한 최소한의 크기 이상이면서 동시에 사용자 시점의 화면 상에 출력되는 경로선 및 건물 등을 최소한으로 가리게 되는 최적의 크기를 산출하여 설정할 수 있다. 이때, 미니맵의 크기는 실험 값 등에 의해 변경될 수 있으며, 사용자로 하여금 크기를 설정, 변경하도록 할 수 있다.
상기와 같이, 사용자의 시점의 사용자 뷰와 동시에 이와 다른 시점의 미니맵 화면을 출력함으로써, 현재위치 및 다른 지역의 화면도 함께 볼 수 있으며, 사용자 뷰에 나타나지 않는 턴 포인트, POI 등을 출력할 수 있어, 다양한 사용자의 요구를 만족시킬 수 있는 효과가 발생한다.
도 3은 본 발명의 일실시예에 있어서, 사용자 뷰 출력 방법을 도시한 흐름도이다.
도 3을 참고하면, 단계(S310)에서는 화면에 출력할 데이터를 수신한다. 이때, 데이터는 지도 데이터 등을 의미하며, 화면 출력에 필요한 도로 데이터, 시설물 데이터 등을 포함할 수 있다.
단계(S320)에서는 사용자 시점에 카메라를 위치시킨다. 3D 영상의 경우, 카메라의 위치에 따라 시점을 달리하여 출력할 수 있고, 사용자의 시점에서 바라본 영상을 출력하기 위해 사용자 시점에 카메라를 위치시킬 수 있다.
단계(S330)에서는 카메라의 출력이 사용자 시야각과 일치하도록 제어한다. 즉, 카메라의 시야각과 실제 사람의 시야각과 유사하도록 카메라의 시야각을 일치시킬 수 있다.
단계(S340)에서는 화면 출력 데이터를 기초로 카메라 촬영 영상을 출력한다. 즉, 수신한 지도 데이터 등을 기초로 카메라의 시점에서 촬영한 영상을 화면에 출력할 수 있다.
단계(S350)에서는 사용자 상공에 별도의 카메라를 위치시키고 그 촬영 영상을 미니맵으로 출력할 수 있다. 사용자 시점의 출력 영상은 턴 포인트, POI 등이 표시되지 않으므로 별도의 미니맵을 함께 출력하여 사용자의 편의를 도모할 수 있다. 이때, 미니맵은 별도의 카메라를 가지며, 화면 출력을 위한 데이터는 사용자 시점의 출력 영상을 위한 화면 출력 데이터와 공유할 수 있다. 또한, 미니맵은 사용자 상공에서 내려다본 탑 뷰(top view)일 수 있으며, 2D로 구성될 수 있다.
도 4는 본 발명의 일실시예에 있어서, 사용자 화면 터치시 화면 출력 모드의 변경을 설명하기 위한 도면이다.
도 4를 참고하면, 사용자 뷰 화면(410)은 사용자의 시점에서 3D 화면을 출력하여 사용자에게 제공한다. 이때, 사용자 뷰는 보다 사실적이고 실감나는 영상을 제공하여 도로를 보다 쉽게 인식하고 정확한 지점 파악을 가능하게 할 수 있다. 다만, 사용자가 사용자의 후방을 확인하고 싶거나 턴 포인트, POI 등을 확인하고 싶은 경우 등은 화면 터치 등을 통해 다른 모드의 화면으로 변경할 수 있다. 예를 들어, 도 4에 나타난 바와 같이, 사용자 뷰 화면(410)을 터치하여 탑 뷰 화면(420)으로 변경될 수 있으며, 탑 뷰 화면에서는 턴 포인트(422), POI(421) 등이 나타난다. 또한 탑 뷰 화면에서는 사용자 후방을 확인할 수 있으며, 사용자가 원하는 지점을 터치하는 경우 해당 지점으로 카메라가 이동하여 화면을 출력하도록 할 수 있다.
이와 같이, 사용자 뷰 화면을 제공하여 보다 현실감 있고 시인성이 높은 화면을 사용자에게 제공할 수 있으며, 사용자 뷰 화면 터치 등의 간편한 방법을 통하여 다른 뷰 모드로 화면을 변경할 수 있어 사용자의 편의를 도모할 수 있다.
도 5는 본 발명의 일실시예에 있어서, 미니맵을 함께 출력하는 사용자 뷰 출력 화면을 설명하기 위한 도면이다.
도 5를 참고하면, 사용자 뷰 화면(510)출력과 동시에 미니맵(520)을 출력할 수 있다. 이때, 미니맵은 기설정된 크기 이상으로 출력하여 사용자가 쉽게 인식할 수 있도록 할 수 있다. 다만, 미니맵의 크기가 지나치게 커지는 경우 사용자 뷰 화면(510)상의 건물, 경로선 등과 중첩되어 사용자 뷰 모드의 실효성을 거두기가 어려우므로, 건물, 경로선 등과 중첩되는 범위를 최대한 줄이는 크기로 설정할 수 있다. 즉, 미니맵의 크기는 기설정된 크기 이상이고, 동시에 상기 경로선 및 건물과 중첩되는 영역을 최소화하는 크기이며, 이는 실험 등에 의해 적절한 값을 선택할 수 있다. 또한, 사용자가 미니맵의 크기를 조절하고자 하는 경우 사용자가 임으로 크기를 설정하여 출력하도록 할 수 있다. 이처럼, 미니맵(520)이 사용자 뷰 출력(510)과 동시에 이루어지는 경우, 사용자 뷰에는 나타나지 않는 턴 포인트(521), POI(522) 등이 나타날 수 있으며, 사용자는 후방의 상황도 인식할 수 있다.
상기에서 살펴본 바와 같이, 사용자 시점에서 화면을 출력하는 사용자 뷰를 제공함으로써, 보다 현실적이고 사실감 있는 화면을 출력하여 사용자가 도로 상황을 보다 쉽게 인식하도록 하며, 미니맵을 동시에 출력하여 사실감 있는 화면과 함께 턴 포인트, POI 등의 출력도 함께 확인할 수 있는 화면 출력을 제공한다.
또한 본 발명의 일실시예에 따른 사용자 뷰 출력 방법은 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터 판독 가능 매체를 포함한다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명 사상은 아래에 기재된 특허청구범위에 의해서만 파악되어야 하고, 이의 균등 또는 등가적 변형 모두는 본 발명 사상의 범주에 속한다고 할 것이다.

Claims (19)

  1. 화면 출력 데이터를 수신하는 데이터 수신부;
    사용자 시점에 위치하는 카메라;
    상기 카메라의 출력이 사용자 시야각과 일치하도록 제어하는 시야각 제어부; 및
    상기 화면출력 데이터를 기초로 상기 카메라의 촬영 영상을 화면 출력하기 위한 사용자 뷰 출력부를 포함하는 것을 특징으로 하는 사용자 뷰 출력 시스템.
  2. 제1항에 있어서,
    상기 사용자의 상공에 위치하는 카메라 시점에서 촬영한 영상을 출력하는 미니맵 출력부를 포함하는 것을 특징으로 하는 사용자 뷰 출력 시스템.
  3. 제2항에 있어서,
    상기 미니맵은 턴 포인트 및 POI(Point of Interest) 중 적어도 하나를 출력하는 것을 특징으로 하는 사용자 뷰 출력 시스템.
  4. 제2항에 있어서,
    상기 미니맵은 사용자 시점 화면 상의 경로선 및 건물의 위치를 고려하여 출력하는 것을 특징으로 하는 사용자 뷰 출력 시스템.
  5. 제4항에 있어서,
    상기 미니맵의 크기는 기설정된 크기 이상이고, 동시에 상기 경로선 및 건물과 중첩되는 영역을 최소화하는 크기인 것을 특징으로 하는 사용자 뷰 출력 시스템.
  6. 제2항에 있어서,
    사용자 시점 출력 화면과 상기 미니맵은 독립적으로 동작하는 카메라를 유지하고, 상기 화면 출력 데이터를 공유하는 것을 특징으로 하는 사용자 뷰 출력 시스템.
  7. 제2항에 있어서,
    상기 화면 터치 시 미니맵을 확대하여 전체 화면에 출력하는 것을 특징으로 하는 사용자 뷰 출력 시스템.
  8. 제7항에 있어서,
    상기 미니맵의 전체 화면 출력 후 상기 미니맵 내의 소정의 영역 터치 시,
    상기 터치된 소정의 영역으로 카메라를 이동하여 화면 출력하는 것을 특징으로 하는 사용자 뷰 출력 시스템.
  9. 제1항에 있어서,
    화면 터치 시 사용자 상공의 카메라 시점 화면으로 화면 출력 모드를 변환하는 것을 특징으로 하는 사용자 뷰 출력 시스템.
  10. 화면 출력 데이터를 수신하는 단계;
    사용자 시점에 카메라를 위치시키는 단계;
    상기 카메라의 출력이 사용자 시야각과 일치하도록 제어하는 단계; 및
    상기 화면 출력 데이터를 기초로 상기 카메라의 촬영 영상을 화면 출력하는 단계를 포함하는 것을 특징으로 하는 사용자 뷰 출력 방법.
  11. 제10항에 있어서,
    상기 사용자의 상공에 카메라를 위치시키고, 상기 사용자의 상공에 위치하는 카메라 시점에서 촬영한 미니맵을 출력하는 단계
    를 더 포함하는 것을 특징으로 하는 사용자 뷰 출력 방법.
  12. 제11항에 있어서,
    상기 미니맵은 턴 포인트 및 POI(Point of Interest) 중 적어도 하나를 출력하는 것을 특징으로 하는 사용자 뷰 출력 방법.
  13. 제11항에 있어서,
    상기 미니맵은 사용자 시점 화면 상의 경로선 및 건물의 위치를 고려하여 출력하는 것을 특징으로 하는 사용자 뷰 출력 방법.
  14. 제13항에 있어서,
    상기 미니맵의 크기는 기설정된 크기 이상이고, 동시에 상기 경로선 및 건물과 중첩되는 영역을 최소화하는 크기인 것을 특징으로 하는 사용자 뷰 출력 방법.
  15. 제11항에 있어서,
    사용자 시점 출력 화면과 상기 미니맵은 독립적으로 동작하는 카메라를 유지하고, 상기 화면 출력 데이터를 공유하는 것을 특징으로 하는 것을 특징으로 하는 사용자 뷰 출력 방법.
  16. 제11항에 있어서,
    상기 화면 터치 시 미니맵을 확대하여 전체 화면에 출력하는 것을 특징으로 하는 사용자 뷰 출력 방법.
  17. 제16항에 있어서,
    상기 미니맵의 전체 화면 출력 후 상기 미니맵 내의 소정의 영역 터치 시,
    상기 터치된 소정의 영역으로 카메라를 이동하여 화면 출력하는 것을 특징으로 하는 사용자 뷰 출력 방법.
  18. 제10항에 있어서,
    화면 터치 시 사용자 상공의 카메라 시점 화면으로 화면 출력 모드를 변환하는 단계
    를 더 포함하는 것을 특징으로 하는 사용자 뷰 출력 방법.
  19. 제10항 내지 제18항 중 어느 한 항의 방법을 실행하기 위한 프로그램이 기록되어 있는 것을 특징으로 하는 컴퓨터에서 판독 가능한 기록 매체.
PCT/KR2009/002789 2008-06-11 2009-05-27 사용자 뷰 출력 시스템 및 방법 WO2009151220A2 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP09762607.1A EP2293269A4 (en) 2008-06-11 2009-05-27 SYSTEM AND METHOD FOR OUTPUT PRODUCTION OF A USER VIEW
CN2009801218773A CN102057413A (zh) 2008-06-11 2009-05-27 用户视图输出系统及方法
US12/996,685 US20110181718A1 (en) 2008-06-11 2009-05-27 User-view output system and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2008-0054657 2008-06-11
KR1020080054657A KR100886330B1 (ko) 2008-06-11 2008-06-11 사용자 뷰 출력 시스템 및 방법

Publications (2)

Publication Number Publication Date
WO2009151220A2 true WO2009151220A2 (ko) 2009-12-17
WO2009151220A3 WO2009151220A3 (ko) 2010-02-25

Family

ID=40697566

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2009/002789 WO2009151220A2 (ko) 2008-06-11 2009-05-27 사용자 뷰 출력 시스템 및 방법

Country Status (5)

Country Link
US (1) US20110181718A1 (ko)
EP (1) EP2293269A4 (ko)
KR (1) KR100886330B1 (ko)
CN (1) CN102057413A (ko)
WO (1) WO2009151220A2 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8825392B2 (en) * 2011-06-30 2014-09-02 Navteq B.V. Map view
DE102011088492A1 (de) * 2011-12-14 2013-06-20 Robert Bosch Gmbh Navigationssystem mit einer verbesserten Kartendarstellung
US10250813B2 (en) * 2014-09-03 2019-04-02 Fuji Xerox Co., Ltd. Methods and systems for sharing views
KR102231556B1 (ko) * 2014-11-20 2021-03-24 현대엠엔소프트 주식회사 세도로 주행시 교차로 주변 건물 표시 장치 및 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090002789A (ko) 2007-07-04 2009-01-09 김연호 인터넷 대전 게임을 이용한 언어 학습 장치 및 그 방법

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6891563B2 (en) * 1996-05-22 2005-05-10 Donnelly Corporation Vehicular vision system
US5680123A (en) * 1996-08-06 1997-10-21 Lee; Gul Nam Vehicle monitoring system
US6445287B1 (en) * 2000-02-28 2002-09-03 Donnelly Corporation Tire inflation assistance monitoring system
JP2004514304A (ja) * 1999-12-03 2004-05-13 アワワールド ライヴ インコーポレイテッド コンシューマアクセスシステムおよびその提供方法
WO2001064481A2 (en) * 2000-03-02 2001-09-07 Donnelly Corporation Video mirror systems incorporating an accessory module
US7370983B2 (en) * 2000-03-02 2008-05-13 Donnelly Corporation Interior mirror assembly with display
JP2004045185A (ja) * 2002-07-11 2004-02-12 Denso Corp 車載用経路表示装置
US8013889B1 (en) * 2002-10-11 2011-09-06 Hong Brian Kwangshik Peripheral viewing system for a vehicle
JP2004150918A (ja) 2002-10-30 2004-05-27 Shinichi Yamanaka 地図表示方法
US20050015201A1 (en) * 2003-07-16 2005-01-20 Sarnoff Corporation Method and apparatus for detecting obstacles
KR20050081492A (ko) * 2004-02-13 2005-08-19 디브이에스 코리아 주식회사 전방 실제 영상을 사용한 자동차 항법 장치 및 그 제어 방법
JP2006098924A (ja) 2004-09-30 2006-04-13 Clarion Co Ltd 3dナビゲーション装置
KR20060062480A (ko) * 2004-12-03 2006-06-12 주식회사 지오피오 의료용 흡인기
US9071870B2 (en) * 2004-12-08 2015-06-30 Nokia Technologies Oy System and method for viewing digital visual content on a device
JP4352031B2 (ja) * 2005-08-01 2009-10-28 株式会社ナビタイムジャパン ナビゲーションシステム、端末装置および地図表示方法
KR100806635B1 (ko) * 2006-07-04 2008-02-25 주식회사 엘비에스플러스 네비게이션 시스템
US20080033641A1 (en) * 2006-07-25 2008-02-07 Medalia Michael J Method of generating a three-dimensional interactive tour of a geographic location
US20080043020A1 (en) * 2006-08-18 2008-02-21 Microsoft Corporation User interface for viewing street side imagery
JP4264099B2 (ja) * 2006-09-26 2009-05-13 Sky株式会社 カメラ付き携帯機器
KR100790065B1 (ko) * 2006-10-10 2008-01-02 삼성전자주식회사 미니 맵을 이용한 위치 정보 제공 시스템 및 방법
US8213685B2 (en) * 2007-01-05 2012-07-03 American Traffic Solutions, Inc. Video speed detection system
WO2008130219A1 (en) * 2007-04-19 2008-10-30 Tele Atlas B.V. Method of and apparatus for producing road information
CN101109643B (zh) * 2007-08-22 2011-06-29 广东瑞图万方科技有限公司 导航装置
CA2705375A1 (en) * 2007-11-16 2009-05-22 Tele Atlas B.V. Method of and apparatus for producing lane information
US8660735B2 (en) * 2011-12-14 2014-02-25 General Motors Llc Method of providing information to a vehicle
US9269263B2 (en) * 2012-02-24 2016-02-23 Magna Electronics Inc. Vehicle top clearance alert system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090002789A (ko) 2007-07-04 2009-01-09 김연호 인터넷 대전 게임을 이용한 언어 학습 장치 및 그 방법

Also Published As

Publication number Publication date
CN102057413A (zh) 2011-05-11
WO2009151220A3 (ko) 2010-02-25
EP2293269A4 (en) 2014-08-13
EP2293269A2 (en) 2011-03-09
US20110181718A1 (en) 2011-07-28
KR100886330B1 (ko) 2009-03-02

Similar Documents

Publication Publication Date Title
JP5798392B2 (ja) 駐車支援装置
EP2613296B1 (en) Mixed reality display system, image providing server, display apparatus, and display program
WO2012108721A2 (ko) 영상 정보를 이용한 증강 현실 제공 장치 및 방법
JP2005149409A (ja) 画像再生方法及び装置
JPH09292833A (ja) ナビゲーション装置
US20130289875A1 (en) Navigation apparatus
CN105659295A (zh) 用于在移动设备上的真实环境的视图中表示兴趣点的方法以及用于此方法的移动设备
EP3355576A1 (en) Information processing apparatus, information processing method, and program
WO2017056210A1 (ja) 車両用表示装置
JP2009020089A (ja) ナビゲーション装置、ナビゲーション方法、及びナビゲーション用プログラム
KR102222102B1 (ko) 증강 현실 내비게이션 시스템 및 증강 현실 내비게이션 시스템의 경로 안내 방법
JP6501035B2 (ja) 眼鏡型ウェアラブル情報端末、その制御方法および制御プログラム
WO2009151220A2 (ko) 사용자 뷰 출력 시스템 및 방법
JP2008128827A (ja) ナビゲーション装置およびナビゲーション方法ならびにそのプログラム
JP6345381B2 (ja) 拡張現実システム
JP2009236843A (ja) ナビゲーション装置、ナビゲーション方法、およびナビゲーションプログラム
JP2008014754A (ja) ナビゲーション装置
WO2018016928A1 (ko) 가상 현실 구현 시스템 및 그의 가상 현실 구현 방법
KR101594071B1 (ko) 전시 장치 및 전시 시스템과 이를 이용한 전시 정보 제공 방법
JP5702476B2 (ja) 表示装置、制御方法、プログラム、記憶媒体
WO2022114253A1 (ko) 시뮬레이터 내의 최적화된 객체 움직임 경로 생성을 위한 교통 시뮬레이션 방법
JPWO2011121788A1 (ja) ナビゲーション装置、情報表示装置、ナビゲーション方法、ナビゲーションプログラムおよび記録媒体
JP5196426B2 (ja) ナビゲーション装置
WO2010016677A2 (ko) 3차원 자차마크 표시 장치 및 그 방법
JP5438172B2 (ja) 情報表示装置、情報表示方法、情報表示プログラムおよび記録媒体

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980121877.3

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09762607

Country of ref document: EP

Kind code of ref document: A2

REEP Request for entry into the european phase

Ref document number: 2009762607

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2009762607

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 12996685

Country of ref document: US