KR102414575B1 - Method and system recognizing marine transportation product using of augmented reality - Google Patents

Method and system recognizing marine transportation product using of augmented reality Download PDF

Info

Publication number
KR102414575B1
KR102414575B1 KR1020150089886A KR20150089886A KR102414575B1 KR 102414575 B1 KR102414575 B1 KR 102414575B1 KR 1020150089886 A KR1020150089886 A KR 1020150089886A KR 20150089886 A KR20150089886 A KR 20150089886A KR 102414575 B1 KR102414575 B1 KR 102414575B1
Authority
KR
South Korea
Prior art keywords
information
image
user terminal
transport
coordinates
Prior art date
Application number
KR1020150089886A
Other languages
Korean (ko)
Other versions
KR20170000665A (en
Inventor
강용우
강현지
문호기
장다혜
최지연
Original Assignee
대우조선해양 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대우조선해양 주식회사 filed Critical 대우조선해양 주식회사
Priority to KR1020150089886A priority Critical patent/KR102414575B1/en
Publication of KR20170000665A publication Critical patent/KR20170000665A/en
Application granted granted Critical
Publication of KR102414575B1 publication Critical patent/KR102414575B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/083Shipping
    • G06K9/62
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image

Abstract

본 발명은 증강현실을 이용한 해상운송제품 인식 방법 및 시스템에 관한 것으로서, 사용자 단말기는 운송제품확인 애플리케이션이 실행된 경우, 촬영부를 구동시켜 영상을 획득하는 단계, 상기 사용자 단말기는 상기 획득된 영상의 좌표를 계산하고, 상기 계산된 영상좌표를 포함하는 운송제품정보 요청신호를 발주업체시스템으로 전송하는 단계, 상기 발주업체시스템은 상기 영상좌표에 위치하는 선박을 조회하고, 상기 조회된 선박의 발주정보 또는 납품정보를 포함하는 운송제품정보를 상기 사용자 단말기로 전송하는 단계, 상기 사용자 단말기는 상기 운송제품정보를 상기 획득된 영상에 오버레이하여 화면에 표시하는 단계를 포함할 수 있다. The present invention relates to a method and system for recognizing maritime transportation products using augmented reality, wherein the user terminal acquires an image by driving a photographing unit when a transportation product confirmation application is executed, wherein the user terminal coordinates the obtained image calculating and transmitting a transportation product information request signal including the calculated image coordinates to an ordering company system, wherein the ordering company system inquires a vessel located in the image coordinates, and ordering information of the inquired vessel or Transmitting the transport product information including delivery information to the user terminal, the user terminal may include the step of overlaying the transport product information on the acquired image to display on a screen.

Description

증강현실을 이용한 해상운송제품 인식 방법 및 시스템{METHOD AND SYSTEM RECOGNIZING MARINE TRANSPORTATION PRODUCT USING OF AUGMENTED REALITY}Marine transportation product recognition method and system using augmented reality {METHOD AND SYSTEM RECOGNIZING MARINE TRANSPORTATION PRODUCT USING OF AUGMENTED REALITY}

본 발명은 증강현실을 이용한 해상운송제품 인식 방법 및 시스템에 관한 것으로서, 더욱 상세하게는 촬영부를 통해 획득된 영상의 좌표범위에 위치하는 선박의 운송제품정보를 증강현실을 이용하여 화면에 표시하는 증강현실을 이용한 해상운송제품 인식 방법 및 시스템에 관한 것이다.
The present invention relates to a method and system for recognizing maritime transportation products using augmented reality, and more particularly, augmented display of transportation product information of a ship located in the coordinate range of an image obtained through a photographing unit on a screen using augmented reality. It relates to a method and system for recognizing marine transportation products using reality.

증강현실(增强現實: Augmented Reality)이란 사용자가 눈으로 보는 현실세계와 부가정보를 갖는 가상세계를 합쳐 새로운 환경을 생성한다. 현실환경과 가상환경을 융합하는 증강현실 시스템은 1990년대 후반부터 미국·일본을 중심으로 연구·개발이 진행되고 있다. 현실세계를 가상세계로 보완해주는 개념인 증강현실은 컴퓨터 그래픽으로 만들어진 가상환경을 사용하지만 주역은 현실환경이다. 컴퓨터 그래픽은 현실환경에 필요한 정보를 추가제공하는 역할을 한다.Augmented Reality (增强現實: Augmented Reality) creates a new environment by combining the real world that users see with their eyes and the virtual world with additional information. Augmented reality systems that converge real and virtual environments have been researched and developed mainly in the United States and Japan since the late 1990s. Augmented reality, a concept that complements the real world with a virtual world, uses a virtual environment created with computer graphics, but the main character is the real environment. Computer graphics serve to provide additional information necessary for the real environment.

한편, 대형 조선소에서는 생산 자원 소요량과 생산 비용 등 여러가지 요소를 고려하여 일부 블록들을 사외에서 제작하는데, 블록들은 육상 운송이 불가하여 해상으로 운반하고 있다. 운반된 블록들은 하역 작업 이전에 묘박지라 불리는 곳에서 대기하게 되는데, 육상 작업장에서 묘박지에 정박중인 블록을 육안으로 확인하기는 매우 어려운 실정이다.On the other hand, large shipyards manufacture some blocks outside the company considering various factors such as production resource requirements and production cost, but blocks are transported by sea because land transportation is impossible. The transported blocks wait at a place called an anchorage before unloading, and it is very difficult to visually check the blocks anchored at the anchorage in an onshore workshop.

또한, 하역 담당 관리자는 묘박지 상황을 정확히 파악해야 하역 순서 조정 등 필요한 업무를 수행할 수 있어서, 바다에 정박중인 해상 운송 제품을 정확히 인식할 수 있는 기술 개발이 요구되어 있다.
In addition, the unloading manager must accurately understand the anchorage situation to perform necessary tasks such as adjusting the unloading order, so it is required to develop a technology that can accurately recognize marine products anchored in the sea.

선행기술1: 한국공개특허 제2011-0116842호(공개일: 2011.10.26)Prior art 1: Korean Patent Publication No. 2011-0116842 (published on October 26, 2011)

본 발명은 상기한 문제점을 해결하기 위하여 안출된 것으로, 증강현실 기술을 이용하여 바다에 정박중인 선박에 탑재된 운송제품정보를 그 선박 영상에 오버레이하여 표시함으로써, 해상 운송 제품을 정확히 인식할 수 있는 증강현실을 이용한 해상운송제품 인식 방법 및 시스템을 제공함에 그 목적이 있다. The present invention has been devised to solve the above problems, and by using augmented reality technology to overlay and display transport product information mounted on a ship anchored in the sea on the ship image, it is possible to accurately recognize marine transport products. An object of the present invention is to provide a method and system for recognizing maritime transportation products using augmented reality.

한편, 본 발명이 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 이하에서 설명할 내용으로부터 통상의 기술자에게 자명한 범위 내에서 다양한 기술적 과제가 포함될 수 있다.
On the other hand, the technical problems to be achieved by the present invention are not limited to the technical problems mentioned above, and various technical problems may be included within the range apparent to those skilled in the art from the content to be described below.

상술한 과제를 해결하기 위한 본 발명의 일 측면에 따르면, 사용자 단말기는 운송제품확인 애플리케이션이 실행된 경우, 촬영부를 구동시켜 영상을 획득하는 단계, 상기 사용자 단말기는 상기 획득된 영상의 좌표를 계산하고, 상기 계산된 영상좌표를 포함하는 운송제품정보 요청신호를 발주업체시스템으로 전송하는 단계, 상기 발주업체시스템은 상기 영상좌표에 위치하는 선박을 조회하고, 상기 조회된 선박의 발주정보 또는 납품정보를 포함하는 운송제품정보를 상기 사용자 단말기로 전송하는 단계, 상기 사용자 단말기는 상기 운송제품정보를 상기 획득된 영상에 오버레이하여 화면에 표시하는 단계를 포함하는 증강현실을 이용한 해상운송제품 인식 방법이 제공된다. According to one aspect of the present invention for solving the above problems, the user terminal obtains an image by driving a photographing unit when the transportation product confirmation application is executed, the user terminal calculates the coordinates of the obtained image and , transmitting a transportation product information request signal including the calculated image coordinates to an ordering company system, wherein the ordering company system inquires a ship located in the image coordinates, and retrieves the inquired ship's order information or delivery information There is provided a method for recognizing maritime transport products using augmented reality, comprising the steps of: transmitting the transport product information including the user terminal to the user terminal, the user terminal overlaying the transport product information on the acquired image to display on a screen .

상기 사용자 단말기는 상기 획득된 영상의 좌표를 계산하고, 상기 계산된 영상좌표를 포함하는 운송제품정보요청신호를 발주업체시스템으로 전송하는 단계는, 상기 사용자 단말기의 위치정보, 방향정보 및 자세정보를 측정하는 단계, 상기 측정된 위치정보, 방향정보, 자세정보와 사용자 단말기 정보를 이용하여 상기 획득된 영상의 좌표를 계산하는 단계, 상기 계산된 영상좌표를 포함하는 운송제품정보요청신호를 발주업체시스템으로 전송하는 단계를 포함할 수 있다. The user terminal calculates the coordinates of the obtained image, and the step of transmitting a transportation product information request signal including the calculated image coordinates to the ordering company system includes: location information, direction information and posture information of the user terminal Measuring, calculating the coordinates of the acquired image using the measured location information, direction information, posture information and user terminal information, and sending a transportation product information request signal including the calculated image coordinates to the ordering company system It may include the step of transmitting to

본 발명의 다른 측면에 따르면, 사용자 단말기가 증강현실을 이용하여 해상운송제품을 인식하는 방법에 있어서, 운송물량확인 애플리케이션이 실행된 경우, 촬영부를 구동시켜 영상을 획득하는 단계, 상기 획득된 영상의 좌표를 계산하는 단계, 상기 계산된 영상좌표를 포함하는 운송제품정보 요청 신호를 발주업체시스템으로 전송하는 단계, 상기 발주업체시스템으로부터 상기 영상좌표에 위치하는 선박의 운송제품정보를 수신하는 단계, 상기 수신된 운송제품정보를 상기 획득된 영상에 오버레이하여 화면에 표시하는 단계를 포함하는 증강현실을 이용한 해상운송제품 인식 방법이 제공된다. According to another aspect of the present invention, in a method for a user terminal to recognize a marine transportation product using augmented reality, when a transportation quantity check application is executed, driving a photographing unit to acquire an image; Calculating coordinates, transmitting a transport product information request signal including the calculated image coordinates to an ordering company system, receiving transport product information of a ship located in the image coordinates from the ordering company system, the There is provided a shipping product recognition method using augmented reality comprising the step of overlaying the received transport product information on the acquired image to display on the screen.

상기 획득된 영상의 좌표를 계산하는 단계는, 사용자 단말기의 위치정보, 방향정보 및 자세정보를 측정하는 단계, 상기 측정된 위치정보, 방향정보, 자세정보와 사용자 단말기 정보를 이용하여 상기 획득된 영상의 좌표를 계산하는 단계를 포함할 수 있다. Calculating the coordinates of the obtained image may include measuring location information, direction information and posture information of a user terminal, and the obtained image using the measured location information, direction information, posture information and user terminal information. It may include calculating the coordinates of .

본 발명의 또 다른 측면에 따르면, 발주업체시스템이 증강현실을 이용한 해상운송제품 인식 서비스를 제공하기 위한 방법에 있어서, 사용자 단말기로부터 영상좌표를 포함하는 운송제품정보 요청 신호가 수신된 경우, 상기 영상좌표에 속하는 선박을 조회하는 단계, 상기 조회된 선박의 발주정보 또는 납품정보를 포함하는 운송제품정보를 획득하여 상기 사용자 단말기로 전송하는 단계를 포함하는 증강현실을 이용한 해상운송제품 인식 방법이 제공된다. According to another aspect of the present invention, in the method for the ordering company system to provide a maritime transportation product recognition service using augmented reality, when a transportation product information request signal including image coordinates is received from a user terminal, the image A method of recognizing maritime transportation products using augmented reality is provided, comprising the steps of inquiring a ship belonging to the coordinates, acquiring transportation product information including order information or delivery information of the inquired ship and transmitting the information to the user terminal. .

상기 증강현실을 이용한 해상운송제품 인식 방법은 선박에 설치된 AIS(Automatic Identification System) 단말기로부터 AIS 정보를 수신하고, 상기 수신된 AIS 정보를 분석하여 선박 식별정보 및 선박의 현재 위치정보를 파악하며, 상기 파악된 선박 식별정보 및 현재 위치정보를 AIS 정보 수신시간과 함께 저장하는 단계를 더 포함할 수 있다. The maritime transportation product recognition method using the augmented reality receives AIS information from an AIS (Automatic Identification System) terminal installed on a ship, analyzes the received AIS information, and grasps the ship identification information and the current location information of the ship, The method may further include storing the identified vessel identification information and current location information together with the AIS information reception time.

또한, 상기 증강현실을 이용한 해상운송제품 인식 방법은 발주품목, 운송담당 선박, 선박 식별정보, 도착예정일, 선장이름, 선박 전화번호 중 적어도 하나를 포함하는 납품정보를 납품업체로부터 수신하여 저장하는 단계를 더 포함할 수 있다. In addition, the maritime transportation product recognition method using the augmented reality comprises the steps of receiving and storing delivery information including at least one of an order item, a ship in charge of transport, ship identification information, an expected arrival date, a captain's name, and a ship phone number from a supplier may further include.

본 발명의 또 다른 측면에 따르면, 선박에 구비되어, 선박의 현재위치정보를 송신하는 AIS 단말기, 상기 AIS 단말기로부터 선박의 현재위치정보를 수신하여 저장하고, 사용자 단말기로부터 영상좌표를 포함하는 운송제품정보 요청신호가 수신된 경우, 상기 영상좌표에 속하는 선박을 조회하고, 상기 조회된 선박의 발주/납품 정보를 포함하는 운송제품정보를 상기 사용자 단말기로 제공하는 발주업체 시스템, 운송제품확인 애플리케이션이 실행된 경우, 촬영부를 구동시켜 영상을 획득하고, 상기 획득된 영상의 좌표를 계산하며, 상기 계산된 영상좌표를 포함하는 운송제품정보 요청신호를 상기 발주업체시스템으로 전송 및 운송제품정보를 수신하고, 상기 운송제품정보를 상기 획득된 영상에 오버레이하여 표시하는 사용자 단말기를 포함하는 증강현실을 이용한 해상운송제품 인식 시스템이 제공된다. According to another aspect of the present invention, an AIS terminal that is provided on a ship and transmits the current location information of the ship, receives and stores the current location information of the ship from the AIS terminal, and includes an image coordinate from a user terminal. When an information request signal is received, an ordering company system that inquires a ship belonging to the image coordinates and provides transportation product information including order/delivery information of the inquired ship to the user terminal, a transportation product confirmation application is executed In this case, the photographing unit is driven to acquire an image, the coordinates of the acquired image are calculated, and a transport product information request signal including the calculated image coordinates is transmitted to the ordering company system and transport product information is received, There is provided a marine transportation product recognition system using augmented reality including a user terminal for overlaying the transportation product information on the acquired image.

상기 증강현실을 이용한 해상운송제품 인식 시스템은 발주품목, 운송담당 선박, 선박 식별정보, 도착 예정일, 선장이름, 선박 전화번호 중 적어도 하나를 포함하는 납품정보를 입력받아, 상기 발주업체시스템에 등록하는 납품업체 단말기를 더 포함할 수 있다. The maritime transportation product recognition system using the augmented reality receives delivery information including at least one of an order item, a ship in charge of transportation, ship identification information, an expected arrival date, a captain's name, and a ship phone number, and registers it in the ordering company system. It may further include a vendor terminal.

본 발명의 또 다른 측면에 따르면, 운송 선박들의 위치정보가 저장된 운송선박정보 데이터베이스, 발주품목에 대한 발주정보 및 납품정보가 저장된 운송제품정보 데이터베이스, 사용자 단말기로부터 영상좌표를 포함하는 운송제품정보 요청 신호가 수신된 경우, 상기 운송선박정보 데이터베이스로부터 상기 영상좌표에 속하는 선박을 조회하고, 상기 운송제품정보 데이터베이스로부터 상기 조회된 선박의 발주정보 및 납품정보를 포함하는 운송제품정보를 획득하여 상기 사용자 단말기로 전송하는 운송제품정보 제공부를 포함하는 발주업체시스템이 제공된다.According to another aspect of the present invention, a transport ship information database in which the location information of transport ships is stored, a transport product information database in which order information and delivery information for ordered items are stored, and a transport product information request signal including image coordinates from a user terminal is received, inquires a ship belonging to the image coordinates from the transport ship information database, obtains transport product information including order information and delivery information of the inquired ship from the transport product information database, and sends it to the user terminal An ordering company system including a transport product information providing unit to be transmitted is provided.

상기 발주업체시스템은 각 선박에 설치된 AIS 단말기로부터 AIS 정보를 수신하는 AIS 수신부, 상기 수신된 AIS 정보를 분석하여 선박 식별정보 및 선박의 현재 위치정보를 파악하고, 상기 파악된 선박 식별정보 및 현재 위치정보를 AIS 정보 수신시간과 함께 상기 운송선박정보 데이터베이스에 저장하는 AIS 분석부를 더 포함할 수 있다. The ordering company system includes an AIS receiver that receives AIS information from an AIS terminal installed in each ship, analyzes the received AIS information to determine ship identification information and current location information of the ship, and identifies the identified ship identification information and current location It may further include an AIS analysis unit for storing information in the transport vessel information database together with the AIS information reception time.

상기 운송제품정보 데이터베이스는 발주품목, 사외업체명, 계약가격, 계약일, 입고 요구일 중 적어도 하나를 포함하는 발주정보가 저장된 발주정보 데이터베이스, 발주품목, 운송담당 선박, 선박 식별정보, 도착예정일, 선장이름, 선박 전화번호 중 적어도 하나를 포함하는 납품정보가 저장된 납품정보 데이터베이스를 포함할 수 있다. The transport product information database is an order information database in which order information including at least one of ordered items, outside company name, contract price, contract date, and stocking request date is stored, order item, transport ship, ship identification information, expected arrival date, captain's name , and may include a delivery information database in which delivery information including at least one of a ship phone number is stored.

상기 발주업체시스템은발주사로부터 발주정보를 입력받아 발주정보 데이터베이스에 등록하는 발주정보 등록부, 납품업체로부터 납품정보를 입력받아 납품정보 데이터베이스에 등록하는 납품정보 등록부를 더 포함할 수 있다. The ordering company system may further include an ordering information registration unit that receives ordering information from the ordering company and registers it in the ordering information database, and a delivery information registration unit that receives delivery information from the vendor and registers it in the delivery information database.

본 발명의 또 다른 측면에 따르면, 영상을 촬영하는 촬영부, 위치정보, 방향정보 및 자세정보를 측정하는 측정부, 상기 측정된 위치정보, 방향정보 및 자세정보와 기기정보를 이용하여 상기 촬영된 영상의 좌표를 계산하는 영상좌표 계산부, 상기 계산된 영상좌표에 위치하는 선박의 운송제품정보를 요청 및 수신하는 운송제품정보 요청 처리부, 상기 운송제품정보를 상기 촬영된 영상에 오버레이하여 화면에 표시하는 증강현실 처리부를 포함하는 사용자 단말기가 제공된다. According to another aspect of the present invention, a photographing unit for capturing an image, a measuring unit for measuring location information, direction information and posture information, the measured location information, direction information and posture information, and device information An image coordinate calculation unit for calculating the coordinates of the image, a transportation product information request processing unit for requesting and receiving transportation product information of a ship located in the calculated image coordinates, and overlaying the transportation product information on the captured image to display on the screen A user terminal including an augmented reality processing unit is provided.

상기 측정부는, 사용자 단말기의 현재 위치를 측정하는 위치 측정부, 상기 사용자 단말기의 요각(yaw angle) 정보를 포함하는 방향정보를 측정하는 방향정보 측정부, 상기 사용자 단말기의 롤각(roll angle) 정보와 피치각(pitch angle) 정보를 포함하는 자세정보를 측정하는 자세정보 측정부를 포함할 수 있다. The measuring unit includes a position measuring unit measuring a current position of the user terminal, a direction information measuring unit measuring direction information including yaw angle information of the user terminal, roll angle information of the user terminal and It may include a posture information measuring unit for measuring posture information including pitch angle information.

상기 기기정보는 화각정보, 초점거리 정보, 확대정보, 및 축소정보 중 하나 이상의 정보를 포함할 수 있다.
The device information may include at least one of angle of view information, focal length information, enlargement information, and reduction information.

본 발명에 따르면, 증강현실 기술을 이용하여 바다에 정박중인 선박에 탑재된 운송제품정보를 그 선박 영상에 오버레이하여 표시함으로써, 해상 운송 제품을 정확히 인식할 수 있다. According to the present invention, by using the augmented reality technology to display the information of the transportation products mounted on the ship anchored in the sea overlaid on the image of the ship, it is possible to accurately recognize the marine transportation products.

한편, 본 발명의 효과는 이상에서 언급한 효과들로 제한되지 않으며, 이하에서 설명할 내용으로부터 통상의 기술자에게 자명한 범위 내에서 다양한 효과들이 포함될 수 있다.
On the other hand, the effects of the present invention are not limited to the above-mentioned effects, and various effects may be included within the range apparent to those skilled in the art from the description below.

도 1은 본 발명의 실시예에 따른 증강현실을 이용한 해상운송제품 인식 시스템을 나타낸 도면이다.
도 2는 본 발명의 실시예에 따른 발주업체시스템의 구성을 개략적으로 나타낸 블럭도이다.
도 3은 본 발명의 실시예에 따른 사용자 단말기의 구성을 개략적으로 나타낸 블럭도이다.
도 4는 도 3에 도시된 측정부의 구성을 구체적으로 나타낸 도면이다.
도 5 내지 도 8은 영상좌표 계산부가 사용자 단말기의 위치정보, 방향정보, 자세정보, 및 기기정보를 이용하여 촬영된 영상 이미지의 꼭지점에 대한 3차원 공간좌표를 계산하는 과정을 구체적으로 설명하기 위한 도면이다.
도 9는 본 발명의 실시예에 따른 증강현실을 이용한 해상운송제품 인식 방법을 나타낸 도면이다.
도 10 내지 도 12는 본 발명의 실시예에 따른 증강현실을 이용한 해상운송제품 인식 방법을 설명하기 위한 화면 예시도이다.
1 is a view showing a marine transportation product recognition system using augmented reality according to an embodiment of the present invention.
2 is a block diagram schematically showing the configuration of an ordering company system according to an embodiment of the present invention.
3 is a block diagram schematically showing the configuration of a user terminal according to an embodiment of the present invention.
FIG. 4 is a diagram specifically illustrating the configuration of the measurement unit shown in FIG. 3 .
5 to 8 are for describing in detail the process in which the image coordinate calculator calculates the three-dimensional spatial coordinates of the vertices of the captured video image using the location information, direction information, posture information, and device information of the user terminal. It is a drawing.
9 is a diagram illustrating a method of recognizing a marine transportation product using augmented reality according to an embodiment of the present invention.
10 to 12 are exemplary screen views for explaining a method of recognizing a marine transportation product using augmented reality according to an embodiment of the present invention.

본 발명의 전술한 목적과 기술적 구성 및 그에 따른 작용 효과에 관한 자세한 사항은 본 발명의 명세서에 첨부된 도면에 의거한 이하 상세한 설명에 의해 보다 명확하게 이해될 것이다.The above-described object and technical configuration of the present invention, and details regarding the operational effects thereof will be more clearly understood by the following detailed description based on the accompanying drawings in the specification of the present invention.

이하, 첨부된 도면들을 참조하여 본 발명에 따른 '증강현실을 이용한 해상운송제품 인식 방법 및 시스템'을 상세하게 설명한다. 설명하는 실시 예들은 본 발명의 기술 사상을 당업자가 용이하게 이해할 수 있도록 제공되는 것으로 이에 의해 본 발명이 한정되지 않는다. 또한, 첨부된 도면에 표현된 사항들은 본 발명의 실시 예들을 쉽게 설명하기 위해 도식화된 도면으로 실제로 구현되는 형태와 상이할 수 있다.Hereinafter, 'a method and system for recognizing maritime transport products using augmented reality' according to the present invention will be described in detail with reference to the accompanying drawings. The described embodiments are provided so that those skilled in the art can easily understand the technical spirit of the present invention, and the present invention is not limited thereto. In addition, matters expressed in the accompanying drawings may be different from the forms actually implemented in the drawings schematically for easy explanation of the embodiments of the present invention.

한편, 이하에서 표현되는 각 구성부는 본 발명을 구현하기 위한 예일 뿐이다. 따라서, 본 발명의 다른 구현에서는 본 발명의 사상 및 범위를 벗어나지 않는 범위에서 다른 구성부가 사용될 수 있다. 또한, 각 구성부는 순전히 하드웨어 또는 소프트웨어의 구성만으로 구현될 수도 있지만, 동일 기능을 수행하는 다양한 하드웨어 및 소프트웨어 구성들의 조합으로 구현될 수도 있다. 또한, 하나의 하드웨어 또는 소프트웨어에 의해 둘 이상의 구성부들이 함께 구현될 수도 있다. On the other hand, each component expressed below is only an example for implementing the present invention. Accordingly, other components may be used in other implementations of the present invention without departing from the spirit and scope of the present invention. In addition, each component may be implemented purely by a configuration of hardware or software, or may be implemented by a combination of various hardware and software components that perform the same function. In addition, two or more components may be implemented together by one piece of hardware or software.

또한, 어떤 구성요소들을 '포함'한다는 표현은, '개방형'의 표현으로서 해당 구성요소들이 존재하는 것을 단순히 지칭할 뿐이며, 추가적인 구성요소들을 배제하는 것으로 이해되어서는 안 된다.
In addition, the expression 'including' certain elements merely refers to the existence of the elements as an expression of 'open type', and should not be construed as excluding additional elements.

도 1은 본 발명의 실시예에 따른 증강현실을 이용한 해상운송제품 인식 시스템을 나타낸 도면이다. 1 is a view showing a marine transportation product recognition system using augmented reality according to an embodiment of the present invention.

도 1을 참조하면, 증강현실을 이용한 해상운송제품 인식 시스템은 선박에 설치된 AIS(Automatic Identification System) 단말기(100)로부터 AIS 정보를 수신하는 발주업체시스템(200), 발주업체시스템(200)에 납품정보를 등록하는 납품업체 단말기(300), 운송제품확인 애플리케이션이 저장된 사용자 단말기(400)를 포함한다.1, the maritime transportation product recognition system using augmented reality is delivered to the ordering company system 200, which receives the AIS information from the AIS (Automatic Identification System) terminal 100 installed on the ship, the ordering company system 200 It includes a supplier terminal 300 for registering information, and a user terminal 400 in which the transport product confirmation application is stored.

AIS(Automatic Identification System) 단말기(100)는 AIS 정보를 송신한다. 여기서, AIS 정보는 선박 식별정보, 현재 위도, 현재 경도 등을 포함하는 현재 위치정보일 수 있고, NMEA-0183 프로토콜을 이용하여 인코딩되어 전송된다. AIS는 선박자동식별장치로서, 선박의 위치, 침로, 속력 등 항해 정보를 실시간으로 제공하는 첨단 장치이다. 이는 해상에서 선박의 충돌을 방지하기 위한 장치로서, 국제 해사 기구(IMO)에 따라 선박 의무 설치사항이며, 선박 자동 식별 장치(AIS)가 도입으로, 인접한 선박을 인식할 수 없는 경우에도 타선의 존재와 진행 상황 판단이 가능하다.AIS (Automatic Identification System) terminal 100 transmits AIS information. Here, the AIS information may be current location information including vessel identification information, current latitude, current longitude, etc., and is encoded and transmitted using the NMEA-0183 protocol. AIS is an automatic ship identification device, a state-of-the-art device that provides real-time navigation information such as the ship's position, course, and speed. This is a device to prevent collision of ships at sea, and it is a mandatory installation requirement for ships according to the International Maritime Organization (IMO). and progress can be assessed.

발주업체시스템(200)은 AIS 단말기(100)로부터 전송된 AIS 정보를 분석하여 선박의 현재 위치정보를 실시간 또는 주기적으로 업데이트한다. AIS 정보는 인코딩되어 있기 때문에, 발주업체시스템(200)은 AIS 정보를 디코딩하여, 선박의 현재 위치정보를 파악하고, 그 위치정보를 저장한다. The ordering company system 200 analyzes the AIS information transmitted from the AIS terminal 100 and updates the current location information of the vessel in real time or periodically. Since the AIS information is encoded, the ordering company system 200 decodes the AIS information, grasps the current position information of the vessel, and stores the position information.

발주업체시스템(200)은 선박 제조를 위해 분할된 블록 정보를 저장하고, 분할된 블록중에 사외업체에서 생산할 블록을 확정하여 발주하며, 발주정보를 저장한다. 발주정보는 발주품목, 사외업체명, 계약가격, 계약일, 입고요구일 등을 포함할 수 있다. The ordering company system 200 stores the divided block information for ship manufacturing, determines and places an order among the divided blocks to be produced by an outside company, and stores the ordering information. The ordering information may include ordered items, the name of an outside company, a contract price, a contract date, a warehousing request date, and the like.

발주업체시스템(200)은 납품업체 단말기(300)로부터 접속이 요청된 경우, 납품업체의 보안 인증 후, 그 납품업체에 발주한 발주정보를 제공한다. When access is requested from the vendor terminal 300 , the ordering company system 200 provides order information placed on the vendor after security authentication of the vendor.

납품업체 단말기(300)는 납품정보를 입력받아, 발주업체시스템(200)에 등록한다. 즉, 납품업체는 발주된 블록 제작이 완료되면, 발주업체에 해상운송으로 납품하므로, 발주품목, 운송담당 선박, 선박 식별정보, 도착 예정일, 선장이름, 선박 전화번호 등을 포함하는 납품정보를 발주업체시스템(200)에 등록한다.The vendor terminal 300 receives delivery information and registers it in the ordering company system 200 . In other words, when the production of the ordered block is completed, the supplier delivers it to the ordering company by sea transport. It is registered in the company system 200 .

발주업체시스템(200)은 사용자 단말기(400)로부터 영상좌표를 포함하는 운송제품정보 요청신호가 수신된 경우, 영상 좌표에 위치하는 선박의 발주정보 및 납품정보를 포함하는 운송제품정보를 사용자 단말기(400)로 제공한다. When a shipping product information request signal including image coordinates is received from the user terminal 400, the ordering company system 200 transmits the shipping product information including the order information and delivery information of the ship located in the image coordinates to the user terminal ( 400) is provided.

한편, 발주업체시스템(200)은 단일의 연산 장치로 구현되거나 둘 이상의 연산 장치가 서로 연결된 집합 장치의 형태로 구현될 수도 있다. 예를 들어, 발주업체시스템(200)은 단일의 서버로 구현되거나 둘 이상의 서버가 연결된 형태로 구현될 수 있다.Meanwhile, the ordering company system 200 may be implemented as a single arithmetic unit or may be embodied in the form of an aggregate device in which two or more arithmetic units are connected to each other. For example, the ordering company system 200 may be implemented as a single server or in a form in which two or more servers are connected.

이러한 발주업체시스템(200)에 대한 상세한 설명은 도 2를 참조하기로 한다. For a detailed description of the ordering company system 200, reference will be made to FIG. 2 .

사용자 단말기(400)는 운송제품확인 애플리케이션이 실행된 경우, 촬영부를 구동시켜 영상을 획득하고, 획득된 영상의 좌표를 계산하며, 계산된 영상좌표를 포함하는 운송제품정보 요청 신호를 발주업체시스템(200)으로 전송한다. 여기서, 운송제품확인 애플리케이션은 선박에 탑재된 운송제품에 대한 정보를 증강현실로 제공하는 애플리케이션일 수 있다. When the transport product confirmation application is executed, the user terminal 400 acquires an image by driving the photographing unit, calculates the coordinates of the acquired image, and sends a transport product information request signal including the calculated image coordinates to the ordering company system ( 200) is sent. Here, the transportation product confirmation application may be an application that provides information on transportation products mounted on a ship in augmented reality.

사용자 단말기(400)는 발주업체시스템(200)으로부터 운송제품정보가 수신되면, 그 운송제품정보를 촬영부를 통해 획득된 영상에 오버레이하여 표시한다. When the transport product information is received from the ordering company system 200 , the user terminal 400 overlays the transport product information on the image acquired through the photographing unit and displays it.

이러한 구성을 갖는 사용자 단말기(400)는 촬영부가 구비되고, 운송제품확인 애플리케이션의 설치 및 실행이 가능한 장치로, 스마트폰, 태블릿, PC, 노트북, PDA 등의 전자 장치의 형태로 구현될 수 있으며, 이 외에도 연산 동작과 데이터 송수신 동작이 가능한 다양한 전자 장치의 형태로 구현될 수 있다. The user terminal 400 having such a configuration is provided with a photographing unit, and is a device capable of installing and executing a transportation product confirmation application, and may be implemented in the form of an electronic device such as a smartphone, tablet, PC, notebook, PDA, etc., In addition, it may be implemented in the form of various electronic devices capable of arithmetic operations and data transmission/reception operations.

사용자 단말기에(400) 대한 상세한 설명은 도 3을 참조하기로 한다.
A detailed description of the user terminal 400 will be described with reference to FIG. 3 .

도 2는 본 발명의 실시예에 따른 발주업체시스템의 구성을 개략적으로 나타낸 블럭도이다. 2 is a block diagram schematically showing the configuration of an ordering company system according to an embodiment of the present invention.

도 2를 참조하면, 발주업체시스템(200)은 발주정보 데이터베이스(210), 납품정보 데이터베이스(220), 운송선박정보 데이터베이스(230), 발주정보 등록부(240), 납품정보 등록부(250), AIS 수신부(260), AIS 분석부(270), 운송제품정보 제공부(280)를 포함한다. Referring to FIG. 2 , the ordering company system 200 includes an ordering information database 210 , a delivery information database 220 , a transport ship information database 230 , an ordering information registration unit 240 , a delivery information registration unit 250 , and AIS. It includes a receiving unit 260 , an AIS analyzing unit 270 , and a transport product information providing unit 280 .

발주정보 데이터베이스(210)에는 발주품목, 사외업체명, 계약가격, 계약일, 입고 요구일 등을 포함하는 발주정보가 저장되어 있다. The order information database 210 stores order information including order items, names of outside companies, contract prices, contract dates, stocking request dates, and the like.

납품정보 데이터베이스(220)에는 발주품목, 운송담당 선박, 선박 식별정보, 도착예정일, 선장이름, 선박 전화번호 등을 포함하는 납품정보가 저장되어 있다. The delivery information database 220 stores delivery information including order items, transport ship, ship identification information, expected arrival date, captain's name, ship phone number, and the like.

운송선박정보 데이터베이스(230)에는 선박 식별정보, 메시지 수신 시간, 현재 위도, 현재 경도 등이 저장되어 있다. The transport vessel information database 230 stores vessel identification information, message reception time, current latitude, current longitude, and the like.

발주정보 등록부(240)는 발주정보를 입력받아 발주정보 데이터베이스(210)에 등록한다.The order information registration unit 240 receives the order information and registers it in the order information database 210 .

납품정보 등록부(250)는 납품업체로부터 납품정보 등록이 요청된 경우, 납품정보를 납품정보 데이터베이스(220)에 등록한다. 이때, 납품정보 등록부(250)는 납품업체에 대한 보안 인증을 수행하여, 인증된 경우 납품정보를 등록한다. When delivery information registration is requested from a supplier, the delivery information registration unit 250 registers delivery information in the delivery information database 220 . At this time, the delivery information registration unit 250 performs security authentication for the supplier, and registers the delivery information when authenticated.

즉, 납품정보 등록부(250)는 납품업체로부터 납품정보를 입력받아 납품정보 데이터베이스(220)에 등록한다. That is, the delivery information registration unit 250 receives delivery information from the supplier and registers it in the delivery information database 220 .

여기에서는 발주정보 데이터베이스(210)와 납품정보 데이터베이스(220)가 분리된 것으로 설명하였으나, 발주정보와 납품정보가 저장된 데이터베이스(운송제품정보 데이터베이스)를 하나로 구성할 수도 있다. Although it has been described that the order information database 210 and the delivery information database 220 are separated here, a database (transport product information database) in which order information and delivery information are stored may be configured as one.

AIS 수신부(260)는 선박에 설치된 AIS 단말기로부터 AIS 정보를 수신하여 AIS 분석부(270)로 전송한다. The AIS receiver 260 receives AIS information from the AIS terminal installed on the ship and transmits it to the AIS analyzer 270 .

AIS 분석부(270)는 AIS 수신부(260)로부터 AIS 정보를 분석하여 선박 식별정보 및 선박의 현재 위치정보를 파악하고, 상기 파악된 선박 식별정보 및 현재 위치정보를 AIS 정보 수신시간과 함께 운송선박정보 데이터베이스(230)에 저장한다. AIS 정보는 인코딩되어 있기 때문에, AIS 분석부(270)는 AIS 정보를 디코딩하여, 선박의 위치정보를 파악하고, 그 위치정보를 운송선박정보 데이터베이스(230)에 저장한다.The AIS analysis unit 270 analyzes the AIS information from the AIS receiver 260 to determine the vessel identification information and the current position information of the vessel, and uses the identified vessel identification information and the current position information together with the AIS information reception time to the transport vessel. stored in the information database 230 . Since the AIS information is encoded, the AIS analysis unit 270 decodes the AIS information, grasps the position information of the vessel, and stores the position information in the transport vessel information database 230 .

운송제품정보 제공부(280)는 사용자 단말기로부터 영상 좌표를 포함하는 운송제품정보 요청 신호가 수신된 경우, 운송선박정보 데이터베이스(230)로부터 영상좌표에 속하는 선박을 조회한다. 그런 후, 운송제품정보 제공부(280)는 발주정보 데이터베이스(210)로 조회된 선박의 발주정보를 획득하고, 납품정보 데이터베이스(220)로부터 조회된 선박의 납품정보를 획득한다. 그런 후, 운송제품정보 제공부(280)는 획득된 발주정보 및 납품정보를 포함하는 운송제품정보를 사용자 단말기에 제공한다. When the transport product information request signal including the image coordinates is received from the user terminal, the transport product information providing unit 280 inquires a ship belonging to the image coordinates from the transport ship information database 230 . Thereafter, the transportation product information providing unit 280 obtains the order information of the ship inquired from the order information database 210 , and obtains the delivery information of the ship inquired from the delivery information database 220 . Thereafter, the transportation product information providing unit 280 provides transportation product information including the obtained order information and delivery information to the user terminal.

한편, 발주정보 등록부(240), 납품정보 등록부(250), AIS 분석부(270), 운송제품정보 제공부(280)는 컴퓨팅 장치상에서 프로그램을 실행하기 위해 필요한 프로세서 등에 의해 각각 구현될 수 있다. 이처럼 발주정보 등록부(240), 납품정보 등록부(250), AIS 분석부(270), 운송제품정보 제공부(280)는 물리적으로 독립된 각각의 구성에 의해 구현될 수도 있고, 하나의 프로세서 내에서 기능적으로 구분되는 형태로 구현될 수도 있다. Meanwhile, the ordering information registration unit 240 , the delivery information registration unit 250 , the AIS analysis unit 270 , and the transportation product information providing unit 280 may be implemented by a processor required to execute a program on the computing device, respectively. As such, the ordering information registration unit 240 , the delivery information registration unit 250 , the AIS analysis unit 270 , and the transportation product information providing unit 280 may be implemented by each physically independent configuration, and functionally within one processor. It may be implemented in a form separated by .

또한, 발주업체시스템(200)은 적어도 하나의 연산 장치를 포함할 수 있는데, 여기서 연산 장치는 범용적인 중앙연산장치(CPU), 특정 목적에 적합하게 구현된 프로그래머블 디바이스 소자(CPLD, FPGA), 주문형 반도체 연산장치(ASIC) 또는 마이크로 컨트롤러 칩일 수 있다.
In addition, the ordering company system 200 may include at least one arithmetic unit, where the arithmetic unit is a general-purpose central processing unit (CPU), a programmable device device (CPLD, FPGA) implemented to suit a specific purpose, and a custom It may be a semiconductor processing unit (ASIC) or a microcontroller chip.

도 3은 본 발명의 실시예에 따른 사용자 단말기의 구성을 개략적으로 나타낸 블럭도, 도 4는 도 3에 도시된 측정부의 구성을 구체적으로 나타낸 도면, 도 5 내지 도 8은 영상좌표 계산부가 사용자 단말기의 위치정보, 방향정보, 자세정보, 및 기기정보를 이용하여 촬영된 영상 이미지의 꼭지점에 대한 3차원 공간좌표를 계산하는 과정을 구체적으로 설명하기 위한 도면이다.3 is a block diagram schematically showing the configuration of a user terminal according to an embodiment of the present invention, FIG. 4 is a diagram specifically showing the configuration of the measurement unit shown in FIG. 3, and FIGS. 5 to 8 are the image coordinate calculation unit of the user terminal It is a diagram for explaining in detail the process of calculating the three-dimensional spatial coordinates of the vertices of the captured video image using the location information, direction information, posture information, and device information of

도 3을 참조하면, 사용자 단말기(400)는 통신부(410), 입력부(420), 출력부(430), 저장부(440), 촬영부(450), 측정부(460), 영상좌표 계산부(470), 운송제품정보 요청 처리부(480), 증강현실 처리부(490), 제어부(495)를 포함한다.Referring to FIG. 3 , the user terminal 400 includes a communication unit 410 , an input unit 420 , an output unit 430 , a storage unit 440 , a photographing unit 450 , a measurement unit 460 , and an image coordinate calculation unit. 470 , a transport product information request processing unit 480 , an augmented reality processing unit 490 , and a control unit 495 .

통신부(410)는 운송제품정보를 제공받을 수 있도록, 사용자 단말기(400)를 발주업체시스템과 통신망을 통해 상호 연결시키는 통신 수단으로서, 예를 들어 이동통신, 위성통신 등의 무선 통신모듈, 인터넷 등의 유선 통신모듈, 와이파이 등의 근거리 무선 통신모듈 등을 포함할 수 있다.The communication unit 410 is a communication means for interconnecting the user terminal 400 through a communication network with the ordering company system so that transportation product information can be provided, for example, a wireless communication module such as mobile communication, satellite communication, the Internet, etc. It may include a wired communication module, a short-distance wireless communication module such as Wi-Fi, and the like.

입력부(420)는 사용자 단말기(400)의 동작 제어를 위한 사용자 요청을 입력받기 위한 수단으로서, 사용자의 조작에 따라서 사용자의 요청을 전기 신호로 변환한다. 예컨대, 입력부(420)는 운송제품확인 애플리케이션 실행 명령을 입력받는다. 이러한 입력부(420)가 터치 스크린의 형태로 구현된 경우, 입력부(420)와 출력부(430)가 동일할 수 있다.The input unit 420 is a means for receiving a user request for operation control of the user terminal 400 , and converts the user's request into an electric signal according to the user's manipulation. For example, the input unit 420 receives a transport product confirmation application execution command. When the input unit 420 is implemented in the form of a touch screen, the input unit 420 and the output unit 430 may be the same.

출력부(430)는 사용자 단말기(400)의 동작 결과나 상태를 사용자가 인식할 수 있도록 제공하는 수단으로서, 시각적으로 확인 가능한 디스플레이의 형태, 예를 들어 LCD(Liquid Crystal Display) 또는 OLED(Organic Light Emitting Diodes) 등 소형 평판 디스플레이장치로 구현되는 것이 바람직할 수 있다. 특히, 본 발명에 의한 출력부(430)는 증강현실 처리부(490)에서 증강현실로 구현된 운송제품정보를 화면상에 표시한다. The output unit 430 is a means for providing the operation result or state of the user terminal 400 so that the user can recognize it, and has a visually identifiable display form, for example, a liquid crystal display (LCD) or organic light (OLED). It may be desirable to implement a small flat panel display device such as emitting diodes). In particular, the output unit 430 according to the present invention displays the transportation product information implemented in augmented reality in the augmented reality processing unit 490 on the screen.

저장부(440)는 증강현실 운송제품정보 서비스 동작에 필요한 프로그램, 그 프로그램 수행 중에 발생되는 데이터를 저장하는 것으로서, 기본적으로 사용자 단말기(400)의 운영 프로그램이 저장된다. 특히, 저장부(440)에는 운송제품확인 애플리케이션이 저장되어 있다. The storage unit 440 stores a program necessary for the operation of the augmented reality transportation product information service and data generated during the execution of the program, and basically, the operating program of the user terminal 400 is stored. In particular, the storage unit 440 is stored in the transportation product confirmation application.

촬영부(450)는 사용자 조작에 따라 영상을 촬영하는 구성으로, 예컨대 카메라 등을 포함할 수 있다. 촬영부(450)는 CCD 또는 CMOS 소자를 이용하여 영상을 촬영할 수 있다. 한편, 본 실시예에서는 촬영부(450)에 마련된 CCD 또는 CMOS 소자를 이용하여 영상을 촬영하는 것에 대해서만 설명하였지만, 외부 카메라로부터 영상을 입력받는 형태로 구현되는 것도 가능하다.The photographing unit 450 is configured to photograph an image according to a user manipulation, and may include, for example, a camera. The photographing unit 450 may photograph an image using a CCD or CMOS device. Meanwhile, in the present embodiment, only the photographing of an image using the CCD or CMOS device provided in the photographing unit 450 has been described, but it may be implemented in the form of receiving an image from an external camera.

측정부(460)는 사용자 단말기(400)의 위치정보, 방향정보, 자세정보 등을 측정한다. The measurement unit 460 measures location information, direction information, posture information, and the like of the user terminal 400 .

이러한 측정부(460)는 도 4와 같이 위치정보 측정부(462), 방향정보 측정부(464), 자세정보 측정부(466)를 포함한다. The measurement unit 460 includes a position information measurement unit 462 , a direction information measurement unit 464 , and an attitude information measurement unit 466 as shown in FIG. 4 .

위치정보 측정부(462)는 사용자 단말기(400)의 위치를 측정하는 구성으로, 예컨대, GPS(Global Positioning System), WIPI 측위 등의 위치 측정 장치일 수 있다. 즉, 위치정보 측정부(462)는 GPS위성으로부터 신호를 받아 현재 위치를 검출하는 GPS센서나, GPS 위성신호의 수신이 불가능하거나 수신감도가 낮은 지역에서의 현재 위치 검출을 위하여 무선랜(WiFi) 기지국(Access Point)의 전파를 수신하여 대략적인 현재 위치를 검출하는 무선랜 장치를 포함할 수 있으며, 두 종류의 센서를 혼용하여 위치검출의 정확도를 보다 향상시킬 수도 있다.The location information measuring unit 462 is a component for measuring the location of the user terminal 400 , and may be, for example, a location measuring device such as a Global Positioning System (GPS), WIPI positioning, or the like. That is, the location information measuring unit 462 receives a signal from a GPS satellite and detects a current location by a GPS sensor or a wireless LAN (WiFi) for detecting a current location in an area where reception of a GPS satellite signal is impossible or reception sensitivity is low. A wireless LAN device for detecting an approximate current location by receiving radio waves from an access point may be included, and the accuracy of location detection may be further improved by mixing two types of sensors.

방향정보 측정부(464)는 사용자 단말기(400)의 촬영 방향을 측정하여 방향정보(방위각 또는 요(yaw)각 ∂)를 획득한다. 예를 들어, 방향정보 측정부(464)는 자이로스코프 센서, 지자기 센서, 디지털 방위 센서 등을 포함할 수 있다. The direction information measuring unit 464 measures the photographing direction of the user terminal 400 to obtain direction information (azimuth or yaw angle ∂). For example, the direction information measuring unit 464 may include a gyroscope sensor, a geomagnetic sensor, a digital direction sensor, and the like.

자세정보 측정부(466)는 사용자 단말기(400)의 롤각(h) 및 피치각(v)을 측정한다. 예를 들어, 자세정보 측정부(466)는 틸트 센서가 될 수 있다. The posture information measuring unit 466 measures the roll angle b and the pitch angle v of the user terminal 400 . For example, the posture information measuring unit 466 may be a tilt sensor.

영상좌표 계산부(470)는 사용자 단말기(400)의 기기정보, 측정부(460)에서 측정된 위치정보, 방향정보 및 자세정보를 이용하여 촬영부(450)를 통해 촬영된 영상의 좌표를 계산한다. 여기서, 기기정보는 예컨대, 렌즈 사양에 따른 화각정보, 초점거리 정보, 사용자 조작 등에 의한 확대/축소(zoom in/zoom out)정보 등을 포함할 수 있다. 영상좌표 계산부(470)에서 계산된 영상좌표는 촬영부(450)가 비추고 있는 지역의 위도, 경도의 좌표범위일 수 있다. The image coordinate calculation unit 470 calculates the coordinates of the image captured by the photographing unit 450 using the device information of the user terminal 400, the location information measured by the measurement unit 460, the direction information, and the posture information. do. Here, the device information may include, for example, angle of view information according to lens specifications, focal length information, and zoom in/zoom out information by user manipulation. The image coordinates calculated by the image coordinate calculation unit 470 may be the coordinate ranges of latitude and longitude of the area illuminated by the photographing unit 450 .

이하 영상좌표 계산부(470)가 영상 좌표를 계산하는 방법에 대해 좀더 상세히 설명하기로 한다. Hereinafter, a method for the image coordinate calculation unit 470 to calculate the image coordinates will be described in more detail.

도 5 및 도 6을 참조하면, 사용자 단말기(400)는 화각(2ω)을 가지고 있다. 화각은 한 프레임(화면) 속에 넣을 수 있는 배경(풍경)의 폭을 의미한다. 즉, 화각이 커질수록 한 화면에 담을 수 있는 배경의 폭은 증가한다. 일반적으로 어안렌즈의 경우에는 180°이상의 화각을 가지고 있고, 표준렌즈의 경우에는 40°~60°의 화각을 가지고 있다.5 and 6 , the user terminal 400 has an angle of view 2ω. The angle of view means the width of the background (landscape) that can be put in one frame (screen). That is, as the angle of view increases, the width of the background that can be included in one screen increases. In general, fisheye lenses have an angle of view of 180° or more, and standard lenses have an angle of view of 40° to 60°.

사용자 단말기(400)의 위치정보를 A0(x0,y0,z0), 지면(1)으로부터 사용자 단말기(400)까지의 높이를 h, 사용자 단말기(400)의 피치각(pitch angle)은

Figure 112015061317985-pat00001
, 롤각(roll angle)은 0°인 것으로 가정하기로 한다. Position information of the user terminal 400 is A 0 (x 0 ,y 0 ,z 0 ), the height from the ground 1 to the user terminal 400 is h, and the pitch angle of the user terminal 400 is silver
Figure 112015061317985-pat00001
, it is assumed that the roll angle is 0°.

A0(x0,y0,z0)는 위치정보 측정부(462)을 통해 획득할 수 있으며, 높이 h는 z0을 통해 도출할 수 있다. 그리고, 피치각

Figure 112015061317985-pat00002
는 자세정보 획득부(466)을 통해 획득할 수 있다.A 0 (x 0 ,y 0 ,z 0 ) may be obtained through the location information measurement unit 462 , and the height h may be derived through z 0 . and the pitch angle
Figure 112015061317985-pat00002
may be obtained through the posture information obtaining unit 466 .

그러면, 도 6의

Figure 112015061317985-pat00003
는 수학식 1과 같이 계산될 수 있다. 여기서
Figure 112015061317985-pat00004
는 가상영역(도 7의 V)의 중심점과 사용자 단말기(400) 간의 거리를 나타낸다.Then, in FIG.
Figure 112015061317985-pat00003
can be calculated as in Equation 1. here
Figure 112015061317985-pat00004
denotes a distance between the central point of the virtual region (V in FIG. 7 ) and the user terminal 400 .

Figure 112015061317985-pat00005
Figure 112015061317985-pat00005

가상영역(V)은 사용자 단말기(400)의 시선 방향에 대해 수직한 면에 형성되는 가상의 영역으로서, 실제 피사체가 촬영되는 지형영역(R)과는 차이가 있다. 사용자 단말기(400)로 촬영되는 영상 이미지의 경우 가로*세로 비율이 정해져 있으므로, 도 7 및 도 8에 도시된 것처럼 실제 촬영되는 지형영역(R)에 대해서, 시선방향에 수직하는 가상의 면에 소정의 가로*세로 비율을 갖는 가상영역(V)이 존재한다.The virtual area V is a virtual area formed on a plane perpendicular to the gaze direction of the user terminal 400 , and is different from the geographic area R in which an actual subject is photographed. In the case of the video image taken by the user terminal 400, since the horizontal * vertical ratio is determined, as shown in FIGS. 7 and 8 , for the geographical area R to be actually photographed, a predetermined value is placed on an imaginary plane perpendicular to the gaze direction. There is a virtual region V having an aspect ratio of .

여기서, 수학식 1을 통해 계산된 값을 이용하면, 도 7에 도시된 가상영역(V)에서의 dX의 값을 수학식 2를 이용하여 계산할 수 있다.Here, if the value calculated through Equation 1 is used, the value of dX in the virtual region V shown in FIG. 7 may be calculated using Equation 2 .

Figure 112015061317985-pat00006
Figure 112015061317985-pat00006

수학식 2를 통해 dX값이 산출되면, 가상영역(V)에서의 dY값을 계산할 수 있다. 즉, 사용자 단말기(400)가 촬영하고 있는 영상 이미지는 가로*세로 비율이 정해져 있으므로, 디지털 영상의 가로*세로 비율이 m:n이 라고 하면, 수학식 3을 통해 dY값을 계산할 수 있다.When the dX value is calculated through Equation 2, the dY value in the virtual region V can be calculated. That is, since the horizontal*vertical ratio of the video image photographed by the user terminal 400 is determined, if the horizontal*vertical ratio of the digital image is m:n, the dY value can be calculated through Equation (3).

Figure 112015061317985-pat00007
Figure 112015061317985-pat00007

수학식 3을 통해 계산된 dY값과 수학식 1을 통해 계산된

Figure 112015061317985-pat00008
값을 이용하면 도 8의
Figure 112015061317985-pat00009
값을 계산할 수 있다.
Figure 112015061317985-pat00010
는 A0와 가상영역(V)의 중심점을 연결하는 수선과, 가상영역(V)에서 가상영역(V)의 중심점으로부터 dY떨어진 지점과 A0을 연결하는 직선 사이에 형성되는 사이각을 나타낸다.dY value calculated through Equation 3 and Equation 1
Figure 112015061317985-pat00008
Using the value,
Figure 112015061317985-pat00009
value can be calculated.
Figure 112015061317985-pat00010
denotes the angle formed between the vertical line connecting A 0 and the center point of the virtual area V and the straight line connecting A 0 and a point dY away from the center point of the virtual area V in the virtual area V.

그러면, 다음의 수학식 4 및 수학식 5를 통해 y 좌표를 계산할 수 있다. 먼저, 도 8의

Figure 112015061317985-pat00011
는 수학식 4를 통해 계산되고, 도 7의
Figure 112015061317985-pat00012
는 수학식 5를 통해 계산된다.Then, the y-coordinate can be calculated through Equations 4 and 5 below. First, in FIG. 8
Figure 112015061317985-pat00011
is calculated through Equation 4,
Figure 112015061317985-pat00012
is calculated through Equation 5.

Figure 112015061317985-pat00013
Figure 112015061317985-pat00013

Figure 112015061317985-pat00014
Figure 112015061317985-pat00014

수학식 4와 수학식 5는 사용자 단말기(400)로 촬영된 영상 이미지의 실제 거리차를 구하는 식이다. 즉,

Figure 112015061317985-pat00015
Figure 112015061317985-pat00016
는 가상영역(V)의 중심점으로부터 y축방향으로 실제 지형상에서 이격하여 있는 거리를 각각 나타낸다.Equations 4 and 5 are equations for obtaining the actual distance difference between the video images captured by the user terminal 400 . in other words,
Figure 112015061317985-pat00015
Wow
Figure 112015061317985-pat00016
denotes the distance from the center point of the virtual region V in the y-axis direction on the real topography, respectively.

이렇게 계산된

Figure 112015061317985-pat00017
Figure 112015061317985-pat00018
를 이용하면, 도 8에 도시된 실제 촬영되는 지형영역(R)에 대한 y좌표를 구할 수 있다.calculated like this
Figure 112015061317985-pat00017
Wow
Figure 112015061317985-pat00018
By using , it is possible to obtain the y-coordinate of the geographical area R to be actually photographed shown in FIG. 8 .

본 발명의 실시예에서는 사용자 단말기(400)가 북반구에서 북향으로 촬영하는 경우로 가정하였으므로, y1과 y2가 동일하고, y3와 y4가 동일하게 된다. 따라서, 사용자 단말기(400)로 촬영된 영상 이미지의 각 꼭지점에 대한 지형영역(R)의 y좌표(y1,y2,y3,y4)는 다음과 같이 계산될 수 있다.In the embodiment of the present invention, since it is assumed that the user terminal 400 is photographed in the north direction in the northern hemisphere, y1 and y2 are the same, and y3 and y4 are the same. Accordingly, the y-coordinates (y 1 , y 2 , y 3 , y 4 ) of the terrain region R for each vertex of the video image captured by the user terminal 400 may be calculated as follows.

Figure 112015061317985-pat00019
Figure 112015061317985-pat00019

Figure 112015061317985-pat00020
Figure 112015061317985-pat00020

상기한 수식들로부터 도출된 값들(

Figure 112015061317985-pat00021
,
Figure 112015061317985-pat00022
,
Figure 112015061317985-pat00023
,...)을 이용하면 도 7에 기재된
Figure 112015061317985-pat00024
,
Figure 112015061317985-pat00025
값을 계산할 수 있다. 보다 상세하게는, 도 8의
Figure 112015061317985-pat00026
Figure 112015061317985-pat00027
값을 이용하면, A0를 시작으로 가상영역(V)의 중심점에서 각각 dY씩 y축방향으로 이격하여 있는 지점까지 연결되는 직선의 길이를 계산할 수가 있다. 이렇게 계산된 직선의 길이와Values derived from the above formulas (
Figure 112015061317985-pat00021
,
Figure 112015061317985-pat00022
,
Figure 112015061317985-pat00023
,...) as described in FIG.
Figure 112015061317985-pat00024
,
Figure 112015061317985-pat00025
value can be calculated. More specifically, in FIG.
Figure 112015061317985-pat00026
class
Figure 112015061317985-pat00027
Using the value, it is possible to calculate the length of a straight line from A 0 to a point spaced apart from the center point of the virtual region V by dY in the y-axis direction. The length of this calculated straight line and

dX를 이용하면

Figure 112015061317985-pat00028
,
Figure 112015061317985-pat00029
값을 계산할 수 있다.With dX
Figure 112015061317985-pat00028
,
Figure 112015061317985-pat00029
value can be calculated.

수학식 8과 수학식 9는 사용자 단말기(400)로 촬영된 영상 이미지의 실제 거리차를 구하는 식이다. 즉,

Figure 112015061317985-pat00030
Figure 112015061317985-pat00031
는 가상영역(V)의 꼭지점과 실제 촬영되는 지형영역(R) 사이에 발생되는 x축방향으로의 거리차를 나타낸다.Equations (8) and (9) are equations for obtaining the actual distance difference between the video images captured by the user terminal 400 . in other words,
Figure 112015061317985-pat00030
Wow
Figure 112015061317985-pat00031
denotes a distance difference in the x-axis direction between the vertex of the virtual region V and the actual geographic region R.

Figure 112015061317985-pat00032
Figure 112015061317985-pat00032

Figure 112015061317985-pat00033
Figure 112015061317985-pat00033

수학식 8과 수학식 9를 통해

Figure 112015061317985-pat00034
Figure 112015061317985-pat00035
가 도출되면, 수학식 10을 이용하여 촬영된 영상 이미지에 대한 x좌표를 계산할 수 있다. 사용자 단말기(400)로 촬영된 영상 이미지의 각 꼭지점에 대한 지형영역(R)의 x좌표(x1,x2,x3,x4)는 다음의 수학식 10과 같다.Through Equation 8 and Equation 9
Figure 112015061317985-pat00034
Wow
Figure 112015061317985-pat00035
When is derived, the x-coordinate of the captured video image may be calculated using Equation 10. The x-coordinate (x 1 ,x 2 ,x 3 ,x 4 ) of the terrain region R for each vertex of the video image captured by the user terminal 400 is expressed by Equation 10 below.

Figure 112015061317985-pat00036
Figure 112015061317985-pat00036

Figure 112015061317985-pat00037
Figure 112015061317985-pat00037

Figure 112015061317985-pat00038
Figure 112015061317985-pat00038

Figure 112015061317985-pat00039
Figure 112015061317985-pat00039

같은 방식으로, 사용자 단말기(400)로 촬영된 영상 이미지의 각 꼭지점에 대한 지형영역(R)의 대한 z좌표(z1,z2,z3,z4)는 다음과 같이 계산될 수 있다.In the same way, the z-coordinates (z 1 , z 2 , z 3 , z 4 ) of the geographic region R for each vertex of the video image captured by the user terminal 400 may be calculated as follows.

Figure 112015061317985-pat00040
Figure 112015061317985-pat00040

전술한 바에 의하면, 본 발명에 따른 영상좌표 계산부(470)는 위치정보 측정부(462), 방향정보 측정부(464), 자세정보 측정부(466)를 통해 측정된 위치정보, 방향정보, 자세정보와 기기정보를 이용하여 촬영된 영상 이미지의 각 꼭지점에 대한 지형영역의 3차원 공간좌표 A1, A2, A3, 및 A4를 계산하는 것이 가능해진다. 그리고, 이렇게 획득한 영상 이미지의 3차원 공간좌표를 분석 및 가공하여 위도, 경도를 계산할 수 있다. As described above, the image coordinate calculation unit 470 according to the present invention includes the position information measured through the position information measurement unit 462 , the direction information measurement unit 464 , and the posture information measurement unit 466 , the direction information, It becomes possible to calculate the three-dimensional spatial coordinates A1, A2, A3, and A4 of the terrain area for each vertex of the captured video image using the posture information and the device information. In addition, latitude and longitude can be calculated by analyzing and processing the three-dimensional spatial coordinates of the obtained video image.

운송제품정보 요청 처리부(480)는 영상좌표 계산부(470)에서 계산된 영상좌표를 포함하는 운송제품정보 요청 신호를 발주업체시스템으로 전송하고, 발주업체시스템으로부터 운송제품정보를 수신한다. 운송제품정보는 해당 선박의 발주정보 및 납품정보를 포함한다. The transportation product information request processing unit 480 transmits a transportation product information request signal including the image coordinates calculated by the image coordinate calculation unit 470 to the ordering company system, and receives the transportation product information from the ordering company system. Transport product information includes order information and delivery information of the vessel.

증강현실 처리부(490)는 운송제품정보를 촬영부(450)를 통해 촬영된 영상에 오버레이하여 화면에 표시한다. The augmented reality processing unit 490 overlays the transportation product information on the image captured by the photographing unit 450 and displays it on the screen.

증강현실 처리부(490)는 증강현실로 화면상에 표시되는 운송제품정보중에서 사용자에 의해 선택된 목록에 대한 상세정보를 제공한다. Augmented reality processing unit 490 provides detailed information about the list selected by the user from among the transport product information displayed on the screen in augmented reality.

예를 들어, 사용자가 선박을 선택하면, 증강현실 처리부(490)는 해당 선박에 탑재된 제품 리스트를 증강현실로 표시하고, 사용자가 특정 제품을 선택하면, 특정 제품에 대한 영상을 증강현실로 표시한다. For example, when the user selects a vessel, the augmented reality processing unit 490 displays a list of products mounted on the vessel in augmented reality, and when the user selects a specific product, an image for the specific product is displayed in augmented reality. do.

또한, 사용자가 운송제품정보중에서 전화번호를 선택하면, 증강현실 처리부(490)는 그 전화번호로 전화연결이 되도록 한다. In addition, when the user selects a phone number from the transport product information, the augmented reality processing unit 490 makes a phone connection to the phone number.

또한, 사용자가 운송제품정보 중에서 업체를 선택하면, 증강현실 처리부(490)는 그 업체에 대한 상세 정보를 오버레이하여 화면에 표시한다.
In addition, when the user selects a company from the transportation product information, the augmented reality processing unit 490 overlays detailed information about the company and displays it on the screen.

한편, 측정부(460), 영상좌표 계산부(470), 운송제품정보 요청 처리부(480), 증강현실 처리부(490) 각각은 컴퓨팅 장치상에서 프로그램을 실행하기 위해 필요한 프로세서 등에 의해 각각 구현될 수 있다. 이처럼 측정부(460), 영상좌표 계산부(470), 운송제품정보 요청 처리부(480), 증강현실 처리부(490) 각각은 물리적으로 독립된 각각의 구성에 의해 구현될 수도 있고, 하나의 프로세서 내에서 기능적으로 구분되는 형태로 구현될 수도 있다.Meanwhile, each of the measurement unit 460, the image coordinate calculation unit 470, the transportation product information request processing unit 480, and the augmented reality processing unit 490 may be implemented by a processor required to execute a program on the computing device, etc. . As such, each of the measurement unit 460, the image coordinate calculation unit 470, the transportation product information request processing unit 480, and the augmented reality processing unit 490 may be implemented by each physically independent configuration, and within one processor. It may be implemented in a functionally distinct form.

제어부(495)는 입력부(420)를 통해 입력되는 사용자의 지시에 따라 저장부(440)에 저장된 구동 프로그램을 실행하여 사용자 단말기(400)의 전반적인 기능을 제어한다.The control unit 495 controls the overall function of the user terminal 400 by executing the driving program stored in the storage unit 440 according to a user's instruction input through the input unit 420 .

제어부(495)는 는 통신부(410), 입력부(420), 출력부(430), 저장부(440), 촬영부(450), 측정부(460), 영상좌표 계산부(470), 운송제품정보 요청 처리부(480), 증강현실 처리부(490)를 포함하는 사용자 단말기(400)의 다양한 구성부들의 동작을 제어하는 구성이다. The control unit 495 includes a communication unit 410, an input unit 420, an output unit 430, a storage unit 440, a photographing unit 450, a measurement unit 460, an image coordinate calculation unit 470, and a transport product. It is a configuration for controlling the operation of various components of the user terminal 400 including the information request processing unit 480 and the augmented reality processing unit 490 .

이러한 제어부(495)는 적어도 하나의 연산 장치를 포함할 수 있는데, 여기서 상기 연산 장치는 범용적인 중앙연산장치(CPU), 특정 목적에 적합하게 구현된 프로그래머블 디바이스 소자(CPLD, FPGA), 주문형 반도체 연산장치(ASIC) 또는 마이크로 컨트롤러 칩일 수 있다.The control unit 495 may include at least one arithmetic unit, where the arithmetic unit is a general-purpose central processing unit (CPU), a programmable device device (CPLD, FPGA) implemented appropriately for a specific purpose, and an application-specific semiconductor operation. It can be a device (ASIC) or a microcontroller chip.

사용자 단말기(400)가 포함할 수 있는 이러한 구성부들은 하드웨어, 소프트웨어 또는 이들의 결합으로 구현될 수 있으며, 하나의 하드웨어 또는 소프트웨어에 의해 둘 이상의 구성부들이 동시에 구현될 수도 있다. These components that the user terminal 400 may include may be implemented by hardware, software, or a combination thereof, and two or more components may be simultaneously implemented by one piece of hardware or software.

이러한 구성의 사용자 단말기(400)는 운송제품확인 애플리케이션이 설치되어, 증강현실을 이용하여 운송제품정보 서비스가 가능한 장치로, 스마트폰, 태블릿, PC, 노트북, PDA 등의 전자 장치의 형태로 구현될 수 있으며, 이 외에도 연산 동작과 데이터 송수신 동작이 가능한 다양한 전자 장치의 형태로 구현될 수 있다.
The user terminal 400 of this configuration is a device in which a transportation product confirmation application is installed, and a transportation product information service is possible using augmented reality, and may be implemented in the form of an electronic device such as a smartphone, tablet, PC, notebook, PDA, etc. In addition, it may be implemented in the form of various electronic devices capable of arithmetic operations and data transmission/reception operations.

도 9는 본 발명의 실시예에 따른 증강현실을 이용한 해상운송제품 인식 방법을 나타낸 도면, 도 10 내지 도 12는 본 발명의 실시예에 따른 증강현실을 이용한 해상운송제품 인식 방법을 설명하기 위한 화면 예시도이다. 9 is a view showing a maritime transportation product recognition method using augmented reality according to an embodiment of the present invention, FIGS. 10 to 12 are screens for explaining a maritime transportation product recognition method using augmented reality according to an embodiment of the present invention It is an example diagram.

도 9를 참조하면, 사용자 단말기는 운송제품확인 애플리케이션이 실행되면(S502), 촬영부를 구동시켜 영상을 획득한다(S504).Referring to FIG. 9 , when the transport product confirmation application is executed (S502), the user terminal drives the photographing unit to acquire an image (S504).

사용자 단말기는 획득된 영상의 좌표를 계산하고(S506), 계산된 영상좌표를 포함하는 운송제품정보 요청 신호를 발주업체시스템으로 전송한다(S508). 이때, 사용자 단말기는 사용자 단말기의 위치정보, 방향정보, 자세정보 등을 측정하고, 측정된 위치정보, 방향정보, 자세정보를 이용하여 획득된 영상의 좌표를 계산한다. The user terminal calculates the coordinates of the obtained image (S506), and transmits a transportation product information request signal including the calculated image coordinates to the ordering company system (S508). At this time, the user terminal measures location information, direction information, posture information, etc. of the user terminal, and calculates the coordinates of the obtained image using the measured location information, direction information, and posture information.

발주업체시스템은 영상좌표에 속하는 선박을 조회하고(S510), 조회된 선박의 발주정보 또는 납품정보를 포함하는 운송제품정보를 획득하여(S512), 사용자 단말기로 전송한다(S514).The ordering company system inquires a ship belonging to the image coordinates (S510), and obtains transportation product information including order information or delivery information of the inquired ship (S512), and transmits it to the user terminal (S514).

사용자 단말기는 발주업체시스템으로부터 전송된 운송제품정보를 상기 획득된 영상에 오버레이하여 표시한다(S516).The user terminal overlays the transportation product information transmitted from the ordering company system on the acquired image and displays it (S516).

예를 들어, 도 10을 참조하여 해상운송제품을 인식하는 방법에 대해 설명하기로 한다. For example, a method of recognizing a shipping product will be described with reference to FIG. 10 .

도 10과 같이 현재 위치가 북위 36.5, 동경 125인 사용자 단말기가 A와 같은 영상을 촬영한 경우에 대해 설명하기로 한다. A case in which the user terminal whose current location is 36.5 north latitude and 125 east longitude captures the same image as in FIG. 10 will be described.

사용자 단말기는 위치정보, 방향정보, 자세정보, 기기 정보를 이용하여 촬영된 영상의 좌표를 구한다. 즉, 사용자 단말기는 도 11과 같이 영상의 범위좌표를 ①북위 36, 동경 124, ②북위 36, 동경 124.5, ③북위 36.5 동경 124, ④북위 36.5, 동경 124.5로 구할 수 있다. The user terminal obtains the coordinates of the captured image using location information, direction information, posture information, and device information. That is, the user terminal can obtain the range coordinates of the image as ① 36 north latitude, 124 east longitude, ② 36 north latitude, 124.5 east longitude, ③ 36.5 north latitude 124 east longitude, ④ 36.5 north latitude, 124.5 east longitude, as shown in FIG. 11 .

그런 후, 사용자 단말기는 영상의 좌표범위 즉, 북위 36~26.5, 동경 124~124.5에 위치하는 선박의 운송제품정보를 발주업체시스템에 요청하여 수신한다. Thereafter, the user terminal requests and receives the shipping product information of the ship located in the coordinate range of the image, that is, 36 to 26.5 north latitude and 124 to 124.5 east longitude, to the ordering company system.

그러면, 사용자 단말기는 도 12와 같이 운송제품정보를 증강현실로 디스플레이할 수 있다.
Then, the user terminal may display the transportation product information in augmented reality as shown in FIG. 12 .

본 발명에 따른 증강현실을 이용한 해상운송제품 인식 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.The maritime transportation product recognition method using augmented reality according to the present invention may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination.

상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.  컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 모든 형태의 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The program instructions recorded on the medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - Includes magneto-optical media, and any form of hardware device specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions may include high-level language codes that can be executed by a computer using an interpreter or the like as well as machine language codes such as those generated by a compiler. Such hardware devices may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

본 발명의 원리들의 교시들은 하드웨어와 소프트웨어의 조합으로서 구현될 수 있다. 또한, 소프트웨어는 프로그램 저장부 상에서 실제로 구현되는 응용 프로그램으로서 구현될 수 있다. 응용 프로그램은 임의의 적절한 아키텍쳐를 포함하는 머신에 업로드되고 머신에 의해 실행될 수 있다. 바람직하게는, 머신은 하나 이상의 중앙 처리장치들(CPU), 컴퓨터 프로세서, 랜덤 액세스 메모리(RAM), 및 입/출력(I/O) 인터페이스들과 같은 하드웨어를 갖는 컴퓨터 플랫폼 상에 구현될 수 있다. 또한, 컴퓨터 플랫폼은 운영 체제 및 마이크로 명령 코드를 포함할 수 있다. 여기서 설명된 다양한 프로세스들 및 기능들은 마이크로 명령 코드의 일부 또는 응용 프로그램의 일부, 또는 이들의 임의의 조합일 수 있고, 이들은 CPU를 포함하는 다양한 처리 장치에 의해 실행될 수 있다. 추가로, 추가 데이터 저장부 및 프린터와 같은 다양한 다른 주변 장치들이 컴퓨터 플랫폼에 접속될 수 있다.The teachings of the present principles may be implemented as a combination of hardware and software. In addition, the software may be implemented as an application program actually implemented on the program storage unit. The application program may be uploaded to and executed by a machine comprising any suitable architecture. Preferably, the machine may be implemented on a computer platform having hardware such as one or more central processing units (CPU), a computer processor, random access memory (RAM), and input/output (I/O) interfaces. . The computer platform may also include an operating system and microinstruction code. The various processes and functions described herein may be part of microinstruction code or part of an application program, or any combination thereof, which may be executed by various processing devices including a CPU. Additionally, various other peripheral devices such as additional data storage and printers may be connected to the computer platform.

첨부 도면들에서 도시된 구성 시스템 컴포넌트들 및 방법들의 일부가 바람직하게는 소프트웨어로 구현되므로, 시스템 컴포넌트들 또는 프로세스 기능 블록들 사이의 실제 접속들은 본 발명의 원리들이 프로그래밍되는 방식에 따라 달라질 수 있다는 점이 추가로 이해되어야 한다. 여기서의 교시들이 주어지면, 관련 기술분야의 당업자는 본 발명의 원리들의 이들 및 유사한 구현예들 또는 구성들을 참작할 수 있을 것이다.It is noted that since some of the constituent system components and methods shown in the accompanying drawings are preferably implemented in software, the actual connections between system components or process functional blocks may vary depending on the manner in which the principles of the present invention are programmed. should be further understood. Given the teachings herein, one skilled in the relevant art will be able to contemplate these and similar implementations or configurations of the principles of the present invention.

이상에서와 같이 본 발명에 따른 증강현실을 이용한 해상운송제품 인식 방법 및 이를 기록한 기록매체는 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.As described above, in the method for recognizing maritime transport products using augmented reality according to the present invention and the recording medium recording the same, the configuration and method of the embodiments described above are not limitedly applicable, but the embodiments are various modifications. All or part of each of the embodiments may be selectively combined and configured to achieve this.

이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
As such, those skilled in the art to which the present invention pertains will understand that the present invention may be embodied in other specific forms without changing the technical spirit or essential characteristics thereof. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. The scope of the present invention is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. do.

100 : AIS 단말기 200 : 발주업체시스템
210 : 발주정보 데이터베이스 220 : 납품정보 데이터베이스
230 : 운송선박정보 데이터베이스 240 : 발주정보 등록부
250 : 납품정보 등록부 260 : AIS 수신부
270 : AIS 분석부 280 : 운송제품정보 제공부
300 : 납품업체 단말기 400 : 사용자 단말기
410 : 통신부 420 : 입력부
430 : 출력부 440 : 저장부
450 : 촬영부 460 : 측정부
462 : 위치정보 측정부 464 : 방향정보 측정부
466 : 자세정보 측정부 470 : 영상좌표 계산부
480 : 운송제품정보 요청 처리부 490 : 증강현실 처리부
495 : 제어부
100: AIS terminal 200: ordering company system
210: order information database 220: delivery information database
230: Transport ship information database 240: Order information register
250: Delivery information register 260: AIS receiver
270: AIS analysis unit 280: transportation product information provision unit
300: vendor terminal 400: user terminal
410: communication unit 420: input unit
430: output unit 440: storage unit
450: photographing unit 460: measuring unit
462: location information measurement unit 464: direction information measurement unit
466: posture information measurement unit 470: image coordinate calculation unit
480: transportation product information request processing unit 490: augmented reality processing unit
495: control

Claims (17)

사용자 단말기는 운송제품확인 애플리케이션이 실행된 경우, 촬영부를 구동시켜 영상을 획득하는 단계;
상기 사용자 단말기는 상기 획득된 영상의 좌표를 계산하고, 상기 계산된 영상좌표를 포함하는 운송제품정보 요청신호를 발주업체시스템으로 전송하는 단계;
상기 발주업체시스템은 상기 영상좌표에 위치하는 선박을 조회하고, 상기 조회된 선박의 발주정보 또는 납품정보를 포함하는 운송제품정보를 상기 사용자 단말기로 전송하는 단계; 및
상기 사용자 단말기는 상기 운송제품정보를 상기 획득된 영상에 오버레이(overlay)하여 화면에 표시하는 단계;
를 포함하되,
상기 사용자 단말기는 상기 획득된 영상의 좌표를 계산하고, 상기 계산된 영상좌표를 포함하는 운송제품정보요청신호를 발주업체시스템으로 전송하는 단계는,
상기 사용자 단말기의 위치정보, 방향정보 및 자세정보를 측정하는 단계;
상기 측정된 위치정보, 방향정보, 자세정보와 사용자 단말기 정보를 이용하여 상기 획득된 영상의 각 꼭지점에 대한 가상영역의 3차원 공간좌표를 계산하고, 상기 가상영역과 실제 촬영된 지형영역과의 거리차를 이용하여 상기 지형영역의 3차원 공간좌표를 계산하는 단계; 및
상기 지형영역의 3차원 영상좌표를 포함하는 운송제품정보요청신호를 발주업체시스템으로 전송하는 단계를 포함하는 것을 특징으로 하는 증강현실을 이용한 해상운송제품 인식 방법.
When the user terminal executes the transportation product confirmation application, the step of driving a photographing unit to obtain an image;
calculating, by the user terminal, the coordinates of the obtained image, and transmitting a transportation product information request signal including the calculated image coordinates to the ordering company system;
transmitting, by the ordering company system, shipping product information including order information or delivery information of the inquired ship to the user terminal, inquiring for a ship located in the image coordinates; and
displaying, by the user terminal, on a screen by overlaying the transport product information on the acquired image;
including,
The user terminal calculating the coordinates of the obtained image, and transmitting the transportation product information request signal including the calculated image coordinates to the ordering company system,
measuring location information, direction information, and posture information of the user terminal;
3D spatial coordinates of a virtual area for each vertex of the obtained image are calculated using the measured location information, direction information, posture information, and user terminal information, and the distance between the virtual area and the actually photographed terrain area calculating three-dimensional spatial coordinates of the terrain area using the difference; and
Sea transportation product recognition method using augmented reality, characterized in that it comprises the step of transmitting a transportation product information request signal including the three-dimensional image coordinates of the geographical area to the ordering company system.
삭제delete 사용자 단말기가 증강현실을 이용하여 해상운송제품을 인식하는 방법에 있어서,
운송제품확인 애플리케이션이 실행된 경우, 촬영부를 구동시켜 영상을 획득하는 단계;
상기 획득된 영상의 좌표를 계산하는 단계;
상기 계산된 영상좌표를 포함하는 운송제품정보 요청 신호를 발주업체시스템으로 전송하는 단계;
상기 발주업체시스템으로부터 상기 영상좌표에 위치하는 선박의 운송제품정보를 수신하는 단계; 및
상기 수신된 운송제품정보를 상기 획득된 영상에 오버레이하여 화면에 표시하는 단계;
를 포함하되,
상기 획득된 영상의 좌표를 계산하는 단계는,
상기 사용자 단말기의 위치정보, 방향정보 및 자세정보를 측정하는 단계;
상기 측정된 위치정보, 방향정보, 자세정보와 사용자 단말기 정보를 이용하여 상기 획득된 영상의 각 꼭지점에 대한 가상영역의 3차원 공간좌표를 계산하고, 상기 가상영역과 실제 촬영된 지형영역과의 거리차를 이용하여 상기 지형영역의 3차원 공간좌표를 계산하는 단계를 포함하는 것을 특징으로 하는 증강현실을 이용한 해상운송제품 인식 방법.
In a method for a user terminal to recognize a marine transportation product using augmented reality,
When the transport product confirmation application is executed, driving the photographing unit to obtain an image;
calculating the coordinates of the obtained image;
transmitting a transportation product information request signal including the calculated image coordinates to an ordering company system;
receiving transport product information of a ship located in the image coordinates from the ordering company system; and
displaying the received transport product information on a screen by overlaying the acquired image;
including,
Calculating the coordinates of the obtained image comprises:
measuring location information, direction information, and posture information of the user terminal;
3D spatial coordinates of a virtual area for each vertex of the obtained image are calculated using the measured location information, direction information, posture information, and user terminal information, and the distance between the virtual area and the actually photographed terrain area A method for recognizing maritime transport products using augmented reality, comprising the step of calculating the three-dimensional spatial coordinates of the geographical area using a difference.
삭제delete 발주업체시스템이 증강현실을 이용한 해상운송제품 인식 서비스를 제공하기 위한 방법에 있어서,
사용자 단말기로부터 영상좌표를 포함하는 운송제품정보 요청 신호가 수신된 경우, 상기 영상좌표에 속하는 선박을 조회하는 단계;
상기 조회된 선박의 발주정보 또는 납품정보를 포함하는 운송제품정보를 획득하여 상기 사용자 단말기로 전송하는 단계; 및
선박에 설치된 AIS(Automatic Identification System) 단말기로부터 AIS 정보를 수신하고, 상기 수신된 AIS 정보를 분석하여 선박 식별정보 및 선박의 현재 위치정보를 파악하며, 상기 파악된 선박 식별정보 및 현재 위치정보를 AIS 정보 수신시간과 함께 운송선박정보 데이터베이스에 저장하는 단계;를 포함하고
상기 영상좌표에 속하는 선박을 조회하는 단계는 상기 운송선박 정보데이터베이스로부터 상기 영상좌표에 속하는 선박을 조회하는 단계를 포함하는 증강현실을 이용한 해상운송제품 인식 방법.
In the method for the ordering company system to provide a maritime transportation product recognition service using augmented reality,
when a transport product information request signal including image coordinates is received from a user terminal, inquiring a vessel belonging to the image coordinates;
obtaining transport product information including order information or delivery information of the inquired ship and transmitting it to the user terminal; and
Receives AIS information from an AIS (Automatic Identification System) terminal installed on a vessel, analyzes the received AIS information to determine vessel identification information and current position information of the vessel, and sets the identified vessel identification information and current position information to AIS Storing the information in a shipping vessel information database together with the information reception time; and
The step of inquiring the vessel belonging to the image coordinates includes the step of inquiring the vessel belonging to the image coordinates from the transport vessel information database.
삭제delete 제5항에 있어서,
발주품목, 운송담당 선박, 선박 식별정보, 도착예정일, 선장이름, 선박 전화번호 중 적어도 하나를 포함하는 납품정보를 납품업체로부터 수신하여 저장하는 단계를 더 포함하는 증강현실을 이용한 해상운송제품 인식 방법.
6. The method of claim 5,
Shipping product recognition method using augmented reality, further comprising the step of receiving and storing delivery information including at least one of an order item, a ship in charge of transport, ship identification information, an expected arrival date, a captain's name, and a ship phone number from a supplier .
선박에 구비되어, 선박의 현재위치정보를 송신하는 AIS 단말기;
상기 AIS 단말기로부터 선박의 현재위치정보를 수신하여 저장하고, 사용자 단말기로부터 영상좌표를 포함하는 운송제품정보 요청신호가 수신된 경우, 상기 영상좌표에 속하는 선박을 조회하고, 상기 조회된 선박의 발주/납품 정보를 포함하는 운송제품정보를 상기 사용자 단말기로 제공하는 발주업체 시스템; 및
운송제품확인 애플리케이션이 실행된 경우, 촬영부를 구동시켜 영상을 획득하고, 상기 획득된 영상의 좌표를 계산하며, 상기 계산된 영상좌표를 포함하는 운송제품정보 요청신호를 상기 발주업체시스템으로 전송 및 운송제품정보를 수신하고, 상기 운송제품정보를 상기 획득된 영상에 오버레이하여 표시하는 사용자 단말기;
를 포함하되,
상기 사용자 단말기는
자신의 위치정보, 방향정보 및 자세정보를 측정하고, 상기 측정된 위치정보, 방향정보, 자세정보와 사용자 단말기 정보를 이용하여 상기 획득된 영상의 각 꼭지점에 대한 가상영역의 3차원 공간좌표를 계산하고, 상기 가상영역과 실제 촬영된 지형영역과의 거리차를 이용하여 상기 지형영역의 3차원 공간좌표를 계산하는 것을 특징으로 하는 증강현실을 이용한 해상운송제품 인식 시스템.
AIS terminal provided on the ship and transmitting the current location information of the ship;
Receives and stores the current location information of the vessel from the AIS terminal, and when a transport product information request signal including image coordinates is received from the user terminal, inquires a vessel belonging to the image coordinates, and places an order / an ordering company system that provides transportation product information including delivery information to the user terminal; and
When the transportation product confirmation application is executed, an image is acquired by driving a photographing unit, the coordinates of the acquired image are calculated, and a transportation product information request signal including the calculated image coordinates is transmitted and transported to the ordering company system a user terminal for receiving product information and overlaying the transport product information on the acquired image;
including,
The user terminal is
Measure own location information, direction information, and posture information, and calculate 3D spatial coordinates of a virtual area for each vertex of the acquired image using the measured location information, direction information, posture information, and user terminal information and calculating the three-dimensional spatial coordinates of the geographic area by using the distance difference between the virtual area and the actual photographed terrain area.
제8항에 있어서,
발주품목, 운송담당 선박, 선박 식별정보, 도착 예정일, 선장이름, 선박 전화번호 중 적어도 하나를 포함하는 납품정보를 입력받아, 상기 발주업체시스템에 등록하는 납품업체 단말기를 더 포함하는 증강현실을 이용한 해상운송제품 인식 시스템.
9. The method of claim 8,
Using augmented reality further comprising a supplier terminal that receives delivery information including at least one of order item, transport ship, ship identification information, expected arrival date, captain's name, and ship phone number, and registers it in the ordering company system Sea transport product recognition system.
삭제delete 운송 선박들의 위치정보가 저장된 운송선박정보 데이터베이스;
발주품목에 대한 발주정보 및 납품정보가 저장된 운송제품정보 데이터베이스;
사용자 단말기로부터 영상좌표를 포함하는 운송제품정보 요청 신호가 수신된 경우, 상기 운송선박정보 데이터베이스로부터 상기 영상좌표에 속하는 선박을 조회하고, 상기 운송제품정보 데이터베이스로부터 상기 조회된 선박의 발주정보 및 납품정보를 포함하는 운송제품정보를 획득하여 상기 사용자 단말기로 전송하는 운송제품정보 제공부; 및
각 선박에 설치된 AIS 단말기로부터 AIS 정보를 수신하는 AIS 수신부; 및
상기 수신된 AIS 정보를 분석하여 선박 식별정보 및 선박의 현재 위치정보를 파악하고, 상기 파악된 선박 식별정보 및 현재 위치정보를 AIS 정보 수신시간과 함께 상기 운송선박정보 데이터베이스에 저장하는 AIS 분석부를 포함하는,
발주업체시스템.
a transport vessel information database in which location information of transport vessels is stored;
a transport product information database in which order information and delivery information for ordered items are stored;
When a transport product information request signal including image coordinates is received from the user terminal, a vessel belonging to the image coordinate is inquired from the transport vessel information database, and order information and delivery information of the inquired vessel from the transport product information database A transport product information providing unit for acquiring transport product information including a and transmitting the information to the user terminal; and
AIS receiver for receiving AIS information from the AIS terminal installed in each ship; and
An AIS analysis unit that analyzes the received AIS information to determine the vessel identification information and the current position information of the vessel, and stores the identified vessel identification information and the current position information together with the AIS information reception time in the transport vessel information database doing,
Buyer system.
삭제delete 제11항에 있어서,
상기 운송제품정보 데이터베이스는,
발주품목, 사외업체명, 계약가격, 계약일, 입고 요구일 중 적어도 하나를 포함하는 발주정보가 저장된 발주정보 데이터베이스; 및
발주품목, 운송담당 선박, 선박 식별정보, 도착예정일, 선장이름, 선박 전화번호 중 적어도 하나를 포함하는 납품정보가 저장된 납품정보 데이터베이스를 포함하는 것을 특징으로 하는 발주업체시스템.
12. The method of claim 11,
The transport product information database,
an order information database in which order information including at least one of an order item, an outside company name, a contract price, a contract date, and a storage request date is stored; and
Ordering company system comprising a delivery information database in which delivery information including at least one of an order item, a ship in charge of transport, ship identification information, an expected arrival date, a captain's name, and a ship phone number is stored.
제11항에 있어서,
상기 운송제품정보 데이터베이스는 발주정보 데이터베이스와 납품정보 데이터베이스를 포함하고
상기 발주업체시스템은, 발주사로부터 발주정보를 입력받아 발주정보 데이터베이스에 등록하는 발주정보 등록부; 및
납품업체로부터 납품정보를 입력받아 납품정보 데이터베이스에 등록하는 납품정보 등록부를 더 포함하는 발주업체시스템.
12. The method of claim 11,
The transport product information database includes an order information database and a delivery information database,
The ordering company system may include: an ordering information registration unit for receiving ordering information from an ordering company and registering it in an ordering information database; and
The ordering company system further comprising a delivery information register for receiving delivery information from the supplier and registering it in the delivery information database.
영상을 촬영하는 촬영부;
위치정보, 방향정보 및 자세정보를 측정하는 측정부;
상기 측정된 위치정보, 방향정보 및 자세정보와 기기정보를 이용하여 상기 촬영된 영상의 좌표를 계산하는 영상좌표 계산부;
상기 계산된 영상좌표에 위치하는 선박의 운송제품정보를 요청 및 수신하는 운송제품정보 요청 처리부; 및
상기 운송제품정보를 상기 촬영된 영상에 오버레이하여 화면에 표시하는 증강현실 처리부;
를 포함하되,
상기 영상좌표 계산부는,
상기 측정된 위치정보, 방향정보, 자세정보와 기기정보를 이용하여 상기 촬영된 영상의 각 꼭지점에 대한 가상영역의 3차원 공간좌표를 계산하고, 상기 가상영역과 실제 촬영된 지형영역과의 거리차를 이용하여 상기 지형영역의 3차원 공간좌표를 계산하는 것을 특징으로 하는 사용자 단말기.
a photographing unit for photographing an image;
a measurement unit for measuring location information, direction information, and posture information;
an image coordinate calculation unit for calculating coordinates of the photographed image by using the measured position information, direction information, posture information, and device information;
a transport product information request processing unit for requesting and receiving transport product information of a ship located in the calculated image coordinates; and
Augmented reality processing unit for overlaying the transport product information on the captured image to display on the screen;
including,
The image coordinate calculation unit,
3D spatial coordinates of a virtual area for each vertex of the photographed image are calculated using the measured location information, direction information, posture information, and device information, and a distance difference between the virtual area and the actually photographed terrain area is calculated. A user terminal, characterized in that for calculating the three-dimensional spatial coordinates of the geographical area using
제15항에 있어서,
상기 측정부는,
사용자 단말기의 현재 위치를 측정하는 위치정보 측정부;
상기 사용자 단말기의 요각(yaw angle) 정보를 포함하는 방향정보를 측정하는 방향정보 측정부; 및
상기 사용자 단말기의 롤각(roll angle) 정보와 피치각(pitch angle) 정보를 포함하는 자세정보를 측정하는 자세정보 측정부를 포함하는 것을 특징으로 하는 사용자 단말기.
16. The method of claim 15,
The measurement unit,
a location information measurement unit for measuring the current location of the user terminal;
a direction information measuring unit for measuring direction information including yaw angle information of the user terminal; and
and a posture information measuring unit for measuring posture information including roll angle information and pitch angle information of the user terminal.
제15항에 있어서,
상기 기기정보는 화각정보, 초점거리 정보, 확대정보, 및 축소정보 중 하나 이상의 정보를 포함하는 것을 특징으로 하는 사용자 단말기.
16. The method of claim 15,
The device information includes at least one of angle of view information, focal length information, enlargement information, and reduction information.
KR1020150089886A 2015-06-24 2015-06-24 Method and system recognizing marine transportation product using of augmented reality KR102414575B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150089886A KR102414575B1 (en) 2015-06-24 2015-06-24 Method and system recognizing marine transportation product using of augmented reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150089886A KR102414575B1 (en) 2015-06-24 2015-06-24 Method and system recognizing marine transportation product using of augmented reality

Publications (2)

Publication Number Publication Date
KR20170000665A KR20170000665A (en) 2017-01-03
KR102414575B1 true KR102414575B1 (en) 2022-06-29

Family

ID=57797303

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150089886A KR102414575B1 (en) 2015-06-24 2015-06-24 Method and system recognizing marine transportation product using of augmented reality

Country Status (1)

Country Link
KR (1) KR102414575B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111275035B (en) * 2018-12-04 2023-10-31 北京嘀嘀无限科技发展有限公司 Method and system for identifying background information
KR102638102B1 (en) * 2023-08-09 2024-02-20 한국해양과학기술원 Method and mobile terminal for ship recognition for maritime perimeter monitoring

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013169080A2 (en) * 2012-05-11 2013-11-14 Ahn Kang Seok Method for providing source information of object by photographing object, and server and portable terminal for method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100673865B1 (en) * 2004-11-22 2007-01-25 인천대학교 산학협력단 System for forecast of air pollution at harbor
KR101055985B1 (en) * 2010-01-12 2011-08-11 인크로스 주식회사 Information provision method and information service method using a terminal equipped with a camera
KR20110116842A (en) 2010-04-20 2011-10-26 목포대학교산학협력단 Electronic navigational chart display method of vessels navigation system using augmented reality

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013169080A2 (en) * 2012-05-11 2013-11-14 Ahn Kang Seok Method for providing source information of object by photographing object, and server and portable terminal for method

Also Published As

Publication number Publication date
KR20170000665A (en) 2017-01-03

Similar Documents

Publication Publication Date Title
US9906702B2 (en) Non-transitory computer-readable storage medium, control method, and computer
US20230056006A1 (en) Display of a live scene and auxiliary object
US8938257B2 (en) Logo detection for indoor positioning
EP2727332B1 (en) Mobile augmented reality system
US9583074B2 (en) Optimization of label placements in street level images
CA3058243C (en) Information display method and apparatus
EP3098569B1 (en) Method, apparatus and computer program code for providing navigation information in relation to augmented reality guidance
JP6093841B2 (en) System, information processing method and program
JP2017126142A (en) Information processing apparatus, information processing method, and program
US9459115B1 (en) Unobstructed map navigation using animation
KR20190059120A (en) Facility Inspection System using Augmented Reality based on IoT
JP6895598B2 (en) Equipment inspection system, server, equipment inspection method, and control program
US10192332B2 (en) Display control method and information processing apparatus
JP5981371B2 (en) Information terminal, system, program, and method for controlling display of augmented reality by posture
US8463299B1 (en) Displaying a digital version of a paper map and a location of a mobile device on the digital version of the map
US9354076B2 (en) Guiding server, guiding method and recording medium recording guiding program
KR102414575B1 (en) Method and system recognizing marine transportation product using of augmented reality
JP7001711B2 (en) A position information system that uses images taken by a camera, and an information device with a camera that uses it.
US8867785B2 (en) Method and apparatus for detecting proximate interface elements
US20210381836A1 (en) Device navigation based on concurrent position estimates
CN107703954B (en) Target position surveying method and device for unmanned aerial vehicle and unmanned aerial vehicle
Milosavljević et al. Transforming smartphone into geospatial video provider
Jeon A Study on implementation of the mobile application of aid to navigation using location-based augmented reality

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right