KR102649899B1 - 인공지능 모델 및 ar을 활용한 차량 수출 정보 및 차량 상태 모델링 정보 생성 방법, 장치 및 시스템 - Google Patents

인공지능 모델 및 ar을 활용한 차량 수출 정보 및 차량 상태 모델링 정보 생성 방법, 장치 및 시스템 Download PDF

Info

Publication number
KR102649899B1
KR102649899B1 KR1020230194181A KR20230194181A KR102649899B1 KR 102649899 B1 KR102649899 B1 KR 102649899B1 KR 1020230194181 A KR1020230194181 A KR 1020230194181A KR 20230194181 A KR20230194181 A KR 20230194181A KR 102649899 B1 KR102649899 B1 KR 102649899B1
Authority
KR
South Korea
Prior art keywords
vehicle
information
image
country
area
Prior art date
Application number
KR1020230194181A
Other languages
English (en)
Inventor
김영진
Original Assignee
주식회사 유비이모터스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 유비이모터스 filed Critical 주식회사 유비이모터스
Priority to KR1020230194181A priority Critical patent/KR102649899B1/ko
Application granted granted Critical
Publication of KR102649899B1 publication Critical patent/KR102649899B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0278Product appraisal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

일실시예에 따르면, 장치에 의해 수행되는, 인공지능 모델 및 AR을 활용한 차량 수출 정보 및 차량 상태 모델링 정보 생성 방법에 있어서, 제1 카메라를 통해 제1 영역에 대한 촬영이 수행되고 있는 경우, 상기 제1 카메라로부터 상기 제1 영역의 촬영으로 생성된 제1 영상 정보를 수신하는 단계; 상기 제1 영상 정보를 기초로, 상기 제1 영역에 수출하고자 하는 차량이 주차되어 있는지 여부를 분석하는 단계; 상기 제1 영역에 차량이 주차되어 있는 것으로 분석되면, 상기 제1 영상 정보를 기초로, 상기 제1 영역에 주차되어 있는 차량의 번호판에서 차량번호를 인식하는 단계; 상기 인식된 차량번호를 기반으로, 상기 제1 영역에 주차되어 있는 차량을 제1 차량으로 식별하는 단계; 상기 제1 차량의 차종, 연식, 주행거리, 사고이력, 보험이력 및 예상시세를 포함하는 제1 차량 정보를 획득하는 단계; 상기 제1 차량 정보를 인공지능 모델에 적용하여, 상기 인공지능 모델의 출력을 기초로, 상기 제1 차량의 수출 국가를 선정하는 단계; 및 상기 제1 차량의 수출 국가가 제1 국가로 선정되면, 상기 제1 차량을 상기 제1 국가로 수출하는 것을 추천하는 상기 제1 차량의 수출 정보를 생성하는 단계를 포함하는, 인공지능 모델 및 AR을 활용한 차량 수출 정보 및 차량 상태 모델링 정보 생성 방법이 제공된다.

Description

인공지능 모델 및 AR을 활용한 차량 수출 정보 및 차량 상태 모델링 정보 생성 방법, 장치 및 시스템 {METHOD, DEVICE AND SYSTEM FOR CREATING VEHICLE EXPORT INFORMATION AND VEHICLE CONDITION MODELING INFORMATION USING ARTIFICIAL INTELLIGENCE MODEL AND AUGMENTED REALITY}
아래 실시예들은 인공지능 모델 및 AR을 활용하여 차량 수출 정보 및 차량 상태 모델링 정보를 생성하기 위한 기술에 관한 것이다.
중고 차량에 대한 수출이 점차 확대되면서, 중고 차량의 수출 시장도 지속적으로 성장하고 있다.
이러한 중고 차량은 차종, 연식, 주행거리, 사고여부, 상태 등에 따라 수출 가격이 결정될 수 있으며, 신차와 달리 가격이 결정되어 있지 않기 때문에 중고 차량의 수출 가격은 상황에 따라 상이하게 결정되고 있다.
따라서, 차량의 상태에 따라 중고 차량의 수출 가격을 결정하고, 어느 국가로 차량을 수출하는 것이 유리한지에 대한 차량의 수출 전략을 제공받고자 하는 요구가 증대되고 있으며, 이와 관련된 기술에 대한 연구가 요구된다.
한국등록특허 제10-2571575호 한국등록특허 제10-2392775호 한국등록특허 제10-2260953호 한국공개특허 제10-2019-0096866호
일실시예에 따르면, 인공지능 모델 및 AR을 활용하여 차량 수출 정보 및 차량 상태 모델링 정보를 생성하는 방법, 장치 및 시스템을 제공하기 위한 것을 그 목적으로 한다.
본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.
일실시예에 따르면, 장치에 의해 수행되는, 인공지능 모델 및 AR을 활용한 차량 수출 정보 및 차량 상태 모델링 정보 생성 방법에 있어서, 제1 카메라를 통해 제1 영역에 대한 촬영이 수행되고 있는 경우, 상기 제1 카메라로부터 상기 제1 영역의 촬영으로 생성된 제1 영상 정보를 수신하는 단계; 상기 제1 영상 정보를 기초로, 상기 제1 영역에 수출하고자 하는 차량이 주차되어 있는지 여부를 분석하는 단계; 상기 제1 영역에 차량이 주차되어 있는 것으로 분석되면, 상기 제1 영상 정보를 기초로, 상기 제1 영역에 주차되어 있는 차량의 번호판에서 차량번호를 인식하는 단계; 상기 인식된 차량번호를 기반으로, 상기 제1 영역에 주차되어 있는 차량을 제1 차량으로 식별하는 단계; 상기 제1 차량의 차종, 연식, 주행거리, 사고이력, 보험이력 및 예상시세를 포함하는 제1 차량 정보를 획득하는 단계; 상기 제1 차량 정보를 인공지능 모델에 적용하여, 상기 인공지능 모델의 출력을 기초로, 상기 제1 차량의 수출 국가를 선정하는 단계; 및 상기 제1 차량의 수출 국가가 제1 국가로 선정되면, 상기 제1 차량을 상기 제1 국가로 수출하는 것을 추천하는 상기 제1 차량의 수출 정보를 생성하는 단계를 포함하는, 인공지능 모델 및 AR을 활용한 차량 수출 정보 및 차량 상태 모델링 정보 생성 방법이 제공된다.
상기 인공지능 모델 및 AR을 활용한 차량 수출 정보 및 차량 상태 모델링 정보 생성 방법은, 상기 제1 카메라를 통해 상기 제1 차량을 다양한 방향에서 촬영한 경우, 상기 제1 카메라로부터 상기 제1 차량을 다양한 방향에서 촬영하여 생성된 복수의 이미지 정보를 수신하는 단계; 상기 복수의 이미지 정보를 취합하여, 상기 제1 차량의 3D 이미지인 제1 이미지를 생성하는 단계; 상기 제1 이미지를 기초로, 상기 제1 차량의 상태를 분석하는 단계; 상기 제1 차량의 상태를 분석한 결과를 기반으로, 상기 제1 차량의 부위 별로 수리가 필요한지 여부를 판단하는 단계; 상기 제1 차량에서 제1 부위에 대한 수리가 필요한 것으로 판단되면, 상기 제1 이미지에서 상기 제1 부위가 위치한 부분을 제1-1 이미지로 추출하는 단계; 상기 제1-1 이미지를 기반으로, 상기 제1 부위가 수리된 상태를 나타내는 제2-1 이미지를 생성하는 단계; 상기 제1 이미지에서 상기 제1 부위가 위치한 부분을 상기 제2-1 이미지로 교체하여 제2 이미지를 생성하는 단계; 및 상기 제1 이미지 및 상기 제2 이미지를 포함하는 상기 제1 차량의 상태 모델링 정보를 생성하는 단계를 더 포함할 수 있다.
상기 인공지능 모델 및 AR을 활용한 차량 수출 정보 및 차량 상태 모델링 정보 생성 방법은, 상기 제1 차량의 상태 모델링 정보를 생성하는 단계 이후, 상기 제1 이미지 및 상기 제1 차량 정보를 기초로, 상기 제1 부위를 수리하기 전에 예상되는 상기 제1 차량의 수출 가격을 제1 금액으로 산정하는 단계; 상기 제1 금액을 고려하여 상기 제1 차량의 수출 국가를 제2 국가로 선정하는 단계; 상기 제1-1 이미지, 상기 제1 금액 및 상기 제2 국가에 대한 정보를 포함하는 상기 제1 부위의 수리 이전 정보를 생성하는 단계; 상기 제2 이미지 및 상기 제1 차량 정보를 기초로, 상기 제1 부위를 수리한 후에 예상되는 상기 제1 차량의 수출 가격을 제2 금액으로 산정하는 단계; 상기 제2 금액을 고려하여 상기 제1 차량의 수출 국가를 제3 국가로 선정하는 단계; 및 상기 제2-1 이미지, 상기 제2 금액 및 상기 제3 국가에 대한 정보를 포함하는 상기 제1 부위의 수리 이후 정보를 생성하는 단계를 더 포함할 수 있다.
상기 인공지능 모델 및 AR을 활용한 차량 수출 정보 및 차량 상태 모델링 정보 생성 방법은, 제1 사용자가 AR 기기를 착용한 상태로 확인된 경우, 상기 AR 기기를 착용한 상기 제1 사용자의 시선을 추적하는 단계; 상기 제1 사용자의 시선을 추적한 결과, 상기 제1 사용자의 시선이 상기 제1 차량의 제1 구역을 응시하고 있는 것으로 확인되면, 상기 제1 구역에 대한 실시간 영상이 상기 AR 기기의 화면에 표시되도록 제어하는 단계; 및 상기 제1 구역에 대한 실시간 영상이 상기 AR 기기의 화면에 표시될 때, 상기 제1 구역에 상기 제1 부위가 포함되어 있는 것으로 확인되면, 상기 제1 부위의 수리 이전 정보 및 상기 제1 부위의 수리 이후 정보가 상기 제1 구역의 영상과 중첩되어, 상기 AR 기기의 화면에 표시되도록 제어하는 단계를 더 포함할 수 있다.
일실시예에 따르면, 인공지능 모델 및 AR을 활용하여 차량 수출 정보 및 차량 상태 모델링 정보를 생성함으로써, 차량의 수출 전략을 제공하여 국가별로 차량을 수출하는데 도움을 줄 수 있는 효과가 있다.
한편, 실시예들에 따른 효과들은 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 해당 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.
도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.
도 2는 일실시예에 따른 인공지능 모델을 활용하여 차량 수출 정보를 생성하는 과정을 설명하기 위한 순서도이다.
도 3은 일실시예에 다른 차량 상태 모델링 정보를 생성하는 과정을 설명하기 위한 순서도이다.
도 4는 일실시예에 따른 제1 부위의 수리 이전 정보와 제1 부위의 수리 이후 정보를 생성하는 과정을 설명하기 위한 순서도이다.
도 5는 일실시예에 따른 AR을 활용하여 제1 부위의 수리 이전 정보와 제1 부위의 수리 이후 정보를 표시하는 과정을 설명하기 위한 순서도이다.
도 6은 일실시예에 따른 AR을 활용하여 부위별 파손 상태에 따라 각 부위를 상이한 색상으로 표시하는 과정을 설명하기 위한 순서도이다.
도 7은 일실시예에 따른 정상 부위를 면적 비율에 따라 상이한 채도로 설정된 제1 색상으로 표시하는 과정을 설명하기 위한 순서도이다.
도 8은 일실시예에 따른 경고 부위를 면적 비율에 따라 상이한 채도로 설정된 제2 색상으로 표시하는 과정을 설명하기 위한 순서도이다.
도 9는 일실시예에 따른 위험 부위를 면적 비율에 따라 상이한 채도로 설정된 제3 색상으로 표시하는 과정을 설명하기 위한 순서도이다.
도 10은 일실시예에 따른 장치의 구성의 예시도이다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다.
실시예에서 인공지능(Artificial Intelligence, AI) 시스템은 인간 수준의 지능을 구현하는 컴퓨터 시스템이며, 기존 규칙(Rule) 기반의 스마트 시스템과 달리 기계가 스스로 학습하고 판단하는 시스템이다. 인공지능 시스템은 사용할수록 인식률이 향상되고 판매자 취향을 보다 정확하게 이해할 수 있게 되어, 기존 규칙 기반의 스마트 시스템은 점차 심층 학습(Deep Learning) 기반 인공지능 시스템으로 대체되고 있다.
인공지능 기술은 기계 학습 및 기계 학습을 활용한 요소기술들로 구성된다. 기계 학습은 입력 데이터들의 특징을 스스로 분류/학습하는 알고리즘 기술이며, 요소기술은 심층 학습 등의 기계 학습 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술로서, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야로 구성된다.
인공지능 기술이 응용되는 다양한 분야는 다음과 같다. 언어적 이해는 인간의 언어/문자를 인식하고 응용/처리하는 기술로서, 자연어 처리, 기계 번역, 대화시스템, 질의 응답, 음성 인식/합성 등을 포함한다. 시각적 이해는 사물을 인간의 시각처럼 인식하여 처리하는 기술로서, 객체 인식, 객체 추적, 영상 검색, 사람 인식, 장면 이해, 공간 이해, 영상 개선 등을 포함한다. 추론 예측은 정보를 판단하여 논리적으로 추론하고 예측하는 기술로서, 지식/확률 기반 추론, 최적화 예측, 선호 기반 계획, 추천 등을 포함한다. 지식 표현은 인간의 경험정보를 지식데이터로 자동화 처리하는 기술로서, 지식 구축(데이터 생성/분류), 지식 관리(데이터 활용) 등을 포함한다. 동작 제어는 차량의 자율 주행, 로봇의 움직임을 제어하는 기술로서, 움직임 제어(항법, 충돌, 주행), 조작 제어(행동 제어) 등을 포함한다.
일반적으로 기계 학습 알고리즘을 실생활에 적용하기 위해서는 기계 학습의 기본 방법론의 특성상 Trial and Error 방식으로 학습을 수행하게 된다. 특히, 심층 학습의 경우 수십만 번의 반복 실행을 필요로 한다. 이를 실제 물리적인 외부 환경에서 실행하기는 불가능하여 대신 실제 물리적인 외부 환경을 컴퓨터상에서 가상으로 구현하여 시뮬레이션을 통해 학습을 수행한다.
도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.
도 1을 참조하면, 일실시예에 따른 시스템은 통신망을 통해 서로 통신 가능한 복수의 카메라(100) 및 장치(200)를 포함할 수 있다.
먼저, 통신망은 유선 및 무선 등과 같이 그 통신 양태를 가리지 않고 구성될 수 있으며, 서버와 서버 간의 통신과 서버와 단말 간의 통신이 수행되도록 다양한 형태로 구현될 수 있다.
복수의 카메라(100)는 특정 장소 내에 구분되어 있는 각각의 영역 별로 설치되어, 설치된 영역에 대한 촬영을 수행하는 카메라로, 제1 영역에 설치되어 제1 영역에 대한 촬영을 수행하는 제1 카메라(110), 제2 영역에 설치되어 제2 영역에 대한 촬영을 수행하는 제2 카메라(120) 등을 포함할 수 있다. 여기서, 제1 영역, 제2 영역 등의 각 영역은 수출하고자 하는 차량이 주차되는 영역으로, 각 영역에는 하나의 차량이 주차되어, 주차된 차량에 대한 상태가 분석될 수 있다.
복수의 카메라(100) 각각은 촬영 영역 내의 이동 객체 검출 기능을 가지는 모션 디텍터 카메라, 고화질의 영상을 촬영하는 RGB 카메라, 보다 신뢰성이 있는 레이더가 부착된 카메라, 자동추적을 수행하기 위한 팬틸트 카메라, IP 통신을 수행할 수 있는 네트워크 카메라 등의 조합으로 이루어질 수 있다.
복수의 카메라(100)는 장치(200)와 네트워크를 통해 연결될 수 있으며, 장치(200)로부터 수신된 제어 신호에 의해 동작할 수 있다.
이하에서는 설명의 편의상, 복수의 카메라(100) 중에서 제1 카메라(110)의 동작을 위주로 설명하지만, 제2 카메라(120) 등의 다른 카메라에서 제1 카메라(110)의 동작을 대신 수행할 수 있다.
장치(200)는 장치(200)를 이용하여 서비스를 제공하는 자 내지 단체가 보유한 자체 서버일수도 있고, 클라우드 서버일 수도 있고, 분산된 노드(node)들의 p2p(peer-to-peer) 집합일 수도 있다. 장치(200)는 통상의 컴퓨터가 가지는 연산 기능, 저장/참조 기능, 입출력 기능 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 장치(200)는 추론 기능을 수행하는 적어도 하나 이상의 인공지능 모델을 구비할 수 있다.
장치(200)는 복수의 카메라(100)와 유무선으로 통신하도록 구성될 수 있으며, 복수의 카메라(100) 각각의 동작을 제어하여, 촬영 여부, 촬영 각도, 촬영 방향, 영상 정보 저장 여부 등에 대해 제어할 수 있다.
한편, 설명의 편의를 위해 도 1에서는 복수의 카메라(100) 중에서 제1 카메라(110) 및 제2 카메라(120) 만을 도시하였으나, 단말들의 수는 실시예에 따라 얼마든지 달라질 수 있다. 장치(200)의 처리 용량이 허용하는 한, 단말들의 수는 특별한 제한이 없다.
일실시예에 따르면, 장치(200)는 인공지능을 기반으로 차량을 어느 국가로 수출하는 것이 유리한지 분석하여, 차량의 수출 국가를 선정할 수 있다.
본 발명에서, 인공지능(Artificial Intelligence, AI)은 인간의 학습능력, 추론능력, 지각능력 등을 모방하고, 이를 컴퓨터로 구현하는 기술을 의미하고, 기계 학습, 심볼릭 로직(Symbolic Logic) 등의 개념을 포함할 수 있다. 기계 학습(Machine Learning, ML)은 입력 데이터들의 특징을 스스로 분류 또는 학습하는 알고리즘 기술이다. 인공지능의 기술은 기계 학습의 알고리즘으로써 입력 데이터를 분석하고, 그 분석의 결과를 학습하며, 그 학습의 결과에 기초하여 판단이나 예측을 할 수 있다. 또한, 기계 학습의 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술들 역시 인공지능의 범주로 이해될 수 있다. 예를 들어, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야가 포함될 수 있다.
기계 학습은 데이터를 처리한 경험을 이용해 신경망 모델을 훈련시키는 처리를 의미할 수 있다. 기계 학습을 통해 컴퓨터 소프트웨어는 스스로 데이터 처리 능력을 향상시키는 것을 의미할 수 있다. 신경망 모델은 데이터 사이의 상관 관계를 모델링하여 구축된 것으로서, 그 상관 관계는 복수의 파라미터에 의해 표현될 수 있다. 신경망 모델은 주어진 데이터로부터 특징들을 추출하고 분석하여 데이터 간의 상관 관계를 도출하는데, 이러한 과정을 반복하여 신경망 모델의 파라미터를 최적화해 나가는 것이 기계 학습이라고 할 수 있다. 예를 들어, 신경망 모델은 입출력 쌍으로 주어지는 데이터에 대하여, 입력과 출력 사이의 매핑(상관 관계)을 학습할 수 있다. 또는, 신경망 모델은 입력 데이터만 주어지는 경우에도 주어진 데이터 사이의 규칙성을 도출하여 그 관계를 학습할 수도 있다.
인공지능 학습모델 또는 신경망 모델은 인간의 뇌 구조를 컴퓨터 상에서 구현하도록 설계될 수 있으며, 인간의 신경망의 뉴런(neuron)을 모의하며 가중치를 가지는 복수의 네트워크 노드들을 포함할 수 있다. 복수의 네트워크 노드들은 뉴런이 시냅스(synapse)를 통하여 신호를 주고받는 뉴런의 시냅틱(synaptic) 활동을 모의하여, 서로 간의 연결 관계를 가질 수 있다. 인공지능 학습모델에서 복수의 네트워크 노드들은 서로 다른 깊이의 레이어에 위치하면서 컨볼루션(convolution) 연결 관계에 따라 데이터를 주고받을 수 있다. 인공지능 학습모델은, 예를 들어, 인공 신경망 모델(Artificial Neural Network), 컨볼루션 신경망 모델(Convolution Neural Network: CNN) 등일 수 있다. 일 실시예로서, 인공지능 학습모델은, 지도학습(Supervised Learning), 비지도 학습(Unsupervised Learning), 강화 학습(Reinforcement Learning) 등의 방식에 따라 기계 학습될 수 있다. 기계 학습을 수행하기 위한 기계 학습 알고리즘에는, 의사결정트리(Decision Tree), 베이지안 망(Bayesian Network), 서포트 벡터 머신(Support Vector Machine), 인공 신경망(Artificial Neural Network), 에이다부스트(Ada-boost), 퍼셉트론(Perceptron), 유전자 프로그래밍(Genetic Programming), 군집화(Clustering) 등이 사용될 수 있다.
이중, CNN은 최소한의 전처리(preprocess)를 사용하도록 설계된 다계층 퍼셉트론(multilayer perceptrons)의 한 종류이다. CNN은 하나 또는 여러 개의 합성곱 계층과 그 위에 올려진 일반적인 인공 신경망 계층들로 이루어져 있으며, 가중치와 통합 계층(pooling layer)들을 추가로 활용한다. 이러한 구조 덕분에 CNN은 2차원 구조의 입력 데이터를 충분히 활용할 수 있다. 다른 딥러닝 구조들과 비교해서, CNN은 영상, 음성 분야 모두에서 좋은 성능을 보여준다. CNN은 또한 표준 역전달을 통해 훈련될 수 있다. CNN은 다른 피드포워드 인공신경망 기법들보다 쉽게 훈련되는 편이고 적은 수의 매개변수를 사용한다는 이점이 있다.
컨볼루션 네트워크는 묶인 파라미터들을 가지는 노드들의 집합들을 포함하는 신경 네트워크들이다. 사용 가능한 트레이닝 데이터의 크기 증가와 연산 능력의 가용성이, 구분적 선형 단위 및 드롭아웃 트레이닝과 같은 알고리즘 발전과 결합되어, 많은 컴퓨터 비전 작업들이 크게 개선되었다. 오늘날 많은 작업에 사용할 수 있는 데이터 세트들과 같은 엄청난 양의 데이터 세트에서는 초과 맞춤(outfitting)이 중요하지 않으며, 네트워크의 크기를 늘리면 테스트 정확도가 향상된다. 컴퓨팅 리소스들의 최적 사용은 제한 요소가 된다. 이를 위해, 심층 신경 네트워크들의 분산된, 확장 가능한 구현예가 사용될 수 있다.
도 2는 일실시예에 따른 인공지능 모델을 활용하여 차량 수출 정보를 생성하는 과정을 설명하기 위한 순서도이다.
도 2를 참조하면, 먼저, S201 단계에서, 장치(200)는 제1 카메라(110)를 통해 제1 영역에 대한 촬영이 수행되고 있는 경우, 제1 카메라(110)로부터 제1 영역의 촬영으로 생성된 제1 영상 정보를 수신할 수 있다. 이때, 제1 카메라(110)는 제1 영역에 대한 촬영을 수행하여 제1 영상 정보를 실시간으로 생성할 수 있고, 장치(200)는 제1 영역의 촬영으로 생성된 제1 영상 정보를 실시간으로 제1 카메라(110)로부터 수신하여 획득할 수 있다.
S202 단계에서, 장치(200)는 제1 영상 정보를 기초로, 제1 영역에 수출하고자 하는 차량이 주차되어 있는지 여부를 분석할 수 있다.
구체적으로, 장치(200)는 제1 영상 정보를 기초로, 제1 영역에 차량이 진입하여 주차되는지 여부를 모니터링하고, 제1 영역에 차량이 진입한 것으로 확인되고, 제1 영역에 진입한 차량이 주차된 것으로 확인되면, 제1 영역에 수출하고자 하는 차량이 주차되어 있는 것으로 분석할 수 있다. 이때, 장치(200)는 제1 영상 정보를 기초로, 영상 분석을 수행하여, 차량의 진입 여부, 차량의 주차 여부 등을 실시간으로 분석할 수 있다.
S203 단계에서, 장치(200)는 제1 영역에 차량이 주차되어 있는 것으로 분석되면, 제1 영상 정보를 기초로, 제1 영역에 주차되어 있는 차량의 번호판에서 차량번호를 인식할 수 있다.
구체적으로, 장치(200)는 제1 영역에 수출하고자 하는 차량이 주차되어 있는 것으로 분석되면, 제1 영상 정보를 기초로, 제1 영역에 주차되어 있는 차량의 번호판을 인식한 후, 인식된 번호판 내에서 차량의 차량번호를 인식할 수 있다.
S204 단계에서, 장치(200)는 인식된 차량번호를 기반으로, 제1 영역에 주차되어 있는 차량을 제1 차량으로 식별할 수 있다.
예를 들어, 장치(200)는 인식된 차량번호가 “1234”로 확인되면, 제1 영역에 주차되어 있는 차량을 차량번호가 “1234”인 제1 차량으로 식별할 수 있다.
S205 단계에서, 장치(200)는 제1 차량의 차종, 연식, 주행거리, 사고이력, 보험이력 및 예상시세를 포함하는 제1 차량 정보를 획득할 수 있다. 이를 위해, 장치(200)의 데이터베이스에는 복수의 차량 정보가 저장되어 있으며, 각각의 차량 정보는 차량번호, 차주 연락처, 차종, 연식, 주행거리, 사고이력, 보험이력, 예상시세에 대한 정보를 포함할 수 있다.
즉, 장치(200)는 제1 차량의 차량번호를 이용하여 데이터베이스에 저장된 정보를 조회하여, 제1 차량 정보를 획득할 수 있으며, 이때, 제1 차량 정보는 제1 차량의 차량번호, 차종, 연식, 주행거리, 사고이력, 보험이력, 예상시세에 대한 정보를 포함할 수 있다.
일실시예에 따르면, 제1 차량 정보는 제1 차량의 차주 단말, 제1 차량에 설치되어 제1 차량의 주행거리를 모니터링하는 모니터링 기기, 사고이력 및 보험이력을 관리하는 외부 서버, 예상시세를 산출하는 외부 서버 등을 통해 주기적으로 갱신될 수 있다.
S206 단계에서, 장치(200)는 제1 차량 정보를 미리 학습된 인공지능 모델에 적용할 수 있다. 여기서, 인공지능 모델은 차량 정보를 입력으로 받아, 차량 정보를 활용하여 차량의 수출 국가를 분석하고 분석된 수출 국가에 대한 정보를 출력하는 알고리즘일 수 있다.
즉, 인공지능 모델은 차량 정보를 기반으로, 차량의 차종, 연식, 주행거리, 사고이력, 보험이력 및 예상시세를 고려하여, 차량을 수출하는데 가장 유리할 것으로 예상되는 수출 국가를 선정하고, 선정된 수출 국가에 대한 정보를 출력할 수 있다.
예를 들어, 인공지능 모델은 제1 차량 정보를 기반으로, 제1 차량의 차종, 연식, 주행거리, 사고이력, 보험이력 및 예상시세를 고려하여, 제1 차량을 수출하는데 가장 유리할 것으로 예상되는 수출 국가를 제1 국가로 선정할 수 있고, 제1 국가를 지시하는 출력값을 출력할 수 있다.
S207 단계에서, 장치(200)는 인공지능 모델의 출력을 기초로, 제1 차량의 수출 국가를 선정할 수 있다.
예를 들어, 장치(200)는 인공지능 모델의 출력을 확인한 결과, 출력값이 1로 확인되면, 제1 차량의 수출 국가를 제1 국가로 선정할 수 있고, 출력값이 2로 확인되면, 제1 차량의 수출 국가를 제2 국가로 선정할 수 있다.
일실시예에 따르면, 인공지능 모델은 차량 정보를 통해, 차량을 수출하는데 가장 유리할 것으로 예상되는 수출 국가를 선정하도록 학습될 수 있다. 이를 통해, 인공지능 모델은 차량의 차종, 연식, 주행거리, 사고이력, 보험이력 및 예상시세를 고려하여, 차량을 어느 국가에 수출하는 것이 가장 유리한지 분석할 수 있고, 분석 결과를 통해 수출 국가를 선정하여 출력할 수 있다. 이를 위해, 인공지능 모델은 차량의 상태에 따라 수출 국가를 선정하여 분석하도록 미리 학습된 상태일 수 있다.
인공지능 모델의 학습이 이루어지는 학습 장치는 학습된 인공지능 모델을 이용하여 차량의 수출 국가를 선정하는 장치(200)와 동일한 장치일 수 있고, 별개의 장치일 수도 있다. 이하에서는 인공지능 모델이 학습되는 과정을 설명한다.
먼저, 학습 장치는 차량 정보를 기초로 입력을 생성할 수 있다.
구체적으로, 학습 장치는 차량 정보에 대해 전처리하는 과정을 수행할 수 있다. 전처리가 수행된 차량 정보를 인공지능 모델의 입력으로 그대로 사용하거나, 불필요한 정보를 제거하는 통상의 처리를 거쳐 입력을 생성할 수 있다.
다음으로, 학습 장치는 인공지능 모델에 입력을 적용할 수 있다. 인공지능 모델은 강화 학습(reinforcement learning)에 따라 학습되는 인공지능 모델일 수 있으며, 강화 학습을 통해 추상적 추론을 출력하는데 적합한 Q-Network, DQN(Deep Q-Network), 또는 관계형 네트워크(relation network, RN) 구조일 수 있다.
강화 학습에 따라 학습되는 인공지능 모델은 다양한 보상에 평가를 반영하여 갱신 및 최적화될 수 있다. 예를 들면, 인공지능 모델은 제1 내지 제6 보상을 통해 갱신 및 최적화될 수 있다.
예를 들어, 제1 보상은 각 국가의 차종별 중고 차량 판매 데이터를 기반으로, 차량의 차종을 고려하여 판매 가능성이 높을 것으로 예상되는 국가를 수출 국가로 선정할수록 높아질 수 있으며, 제2 보상은 각 국가의 연식별 중고 차량 판매 데이터를 기반으로, 차량의 연식을 고려하여 판매 가능성이 높을 것으로 예상되는 국가를 수출 국가로 선정할수록 높아질 수 있으며, 제3 보상은 각 국가의 주행거리별 중고 차량 판매 데이터를 기반으로, 차량의 주행거리를 고려하여 판매 가능성이 높을 것으로 예상되는 국가를 수출 국가로 선정할수록 높아질 수 있으며, 제4 보상은 각 국가의 사고이력별 중고 차량 판매 데이터를 기반으로, 차량의 사고이력을 고려하여 판매 가능성이 높을 것으로 예상되는 국가를 수출 국가로 선정할수록 높아질 수 있으며, 제5 보상은 각 국가의 보험이력별 중고 차량 판매 데이터를 기반으로, 차량의 보험이력을 고려하여 판매 가능성이 높을 것으로 예상되는 국가를 수출 국가로 선정할수록 높아질 수 있으며, 제6 보상은 각 국가의 금액별 중고 차량 판매 데이터를 기반으로, 차량의 예상시세를 고려하여 판매 가능성이 높을 것으로 예상되는 국가를 수출 국가로 선정할수록 높아질 수 있다. 여기서, 중고 차량 판매 데이터는 외부 서버 또는 장치(200)의 데이터베이스로부터 획득될 수 있다.
다음으로, 학습 장치는 인공지능 모델로부터 출력을 획득할 수 있다. 인공지능 모델의 출력은 차량을 수출하는데 가장 유리할 것으로 예상되는 수출 국가에 대한 정보를 포함할 수 있다.
이를 위해, 인공지능 모델은 차량 정보를 활용하여 차량을 수출하는데 가장 유리할 것으로 예상되는 수출 국가를 선정하여 출력할 수 있다. 이때, 인공지능 모델은 차량의 차종, 연식, 주행거리, 사고이력, 보험이력 및 예상시세를 고려하여, 차량을 수출하는데 가장 유리할 것으로 예상되는 수출 국가를 선정하고, 선정된 수출 국가에 대한 정보를 출력할 수 있다.
다음으로, 학습 장치는 인공지능 모델의 출력을 평가하여 보상을 지급할 수 있다. 이때, 출력의 평가는 제1 내지 제6 보상 등으로 나뉠 수 있다.
예를 들어, 학습 장치는 차량의 차종을 고려하여 판매 가능성이 높을 것으로 예상되는 국가를 수출 국가로 선정할수록 제1 보상을 많이 수여하고, 차량의 연식을 고려하여 판매 가능성이 높을 것으로 예상되는 국가를 수출 국가로 선정할수록 제2 보상을 많이 수여하고, 차량의 주행거리를 고려하여 판매 가능성이 높을 것으로 예상되는 국가를 수출 국가로 선정할수록 제3 보상을 많이 수여하고, 차량의 사고이력을 고려하여 판매 가능성이 높을 것으로 예상되는 국가를 수출 국가로 선정할수록 제4 보상을 많이 수여하고, 차량의 보험이력을 고려하여 판매 가능성이 높을 것으로 예상되는 국가를 수출 국가로 선정할수록 제5 보상을 많이 수여하고, 차량의 예상시세를 고려하여 판매 가능성이 높을 것으로 예상되는 국가를 수출 국가로 선정할수록 제6 보상을 많이 수여할 수 있다.
다음으로, 학습 장치는 평가를 기초로 인공지능 모델을 갱신할 수 있다.
구체적으로, 학습 장치는 인공지능 모델이 차량 정보를 통해 차량의 수출 국가를 선정하여 분석하는 환경(environment)에서, 보상값(reward)들의 합의 기대값(expectation)이 최대화되도록, 특정한 상태(state)들에서 취할 행동(action)들을 결정하는 정책(policy)을 최적화하는 과정을 통해 인공지능 모델을 갱신할 수 있다.
예를 들어, 학습 장치는 제1 차량 정보를 통해 제1 차량을 수출하는데 가장 유리할 것으로 예상되는 수출 국가를 제1 국가로 선정한 결과에 대해 문제가 없는 경우, 차량의 수출 국가를 제1 국가로 분석한 결과에 대해 문제가 없음을 나타내는 정보를 포함하는 제1 학습 데이터를 생성하고, 제1 학습 데이터를 인공지능 모델에 적용하여, 제1 차량과 상태가 유사한 차량의 수출 국가를 분석할 때, 제1 국가와 유사한 값을 가지도록, 인공지능 모델을 학습시키는 과정을 통해, 인공지능 모델을 갱신할 수 있다.
한편, 정책을 최적화하는 과정은 보상들의 합의 기대값의 최대값 또는 Q-함수의 최대값을 추정하거나, Q-함수의 손실 함수(loss function)의 최소값을 추정하는 과정을 통해 이루어질 수 있다. 손실함수의 최소값의 추정은 확률적 경사하강법(stochastic gradient descent, SGD) 등을 통해 이루어질 수 있다. 정책을 최적화하는 과정은 이에 제한되는 것은 아니며, 강화 학습에서 사용하는 다양한 최적화 알고리즘들이 이용될 수 있다.
학습 장치는 상술한 인공지능 모델의 학습 과정을 반복함으로써, 인공지능 모델을 점진적으로 갱신시킬 수 있다. 이를 통해, 학습 장치는 차량 정보를 통해 차량의 수출 국가를 선정하여 출력하는 인공지능 모델을 학습시킬 수 있다.
즉, 학습 장치는 차량 정보를 통해 차량을 수출하는데 가장 유리할 것으로 예상되는 수출 국가를 분석할 때, 제1 내지 제6 보상 등을 통한 강화 학습을 반영하여, 분석 기준을 조정함으로써, 인공지능 모델을 학습시킬 수 있다.
S208 단계에서, 장치(200)는 제1 차량의 수출 국가가 제1 국가로 선정되면, 제1 차량을 제1 국가로 수출하는 것을 추천하는 제1 차량의 수출 정보를 생성할 수 있다. 여기서, 제1 차량의 수출 정보는 제1 차량 정보, 제1 국가의 차종별 중고 차량 판매 데이터, 제1 국가의 연식별 중고 차량 판매 데이터, 제1 국가의 주행거리별 중고 차량 판매 데이터, 제1 국가의 사고이력별 중고 차량 판매 데이터, 제1 국가의 보험이력별 중고 차량 판매 데이터, 제1 국가의 금액별 중고차량 판매 데이터 등을 포함할 수 있다.
장치(200)는 제1 차량의 수출 정보가 생성되면, 제1 차주가 사용하는 제1 차주 단말을 확인하고, 제1 차량의 수출 정보를 제1 차주 단말로 전송할 수 있다. 이때, 제1 차주 단말은 제1 차량 정보를 통해 확인된 차주 연락처로 식별될 수 있고, 제1 차주 단말과 장치(200)는 유무선으로 통신하도록 구성될 수 있다.
도 3은 일실시예에 다른 차량 상태 모델링 정보를 생성하는 과정을 설명하기 위한 순서도이다.
도 3을 참조하면, 먼저, S301 단계에서, 장치(200)는 제1 카메라(110)를 통해 제1 차량을 다양한 방향에서 촬영한 경우, 제1 카메라(110)로부터 제1 차량을 다양한 방향에서 촬영하여 생성된 복수의 이미지 정보를 수신할 수 있다. 이를 위해, 제1 카메라(110)는 제1 차량의 주변을 360도 이동하여 촬영하는 촬영 기기로 구현될 수 있다.
예를 들어, 제1 카메라(110)는 제1 차량의 정면 방향에서 제1 차량을 촬영하여 제1 차량의 정면 이미지를 생성하고, 제1 차량의 좌측면 방향에서 제1 차량을 촬영하여 제1 차량의 좌측면 이미지를 생성하고, 제1 차량의 후면 방향에서 제1 차량을 촬영하여 제1 차량의 후면 이미지를 생성하고, 제1 차량의 우측면 방향에서 제1 차량을 촬영하여 제1 차량의 우측면 이미지를 생성할 수 있으며, 장치(200)는 제1 카메라(110)로부터 제1 차량의 정면 이미지, 제1 차량의 좌측면 이미지, 제1 차량의 후면 이미지 및 제1 차량의 우측면 이미지를 각각 수신할 수 있다.
S302 단계에서, 장치(200)는 복수의 이미지 정보를 취합하여, 제1 차량의 3D 이미지인 제1 이미지를 생성할 수 있다.
예를 들어, 장치(200)는 제1 카메라(110)로부터 제1 차량의 정면 이미지, 제1 차량의 좌측면 이미지, 제1 차량의 후면 이미지 및 제1 차량의 우측면 이미지를 각각 수신한 경우, 제1 차량의 정면 이미지, 제1 차량의 좌측면 이미지, 제1 차량의 후면 이미지 및 제1 차량의 우측면 이미지를 취합하여, 제1 차량의 3D 이미지인 제1 이미지를 생성할 수 있다.
S303 단계에서, 장치(200)는 제1 이미지를 기초로, 제1 차량의 상태를 분석할 수 있다.
구체적으로, 장치(200)는 제1 이미지를 기초로, 제1 차량의 부위 별로 스크래치, 찌그러짐 등의 흠집이 있는지 여부를 확인하여, 제1 차량의 상태를 부위 별로 분석할 수 있다.
S304 단계에서, 장치(200)는 제1 차량의 상태를 분석한 결과를 기반으로, 제1 차량의 부위 별로 수리가 필요한지 여부를 판단할 수 있다.
예를 들어, 장치(200)는 제1 이미지를 기초로, 제1 차량의 부위 별로 흠집이 있는지 여부를 확인한 결과, 제1 차량의 부위 중에서 제1 부위에 흠집이 있는 것으로 확인되면, 제1 부위에 대한 수리가 필요한 것으로 판단할 수 있고, 제1 차량의 부위 중에서 제2 부위에 흠집이 없는 것으로 확인되면, 제2 부위에 대한 수리가 필요하지 않은 것으로 판단할 수 있다.
S305 단계에서, 장치(200)는 제1 차량에서 제1 부위에 대한 수리가 필요한 것으로 판단되면, 제1 이미지에서 제1 부위가 위치한 부분을 제1-1 이미지로 추출할 수 있다.
즉, 장치(200)는 제1 이미지를 기초로, 제1 차량의 부위 별로 수리가 필요한지 여부를 판단한 결과, 제1 차량의 부위 중에서 제1 부위에 대한 수리가 필요한 것으로 판단되면, 제1 이미지 내에서 제1 부위가 위치한 부분을 구분하여, 구분된 부분을 제1-1 이미지로 추출할 수 있다.
S306 단계에서, 장치(200)는 제1-1 이미지를 기반으로, 제1 부위가 수리된 상태를 나타내는 제2-1 이미지를 생성할 수 있다. 이때, 장치(200)는 제1 부위의 대표 이미지를 이용하여, 제1 부위가 수리된 상태를 나타내는 제2-1 이미지를 생성할 수 있다. 제1 부위의 대표 이미지는 제1 부위가 정상 상태일 때를 나타내는 이미지로, 장치(200)의 데이터베이스 또는 외부 서버를 통해 획득될 수 있다.
예를 들어, 장치(200)는 제1-1 이미지를 기반으로, 제1 부위에 스크래치가 있는 것으로 확인되면, 제1 부위의 대표 이미지를 이용하여 제1 부위에서 스크래치를 지우는 작업을 수행하여, 제1 부위가 수리된 상태를 나타내는 제2-1 이미지를 생성할 수 있다.
S307 단계에서, 장치(200)는 제1 이미지에서 제1 부위가 위치한 부분을 제2-1 이미지로 교체하여 제2 이미지를 생성할 수 있다.
즉, 장치(200)는 제1 이미지 내에서 제1-1 이미지가 차지하는 부분을 제2-1 이미지로 교체하여, 제2 이미지를 생성할 수 있다.
S308 단계에서, 장치(200)는 제1 이미지 및 제2 이미지를 포함하는 제1 차량의 상태 모델링 정보를 생성할 수 있다. 여기서, 제1 차량의 상태 모델링 정보는 제1 차량의 수리 전후 상태에 따른 이미지를 포함할 수 있고, 제1 이미지는 제1 차량의 수리 이전 상태를 나타내는 이미지이고, 제1 이미지는 제1 차량의 수리 이후 상태를 나타내는 이미지이다.
도 4는 일실시예에 따른 제1 부위의 수리 이전 정보와 제1 부위의 수리 이후 정보를 생성하는 과정을 설명하기 위한 순서도이다.
일실시예에 따르면, 도 4에 도시된 각 단계는 S308 단계 이후에 수행될 수 있다.
도 4를 참조하면, 먼저, S401 단계에서, 장치(200)는 제1 이미지 및 제1 차량 정보를 기초로, 제1 부위를 수리하기 전에 예상되는 제1 차량의 수출 가격을 제1 금액으로 산정할 수 있다.
구체적으로, 장치(200)는 제1 이미지를 기초로, 제1 차량의 부위 별로 파손 상태를 분석하여, 부위별 파손 상태에 따라 발생하는 할인 비용을 산정할 수 있고, 제1 차량 정보를 기초로, 제1 차량의 예상시세를 확인할 수 있으며, 제1 차량의 예상시세에서 할인 비용을 차감한 금액으로, 제1 금액을 산정할 수 있다.
S402 단계에서, 장치(200)는 제1 금액을 고려하여 제1 차량의 수출 국가를 제2 국가로 선정할 수 있다. 이때, 제2 국가는 제1 국가와 동일할 수도 있고, 상이할 수도 있다.
구체적으로, 장치(200)는 각 국가의 금액별 중고 차량 판매 데이터를 기반으로, 제1 금액을 고려하여 판매 가능성이 가장 높을 것으로 예상되는 국가를 선정할 수 있고, 제1 금액을 고려하여 판매 가능성이 가장 높을 것으로 예상되는 국가가 제2 국가로 선정되면, 제1 차량이 수출 국가를 제2 국가로 선정할 수 있다.
S403 단계에서, 장치(200)는 제1-1 이미지, 제1 금액 및 제2 국가에 대한 정보를 포함하는 제1 부위의 수리 이전 정보를 생성할 수 있다.
S404 단계에서, 장치(200)는 제2 이미지 및 제1 차량 정보를 기초로, 제1 부위를 수리한 후에 예상되는 제1 차량의 수출 가격을 제2 금액으로 산정할 수 있다.
구체적으로, 장치(200)는 제2 이미지를 기초로, 제1 차량의 부위 별로 파손 상태를 분석하여, 부위별 파손 상태에 따라 발생하는 할인 비용을 산정할 수 있고, 제1 차량 정보를 기초로, 제1 차량의 예상시세를 확인할 수 있으며, 제1 차량의 예상시세에서 할인 비용을 차감한 금액으로, 제2 금액을 산정할 수 있다. 이때, 할인 비용이 0원으로 산정되어, 제1 차량의 예상시세가 제2 금액으로 산정될 수 있다.
S405 단계에서, 장치(200)는 제2 금액을 고려하여 제1 차량의 수출 국가를 제3 국가로 선정할 수 있다. 이때, 제3 국가는 제1 국가와 동일할 수도 있고, 상이할 수도 있다.
구체적으로, 장치(200)는 각 국가의 금액별 중고 차량 판매 데이터를 기반으로, 제2 금액을 고려하여 판매 가능성이 가장 높을 것으로 예상되는 국가를 선정할 수 있고, 제2 금액을 고려하여 판매 가능성이 가장 높을 것으로 예상되는 국가가 제3 국가로 선정되면, 제1 차량이 수출 국가를 제3 국가로 선정할 수 있다.
S406 단계에서, 장치(200)는 제2-1 이미지, 제2 금액 및 제3 국가에 대한 정보를 포함하는 제1 부위의 수리 이후 정보를 생성할 수 있다.
도 5는 일실시예에 따른 AR을 활용하여 제1 부위의 수리 이전 정보와 제1 부위의 수리 이후 정보를 표시하는 과정을 설명하기 위한 순서도이다.
일실시예에 따르면, 도 5에 도시된 각 단계는 S406 단계 이후에 수행될 수 있다.
도 5를 참조하면, 먼저, S501 단계에서, 장치(200)는 제1 사용자가 AR 기기를 착용한 상태로 확인된 경우, AR 기기를 착용한 제1 사용자의 시선을 추적할 수 있다. 이를 위해, 장치(200)는 AR 기기와 유무선으로 통신하도록 구성될 수 있으며, AR 기기의 전체적인 동작을 제어할 수 있다.
일실시예에 따르면, AR 기기는 스마트 안경, HMD(Head mounted Display) 등으로 구현될 수 있으며, 증강 현실을 통해 화면에 정보를 표시할 수 있다.
예를 들어, AR 기기는 홀로렌즈(HoloLens)로, 머리에 쓰는 디스플레이 장치(Head Mounted Display, HMD)로 구현될 수 있으며, 반투명한 디스플레이를 통해 사용자의 주변 환경을 볼 수 있도록, 화면을 구비할 수 있다.
AR 기기는 반투명 디스플레이로 구현된 화면 상에 증강 현실의 영상을 표시할 수 있으며, 이때, 사용자 환경과 상호작용을 통해 화면에 영상이 재생될 수 있다.
AR 기기는 고글(Goggle)형 프레임, 디스플레이 화면, 광각 렌즈, 모션 센서(적외선, 자이로, 지자기, 가속도 등)을 포함하여 구성될 수 있다.
또한, AR 기기는 AR 기기를 착용한 사용자의 머리 움직임을 통해 사용자의 시선을 추적할 수 있으며, 헤드 트렉킹을 통해 사용자의 시선 이동에 따라 영상이 변경되어 표시되도록 처리할 수 있다. 즉, AR 기기는 사용자 머리의 회전 각도와 속도 등을 수치화하여, 사용자 머리의 움직임과 동일한 방향으로 영상이 변경되도록 처리할 수 있다. 예를 들어, 사용자의 머리가 오른쪽으로 회전하면 증강 현실의 영상에서도 오른쪽으로 움직이고, 사용자의 머리가 왼쪽으로 회전하면 증강 현실의 영상에서도 왼쪽으로 움직이도록 처리할 수 있다.
AR 기기는 AR 기기를 착용한 사용자의 손짓을 인식하여, 증강 현실 영상을 조작할 수 있도록, 처리할 수 있다.
AR 기기는 증강 현실 뿐만 아니라 가상 현실을 통해 정보를 표시할 수 있다. 예를 들어, AR 기기는 증강 현실이 필요할 때 반투명한 화면에 증강 현실의 정보를 표시하고, 가상 화면이 필요할 때 불투명한 화면에 가상 현실의 정보를 표시할 수 있다. 즉, AR 기기를 통해, 증강 현실과 가상 현실을 혼합하여 확장된 현실을 창조하는 확장 현실(XR : eXtended Reality)의 제공이 가능하다.
일실시예에 따르면, 장치(200)는 제1 차주 단말과 AR 기기가 연결되어 있는 경우, 제1 사용자가 AR 기기를 착용한 상태로 확인되면, AR 기기를 착용한 제1 사용자의 시선을 추적할 수 있다.
장치(200)는 제1 사용자가 AR 기기를 착용한 상태인지 여부를 확인할 때, AR 기기에 부착된 센서로부터 감지 신호를 획득하면, 제1 사용자가 AR 기기를 착용한 것으로 확인할 수 있다.
장치(200)는 AR 기기를 착용한 제1 사용자의 시선을 추적할 때, AR 기기를 착용한 사용자의 머리 움직임을 기초로, 제1 사용자의 시선을 유추하여 제1 사용자의 시선을 추적할 수 있으며, AR 기기를 착용한 제1 사용자의 눈을 카메라로 촬영하여, 제1 사용자의 눈 움직임을 통해 제1 사용자의 시선을 추적할 수도 있다. 이때, AR 기기는 자체적으로 제1 사용자의 시선을 추적할 수 있으며, 제1 사용자의 시선에 대한 추적 결과를 실시간으로 장치(200)로 전송할 수 있고, 장치(200)는 AR 기기의 동작을 제어할 수 있다.
S502 단계에서, 장치(200)는 제1 사용자의 시선을 추적한 결과, 제1 사용자의 시선이 제1 차량의 제1 구역을 응시하고 있는 것으로 확인되면, 제1 구역에 대한 실시간 영상이 AR 기기의 화면에 표시되도록 제어할 수 있다.
S503 단계에서, 장치(200)는 제1 구역에 대한 실시간 영상이 AR 기기의 화면에 표시될 때, 제1 구역에 제1 부위가 포함되어 있는 것으로 확인되면, 제1 부위의 수리 이전 정보 및 제1 부위의 수리 이후 정보가 제1 구역의 영상과 중첩되어, AR 기기의 화면에 표시되도록 제어할 수 있다.
즉, 장치(200)는 AR 기기를 착용한 제1 사용자의 시선이 제1 구역을 향하고 있는데, 제1 구역에 제1 부위가 포함되어 있는 것으로 확인되면, AR 기기의 화면에는 제1 부위의 수리 이전 정보 및 제1 부위의 수리 이후 정보가 증강 현실을 통해 표시될 수 있다.
구체적으로, 장치(200)는 제1 사용자의 시야에 제1 부위가 포함되어 있는지 여부를 확인하여, 제1 사용자의 시야에 제1 부위가 포함되어 있는 것으로 확인되면, 제1 부위의 수리 이전 정보 및 제1 부위의 수리 이후 정보를 실제 현실의 영상과 결합하여, 증강 현실을 통해 제1 부위의 수리 이전 정보 및 제1 부위의 수리 이후 정보가 AR 기기의 화면에 표시되도록 제어할 수 있다. 이때, 제1 부위의 수리 이전 정보와 제1 부위의 수리 이전 정보는 서로 상이한 색상으로, 증강 현실을 통해 표시될 수 있다.
일실시예에 따르면, 제1 구역에 대한 실시간 영상이 AR 기기의 화면에 표시될 때, 부위별 파손 상태에 따라 각 부위를 상이한 색상으로 표시할 수 있다. 이와 관련된 자세한 설명은 도 6을 참조하여 후술하기로 한다.
도 6은 일실시예에 따른 AR을 활용하여 부위별 파손 상태에 따라 각 부위를 상이한 색상으로 표시하는 과정을 설명하기 위한 순서도이다.
도 6을 참조하면, 먼저, S601 단계에서, 장치(200)는 제1 차량의 상태를 분석한 결과를 기반으로, 제1 차량에서 수리가 필요하지 않은 부분을 정상 부위로 분류하고, 제1 차량에서 수리가 필요한 부분을 파손 부위로 분류할 수 있다.
예를 들어, 장치(200)는 제1 차량의 상태를 분석한 결과를 기반으로, 제1 차량의 부위 별로 수리가 필요한지 여부를 판단한 결과, 제1 차량의 부위 중에서 제1 부위에 대한 수리가 필요하지 않은 것으로 판단되고, 제1 차량의 부위 중에서 제2 부위에 대한 수리가 필요한 것으로 판단되면, 제1 부위를 정상 부위로 분류하고, 제2 부위를 파손 부위로 분류할 수 있다.
S602 단계에서, 장치(200)는 제1 이미지를 기초로, 파손 부위로 분류된 부위 별로 각각의 파손 상태를 분석할 수 있다. 이때, 파손 상태는 심각한 상태 또는 심각하지 않은 상태 중 어느 하나로 분석될 수 있다.
구체적으로, 장치(200)는 제1 이미지를 기초로, 파손 부위로 분류된 부위 별로 스크래치, 찌그러짐 등의 흠집이 얼마나 심각한지 여부를 확인하여, 파손 부위로 분류된 부위 별로 각각의 파손 상태를 분석할 수 있다.
S603 단계에서, 장치(200)는 부위 별로 각각의 파손 상태를 분석한 결과를 기반으로, 파손 부위로 분류된 부위 중에서 파손 상태가 심각하지 않은 부위를 경고 부위로 분류하고, 파손 부위로 분류된 부위 중에서 파손 상태가 심각한 부위를 위험 부위로 분류할 수 있다.
예를 들어, 제2 부위 및 제3 부위가 파손 부위로 분류된 경우, 장치(200)는 제2 부위의 파손 상태를 분석한 결과, 제2 부위에 대한 파손 상태가 심각하지 않은 것으로 분석되고, 제3 부위의 파손 상태를 분석한 결과, 제3 부위에 대한 파손 상태가 심각한 것으로 분석되면, 제2 부위를 경고 부위로 분류하고, 제3 부위를 위험 부위로 분류할 수 있다.
S604 단계에서, 장치(200)는 제1 구역에 대한 실시간 영상이 AR 기기의 화면에 표시될 때, 정상 부위로 분류된 부위가 제1 색상으로 표시되도록 제어하고, 경고 부위로 분류된 부위가 제2 색상으로 표시되도록 제어하고, 위험 부위로 분류된 부위가 제3 색상으로 표시되도록 제어할 수 있다.
일실시예에 따르면, 정상 부위로 분류된 부위가 제1 색상으로 표시되도록 제어할 때, 면적 비율에 따라 상이한 채도로 표시할 수 있다. 이와 관련된 자세한 설명은 도 7을 참조하여 후술하기로 한다.
일실시예에 따르면, 경고 부위로 분류된 부위가 제2 색상으로 표시되도록 제어할 때, 면적 비율에 따라 상이한 채도로 표시할 수 있다. 이와 관련된 자세한 설명은 도 8을 참조하여 후술하기로 한다.
일실시예에 따르면, 위험 부위로 분류된 부위가 제3 색상으로 표시되도록 제어할 때, 면적 비율에 따라 상이한 채도로 표시할 수 있다. 이와 관련된 자세한 설명은 도 9를 참조하여 후술하기로 한다.
도 7은 일실시예에 따른 정상 부위를 면적 비율에 따라 상이한 채도로 설정된 제1 색상으로 표시하는 과정을 설명하기 위한 순서도이다.
도 7을 참조하면, 먼저, S701 단계에서, 장치(200)는 제1 차량에서 제2 부위가 정상 부위로 분류된 경우, 제1 차량의 표면에서 제2 부위가 차지하고 있는 면적의 비율을 제1 비율로 확인할 수 있다.
즉, 장치(200)는 제1 차량의 전체 표면 면적과 제2 부위의 면적을 각각 확인한 후, 제2 부위의 면적을 제1 차량의 전체 표면 면적으로 나눈 값으로, 제1 비율을 산출할 수 있다.
S702 단계에서, 장치(200)는 제1 비율이 높을수록 제2 부위의 채도 등급을 더 높은 등급으로 설정할 수 있다. 이때, 채도 등급이 높은 등급일수록 더 선명한 색으로 표시될 수 있으며, 예를 들면, 채도 등급이 1등급일 때 보다 2등급일 때 더 선명하게 표시될 수 있다.
예를 들어, 장치(200)는 제1 비율이 10%로 설정된 경우, 제2 부위의 채도 등급을 1등급으로 설정할 수 있고, 제1 비율이 20%로 설정된 경우, 제2 부위의 채도 등급을 2 등급으로 설정할 수 있다.
S703 단계에서, 장치(200)는 제1 비율을 통해 제2 부위의 채도가 제1 등급으로 설정되면, 제1 차량에서 제2 부위와 맞닿아 있는 주변 부위를 제1 그룹으로 분류할 수 있다.
예를 들어, 장치(200)는 제1 이미지를 기초로, 각 부위의 위치를 확인한 결과, 제3 부위가 제2 부위와 맞닿아 있는 것으로 확인되면, 제3 부위를 제1 그룹으로 분류할 수 있다.
S704 단계에서, 장치(200)는 제1 그룹으로 분류된 부위 중에서 정상 부위로 분류되어 있는 부위를 제2 그룹으로 분류할 수 있다.
예를 들어, 제3 부위 및 제4 부위가 제1 그룹으로 분류되어 있는 경우, 장치(200)는 제3 부위가 정상 부위로 분류되어 있는 것으로 확인되고, 제4 부위가 경고 부위로 분류되어 있는 것으로 확인되면, 제3 부위 및 제4 부위 중에서 제3 부위만 제2 그룹으로 분류할 수 있다.
S705 단계에서, 장치(200)는 제1 그룹으로 분류된 부위의 수를 제1 수치로 설정하고, 제2 그룹으로 분류된 부위의 수를 제2 수치로 설정할 수 있다.
S706 단계에서, 장치(200)는 제2 수치를 제1 수치로 나눈 값으로 제2 비율을 산출할 수 있다.
S707 단계에서, 장치(200)는 제2 비율이 기준 비율 보다 높은지 여부를 확인할 수 있다. 여기서, 기준 비율은 실시예에 따라 상이하게 설정될 수 있다.
S707 단계에서 제2 비율이 기준 비율 보다 높은 것으로 확인되면, S708 단계에서, 장치(200)는 제1 등급을 더 높은 등급으로 조정할 수 있다.
예를 들어, 장치(200)는 제1 비율을 통해 제2 부위의 채도가 1등급으로 설정된 경우, 1등급을 2등급으로 변경하여 제2 부위의 채도 등급을 더 높은 등급으로 조정할 수 있으며, 제1 비율을 통해 제2 부위의 채도가 2등급으로 설정된 경우, 2등급을 3등급으로 변경하여 제2 부위의 채도 등급을 더 높은 등급으로 조정할 수 있다.
S708 단계 이후 S709 단계가 수행될 수 있으며, S707 단계에서 제2 비율이 기준 비율 보다 높지 않은 것으로 확인되면, S709 단계가 수행될 수 있다.
S709 단계에서, 장치(200)는 제1 구역에 대한 실시간 영상이 AR 기기의 화면에 표시될 때, 제2 부위가 제1 등급의 채도로 설정된 제1 색상으로 표시되도록 제어할 수 있다.
도 8은 일실시예에 따른 경고 부위를 면적 비율에 따라 상이한 채도로 설정된 제2 색상으로 표시하는 과정을 설명하기 위한 순서도이다.
도 8을 참조하면, 먼저, S801 단계에서, 장치(200)는 제1 차량에서 제3 부위가 경고 부위로 분류된 경우, 제1 차량의 표면에서 제3 부위가 차지하고 있는 면적의 비율을 제3 비율로 확인할 수 있다.
즉, 장치(200)는 제1 차량의 전체 표면 면적과 제3 부위의 면적을 각각 확인한 후, 제3 부위의 면적을 제1 차량의 전체 표면 면적으로 나눈 값으로, 제3 비율을 산출할 수 있다.
S802 단계에서, 장치(200)는 제3 비율이 높을수록 제3 부위의 채도 등급을 더 높은 등급으로 설정할 수 있다. 이때, 채도 등급이 높은 등급일수록 더 선명한 색으로 표시될 수 있으며, 예를 들면, 채도 등급이 1등급일 때 보다 2등급일 때 더 선명하게 표시될 수 있다.
예를 들어, 장치(200)는 제3 비율이 10%로 설정된 경우, 제3 부위의 채도 등급을 1등급으로 설정할 수 있고, 제3 비율이 20%로 설정된 경우, 제3 부위의 채도 등급을 2 등급으로 설정할 수 있다.
S803 단계에서, 장치(200) 제3 비율을 통해 제3 부위의 채도가 제2 등급으로 설정되면, 제1 차량에서 제3 부위와 맞닿아 있는 주변 부위를 제3 그룹으로 분류할 수 있다.
예를 들어, 장치(200)는 제1 이미지를 기초로, 각 부위의 위치를 확인한 결과, 제4 부위가 제3 부위와 맞닿아 있는 것으로 확인되면, 제4 부위를 제3 그룹으로 분류할 수 있다.
S804 단계에서, 장치(200)는 제3 그룹으로 분류된 부위 중에서 경고 부위로 분류되어 있는 부위를 제4 그룹으로 분류할 수 있다.
예를 들어, 제4 부위 및 제5 부위가 제3 그룹으로 분류되어 있는 경우, 장치(200)는 제4 부위가 정상 부위로 분류되어 있는 것으로 확인되고, 제5 부위가 경고 부위로 분류되어 있는 것으로 확인되면, 제3 부위 및 제4 부위 중에서 제5 부위만 제4 그룹으로 분류할 수 있다.
S805 단계에서, 장치(200)는 제3 그룹으로 분류된 부위의 수를 제3 수치로 설정하고, 제4 그룹으로 분류된 부위의 수를 제4 수치로 설정할 수 있다.
S806 단계에서, 장치(200)는 제4 수치를 제3 수치로 나눈 값으로 제4 비율을 산출할 수 있다.
S807 단계에서, 장치(200)는 제4 비율이 기준 비율 보다 높은지 여부를 확인할 수 있다. 여기서, 기준 비율은 실시예에 따라 상이하게 설정될 수 있다.
S807 단계에서 제4 비율이 기준 비율 보다 높은 것으로 확인되면, S808 단계에서, 장치(200)는 제2 등급을 더 높은 등급으로 조정할 수 있다.
예를 들어, 장치(200)는 제3 비율을 통해 제3 부위의 채도가 1등급으로 설정된 경우, 1등급을 2등급으로 변경하여 제3 부위의 채도 등급을 더 높은 등급으로 조정할 수 있으며, 제3 비율을 통해 제3 부위의 채도가 2등급으로 설정된 경우, 2등급을 3등급으로 변경하여 제3 부위의 채도 등급을 더 높은 등급으로 조정할 수 있다.
S808 단계 이후 S809 단계가 수행될 수 있으며, S807 단계에서 제4 비율이 기준 비율 보다 높지 않은 것으로 확인되면, S809 단계가 수행될 수 있다.
S809 단계에서, 장치(200)는 제1 구역에 대한 실시간 영상이 AR 기기의 화면에 표시될 때, 제3 부위가 제2 등급의 채도로 설정된 제2 색상으로 표시되도록 제어할 수 있다.
도 9는 일실시예에 따른 위험 부위를 면적 비율에 따라 상이한 채도로 설정된 제3 색상으로 표시하는 과정을 설명하기 위한 순서도이다.
도 9를 참조하면, 먼저, S901 단계에서, 장치(200)는 제1 차량에서 제4 부위가 위험 부위로 분류된 경우, 제1 차량의 표면에서 제4 부위가 차지하고 있는 면적의 비율을 제5 비율로 확인할 수 있다.
즉, 장치(200)는 제1 차량의 전체 표면 면적과 제4 부위의 면적을 각각 확인한 후, 제4 부위의 면적을 제1 차량의 전체 표면 면적으로 나눈 값으로, 제5 비율을 산출할 수 있다.
S902 단계에서, 장치(200)는 제5 비율이 높을수록 제4 부위의 채도 등급을 더 높은 등급으로 설정할 수 있다. 이때, 채도 등급이 높은 등급일수록 더 선명한 색으로 표시될 수 있으며, 예를 들면, 채도 등급이 1등급일 때 보다 2등급일 때 더 선명하게 표시될 수 있다.
예를 들어, 장치(200)는 제5 비율이 10%로 설정된 경우, 제4 부위의 채도 등급을 1등급으로 설정할 수 있고, 제5 비율이 20%로 설정된 경우, 제4 부위의 채도 등급을 2 등급으로 설정할 수 있다.
S903 단계에서, 장치(200) 제5 비율을 통해 제4 부위의 채도가 제3 등급으로 설정되면, 제1 차량에서 제4 부위와 맞닿아 있는 주변 부위를 제5 그룹으로 분류할 수 있다.
예를 들어, 장치(200)는 제1 이미지를 기초로, 각 부위의 위치를 확인한 결과, 제5 부위가 제4 부위와 맞닿아 있는 것으로 확인되면, 제5 부위를 제5 그룹으로 분류할 수 있다.
S904 단계에서, 장치(200)는 제5 그룹으로 분류된 부위 중에서 위험 부위로 분류되어 있는 부위를 제6 그룹으로 분류할 수 있다.
예를 들어, 제5 부위 및 제6 부위가 제5 그룹으로 분류되어 있는 경우, 장치(200)는 제5 부위가 경고 부위로 분류되어 있는 것으로 확인되고, 제6 부위가 위험 부위로 분류되어 있는 것으로 확인되면, 제5 부위 및 제6 부위 중에서 제6 부위만 제6 그룹으로 분류할 수 있다.
S905 단계에서, 장치(200)는 제5 그룹으로 분류된 부위의 수를 제5 수치로 설정하고, 제6 그룹으로 분류된 부위의 수를 제6 수치로 설정할 수 있다.
S906 단계에서, 장치(200)는 제6 수치를 제5 수치로 나눈 값으로 제6 비율을 산출할 수 있다.
S907 단계에서, 장치(200)는 제6 비율이 기준 비율 보다 높은지 여부를 확인할 수 있다. 여기서, 기준 비율은 실시예에 따라 상이하게 설정될 수 있다.
S907 단계에서 제6 비율이 기준 비율 보다 높은 것으로 확인되면, S908 단계에서, 장치(200)는 제3 등급을 더 높은 등급으로 조정할 수 있다.
예를 들어, 장치(200)는 제5 비율을 통해 제4 부위의 채도가 1등급으로 설정된 경우, 1등급을 2등급으로 변경하여 제4 부위의 채도 등급을 더 높은 등급으로 조정할 수 있으며, 제5 비율을 통해 제4 부위의 채도가 2등급으로 설정된 경우, 2등급을 3등급으로 변경하여 제4 부위의 채도 등급을 더 높은 등급으로 조정할 수 있다.
S908 단계 이후 S909 단계가 수행될 수 있으며, S907 단계에서 제6 비율이 기준 비율 보다 높지 않은 것으로 확인되면, S909 단계가 수행될 수 있다.
S909 단계에서, 장치(200)는 제1 구역에 대한 실시간 영상이 AR 기기의 화면에 표시될 때, 제4 부위가 제3 등급의 채도로 설정된 제3 색상으로 표시되도록 제어할 수 있다.
도 10은 일실시예에 따른 장치의 구성의 예시도이다.
일실시예에 따른 장치(200)는 프로세서(210) 및 메모리(220)를 포함한다. 프로세서(210)는 도 1 내지 도 9를 참조하여 전술된 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 9를 참조하여 전술된 적어도 하나의 방법을 수행할 수 있다. 장치(200)를 이용하는 자 또는 단체는 도 1 내지 도 9를 참조하여 전술된 방법들 일부 또는 전부와 관련된 서비스를 제공할 수 있다.
메모리(220)는 전술된 방법들과 관련된 정보를 저장하거나 후술되는 방법들이 구현된 프로그램을 저장할 수 있다. 메모리(220)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.
프로세서(210)는 프로그램을 실행하고, 장치(200)를 제어할 수 있다. 프로세서(210)에 의하여 실행되는 프로그램의 코드는 메모리(220)에 저장될 수 있다. 장치(200)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 유무선 통신을 통해 데이터를 교환할 수 있다.
장치(200)는 인공지능 모델을 학습시키거나, 학습된 인공지능 모델을 이용하는데 사용될 수 있다. 메모리(220)는 학습 중인 또는 학습된 인공지능 모델을 포함할 수 있다. 프로세서(210)는 메모리(220)에 저장된 인공지능 모델 알고리즘을 학습시키거나 실행시킬 수 있다. 인공지능 모델을 학습시키는 학습 장치와 학습된 인공지능 모델을 이용하는 장치(200)는 동일할 수도 있고 개별적일 수도 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.

Claims (3)

  1. 장치에 의해 수행되는, 인공지능 모델 및 AR을 활용한 차량 수출 정보 및 차량 상태 모델링 정보 생성 방법에 있어서,
    제1 카메라를 통해 제1 영역에 대한 촬영이 수행되고 있는 경우, 상기 제1 카메라로부터 상기 제1 영역의 촬영으로 생성된 제1 영상 정보를 수신하는 단계;
    상기 제1 영상 정보를 기초로, 상기 제1 영역에 수출하고자 하는 차량이 주차되어 있는지 여부를 분석하는 단계;
    상기 제1 영역에 차량이 주차되어 있는 것으로 분석되면, 상기 제1 영상 정보를 기초로, 상기 제1 영역에 주차되어 있는 차량의 번호판에서 차량번호를 인식하는 단계;
    상기 인식된 차량번호를 기반으로, 상기 제1 영역에 주차되어 있는 차량을 제1 차량으로 식별하는 단계;
    상기 제1 차량의 차종, 연식, 주행거리, 사고이력, 보험이력 및 예상시세를 포함하는 제1 차량 정보를 획득하는 단계;
    상기 제1 차량 정보를 인공지능 모델에 적용하여, 상기 인공지능 모델의 출력을 기초로, 상기 제1 차량의 수출 국가를 선정하는 단계; 및
    상기 제1 차량의 수출 국가가 제1 국가로 선정되면, 상기 제1 차량을 상기 제1 국가로 수출하는 것을 추천하는 상기 제1 차량의 수출 정보를 생성하는 단계를 포함하고,
    상기 제1 카메라를 통해 상기 제1 차량을 다양한 방향에서 촬영한 경우, 상기 제1 카메라로부터 상기 제1 차량을 다양한 방향에서 촬영하여 생성된 복수의 이미지 정보를 수신하는 단계;
    상기 복수의 이미지 정보를 취합하여, 상기 제1 차량의 3D 이미지인 제1 이미지를 생성하는 단계;
    상기 제1 이미지를 기초로, 상기 제1 차량의 상태를 분석하는 단계;
    상기 제1 차량의 상태를 분석한 결과를 기반으로, 상기 제1 차량의 부위 별로 수리가 필요한지 여부를 판단하는 단계;
    상기 제1 차량에서 제1 부위에 대한 수리가 필요한 것으로 판단되면, 상기 제1 이미지에서 상기 제1 부위가 위치한 부분을 제1-1 이미지로 추출하는 단계;
    상기 제1-1 이미지를 기반으로, 상기 제1 부위가 수리된 상태를 나타내는 제2-1 이미지를 생성하는 단계;
    상기 제1 이미지에서 상기 제1 부위가 위치한 부분을 상기 제2-1 이미지로 교체하여 제2 이미지를 생성하는 단계;
    상기 제1 이미지 및 상기 제2 이미지를 포함하는 상기 제1 차량의 상태 모델링 정보를 생성하는 단계;
    상기 제1 이미지 및 상기 제1 차량 정보를 기초로, 상기 제1 부위를 수리하기 전에 예상되는 상기 제1 차량의 수출 가격을 제1 금액으로 산정하는 단계;
    상기 제1 금액을 고려하여 상기 제1 차량의 수출 국가를 제2 국가로 선정하는 단계;
    상기 제1-1 이미지, 상기 제1 금액 및 상기 제2 국가에 대한 정보를 포함하는 상기 제1 부위의 수리 이전 정보를 생성하는 단계;
    상기 제2 이미지 및 상기 제1 차량 정보를 기초로, 상기 제1 부위를 수리한 후에 예상되는 상기 제1 차량의 수출 가격을 제2 금액으로 산정하는 단계;
    상기 제2 금액을 고려하여 상기 제1 차량의 수출 국가를 제3 국가로 선정하는 단계; 및
    상기 제2-1 이미지, 상기 제2 금액 및 상기 제3 국가에 대한 정보를 포함하는 상기 제1 부위의 수리 이후 정보를 생성하는 단계를 더 포함하고,
    제1 사용자가 AR 기기를 착용한 상태로 확인된 경우, 상기 AR 기기를 착용한 상기 제1 사용자의 시선을 추적하는 단계;
    상기 제1 사용자의 시선을 추적한 결과, 상기 제1 사용자의 시선이 상기 제1 차량의 제1 구역을 응시하고 있는 것으로 확인되면, 상기 제1 구역에 대한 실시간 영상이 상기 AR 기기의 화면에 표시되도록 제어하는 단계; 및
    상기 제1 구역에 대한 실시간 영상이 상기 AR 기기의 화면에 표시될 때, 상기 제1 구역에 상기 제1 부위가 포함되어 있는 것으로 확인되면, 상기 제1 부위의 수리 이전 정보 및 상기 제1 부위의 수리 이후 정보가 상기 제1 구역의 영상과 중첩되어, 상기 AR 기기의 화면에 표시되도록 제어하는 단계를 더 포함하는,
    인공지능 모델 및 AR을 활용한 차량 수출 정보 및 차량 상태 모델링 정보 생성 방법.
  2. 삭제
  3. 삭제
KR1020230194181A 2023-12-28 2023-12-28 인공지능 모델 및 ar을 활용한 차량 수출 정보 및 차량 상태 모델링 정보 생성 방법, 장치 및 시스템 KR102649899B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230194181A KR102649899B1 (ko) 2023-12-28 2023-12-28 인공지능 모델 및 ar을 활용한 차량 수출 정보 및 차량 상태 모델링 정보 생성 방법, 장치 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230194181A KR102649899B1 (ko) 2023-12-28 2023-12-28 인공지능 모델 및 ar을 활용한 차량 수출 정보 및 차량 상태 모델링 정보 생성 방법, 장치 및 시스템

Publications (1)

Publication Number Publication Date
KR102649899B1 true KR102649899B1 (ko) 2024-03-21

Family

ID=90472427

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230194181A KR102649899B1 (ko) 2023-12-28 2023-12-28 인공지능 모델 및 ar을 활용한 차량 수출 정보 및 차량 상태 모델링 정보 생성 방법, 장치 및 시스템

Country Status (1)

Country Link
KR (1) KR102649899B1 (ko)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190096866A (ko) 2019-07-31 2019-08-20 엘지전자 주식회사 차량 내부의 모니터링 방법 및 장치, 이를 위한 객체검출모델을 생성하는 3d 모델링부
KR102214039B1 (ko) * 2020-05-15 2021-02-09 (주)서경자동차 Vr 기법을 활용한 중고차 수리 및 판매 서비스를 제공하는 방법 및 시스템
KR102260953B1 (ko) 2020-11-19 2021-06-04 주식회사 수출로 중고차 수출 중개 시스템 및 그 방법
KR102392775B1 (ko) 2021-12-21 2022-05-02 주식회사 월드리싸이클링 폐차 중개 플랫폼 서비스 제공 방법 및 장치
KR102479671B1 (ko) * 2021-11-30 2022-12-21 주식회사 오토피디아 차량 부품 정보를 제공하기 위한 방법
KR102571575B1 (ko) 2022-11-07 2023-08-28 박종환 중고차 수출 플랫폼 서비스 제공 시스템

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190096866A (ko) 2019-07-31 2019-08-20 엘지전자 주식회사 차량 내부의 모니터링 방법 및 장치, 이를 위한 객체검출모델을 생성하는 3d 모델링부
KR102214039B1 (ko) * 2020-05-15 2021-02-09 (주)서경자동차 Vr 기법을 활용한 중고차 수리 및 판매 서비스를 제공하는 방법 및 시스템
KR102260953B1 (ko) 2020-11-19 2021-06-04 주식회사 수출로 중고차 수출 중개 시스템 및 그 방법
KR102479671B1 (ko) * 2021-11-30 2022-12-21 주식회사 오토피디아 차량 부품 정보를 제공하기 위한 방법
KR102392775B1 (ko) 2021-12-21 2022-05-02 주식회사 월드리싸이클링 폐차 중개 플랫폼 서비스 제공 방법 및 장치
KR102571575B1 (ko) 2022-11-07 2023-08-28 박종환 중고차 수출 플랫폼 서비스 제공 시스템

Similar Documents

Publication Publication Date Title
KR102548732B1 (ko) 신경망 학습 방법 및 이를 적용한 장치
Hu et al. Learning a deep cascaded neural network for multiple motion commands prediction in autonomous driving
Pan et al. Driver activity recognition using spatial‐temporal graph convolutional LSTM networks with attention mechanism
Dai et al. Camera view planning based on generative adversarial imitation learning in indoor active exploration
US20230419721A1 (en) Electronic device for improving quality of image and method for improving quality of image by using same
KR102447426B1 (ko) 초개인화를 위한 퍼스널 컬러와 타임라인 기반 행동 데이터를 분석하여 라이프스타일 가이드 정보를 추천하는 방법, 장치 및 시스템
KR102552856B1 (ko) 커머스 연계 콘텐츠 제공 플랫폼 서비스를 위한 키워드 추출 및 콘텐츠 템플릿 생성 자동화 방법, 장치 및 시스템
KR102649899B1 (ko) 인공지능 모델 및 ar을 활용한 차량 수출 정보 및 차량 상태 모델링 정보 생성 방법, 장치 및 시스템
KR102463875B1 (ko) 빅데이터를 활용한 사용자 맞춤 심리 치료 콘텐츠 제공 방법, 장치 및 시스템
Albu Measuring customer behavior with deep convolutional neural networks
KR102426803B1 (ko) 인공지능 기반 제품의 해외 판매 페이지 자동 업로드 방법, 장치 및 시스템
Manjunatha et al. Karnet: Kalman filter augmented recurrent neural network for learning world models in autonomous driving tasks
KR102619389B1 (ko) 별자리 기반 메타버스 추모관 서비스의 인터페이스 제공 방법, 장치 및 시스템
KR102619388B1 (ko) 별자리 기반 메타버스 추모관 서비스 관련 접속에 따른 시각적 효과 구현 인터페이스 제공 방법, 장치 및 시스템
KR102610242B1 (ko) 인공지능 ocr 기반 비정형 손글씨 인식 방법, 장치 및 시스템
KR102621308B1 (ko) 별자리 기반 메타버스 추모관 플랫폼 서비스 제공 방법, 장치 및 시스템
US20230304800A1 (en) Method of augmenting human perception of the surroundings
KR102607063B1 (ko) 인공지능 모델을 활용한 영상 처리 기반 영상 편집자동화 솔루션 제공 방법, 장치 및 시스템
KR102632850B1 (ko) 사진 또는 영상 인증에 기반하여 리워드를 제공하는 전자 장치 및 전자 장치의 동작 방법
KR102596930B1 (ko) 인공지능 모델을 활용한 홈페이지 제작 정보 생성 자동화방법, 장치 및 시스템
Meftah et al. Deep residual network for autonomous vehicles obstacle avoidance
KR102636797B1 (ko) 인공지능 모델을 활용하여 해시태그 기반 노트 주제 및 노트 콘텐츠 분석을 통해 사용자 심리 상태를 분석하고 이에 대한 솔루션 제공 방법, 장치 및 시스템
KR102603914B1 (ko) 이미지 분석 기반 사용자 맞춤형 해부학을 활용한 요가 운동 가이드 및 커리큘럼 제공 방법, 장치 및 시스템
Li et al. Driver fatigue detection and human-machine cooperative decision-making for road scenarios
KR102453919B1 (ko) 인공지능 기반 문화 콘텐츠 관련 가이드 음원의 검증 방법, 장치 및 시스템

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant