KR101935040B1 - 음성안내 기반 대중교통 경로 안내 서비스 제공 방법 및 시스템 - Google Patents

음성안내 기반 대중교통 경로 안내 서비스 제공 방법 및 시스템 Download PDF

Info

Publication number
KR101935040B1
KR101935040B1 KR1020180108639A KR20180108639A KR101935040B1 KR 101935040 B1 KR101935040 B1 KR 101935040B1 KR 1020180108639 A KR1020180108639 A KR 1020180108639A KR 20180108639 A KR20180108639 A KR 20180108639A KR 101935040 B1 KR101935040 B1 KR 101935040B1
Authority
KR
South Korea
Prior art keywords
information
route
terminal
guidance
public transportation
Prior art date
Application number
KR1020180108639A
Other languages
English (en)
Inventor
이현수
Original Assignee
이현수
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이현수 filed Critical 이현수
Priority to KR1020180108639A priority Critical patent/KR101935040B1/ko
Application granted granted Critical
Publication of KR101935040B1 publication Critical patent/KR101935040B1/ko
Priority to US17/274,620 priority patent/US20220049971A1/en
Priority to PCT/KR2019/011768 priority patent/WO2020055128A2/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • G06Q50/265Personal security, identity or safety
    • G06Q50/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3629Guidance using speech or audio output, e.g. text-to-speech
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9537Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/3423Multimodal routing, i.e. combining two or more modes of transportation, where the modes can be any of, e.g. driving, walking, cycling, public transport
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10821Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices
    • G06K7/1095Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices the scanner comprising adaptations for scanning a record carrier that is displayed on a display-screen or the like
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1408Methods for optical code recognition the method being specifically adapted for the type of code
    • G06K7/14172D bar codes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Tourism & Hospitality (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Acoustics & Sound (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Security & Cryptography (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Telephonic Communication Services (AREA)

Abstract

음성안내 기반 대중교통 경로 안내 서비스 제공 방법이 제공되며, 사용자 음성으로 검색된 경로정보 및 경로정보에 대응하는 식별코드를 출력하는 제 1 대중교통 정보 안내 단말을 스캔 또는 리딩하는 단계, 식별코드에 대응하는 데이터를 수집하여 사용자 단말의 실시간 위치를 기반으로 경로 안내를 소리 또는 음성으로 출력하는 단계, 경로 안내에 포함된 경로 중 환승 정보가 존재하는 경우, 환승 정류장에 도달하기 전 환승 정보를 출력하는 단계, 환승 정류장에 위치한 제 2 대중교통 정보 안내 단말을 호출하여 환승 정보를 출력하도록 제어하는 단계, 및 사용자 단말의 실시간 위치를 기반으로 경로 안내를 시작하여 목적지에 도달하는 경우 경로 안내를 종료하는 단계를 포함한다.

Description

음성안내 기반 대중교통 경로 안내 서비스 제공 방법 및 시스템{METHOD AND SYSTEM FOR PROVIDING SPEECH RECOGNITION BASED ROUTE GUIDANCE SERVICE FOR PUBLIC TRANSPORTATION}
본 발명은 음성안내 기반 대중교통 경로 안내 서비스 제공 방법에 관한 것으로, 음성을 기반으로 경로 뿐 아니라 환승 및 목적지의 정류장까지의 전 과정에 대한 안내가 가능한 방법을 제공한다.
최근 수요와 공급지역 간의 공간적 격리가 심화하고 있는 상황에서 주요 서비스 입지 지역과 주거지 간의 공간적 격리를 극복하기 위한 통행을 할 수 있는 능력, 다시 말해 지역 간 이동성은 도시민이 도시에서의 기본적인 일상생활을 영위하게 하는 데 가장 중요한 요소로 자리 잡았고, 사회경제적인 행위를 위한 이동성은 도시민들의 생존을 위한 최소한의 권리로, 우리나라는 대중교통 서비스의 공급을 통해 어느 정도 보장해왔다고 볼 수 있다. 실제로, 서울시 도시민들의 통근통행 시 대중교통 의존도는 48.7%로 높은 비중을 차지할 뿐만 아니라, 다른 국가의 도시에 비하여 서울시의 대중교통 경쟁력이 높은 것으로 보고하고 있다.
이때, 대중교통을 효율적으로 이용하도록 하기 위하여 대중교통 이용경로상에서 서비스를 안내하는 방법이 개발 및 공개되었는데, 이와 관련하여 선행기술인 한국공개특허 제2013-0115434호(2013년10월22일 공개)에는 대중교통 이용경로에서 추출한 환승지점에서 이용가능한 서비스를 추출하여 안내하고, 사용자 이동 경로 상의 주요 길목에서 사용자에게 유용한 정보를 제공할 수 있음은 물론, 이를 통한 마케팅을 보다 효과적으로 수행할 수 있도록 광고 정보를 제공하는 구성이 개시된다.
다만, 최근에 몇몇 연구는 그동안 정부에서 실시한 대중교통 인프라 공급정책이 효율성이라는 가치에 비중을 두고 진행되었다는 점을 지적하며, 대중교통 서비스 공급 시 형평성에 대한 개념이 고려되어야 함을 언급하고 있지만, 기존에 이루어진 대중교통 서비스 형평성 관련 연구가 지역 내 대중교통 서비스 시설로의 접근성(accessibility)만을 주로 다루고 있고, 지역 간 이동성(mobility)을 다루는 연구가 부족하다. 이는 도시민들이 정상적인 생활을 하기 위한 중요한 요소인 이동성 측면에서의 형평성을 심도 있게 고려하지 못한 것을 의미한다.
본 발명의 일 실시예는, 스마트 단말의 조작을 어려워하는 유아나 노인일지라도 음성지원을 이용함으로써 경로 안내를 할 수 있도록 함으로써 대중교통 소외계층의 지역 간 이동성을 높일 수 있도록 하고, 단순히 경로만 안내하는 것이 아니라 실시간 위치정보를 기준으로 환승지점 및 목적지점을 알려주고 환승하는 경로까지 안내함으로써 환승 경로나 목적지를 몰라서 대중교통을 이용하지 못하는 경우를 제거할 수 있는, 음성안내 기반 대중교통 경로 안내 서비스 제공 방법을 제공할 수 있다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예는, 사용자 음성으로 검색된 경로정보 및 경로정보에 대응하는 식별코드를 출력하는 제 1 대중교통 정보 안내 단말을 스캔 또는 리딩하는 단계, 식별코드에 대응하는 데이터를 수집하여 사용자 단말의 실시간 위치를 기반으로 경로 안내를 소리 또는 음성으로 출력하는 단계, 경로 안내에 포함된 경로 중 환승 정보가 존재하는 경우, 환승 정류장에 도달하기 전 환승 정보를 출력하는 단계, 환승 정류장에 위치한 제 2 대중교통 정보 안내 단말을 호출하여 환승 정보를 출력하도록 제어하는 단계, 및 사용자 단말의 실시간 위치를 기반으로 경로 안내를 시작하여 목적지에 도달하는 경우 경로 안내를 종료하는 단계를 포함한다.
본 발명의 다른 실시예는, 사용자의 음성을 인식하여 자연어 처리하고, 챗봇 에이전트를 이용하여 기계어로 변환한 후 이에 대응하는 결과를 검색하여 화면 또는 스피커로 출력하며, 호출 신호가 수신된 경우 RGB 램프를 점등 또는 점멸시키고, 카메라를 통하여 전방을 실시간 촬영 및 모니터링하며, 경로 안내 정보를 전송하기 위한 식별코드를 화면에 출력하여 화면이 스캔된 경우 스캔 주체로 경로 데이터를 전송하는 대중교통 정보 안내 단말, 및 대중교통 정보 안내 단말의 화면에 출력된 식별코드를 리딩 또는 스캔하여 경로 정보를 수신하고, 현재 위치를 실시간으로 갱신하여 경로 정보 내의 현재 위치를 표시하고, 경로 내에 포함된 목적지에 도달하기 전 기 설정된 개수의 정류장 전에 하차 예정 정보를 출력하는 사용자 단말을 포함한다.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 스마트 단말의 조작을 어려워하는 유아나 노인일지라도 음성지원을 이용함으로써 경로 안내를 할 수 있도록 함으로써 대중교통 소외계층의 지역 간 이동성을 높일 수 있도록 하고, 단순히 경로만 안내하는 것이 아니라 실시간 위치정보를 기준으로 환승지점 및 목적지점을 알려주고 환승하는 경로까지 안내함으로써 환승 경로나 목적지를 몰라서 대중교통을 이용하지 못하는 경우를 제거할 수 있다.
도 1은 본 발명의 일 실시예에 따른 음성안내 기반 대중교통 경로 안내 서비스 제공 시스템을 설명하기 위한 도면이다.
도 2는 도 1의 시스템에 포함된 사용자 단말을 설명하기 위한 블록 구성도이다.
도 3은 본 발명의 일 실시예에 따른 음성안내 기반 대중교통 경로 안내 서비스가 구현된 일 실시예를 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 음성안내 기반 대중교통 경로 안내 서비스가 구현된 다른 실시예를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 음성안내 기반 대중교통 경로 안내 서비스 제공 방법을 설명하기 위한 동작 흐름도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
명세서 전체에서 사용되는 정도의 용어 "약", "실질적으로" 등은 언급된 의미에 고유한 제조 및 물질 허용오차가 제시될 때 그 수치에서 또는 그 수치에 근접한 의미로 사용되고, 본 발명의 이해를 돕기 위해 정확하거나 절대적인 수치가 언급된 개시 내용을 비양심적인 침해자가 부당하게 이용하는 것을 방지하기 위해 사용된다. 본 발명의 명세서 전체에서 사용되는 정도의 용어 "~(하는) 단계" 또는 "~의 단계"는 "~ 를 위한 단계"를 의미하지 않는다.
본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1개의 유닛이 2개 이상의 하드웨어를 이용하여 실현되어도 되고, 2개 이상의 유닛이 1개의 하드웨어에 의해 실현되어도 된다.
본 명세서에 있어서 단말, 장치 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말, 장치 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말, 장치 또는 디바이스에서 수행될 수도 있다.
본 명세서에서 있어서, 단말과 매핑(Mapping) 또는 매칭(Matching)으로 기술된 동작이나 기능 중 일부는, 단말의 식별 정보(Identifying Data)인 단말기의 고유번호나 개인의 식별정보를 매핑 또는 매칭한다는 의미로 해석될 수 있다.
이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 음성안내 기반 대중교통 경로 안내 서비스 제공 시스템을 설명하기 위한 도면이다. 도 1을 참조하면, 음성안내 기반 대중교통 경로 안내 서비스 제공 시스템(1)은, 적어도 하나의 사용자 단말(100), 경로 안내 서비스 제공 서버(300), 적어도 하나의 대중교통 정보 안내 단말(400)을 포함할 수 있다. 다만, 이러한 도 1의 음성안내 기반 대중교통 경로 안내 서비스 제공 시스템(1)은, 본 발명의 일 실시예에 불과하므로, 도 1을 통하여 본 발명이 한정 해석되는 것은 아니다.
이때, 도 1의 각 구성요소들은 일반적으로 네트워크(network, 200)를 통해 연결된다. 예를 들어, 도 1에 도시된 바와 같이, 적어도 하나의 사용자 단말(100)은 네트워크(200)를 통하여 경로 안내 서비스 제공 서버(300) 및 대중교통 정보 안내 단말(400)과 연결될 수 있다. 그리고, 경로 안내 서비스 제공 서버(300)는, 네트워크(200)를 통하여 적어도 하나의 사용자 단말(100), 적어도 하나의 대중교통 정보 안내 단말(400)와 연결될 수 있다. 또한, 적어도 하나의 대중교통 정보 안내 단말(400)은, 네트워크(200)를 통하여 경로 안내 서비스 제공 서버(300) 및 사용자 단말(100)과 연결될 수 있다.
여기서, 네트워크는, 복수의 단말 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크의 일 예에는 RF, 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, 5GPP(5rd Generation Partnership Project) 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, NFC 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.
하기에서, 적어도 하나의 라는 용어는 단수 및 복수를 포함하는 용어로 정의되고, 적어도 하나의 라는 용어가 존재하지 않더라도 각 구성요소가 단수 또는 복수로 존재할 수 있고, 단수 또는 복수를 의미할 수 있음은 자명하다 할 것이다. 또한, 각 구성요소가 단수 또는 복수로 구비되는 것은, 실시예에 따라 변경가능하다 할 것이다.
적어도 하나의 사용자 단말(100)은, 음성안내 기반 대중교통 경로 안내 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 대중교통 경로 안내를 출력하는 단말일 수 있다. 이때, 적어도 하나의 사용자 단말(100)은, 대중교통 경로 뿐만 아니라 실내 또는 실외의 어떠한 경로라도 안내를 위한 데이터를 출력하는 단말일 수 있다. 그리고, 적어도 하나의 사용자 단말(100)은, 대중교통 정보 안내 단말(400)으로 호출 신호를 송신하여 환승정보를 수신하는 단말일 수 있고, 대중교통 정보 안내 단말(400)에서 수동 또는 자동으로 리딩한 경로 데이터를 입력받아 경로 안내 정보를 출력하는 단말일 수 있다. 또한, 적어도 하나의 사용자 단말(100)은 현재 위치와 환승지 또는 목적지를 비교하고, 현재 위치가 환승지 또는 목적지에 도달하는 경우 이를 알람으로 출력하는 단말일 수 있다. 그리고, 적어도 하나의 사용자 단말(100)은, 환승지에 도착한 후 환승할 대중교통이나 경로에 대한 정보를 환승지에 위치한 대중교통 정보 안내 단말(400)로부터 수신하여 출력하는 단말일 수 있다. 또한, 적어도 하나의 사용자 단말(100)은, 음성 기반 또는 챗봇 기반으로 자연어를 처리하여 그 결과를 자연어로 출력하는 단말일 수 있다.
여기서, 적어도 하나의 사용자 단말(100)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 사용자 단말(100)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 사용자 단말(100)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(smartphone), 스마트 패드(smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.
경로 안내 서비스 제공 서버(300)는, 음성안내 기반 대중교통 경로 안내 서비스 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 제공하는 서버일 수 있다. 그리고, 경로 안내 서비스 제공 서버(300)는, 사용자 단말(100)과 대중교통 정보 안내 단말(400)에서 컴퓨팅 자원 또는 네트워킹 자원의 부족으로 수행하지 못하는 프로세스가 존재하는 경우에만 구성될 수도 있으므로 필수적으로 요구되는 것은 아니지만, 해당 서버의 구성을 배제하는 것은 아니다. 또한, 경로 안내 서비스 제공 서버(300)는 빅데이터에 기반하여 질의와 답변을 학습시키고 이를 기반으로 복수의 대중교통 정보 안내 단말(400)을 업데이트하는 서버일 수 있다. 그리고, 경로 안내 서비스 제공 서버(300)는, 대중교통 정보 안내 단말(400)에서 촬영한 영상이 수집되는 경우, 이를 각 위치식별부호에 매핑되도록 저장하고, 이후 사용자 단말(100)에서 검색 요청이 존재하면 촬영된 피사체와 검색요청이 된 객체를 비교함으로써 객체를 추적하고 그 결과를 사용자 단말(100)로 전송하는 서버일 수 있다. 또한, 경로 안내 서비스 제공 서버(300)는, 사용자 단말(100)에서 증강현실을 이용하여 경로 안내를 받을 때, 사용자 단말(100)의 위치를 기반으로 카메라 화면에 오버레이되어야 하는 이미지나 아이콘 등을 출력하도록 하는 서버일 수 있다. 이를 위하여, 경로 안내 서비스 제공 서버(300)는, 빅데이터를 적어도 하나의 정보제공 서버(500) 및 기 저장된 히스토리 로그 데이터를 이용하여 구축하고, 수집, 전처리, 분석 등을 통하여 빅데이터를 분류 및 클러스터링한 후 학습시키는 서버일 수 있다. 또한, 경로 안내 서비스 제공 서버(300)는, 비정형 데이터인 영상 데이터나 이미지 데이터로부터 식별자를 추출하기 위하여, 영상 데이터 및 이미지 데이터로부터 식별자를 태깅하기 위한 딥러닝 인공신경망 알고리즘을 이용하여 데이터 학습을 진행하는 서버일 수 있다. 그리고, 경로 안내 서비스 제공 서버(300)는, 학습 결과에 따라 이후 입력되는 영상, 이미지 등으로부터 식별자를 태깅하거나 추출하는 서버일 수 있다.
여기서, 경로 안내 서비스 제공 서버(300)는, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다.
적어도 하나의 대중교통 정보 안내 단말(400)은, 음성안내 기반 대중교통 경로 안내 서비스 관련 웹 페이지, 앱 페이지, 프로그램 또는 애플리케이션을 이용하여 경로 정보를 출력하는 대중교통 정류장에 위치한 단말일 수 있다. 다만, 목적이나 용도에 따라 그 위치가 변경될 수 있음은 상술한 바와 같다. 그리고, 적어도 하나의 대중교통 정보 안내 단말(400)은, 사용자가 음성으로 질의를 하는 경우 음성인식 프로세스를 거쳐 그 결과를 음성 또는 화면으로 출력하는 단말일 수 있고, 해당 정보를 사용자 단말(100)에서 자동 또는 수동인식할 수 있도록 데이터를 사용자 단말(100)로 송신하는 단말일 수 있다. 그리고, 적어도 하나의 대중교통 정보 안내 단말(400)은, 현 위치에서 환승정보를 포함하는 사용자 단말(100)의 호출이 발생하는 경우, 호출 신호를 수신하여 LED, LCD, 램프 등의 점멸이나 색상을 제어하는 단말일 수 있다. 또한, 적어도 하나의 대중교통 정보 안내 단말(400)은, 카메라로 촬영한 영상을 경로 안내 서비스 제공 서버(300)로 위치태그를 삽입하여 전송하는 단말일 수 있다. 그 외의 기능과 구성은 본 출원인의 등록특허 제10-1768210호(2017년08월16일 공고)에 기재되어 있으므로 상세한 설명은 생략하기로 한다.
여기서, 적어도 하나의 대중교통 정보 안내 단말(400)은, 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 네비게이션, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 이때, 적어도 하나의 대중교통 정보 안내 단말(400)은, 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 적어도 하나의 대중교통 정보 안내 단말(400)은, 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, 네비게이션, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(smartphone), 스마트 패드(smartpad), 타블렛 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.
도 2는 도 1의 시스템에 포함된 사용자 단말을 설명하기 위한 블록 구성도이고, 도 3은 본 발명의 일 실시예에 따른 음성안내 기반 대중교통 경로 안내 서비스가 구현된 일 실시예를 설명하기 위한 도면이고, 도 4는 본 발명의 일 실시예에 따른 음성안내 기반 대중교통 경로 안내 서비스가 구현된 다른 실시예를 설명하기 위한 도면이다.
도 2를 참조하면, 사용자 단말(100)은 리딩부(110), 출력부(120), 환승부(130), 제어부(140), 종료부(150), 표시부(160)를 포함할 수 있다.
본 발명의 일 실시예에 따른 경로 안내 서비스 제공 서버(300)나 연동되어 동작하는 다른 서버(미도시)가 적어도 하나의 사용자 단말(100), 적어도 하나의 대중교통 정보 안내 단말(400)로 음성안내 기반 대중교통 경로 안내 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 전송하는 경우, 적어도 하나의 사용자 단말(100), 적어도 하나의 대중교통 정보 안내 단말(400)은, 음성안내 기반 대중교통 경로 안내 서비스 애플리케이션, 프로그램, 앱 페이지, 웹 페이지 등을 설치하거나 열 수 있다. 또한, 웹 브라우저에서 실행되는 스크립트를 이용하여 서비스 프로그램이 적어도 하나의 사용자 단말(100), 적어도 하나의 대중교통 정보 안내 단말(400)에서 구동될 수도 있다. 여기서, 웹 브라우저는 웹(WWW: world wide web) 서비스를 이용할 수 있게 하는 프로그램으로 HTML(hyper text mark-up language)로 서술된 하이퍼 텍스트를 받아서 보여주는 프로그램을 의미하며, 예를 들어 넷스케이프(Netscape), 익스플로러(Explorer), 크롬(chrome) 등을 포함한다. 또한, 애플리케이션은 단말 상의 응용 프로그램(application)을 의미하며, 예를 들어, 모바일 단말(스마트폰)에서 실행되는 앱(app)을 포함한다.
도 2를 참조하면, 리딩부(110)는 사용자 음성으로 검색된 경로정보 및 경로정보에 대응하는 식별코드를 출력하는 제 1 대중교통 정보 안내 단말(400)을 스캔 또는 리딩할 수 있다. 이때, 리딩부(110)에서는 제 1 대중교통 정보 안내 단말(400)로부터 수동 또는 자동으로 입력되는 데이터를 입력받을 수 있는데, 수동인 경우 예를 들어 사용자 단말(100)의 QR 코드 스캔에 의해서, 자동인 경우 위치기반 전환점 NODE DATA 자동인식에 의해서 입력받을 수 있다.
출력부(120)는, 식별코드에 대응하는 데이터를 수집하여 사용자 단말(100)의 실시간 위치를 기반으로 경로 안내를 소리 또는 음성으로 출력할 수 있다. 이때, 출력되는 방식은 지도의 경로 상 또는 경로 노드 상에서 현재 사용자 단말(100)의 위치를 실시간으로 업데이트하여 표시하는 방식일 수 있으나 이에 한정되지는 않는다. 물론, 소리나 음성과 같은 스피커를 통한 출력 이외에도 화면을 통한 출력도 포함하는 것은 자명하다 할 것이다.
환승부(130)는, 경로 안내에 포함된 경로 중 환승 정보가 존재하는 경우, 환승 정류장에 도달하기 전 환승 정보를 출력할 수 있다. 이때, 환승 정류장에 도달하기 전이란, 기 설정된 몇 정거장 전일 수도 있고, 기 설정된 몇 미터 전일 수도 있으나 이는 실시예에 따라 달라질 수 있으므로 상술한 것에 한정되지는 않는다.
제어부(130)는, 환승 정류장에 위치한 제 2 대중교통 정보 안내 단말(400)을 호출하여 환승 정보를 출력하도록 제어할 수 있다. 이때, 호출을 받은 제 2 대중교통 정보 안내 단말(400)은 사용자의 눈에 띄기 위하여 RGB 램프를 색상을 달리하여 또는 점멸을 제어할 수 있고, 이를 통하여 사용자는 제 2 대중교통 정보 안내 단말(400)을 인지할 수 있다. 그리고, 제 2 대중교통 정보 안내 단말(400)에서 환승해야 할 버스나 지하철의 번호나 노선은 무엇인지, 몇 분 후에 도착하는지, 무슨 색상의 어떠한 디자인의 버스인지 등도 알려줄 수 있다. 만약 환승 장소가 환승 정류장과 동일하지 않을 경우에는 사용자 단말(100)로 증강현실, 가상현실 또는 지도 상에서 경로를 알려줄 수 있고, 도보 속도를 고려하여 경로 안내를 할 수 있다.
종료부(150)는, 사용자 단말(100)의 실시간 위치를 기반으로 경로 안내를 시작하여 목적지에 도달하는 경우 경로 안내를 종료할 수 있다. 만약, 환승 정보가 복수로 존재하는 경우, 환승부(130)의 복수의 환승 정보의 개수만큼 환승 정보를 출력하는 단계와, 제어부(140)의 환승 정보를 출력하도록 제어하는 단계를 반복할 수 있다. 이는 목적지에 도달할 때까지 반복할 수 있다.
표시부(160)는, 출력부(120)에서 식별코드에 대응하는 데이터를 수집하여 사용자 단말(100)의 실시간 위치를 기반으로 경로 안내를 소리 또는 음성으로 출력하는 단계 이후에, 경로 안내에 포함된 경로 중 환승 정보가 존재하지 않는 경우, 목적지에 대응하는 정류장의 위치와, 현재 사용자 단말(100)의 실시간 위치에 대응하는 정류장의 위치를 표시할 수 있다. 그리고, 표시부(160)는, 목적지에 대응하는 정류장에 도달하기 전 기 설정된 개수의 정류장 전에 하차 예정 정보를 출력할 수 있고, 목적지에 대응하는 정류장에 도달하는 경우 하차 정보를 출력할 수 있다. 이때, 하차 예정 정보는 몇 정거장 또는 몇 미터가 남았다는 정보를 포함할 수 있고, 하차 정보는 환승지 또는 목적지에 도달했으니 지금 하차를 해야 한다는 정보를 포함할 수 있다.
정리하면, 사용자 단말(100)은, 대중교통 정보 안내 단말(400)의 화면에 출력된 식별코드를 리딩 또는 스캔하여 경로 정보를 수신하고, 현재 위치를 실시간으로 갱신하여 경로 정보 내의 현재 위치를 표시하고, 경로 내에 포함된 목적지에 도달하기 전 기 설정된 개수의 정류장 전에 하차 예정 정보를 출력할 수 있고, 대중교통 정보 안내 단말(400)은, 사용자의 음성을 인식하여 자연어 처리하고, 챗봇 에이전트를 이용하여 기계어로 변환한 후 이에 대응하는 결과를 검색하여 화면 또는 스피커로 출력하며, 호출 신호가 수신된 경우 RGB 램프를 점등 또는 점멸시키고, 카메라를 통하여 전방을 실시간 촬영 및 모니터링하며, 경로 안내 정보를 전송하기 위한 식별코드를 화면에 출력하여 화면이 스캔된 경우 스캔 주체로 경로 데이터를 전송할 수 있다. 이때, 사용자 단말(100)은 경로 정보를 카메라를 턴 온시킨 후 AR 화면 내에 오버레이하여 출력할 수 있다.
경로 안내 서비스 제공 서버(300)는, 대중교통 정보 안내 단말(400)과 연동될 수 있고, 경로 안내 서비스 제공 서버(300)는, 대중교통 정보 안내 단말(400)로부터 입력된 질의 데이터를 빅데이터로 구축하며, 대중교통 정보 안내 단말(400)로부터 촬영된 영상을 위치 기반으로 수집하고, 사용자 단말(100)로부터 촬영객체를 검색하는 요청이 수신된 경우 수집된 영상 내에 포함된 피사체를 안면인식으로 비교하여 그 결과를 전송할 수 있다.
빅데이터를 구축하기 위하여, 경로 안내 서비스 제공 서버(300)는 저장된 로우 데이터 내에 포함된 비정형(Unstructed) 데이터, 정형(Structured) 데이터 및 반정형 데이터(Semi-structured)를 정제하고, 메타 데이터로 분류를 포함한 전처리를 실시할 수 있고, 전처리된 데이터를 데이터 마이닝(Data Mining)을 포함하는 분석을 실시할 수 있다. 그리고, 경로 안내 서비스 제공 서버(300)는, 분석된 데이터를 시각화하여 출력할 수 있다. 이때, 데이터 마이닝은, 전처리된 데이터 간의 내재된 관계를 탐색하여 클래스가 알려진 훈련 데이터 셋을 학습시켜 새로운 데이터의 클래스를 예측하는 분류(Classification) 또는 클래스 정보 없이 유사성을 기준으로 데이터를 그룹짓는 군집화(Clustering)를 수행할 수 있다. 물론, 이외에도 다양한 마이닝 방법이 존재할 수 있으며, 수집 및 저장되는 빅데이터의 종류나 이후에 요청될 질의(Query)의 종류에 따라 다르게 마이닝될 수도 있다. 이렇게 구축된 빅데이터는, 인공신경망 딥러닝이나 기계학습 등으로 검증과정을 거칠 수도 있다. 여기서, 인공신경망 딥러닝은, 영상 자료를 분석할 때 유용할 수 있다.
이때, 인공 신경망은 CNN(Convolutional neural network) 구조가 이용될 수 있는데, CNN은 컨볼루션 층을 이용한 네트워크 구조로 이미지 처리에 적합하며, 이미지 데이터를 입력으로 하여 이미지 내의 특징을 기반으로 이미지를 분류할 수 있기 때문이다. 또한, 텍스트 마이닝(Text Mining)은 비/반정형 텍스트 데이터에서 자연어처리 기술에 기반하여 유용한 정보를 추출, 가공하는 것을 목적으로 하는 기술이다. 텍스트 마이닝 기술을 통해 방대한 텍스트 뭉치에서 의미 있는 정보를 추출해 내고, 다른 정보와의 연계성을 파악하며, 텍스트가 가진 카테고리를 찾아내거나 단순한 정보 검색 그 이상의 결과를 얻어낼 수 있다. 이를 이용하여, 본 발명의 일 실시예에 따른 경로 안내 서비스에서는, 질의로 입력되는 식별자나 자연어를 분석하고, 그 안에 숨겨진 정보를 발굴해 내기 위해 대용량 언어자원과 통계적, 규칙적 알고리즘이 사용될 수 있다. 또한, 클러스터 분석(Cluster Analysis)은, 비슷한 특성을 가진 체를 합쳐가면서 최종적으로 유사 특성의 그룹을 발굴하는데 사용될 수 있다.
이하, 상술한 도 2의 경로 안내 서비스 제공 서버의 구성에 따른 동작 과정을 도 3 및 도 4를 예로 들어 상세히 설명하기로 한다. 다만, 실시예는 본 발명의 다양한 실시예 중 어느 하나일 뿐, 이에 한정되지 않음은 자명하다 할 것이다.
도 3을 참조하면, (a) 사용자가 시작지인 안양시청에서 목적지인 서울역까지 버스를 통해 가고자 하는 상황을 가정한다. 우선, 사용자가 대중교통 정보 안내 단말(400), 예를 들어 키오스크로 가서 서울역까지 어떻게 가는지에 대한 자연어를 발화하면 대중교통 정보 안내 단말(400)은, 자신의 위치는 고정되어 저장하고 있으므로 현재 위치에서 서울역까지의 버스 노선을 검색하고 그 결과를 출력하게 된다. 그리고 나서, 사용자는 사용자 단말(100)을 이용하여 대중교통 정보 안내 단말(400)의 결과 화면에 출력된 QR 코드를 스캔하거나 위치기반 전환점 NODE DATA 자동인식에 의해 경로 정보를 수신하게 된다. 그 뒤에, 사용자는 자신이 타야할 버스가 몇 분 후에 오는지를 사용자 단말(100) 또는 대중교통 정보 안내 단말(400)로부터 확인하고 해당 버스에 탑승한다.
사용자가 버스에 탑승한 후 버스의 평균 속도로 움직이게 되면 사용자 단말(100)은 이를 감지하여 경로 상에서 사용자가 현재 어디에 위치하고 있는지를 트래킹하여 표시할 수 있다. 이때, 환승이 1 회 있었다고 가정하면, 사용자 단말(100)은, 환승지에서 알람을 울려주게 되는데, 사용자가 깜박 잠에 들었거나 지리를 몰라 헤메는 경우일지라도 언제 어디에서 내려야 하는지를 정확히 인지시킬 수 있다. 이에 따라, 사용자가 환승지에 도착하여 환승을 하는 경우, 사용자 단말(100)은, 환승지에 위치한 대중교통 정보 안내 단말(400)을 호출하게 된다. 이때, 호출을 받은 대중교통 정보 안내 단말(400)은 사용자가 환승해야 할 버스의 정보, 예를 들어, 몇 번인지, 몇 분 후에 도착하는지의 정보를 출력해서 사용자가 해당 버스로 안전하고 정확하게 환승할 수 있도록 돕는다.
사용자가 환승해야 할 버스가 도착하고 사용자가 해당 버스 내에 탑승한 경우, 사용자 단말(100)은 다시 속도를 감지하여 사용자가 버스에 탑승하고 있다고 판단되면 경로 안내를 재시작하게 된다. 마찬가지로 사용자 단말(100)은 자신의 GPS 신호 등을 실시간으로 업데이트하여 경로 상에서 자신의 위치를 출력하는 것은 물론, 목적지는 몇 정거장이 남았고, 언제 내려야하는지에 대한 정보를 출력할 수 있다. 이때, 사용자 단말(100)은, 대중교통만을 안내하는 것에서 그치는 것이 아니라 더 나아가 임의의 빌딩까지 가야한다고 가정하면, 버스에서 내린 이후 일지라도 계속하여 도보 속도에 맞춘 네비게이션 기능을 수행하게 된다. 여기서 증강현실로 사용자가 길을 더 잘 찾도록 할 수 있음은 상술한 바와 같다.
(b)는 대중교통 정보 안내 단말(400)의 화면 구성의 일 실시예를 도시할 수 있다. 대중교통 정보 안내 단말(400)은 출발지에서 목적지까지 각종 대중교통의 종류에 따른 경로를 안내할 수 있다. 이는 도 4를 참조로 하여 상세히 설명한다.
도 4의 (a)는 경로를 출력하고 이를 음성으로 안내를 하고, 질의에 대한 안내도 음성으로 지원하는 대중교통 정보 안내 단말(400)을 도시한다. 이때, 질의는 예를 들어, 강남역, 강남역 가기, 강남역 버스로 가기, 강남역 어떻게 가지, 강남역 가는 방법을 알려주세요, 강남역 가고 싶어요, 강남역 가려면 어떻게 하나요, 어떻게 강남역 가나요, 강남역 가는 방법을 알고 싶어요, 강남역 대중 교통으로 가기, 강남역까지 대중교통으로 가는 방법을 알려주세요, 강남역 가는데 버스타는 방법을 알려주세요, 강남역 가는데 지하철 타는 방법을 알려주세요, 강남역 가는데 전철타는 방법을 알려주세요, 강남역 가려면 몇 호선을 타야하나요 등일 수 있는데 이는 질의를 빅데이화한 결과에 따라 추가될 수 있으므로 상술한 질의에 한정되지 않음은 자명하다 할 것이다.
이에 따라 대중교통 정보 안내 단말(400)은 음성으로 답변을 알려주게 되고(물론 화면도 포함), 음성으로 질의가 다시 온 경우에는 이에 대한 답변도 제공하게 된다. 이때, 음성인식은 우선 전처리 및 특징 추출을 실행하게 된다. 즉, 음성신호에는 언어적 의미 뿐만 아니라 잡음, 잔향, 개별화자의 특징 등 다양한 정보가 포함되어 있고, 이러한 음성신호에서 언어적 의미만 추출하기 위한 방법으로, 다양한 전처리 기술들이 이용되고 있다. 예를 들면 음성의 방향추정 (direction of arrival estimation) 기술, 빔포밍(beamforming) 등을 이용한 음성강화(speech enhancement) 기술, 여러 음성 분리(blind source separation, BSS) 기술 등이 전처리 과정에서 이용되고 있다.
음성인식을 위해서는 전처리를 거친 음성 신호로부터 음향 특징벡터의 시퀀스를 추출해야 한다. 일반적으로 음성 신호를 10 ms 마다 25 ms 구간으로 STFT (short-time Fourier transform)를 수행한 뒤, 인각의 청각 모델을 모방한 mel-scale filterbank를 통해서 각 대역의 에너지들을 얻는다. 이 에너지의 log 값에 DCT(discrete cosine transform)을 수행하여, 최종적으로 MFCCs(mel frequency cepstral coefficients)를 얻는다. MFCCs 로 이루어진 특징벡터는 주로 13차의 기본 계수와 그 계수들의 1차 미분, 2차 미분 값을 추가하여 얻은 39차의 특정벡터를 일반적으로 사용할 수 있다. 다른 음성특징으로는 perceptual linear predictive(PLP) 분석을 통한 특징과 linear predictive cepstral coefficients(LPC) 특징 등이 존재한다. 학습을 통한 특징 추출 방법도 이용될 수 있는데, 특징 공간에서의 변별학습(discriminative training)인 fMPE(feature-space minimum phone error)와 신경망 (neural network, NN)을 이용한 특징추출 방법 등이 있다. 특징벡터의 후처리 방법으로는 화자기반 cepstral mean and variance normalization(CMVN)과 문장 단위 CMS(cepstral mean substraction)가 있다. 또한 추출한 특징벡터들에 대하여, PCA(principal component analysis)나 LDA(linear discriminant analysis)를 수행하여 잡음에 강인한 특징을 추출하기도 한다.
음향모델 중 은닉마르코프모델(이하, HMM)은 음성, 이미지, 비디오, 음악, 금융 데이터와 같은 시간적 또는 공간적 계열 데이터를 표현하는데 자주 사용되는 모델이다. 이는, 3개의 은닉상태로 이루어지며 각 은닉상태는 오른쪽으로의 전이와 자기 자신으로의 전이만 허락된다. 각 은닉상태에서 관측벡터가 발생하는데, 일반적으로 정규혼합모델(Gaussian mixture model, GMM)을 사용하여 관측벡터를 표현한다. 음향모델의 학습에서 음성인식을 위한 음향모델인 HMM의 파라미터들은 학습데이터로부터 추정되어야 한다. HMM의 파라미터 추정을 위한 기본적인 방법으로는 학습데이터에 대한 최대우도추정(maximum likelihood estimation)이 있다. 하지만 학습데이터에는 HMM-GMM의 우도함수에 포함되어 있는 몇 가지의 정보가 결여되어 있기 때문에, 이 문제를 해결하기 위하여 주로 EM 알고리즘을 사용한다. EM알고리즘은 E-step과 M-step을 번갈아 가면서 수행하는 알고리즘으로서, E-step에서는 모르는 변수에 대한 사후확률을 추정하여 목적함수의 기대치를 정의하고 M-step에서는 목적함수의 기대치를 최대화하는 파라미터를 추정하는 과정으로 구성된다. EM알고리즘은 극대점을 찾는 알고리즘으로 구한 값이 최대점이 아닐 수 있기 때문에 적절한 초기값 설정도 중요한 이슈중 하나다.
지금까지 음성신호로부터 특징을 추출하고 음향모델을 학습했으면, 이제 학습된 음향모델이 주어지고, 미지의 음성신호가 들어왔을 때, 이를 인식하는 알고리즘에 대해서 알아본다. 관측된 신호 X가 주어졌을 때, HMM을 사용하여 인식을 하기 위해서는, 각 HMM의 은닉상태 계열을 추정하고, 우도를 계산해야 한다. 이를 위해서 일반적으로 Viterbi 알고리즘이 사용된다. 우선 t번째 관측신호의 i번째 상태에 대한 Viterbi score를 다음과 같이 정의한다. 이 스코어의 의미는 모든 j에 대해서 t-1번째 관측신호의 j번째 상태에 대한 Viterbi score와 s_i에서 s_j로 전의하는 확률을 곱한 것 중 최대값에 i번째 상태에서 t번째 관측신호가 발생할 확률을 곱한 값이다. 이 Viterbi score 모든 상태에 대해서 t=1부터 순차적으로 계산한 뒤, t=T에서 Viterbi score가 최대가 되는 상태를 찾고, 그 상태에 다다르게 된 과거의 상태를 역으로 찾아가면 관측신호에 대한 HMM의 은닉상태계열과 그의 우도를 계산할 수 있다. 모든 HMM에 대해서 동일한 작업을 수행한 뒤 우도가 최대가 되는 HMM를 찾으면 관측신호에 대한 인식결과를 얻을 수 있다.
나아가, 음성인식 심화 기술이 더 이용될 수 있는데, 첫 번째는. 변별 학습 (discriminative learning)이다. 기계학습에 있어서 변별학습이란 서로 다른 모델간의 거리를 최대화 하는 기법을 일컫는다. 앞서 살펴본 최대우도추정은 자기 자신의 데이터를 충실히 생성하기 위한 모델을 학습하기 위한 기법인 반면, 변별학습은 자기와 다른 모델간의 거리를 최대화 하는, 즉 식별성능에 대한 최적성을 보장하는기법이다. 일반적으로 음성인식 시스템에 있어서 변별 학습(discriminative learning)이 최대우도추정보다 좋은 인식성능을 보인다. 결국 음성인식에 있어서 변별 학습이란, 단어 오인식률(word error rate, WER)을 최소화하도록 음향모델을 학습하는 것이다. 하지만 직접적으로 WER을 최소화 하도록 음향모델을 학습하는 것은 어렵기 때문에, WER를 근사화한 식별에러율(classification error rate, MCE)를 최소화하도록 학습한다. MCE 추정은 Bayes’decision rule에서 나온 방법으로 최대우도추정보다 좋은 성능을 가질 수 있다.
그 외에도, Semi-Markov model(SMM)을 이용할 수 있는데, Semi-Markov model(SMM)은 세그먼트 기반의 마르코프 구조를 사용하여 입력으로 들어오는 순차 발화 데이터의 음소분할(만약 마르코프 모델에서 노드에 해당하는 기본 유닛이 음소라고 할 경우)과 라벨예측을 동시에 수행하는 모델로서, 음소 세그먼트 내에서의 모든 관측치들 사이의 통계적 상관성을 고려한다. 또한 HMM은 음소길이를 정확히 모델링하지못하는데, SMM에서는 음소길이를 직접적으로 모델링할 수 있다. SMM의 추론 문제, 즉 입력 음성 신호가 들어왔을 때, 음소(또는 단어) 레이블 시퀀스를 추정하는 문제의 기준을 MAP으로 하였을 때, HMM에서 사용하던 Viterbi 알고리즘과 비슷하게 다음과 같은 recursion을 이용하여 빠르게 추정할 수 있다. 물론 상술한 음성인식, 음향인식을 위한 모델은 상술한 것들로 한정되지 않고 다양한 실시예에 다라 변형가능함은 자명하다 할 것이다.
도 4의 (b)를 참조하면, 전체 경로를 도시한 지도나 도착지의 주변상황을 실제로 제공하는 것도 가능하다. 본 발명의 일 실시예에 따른 대중교통 정보 안내 단말(400)은, 상술한 대중교통 이외에도 앱 변경에 의해 지하철, 공항, 관공서, 은행 백화점 등의 안내 데스크에도 이용될 수 있다. 또한, AR(증강현실)을 적용하여 현재 위치에서 목적지까지의 경로를 AR 캐릭터가 안내해 주며 VR을 적용하여 목적지까지의 길찾기 시뮬레이션화할 수 있고, 전면에 안면인식 카메라를 적용하여 치매 노인 및 반려견 집찾기 서비스를 할 수 있다.
또한, 대중교통 정보 안내 단말(400)은 음성인식 은행 현금지급기 및 로봇구동을 적용하여 대중교통 정보 안내 단말(400) 자체가 원하는 고객 또는 소비자의 위치까지 호출에 의해 움직일 수 있도록 하며, 음성인식 자판기를 구현하여 음성에 의한 주문 시 해당 제품이 나오며 자동 결제 계산, 예를 들어, 하이패스 단말기와 같이 결제 시스템으로 결제가 가능하도록 할 수 있다. 용도는 상술한 것들에 한정되지 않음은 자명하다 할 것이다.
이와 같은 도 2 내지 도 4의 음성안내 기반 대중교통 경로 안내 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1을 통해 음성안내 기반 대중교통 경로 안내 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.
도 5는 본 발명의 일 실시예에 따른 음성안내 기반 대중교통 경로 안내 서비스 제공 방법을 설명하기 위한 동작 흐름도이다. 도 5를 참조하면, 사용자 단말은, 사용자 음성으로 검색된 경로정보 및 경로정보에 대응하는 식별코드를 출력하는 제 1 대중교통 정보 안내 단말을 스캔 또는 리딩한다(S5100).
그리고, 사용자 단말은, 식별코드에 대응하는 데이터를 수집하여 사용자 단말의 실시간 위치를 기반으로 경로 안내를 소리 또는 음성으로 출력하고(S5200), 경로 안내에 포함된 경로 중 환승 정보가 존재하는 경우, 환승 정류장에 도달하기 전 환승 정보를 출력한다(S5300).
또한, 사용자 단말은, 환승 정류장에 위치한 제 2 대중교통 정보 안내 단말을 호출하여 환승 정보를 출력하도록 제어하고(S5400) 사용자 단말의 실시간 위치를 기반으로 경로 안내를 시작하여 목적지에 도달하는 경우 경로 안내를 종료한다(S5500).
상술한 단계들(S5100~S5500)간의 순서는 예시일 뿐, 이에 한정되지 않는다. 즉, 상술한 단계들(S5100~S5500)간의 순서는 상호 변동될 수 있으며, 이중 일부 단계들은 동시에 실행되거나 삭제될 수도 있다.
이와 같은 도 5의 음성안내 기반 대중교통 경로 안내 서비스 제공 방법에 대해서 설명되지 아니한 사항은 앞서 도 1 내지 도 4를 통해 음성안내 기반 대중교통 경로 안내 서비스 제공 방법에 대하여 설명된 내용과 동일하거나 설명된 내용으로부터 용이하게 유추 가능하므로 이하 설명을 생략하도록 한다.
도 5를 통해 설명된 일 실시예에 따른 음성안내 기반 대중교통 경로 안내 서비스 제공 방법은, 컴퓨터에 의해 실행되는 애플리케이션이나 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다.
전술한 본 발명의 일 실시예에 따른 음성안내 기반 대중교통 경로 안내 서비스 제공 방법은, 단말기에 기본적으로 설치된 애플리케이션(이는 단말기에 기본적으로 탑재된 플랫폼이나 운영체제 등에 포함된 프로그램을 포함할 수 있음)에 의해 실행될 수 있고, 사용자가 애플리케이션 스토어 서버, 애플리케이션 또는 해당 서비스와 관련된 웹 서버 등의 애플리케이션 제공 서버를 통해 마스터 단말기에 직접 설치한 애플리케이션(즉, 프로그램)에 의해 실행될 수도 있다. 이러한 의미에서, 전술한 본 발명의 일 실시예에 따른 음성안내 기반 대중교통 경로 안내 서비스 제공 방법은 단말기에 기본적으로 설치되거나 사용자에 의해 직접 설치된 애플리케이션(즉, 프로그램)으로 구현되고 단말기에 등의 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (7)

  1. 사용자 단말에서 실행되는 경로 안내 서비스 제공 방법에 있어서,
    사용자 음성으로 검색된 경로정보 및 상기 경로정보에 대응하는 식별코드를 출력하는 제 1 대중교통 정보 안내 단말을 스캔 또는 리딩하는 단계;
    상기 식별코드에 대응하는 데이터를 수집하여 상기 사용자 단말의 실시간 위치를 기반으로 경로 안내를 소리 또는 음성으로 출력하는 단계;
    상기 경로 안내에 포함된 경로 중 환승 정보가 존재하는 경우, 환승 정류장에 도달하기 전 환승 정보를 출력하는 단계;
    상기 환승 정류장에 위치한 제 2 대중교통 정보 안내 단말을 호출하여 환승 정보를 출력하도록 제어하는 단계; 및
    상기 사용자 단말의 실시간 위치를 기반으로 경로 안내를 시작하여 목적지에 도달하는 경우 경로 안내를 종료하는 단계;
    를 포함하는 음성안내 기반 대중교통 경로 안내 서비스 제공 방법.
  2. 제 1 항에 있어서,
    상기 환승 정보가 복수로 존재하는 경우, 상기 복수의 환승 정보의 개수만큼 상기 환승 정보를 출력하는 단계 및 환승 정보를 출력하도록 제어하는 단계를 수행하는 것인, 음성안내 기반 대중교통 경로 안내 서비스 제공 방법.
  3. 제 1 항에 있어서,
    상기 식별코드에 대응하는 데이터를 수집하여 상기 사용자 단말의 실시간 위치를 기반으로 경로 안내를 소리 또는 음성으로 출력하는 단계 이후에,
    상기 경로 안내에 포함된 경로 중 환승 정보가 존재하지 않는 경우, 목적지에 대응하는 정류장의 위치와, 현재 상기 사용자 단말의 실시간 위치에 대응하는 정류장의 위치를 표시하는 단계;
    상기 목적지에 대응하는 정류장에 도달하기 전 기 설정된 개수의 정류장 전에 하차 예정 정보를 출력하는 단계;
    상기 목적지에 대응하는 정류장에 도달하는 경우 하차 정보를 출력하는 단계;
    를 더 포함하는 것인, 음성안내 기반 대중교통 경로 안내 서비스 제공 방법.
  4. 제 1 항에 있어서,
    상기 제 1 대중교통 정보 안내 단말 및 제 2 대중교통 정보 안내 단말은 상기 사용자 단말에서 호출 신호를 전송하는 경우, 상기 호출 신호를 수신하여 RGB 광원을 조사하는 램프를 포함하는 것인, 음성안내 기반 대중교통 경로 안내 서비스 제공 방법.
  5. 경로 안내 서비스 제공 시스템에 있어서,
    사용자의 음성을 인식하여 자연어 처리하고, 챗봇 에이전트를 이용하여 기계어로 변환한 후 이에 대응하는 결과를 검색하여 화면 또는 스피커로 출력하며, 호출 신호가 수신된 경우 RGB 램프를 점등 또는 점멸시키고, 카메라를 통하여 전방을 실시간 촬영 및 모니터링하며, 경로 안내 정보를 전송하기 위한 식별코드를 화면에 출력하여 상기 화면이 스캔된 경우 스캔 주체로 경로 데이터를 전송하는 대중교통 정보 안내 단말; 및
    상기 대중교통 정보 안내 단말의 화면에 출력된 식별코드를 리딩 또는 스캔하여 경로 정보를 수신하고, 현재 위치를 실시간으로 갱신하여 경로 정보 내의 현재 위치를 표시하고, 경로 내에 포함된 목적지에 도달하기 전 기 설정된 개수의 정류장 전에 하차 예정 정보를 출력하는 사용자 단말;
    을 포함하는 음성안내 기반 대중교통 경로 안내 서비스 제공 시스템.
  6. 제 5 항에 있어서,
    상기 사용자 단말은 상기 경로 정보를 카메라를 턴 온시킨 후 AR 화면 내에 오버레이하여 출력하는 것인, 음성안내 기반 대중교통 경로 안내 서비스 제공 시스템.
  7. 제 5 항에 있어서,
    상기 대중교통 정보 안내 단말은 경로 안내 서비스 제공 서버와 연동되고,
    상기 경로 안내 서비스 제공 서버는, 상기 대중교통 정보 안내 단말로부터 입력된 질의 데이터를 빅데이터로 구축하며, 상기 대중교통 정보 안내 단말로부터 촬영된 영상을 위치 기반으로 수집하고, 상기 사용자 단말로부터 촬영객체를 검색하는 요청이 수신된 경우 상기 수집된 영상 내에 포함된 피사체를 안면인식으로 비교하여 그 결과를 전송하는 것인, 음성안내 기반 대중교통 경로 안내 서비스 제공 시스템.
KR1020180108639A 2018-09-12 2018-09-12 음성안내 기반 대중교통 경로 안내 서비스 제공 방법 및 시스템 KR101935040B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020180108639A KR101935040B1 (ko) 2018-09-12 2018-09-12 음성안내 기반 대중교통 경로 안내 서비스 제공 방법 및 시스템
US17/274,620 US20220049971A1 (en) 2018-09-12 2019-09-10 Method and system for providing public transport route guide service based on voice guide
PCT/KR2019/011768 WO2020055128A2 (ko) 2018-09-12 2019-09-10 음성안내 기반 대중교통 경로 안내 서비스 제공 방법 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180108639A KR101935040B1 (ko) 2018-09-12 2018-09-12 음성안내 기반 대중교통 경로 안내 서비스 제공 방법 및 시스템

Publications (1)

Publication Number Publication Date
KR101935040B1 true KR101935040B1 (ko) 2019-01-03

Family

ID=65021877

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180108639A KR101935040B1 (ko) 2018-09-12 2018-09-12 음성안내 기반 대중교통 경로 안내 서비스 제공 방법 및 시스템

Country Status (3)

Country Link
US (1) US20220049971A1 (ko)
KR (1) KR101935040B1 (ko)
WO (1) WO2020055128A2 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102026479B1 (ko) * 2019-03-06 2019-09-30 주식회사 다이얼로그디자인에이전시 병렬처리 플랫폼 기반 인공지능 음성인식 서비스 제공 시스템
KR20200102317A (ko) * 2019-02-21 2020-08-31 박시하 사용자 맞춤형 한류 컨텐츠 큐레이션 시스템 및 그 구동방법
KR20210010395A (ko) * 2019-07-17 2021-01-27 서상화 증강현실을 이용한 정류장 정보 안내 서비스 시스템 및 방법
CN113449211A (zh) * 2021-07-22 2021-09-28 北京百度网讯科技有限公司 线路导航方法和装置、电子设备、计算机可读介质
CN114061605A (zh) * 2021-10-15 2022-02-18 交控科技股份有限公司 车站引导路径控制方法、电子设备及计算机可读存储介质

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3916669A1 (en) * 2020-05-26 2021-12-01 Carrosserie Hess AG Method for an exchange of data
US11687307B2 (en) * 2020-06-08 2023-06-27 Cubic Corporation Synchronization between screens

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100875678B1 (ko) 2008-03-18 2008-12-23 (주) 비앤디 목적지 기반 대중교통 안내 서비스 제공 시스템 및 방법
KR101597170B1 (ko) 2014-09-05 2016-02-25 백용현 버스 정류장에 기반한 버스 정보 제공방법

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130040361A (ko) * 2011-10-14 2013-04-24 주식회사 엘지유플러스 증강현실 네비게이션 기반 실시간 교통 정보 제공 방법, 서버, 및 기록 매체
KR101934800B1 (ko) * 2011-11-17 2019-01-03 네이버 주식회사 대중교통 정보 제공 장치
KR20170091308A (ko) * 2016-02-01 2017-08-09 동국대학교 경주캠퍼스 산학협력단 실시간 대중교통 길안내 서비스 시스템 및 이를 이용한 실시간 길안내 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100875678B1 (ko) 2008-03-18 2008-12-23 (주) 비앤디 목적지 기반 대중교통 안내 서비스 제공 시스템 및 방법
KR101597170B1 (ko) 2014-09-05 2016-02-25 백용현 버스 정류장에 기반한 버스 정보 제공방법

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200102317A (ko) * 2019-02-21 2020-08-31 박시하 사용자 맞춤형 한류 컨텐츠 큐레이션 시스템 및 그 구동방법
KR102169493B1 (ko) * 2019-02-21 2020-10-23 박시하 사용자 맞춤형 한류 컨텐츠 큐레이션 시스템 및 그 구동방법
KR102026479B1 (ko) * 2019-03-06 2019-09-30 주식회사 다이얼로그디자인에이전시 병렬처리 플랫폼 기반 인공지능 음성인식 서비스 제공 시스템
KR20210010395A (ko) * 2019-07-17 2021-01-27 서상화 증강현실을 이용한 정류장 정보 안내 서비스 시스템 및 방법
KR102451012B1 (ko) * 2019-07-17 2022-10-06 서상화 증강현실을 이용한 정류장 정보 안내 서비스 시스템 및 방법
CN113449211A (zh) * 2021-07-22 2021-09-28 北京百度网讯科技有限公司 线路导航方法和装置、电子设备、计算机可读介质
CN113449211B (zh) * 2021-07-22 2023-09-19 北京百度网讯科技有限公司 线路导航方法和装置、电子设备、计算机可读介质
CN114061605A (zh) * 2021-10-15 2022-02-18 交控科技股份有限公司 车站引导路径控制方法、电子设备及计算机可读存储介质
CN114061605B (zh) * 2021-10-15 2024-04-26 交控科技股份有限公司 车站引导路径控制方法、电子设备及计算机可读存储介质

Also Published As

Publication number Publication date
WO2020055128A3 (ko) 2020-05-14
US20220049971A1 (en) 2022-02-17
WO2020055128A2 (ko) 2020-03-19

Similar Documents

Publication Publication Date Title
KR101935040B1 (ko) 음성안내 기반 대중교통 경로 안내 서비스 제공 방법 및 시스템
US11687319B2 (en) Speech recognition method and apparatus with activation word based on operating environment of the apparatus
US20200279279A1 (en) System and method for human emotion and identity detection
US11423280B2 (en) Cognitive commuter assistant
CN108428446A (zh) 语音识别方法和装置
US20210118436A1 (en) Artificial intelligence apparatus and method for recognizing speech by correcting misrecognized word
CN110100277B (zh) 语音识别方法和装置
CN114186563A (zh) 电子设备及其语义解析方法、介质和人机对话系统
CN110288985A (zh) 语音数据处理方法、装置、电子设备及存储介质
US20110190008A1 (en) Systems, methods, and apparatuses for providing context-based navigation services
KR20190094294A (ko) 교통 정보에 기반한 오토 스탑 시스템을 제어하는 인공 지능 장치 및 그 방법
CN110634469A (zh) 基于人工智能的语音信号处理方法、装置及存储介质
CN112967725A (zh) 语音对话数据处理方法、装置、计算机设备及存储介质
CN112395502A (zh) 一种页面显示方法、装置、电子设备及计算机存储介质
CN115424615A (zh) 智能设备语音控制方法、装置、设备及存储介质
CN108153875A (zh) 语料处理方法、装置、智能音箱和存储介质
KR20210048382A (ko) 음성 분석 방법 및 장치
KR102284694B1 (ko) 자율주행로봇을 이용한 안내 서비스 제공 시스템
CN113689633A (zh) 一种景区人机交互方法、装置及系统
CN111508530B (zh) 语音情感识别方法、装置及存储介质
US11288513B1 (en) Predictive image analysis
CN210516214U (zh) 一种基于视频及语音交互服务设备
KR20190023722A (ko) 소셜 빅데이터 기반 감성 분석 키워드 확장 장치 및 방법
KR101889809B1 (ko) 중요 화제 선별을 이용한 자동 방향 선택 음성인식시스템 및 음성인식방법
CN110682297A (zh) 一种用于室内导引机器人的智能交互系统及方法

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant