KR20240017316A - 투명 lcd를 이용한 번역 서비스 제공 시스템 및 방법 - Google Patents

투명 lcd를 이용한 번역 서비스 제공 시스템 및 방법 Download PDF

Info

Publication number
KR20240017316A
KR20240017316A KR1020230090483A KR20230090483A KR20240017316A KR 20240017316 A KR20240017316 A KR 20240017316A KR 1020230090483 A KR1020230090483 A KR 1020230090483A KR 20230090483 A KR20230090483 A KR 20230090483A KR 20240017316 A KR20240017316 A KR 20240017316A
Authority
KR
South Korea
Prior art keywords
translation
lcd device
data
voice
translated
Prior art date
Application number
KR1020230090483A
Other languages
English (en)
Inventor
염영선
Original Assignee
주식회사 리젠어스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 리젠어스 filed Critical 주식회사 리젠어스
Publication of KR20240017316A publication Critical patent/KR20240017316A/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/263Language identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S715/00Data processing: presentation processing of document, operator interface processing, and screen saver display processing
    • Y10S715/978Audio interaction as part of an operator interface

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Acoustics & Sound (AREA)
  • Machine Translation (AREA)

Abstract

본 발명은 투명 LCD 를 이용하여 번역 데이터를 제공하는 번역 서비스 제공 시스템 및 방법에 관한 것으로, 음성 데이터를 입력받는 마이크, 상기 마이크로 입력된 음성 데이터를 번역 서버로 전송하고, 번역 서버로부터 상기 마이크로 입력된 음성 데이터의 번역 텍스트를 수신하는 번역 처리부 및 상기 번역 처리부로 수신된 번역 텍스트를 가시적인 형태로 표시하는 화면 표시부를 포함하는 LCD 장치 및 상기 LCD 장치로부터 음성 데이터 및 번역 요청을 수신하는 요청 수신부, 상기 요청 수신부로 수신된 음성 데이터를 인식하여 텍스트 형태로 변환하는 데이터 변환부, 상기 데이터 변환부에서 변환된 텍스트 데이터를 청자 사용 언어로 번역하는 번역부, 및 상기 번역 처리부에서 번역된 번역 텍스트를 상기 LCD 장치로 제공하는 번역 데이터 제공부를 포함하는 번역 서버를 포함하는, 번역 서비스 제공 시스템에 의해 상이한 언어를 사용하는 대화자 간에도 의사 소통을 원활하게 하도록 도울 수 있다.

Description

투명 LCD를 이용한 번역 서비스 제공 시스템 및 방법{System and Method for Providing Translation service using transparent LCD}
실시예는 번역 서비스 제공 시스템 및 방법에 관한 것으로 보다 상세하게는 투명 LCD 를 이용하여 번역 데이터를 제공하는 번역 서비스 제공 시스템 및 방법에 관한 것이다.
종래의 여러 다양한 번역장치 또는 번역기법이 개시되어 있다. 이들 종래의 번역장치 또는 번역기법은 대부분 문장을 구성하는 구성요소를 단어별 또는 형태소별로 분리하여, 분리된 구성요소를 소정의 방법으로 효율적으로 번역하는데에 그 특징이 있었다. 문장을 형태소 또는 단어별로 분리하여 소정의 방법으로 자연어 번역처리를 수행한다.
한편, 상이한 언어를 사용하는 대면 대화자간에 실시간 번역을 수행하는 기술은 예를들어 음성 번역 앱, 음성 통역 기기등을 이용할 수 있다.
음성 실시간 번역 앱은 스마트폰이나 태블릿과 같은 기기에서 작동하는 응용 프로그램이다. 이러한 앱은 음성 입력을 인식하여 다른 언어로 번역하여 실시간으로 화면에 텍스트로 출력할 수도 있다. 그리고 일부 앱은 음성 합성 기술을 통해 번역된 텍스트를 다시 음성으로 출력할 수도 있다.
음성 통역 기기는 대화 중에 사용되며, 음성을 인식하고 번역하여 실시간으로 출력하는 기능을 제공한. 일부 음성 통역 기기는 두 명 이상의 사람이 동시에 이야기할 때도 지원할 수도 있고, 이러한 기기는 일상 대화나 비즈니스 회의와 같은 상황에서 유용하게 활용될 수도 있다.
그러나 이는 사용자 단말기에 서비스 이용을 위한 음성 번역 앱을 설치해야하는 번거로움이 있고, 번역이 필요한 상황에서 앱을 실행시키는 등의 부가 동작을 수행해야할 필요가 있다.
KR 10-2021-0121818 A KR 10-2022-0105298 A
본 발명은 이 같은 기술적 배경에서 도출된 것으로, 상이한 언어를 사용하는 대화자 사이의 투명 LCD 를 이용하여 대화자들이 사용하는 각기 다른 언어를 번역하여 투명 LCD를 통해 표시함으로써 의사 소통을 원활하게 하도록 도울 수 있는 번역 서비스 제공 시스템 및 방법을 제공함에 그 목적이 있다.
추가로 번역 앱등을 필수적으로 설치해야하는 번거로움없이 투명 LCD에 적용하여 부가 장비의 설치없이 이용가능한 번역 서비스 제공 시스템 및 방법을 제공할 수 있다.
상기의 과제를 달성하기 위한 본 발명은 다음과 같은 구성을 포함한다.
즉 본 발명의 일 실시예에 따른 번역 서비스 제공 시스템은 음성 데이터를 입력받는 마이크, 상기 마이크로 입력된 음성 데이터를 번역 서버로 전송하고, 번역 서버로부터 상기 마이크로 입력된 음성 데이터의 번역 텍스트를 수신하는 번역 처리부 및 상기 번역 처리부로 수신된 번역 텍스트를 가시적인 형태로 표시하는 화면 표시부를 포함하는 LCD 장치 및 상기 LCD 장치로부터 음성 데이터 및 번역 요청을 수신하는 요청 수신부, 상기 요청 수신부로 수신된 음성 데이터를 인식하여 텍스트 형태로 변환하는 데이터 변환부, 상기 데이터 변환부에서 변환된 텍스트 데이터를 청자 사용 언어로 번역하는 번역부, 및 상기 번역부에서 번역된 번역 텍스트를 상기 LCD 장치로 제공하는 번역 데이터 제공부를 포함하는 번역 서버를 포함한다.
한편, 일 실시예에 따른 LCD 장치와 번역 서버를 포함하는 분역 서비스 제공 시스템에서 구동되는 번역 서비스 제공 방법은 LCD 장치가 음성 데이터를 입력받는 마이크로 입력된 음성 데이터를 번역 서버로 전송하는 단계, 번역 서버가 상기 LCD 장치로부터 음성 데이터 및 번역 요청을 수신하는 요청 수신부, 상기 요청 수신부로 수신된 음성 데이터를 인식하여 텍스트 형태로 변환하는 데이터 변환 단계, 번역 서버가 상기 데이터 변환부에서 변환된 텍스트 데이터를 청자 사용 언어로 번역하는 단계, 번역 서버가 상기 번역하는 단계에서 번역된 번역 텍스트를 LCD 장치로 제공하는 번역 데이터 제공 단계, LCD 장치가 번역 서버로부터 상기 마이크로 입력된 음성 데이터의 번역 텍스트를 수신하는 단계 및 LCD 장치가 번역 서버로부터 수신된 번역 텍스트를 가시적인 형태로 표시하는 단계를 포함한다.
본 발명에 의하면 상이한 언어를 사용하는 대화자 사이의 투명 LCD 를 이용하여 대화자들이 사용하는 각기 다른 언어를 번역하여 투명 LCD를 통해 표시함으로써 의사 소통을 원활하게 하도록 도울 수 있는 번역 서비스 제공 시스템 및 방법을 제공할 수 있는 효과가 도출된다.
추가로 번역 앱등을 필수적으로 설치해야하는 번거로움없이 투명 LCD에 적용하여 부가 장비의 설치없이 이용가능한 번역 서비스 제공 시스템 및 방법을 제공하는 효과가 도출된다.
도 1 은 본 발명의 일 실시예에 따른 번역 서비스 제공 시스템의 구성을 도시한 블록도이다.
도 2 및 도 3 은 일 실시예에따른 LCD 장치의 동작을 설명하기 위한 예시도이다.
도 4 는 본 발명의 일 실시예에 따른 번역 서비스 제공 방법을 설명하기 위한 흐름도이다.
본 발명에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명한다.
본 발명의 실시예들에 따른 번역 서비스 제공 시스템은 적어도 하나의 컴퓨터 장치에 의해 구현될 수 있으며, 본 발명의 실시예들에 따른 번역 서비스 제공 방법은 번역 서비스 제공 시스템에 포함되는 적어도 하나의 컴퓨터 장치를 통해 수행될 수 있다. 이때, 컴퓨터 장치에는 본 발명의 일실시예에 따른 컴퓨터 프로그램이 설치 및 구동될 수 있고, 컴퓨터 장치는 구동된 컴퓨터 프로그램의 제어에 따라 본 발명의 실시예들에 따른 번역 서비스 제공 방법을 수행할 수 있다. 상술한 컴퓨터 프로그램은 컴퓨터 장치와 결합되어 번역 서비스 제공 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장될 수 있다.
도 1 은 본 발명의 일 실시예에 따른 번역 서비스 제공 시스템의 구성을 도시한 블록도이다.
도 1 과 같이 일 실시예에 따른 번역 서비스 제공 시스템은 LCD 장치(10) 및 번역 서버(20)를 포함한다.
일 실시예에 따른 번역 서비스 제공 시스템은 마이크를 통해 서로 마주보고 있는 사람들로부터 음성을 입력 받고, 입력된 음성신호를 디지털의 음성데이터로 변환한 후 텍스트 데이터로 변환한다. 그리고 변환된 텍스트 데이터의 인식 및 번역 프로세스를 통해 제공되는 번역데이터를 LCD 장치(10)의 투명 LCD 창에 가시적인 형태로 표시한다.
투명 LCD는 투명한 렉산형(Lexan-like) 인클로저 같은 제1 인클로저, Advanced Link Photonics(ALP), Inc. (캘리포니아, 얼바인)사가 제작한 편광자 지연 필름(retardation film)과 같이 15 내지 60퍼센트의 거울 릴럭턴스(reluctance)를 갖는 반파장 거울을 구비한 제1 편광자 지연 필름(retardation film), 0 내지 30퍼센트 사이의 표면 헤이즈(haze)를 갖는 제1 확산 표면이나 회절 표면 또는 소자(element), 광학 등급 플라스틱(optical grade plastic)을 둘러싸는 냉음극 형광 램프(CCFL) 또는 발광 다이오드(LED)를 구비한 제1 광학등급 플라스틱, 0 내지 60퍼센트의 표면 헤이즈를 갖는 제2확산 표면, ALP, Inc.사가 제작한 반투과 필름과 같은 제1 반투과 필름, LCD 패널, ALP, Inc사가 제작한 반투과 필름과 같은 제2 반투과 필름, 0 내지 60퍼센트의 표면 헤이즈를 갖는 제3 확산 표면, 광학 등급 플라스틱을 둘러싸는 냉음극 형광 램프(CCFL) 또는 발광 다이오드(LED)를 구비한 제2 광학등급 플라스틱, 제4 확산 표면이나 회절 표면 또는 0 내지 30퍼센트 사이의 표면 헤이즈를 갖는 소자, ALP, Inc.사가 제작한 편광자 지연 필름(film)과 같은 15 내지 60퍼센트의 거울 릴럭턴스(reluctance)를 갖는 반파장 거울을 구비한 제2 편광자 지연 필름 및 투명한 렉산형(Lexan-like) 인클로저 같은 제2 인클로저를 구성으로 할 수 있다. 상술한 구성들은 일 예일 뿐, 다른 구성으로도 대체할 수 있다.
추가적으로 스피커를 추가하여 번역데이터를 음성데이터로 변환한 후에 출력하도록 하여, 마주 보는 두 사람 사이에 배치된 LCD 장치(10)의 투명 LCD를 통해 상대방이 상이한 언어로 말한 내용에 대해 청자가 사용하는 언어로 번역된 대화 내용이 표시된다. 스피커는 TTS(Text to Speech) 정보를 사용자가 원하는 음성으로 출력하는 구성일 수 있다.
도 2 및 도 3 은 일 실시예에따른 LCD 장치의 동작을 설명하기 위한 예시도이다.
일 실시예에 있어서, 도 2 와 같이 LCD 장치(10)는 투명 LCD(Transparent LCD)(1110)로 구현된다.
투명 LCD(1110)는 투명한 특성을 가진 특수한 유리 재질로 만들어지는 두 개의 유리 패널 사이에 액정 디스플레이를 적용한 구조를 갖는다. 액정 디스플레이는 액체가 전기를 통해 광학적으로 변화하는 특성을 이용하여 이미지를 표시할 수 있다. 디스플레이 패널은 일반적인 LCD와 동일한 방식으로 동작하며, 이미지를 구성하는 픽셀은 투명한 특성을 가지고 있다. 즉, 전기 신호가 액정 디스플레이 패널을 통해 전달되고, 액정 결정의 광학적 특성에 의해 픽셀의 상태가 변화한다. 이를 통해 이미지나 텍스트등이 표시되며, 백라이트 조명을 통해 내용물이 화면에 나타나게된다.
상이한 언어를 사용하는 대화자(a, b) 간에 투명 LCD(1110)로 구현되는 LCD 장치(10)를 배치하고, 마주보고 있는 상대방이 말하는 언어를 청자가 사용하는 언어로 번역하여 제공해줌으로써 상이한 언어를 사용하는 대화자들 간에도 원활한 의사소통을 가능케 할 수 있다.
예를 들어 사용자 a가 자신의 사용 언어를 사용하여 "hello"라는 음성을 말하면, 청자인 사용자 b가 보는 방향에서 투명 LCD(1110)에는 "안녕하세요"라는 텍스트가 표시된다. 반대로 사용자 b가 자신의 사용 언어를 사용하여 "안녕하세요"라고 말하면, 청자인 사용자 a가 보는 방향에서 투명 LCD(1110)에는 "hello"라는 텍스트가 표시된다.
이는 예를들어 외국인들이 관공서를 이용할 경우, 회사 비즈니스시 바이어와의 소통, 공항 출입국시 심사등 외국인과의 소통, 공항의 면세점이나 외국인들의 방문이 많은 곳, 택시나 버스등의 대중 교통 수단이나 병원 진료 및 테스트시와 같이 다양한 상황과 환경에서 적용이 가능하다.
일 실시예에 있어서 LCD 장치(10)는 하단 중앙에 고정된 축(1120)을 기준으로 360°회전이 가능하도록 구현된다.
이에 따라 180°로 대면한 양자간 대화 뿐 아니라 다자간 대화에도 편리하게 적용할 수 있다. 또한 상대방과 전화 통화중일 경우에는 전화쪽은 음성으로, 화면을 보고있는 사람에게는 LCD 글자로 표시되도록 구현된다. 어떤 언어가 입력되더라도 청자가 바라보는 방향에서는 청자 사용 언어로 번역하여 출력하도록 구현된다.
또한, 도 3 과 같이 LCD 장치(10)의 일측에 사용자 단말(40)을 탑재할 수 있다. 그러면 LCD 장치(10)는 탑재된 사용자 단말(40)의 식별 정보에 기반하여 청자의 사용 언어를 예측할 수 있다. 사용자 단말(40)의 탑재 위치는 180°간격으로 두개의 사용자 단말(40)만 탑제 가능하도록 구현되거나, 120°간격으로 3개, 또는 90°간격으로 4개..와 같이 더 많은 수의 사용자 단말로 참여 가능하게 구현될 수도 있다.
구체적으로 LCD 장치(10)는 마이크(110), 번역 처리부(120), 화면 표시부(130), 음성 변환부(140), 스피커(150) 및 단말 연동부(160)를 포함한다.
LCD 장치(10)는 자체에 통신 인터페이스를 구비하여 wifi등의 네트워크 통신을 수행하도록 구현될 수 있다. 그러나 이에 한정되지 않고, 사용자 단말과 연동하여 네트워크 통신을 수행하도록 구현될 수도 있다.
마이크(110)는 대화자들의 음성 데이터를 입력받는다. 일 실시예에 있어서 마이크(110)는 LCD 장치(10)의 투명 LCD 유리 패널의 양측을 향하도록 구비됨이 바람직하다.
번역 처리부(120)는 마이크(110)로 입력된 음성 데이터를 번역 서버(20)로 전송하고, 번역 서버(20)로부터 마이크(110)로 입력된 음성 데이터의 번역 텍스트를 수신한다.
일 실시예에 있어서 번역 처리부(120)는 음성 데이터와, LCD 장치(10)를 식별하기 위한 식별 정보와, 그리고 음성 데이터를 번역할 청자의 사용 언어 정보를 더 제공해준다.
일 실시예에 있어서 번역 처리부(120)는 적어도 둘 이상의 상이한 언어로 번역하도록 구현될 수도 있다.
화면 표시부(130)는 번역 처리부(120)로 수신된 번역 텍스트를 가시적인 형태로 표시한다. 이때 LCD 장치의 화면 표시부(130)는 4인치, 12인치, 20인치, 21인치 중 하나로 구현될 수 있으나 이에 한정되는 것은 아니고 다양한 사이즈로 구현될 수 있다.
일 실시예에 있어서 화면 표시부(130)는 터치스크린 기능을 구비하도록 구현될 수 있다. 터치방식으로 화면 조절, 밝기 조절 또는 번역 언어 설정 등의 기능을 수행하도록 구현될 수 있다.
화면 표시부(130)는 설정에 따라 번역 처리부(120)에서 둘 이상의 상이한 언어로 번역 처리된 경우에 동시에 두개의 상이한 언어로 번역된 번역 데이터를 하나의 화면으로 표시해줄 수 있다. 이때 상이한 두개 이상의 언어로 번역된 번역 데이터가 시간 차를 두고 출력 되는 것도 가능하다. 시간차를 두고 출력되는 경우에 시간차 설정 정보, 시간차를 두고 출력할지 하나의 화면에 동시에 출력할지에 대한 설정정보는 화면 표시부(130)의 터치스크린 기능을 이용하여 입력할 수 있도록 구현된다.
이에 따라 단순히 상이한 두 종류의 언어를 사용하는 대화자 간의 대화 뿐 아니라 셋 이상의 상이한 언어를 사용하는 대화자들 간의 대화도 원활하게 투명 LCD 장치(10)를 통해 번역해줄 수 있는 효과가 있다.
일 양상에 있어서, LCD 장치(10)는 마이크로 음성 입력 방향을 감지하여 화자 방향을 인식하고, 화면 표시부(130)는 화자 방향과 반대 면의 유리 패널을 통해 번역 텍스트를 가시적인 형태로 표시한다.
예를 들어 마이크로 입력되는 음성 입력이 제1면에서 입력되는 경우 LCD 장치(10)는 제1면의 반대면에 번역 데이터를 표시해준다.
또한, 일 양상에 따른 LCD 장치(10)는 카메라를 더 구비하여, 카메라로 촬영된 화자의 안면 인식을 통해 대화자들의 사용 언어를 추론하도록 구현될 수도 있다.
예를들어 피부색이나 모발 색상 정보를 이용하여 딥러닝 기술에 의해 국적을 추론할 수 있다. 그러나 정확도가 다소 낮더라도 편이를 제공하기 위해 적어도 둘 이상의 국적을 추론하여 언어 선택 목록을 제공하고, 제공한 선택 목록에서 청자 사용 언어를 선택받도록 구현될 수 있다. 즉, 안면 인식 기반으로 청자의 사용 언어일 가능성이 높은 언어들을 포함하도록 언어 선택 목록을 제공함으로써 편이성을 제공할 수 있다.
네트워크(30)는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크(30)는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.
단말 연동부(160)는 번역 서비스 전용 앱이 설치된 사용자 단말(40)의 번역 서비스 전용 앱과 연동한다.
사용자 단말(40)은 컴퓨터 장치로 구현되는 고정형 단말이거나 이동형 단말일 수 있다. 사용자 단말은 네트워크를 통하여 원격지의 서버나 단말에 접속할 수 있는 컴퓨터로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(Desktop), 랩톱(Laptop) 등을 포함할 수 있다. 또한, 사용자 단말(40)은 네트워크를 통해 원격지의 서버나 단말에 접속할 수 있는 단말로 구현될 수 있다. 사용자 단말(40)은 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(smartphone), 스마트 패드(smartpad), 태블릿 PC(Tablet PC) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 포함할 수 있다.
일 실시예에 있어서 사용자 단말(40)은 투명 LCD 장치(10)를 이용한 번역 서비스를 이용하고자 하는 사용자가 소지하는 단말장치를 포괄하도록 해석된다.
번역 처리부(120)는 번역 서비스 전용 앱과 연동하여 청자 사용 언어를 파악할 수 있다.
일 실시예에 있어서 번역 처리부(120)는 사용자 단말(40)과 연동하여 사용자의 기기 설정, 지역 정보, 이전 언어 설정, 사용자의 프로파일 정보, 언어 선택 기록 등을 종합적으로 고려하여 청자 사용 언어를 추론할 수 있다.
다른 실시예에 있어서 LCD 장치(10) 자체에 네트워크 통신을 수행하는 통신 인터페이스를 구비하지 않고, 사용자 단말(40)을 통해서 번역 서버(20)와 데이터 통신이 가능하도록 구현될 수도 있다.
이때 LCD 장치(10)는 사용자 단말(40)과의 연동을 위한 블루투스나 NFC (Near Field Communication), 지그비와같은 근거리 무선 통신 모듈을 포함하도록 구현될 수 있다.
본 발명의 추가적인 양상에 있어서, 음성 변환부(140)는 번역 처리부(120)에서 수신된 번역 텍스트를 음성 합성 기술에 의해 번역 음성으로 변환한다.
그리고 스피커(150)는 음성 변환부(140)에서의 변환된 번역 음성을 가청음 형태로 출력한다. 이에 따라 LCD 장치(10)의 유리 패널에 번역 데이터를 가시적인 형태로 표시함과 동시에 번역된 번역 데이터를 음성 형태로 출력해주거나, 가시적인 형태로 출력하지 않는 상태에서 음성 형태로만 출력하도록 구현될 수 있다.
번역 서버(20)는 웹 서버, 데이터베이스 서버, 프록시 서버 등의 형태로 구현될 수 있다. 또한, 번역 서버(20)에는 네트워크 부하 분산 메커니즘, 내지 해당 번역 서버(20)가 인터넷 또는 다른 네트워크상에서 동작할 수 있도록 하는 다양한 소프트웨어 중 하나 이상이 설치될 수 있으며, 이를 통해 컴퓨터화된 시스템으로 구현될 수 있다.
또한, 네트워크는 http 네트워크일 수 있으며, 전용 회선(private line), 인트라넷 또는 임의의 다른 네트워크일 수 있다. 나아가, LCD 장치(10) 및 사용자 단말(40) 간의 연결은 데이터가 임의의 해커 또는 다른 제3자에 의한 공격을 받지 않도록 보안 네트워크로 연결될 수 있다. 또한, 번역 서버(20)는 복수의 데이터베이스 서버를 포함할 수 있으며, 이러한 데이터베이스 서버가 분산 데이터베이스 서버 아키텍처를 비롯한 임의의 유형의 네트워크 연결을 통해 번역 서버와 별도로 연결되는 방식으로 구현될 수도 있다.
일 실시예에 있어서, 번역 서버(20)는 통신 인터페이스(210), 메모리(220), 입출력 인터페이스(230), 및 프로세서(240)를 포함한다.
통신 인터페이스(210)는 네트워크(30)를 통해 LCD 장치(10) 및 사용자 단말(40)과 서로 통신하기 위한 기능을 제공할 수 있다. 일례로, 번역 서버(20)의 프로세서(240)가 메모리(220)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이나 명령, 데이터, 파일 등이 통신 인터페이스(210)의 제어에 따라 네트워크(30)를 통해 다른 장치들로 전달될 수 있다.
역으로, 다른 장치로부터의 신호나 명령, 데이터, 파일 등이 네트워크(20)를 거쳐 번역 서버(20)의 통신 인터페이스(210)를 통해 번역 서버(20)로 수신될 수 있다. 통신 인터페이스(210)를 통해 수신된 신호나 명령, 데이터 등은 프로세서(240)나 메모리(220)로 전달될 수 있고, 파일 등은 번역 서버(20)가 더 포함할 수 있는 저장 매체(상술한 영구 저장 장치)로 저장될 수 있다
메모리(220)는 컴퓨터에서 판독 가능한 기록매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 여기서 ROM과 디스크 드라이브와 같은 비소멸성 대용량기록장치는 메모리(220)와는 구분되는 별도의 영구 저장 장치로서 번역 서버(20)에 포함될 수도 있다.
또한, 메모리(220)에는 운영체제와 적어도 하나의 프로그램 코드가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 메모리(220)와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 메모리(220)로 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다.
다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 인터페이스(210)를 통해 메모리(220)에 로딩될 수도 있다. 예를 들어, 소프트웨어 구성요소들은 네트워크(30)를 통해 수신되는 파일들에 의해 설치되는 컴퓨터 프로그램에 기반하여 번역 서버(20)의 메모리(220)에 로딩될 수 있다.
입출력 인터페이스(230)는 입출력 장치와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 마이크, 키보드 또는 마우스 등의 장치를, 그리고 출력 장치는 디스플레이, 스피커와 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(230)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 입출력 장치는 번역 서버(20)와 하나의 장치로 구성될 수도 있다.
프로세서(240)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(220) 또는 통신 인터페이스(210)에 의해 프로세서(240)로 제공될 수 있다. 예를 들어 프로세서(240)는 메모리(220)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.
프로세서(240)는 요청 수신부(242), 데이터 변환부(244), 번역부(246) 및 번역 데이터 제공부(248)를 포함한다.
요청 수신부(242)는 LCD 장치(10)로부터 음성 데이터 및 번역 요청을 수신한다.
번역 요청에 어떤 언어로 번역해야할지에 대한 정보를 포함하도록 구현된다.
그리고 데이터 변환부(244)는 요청 수신부(242)로 수신된 음성 데이터를 인식하여 텍스트 형태로 변환한다.
데이터 변환부(244)는 음성 신호를 분석하여 해당 음성을 텍스트로 변환하는 음성 인식(Speech Recognition) 기술을 수행한다.
데이터 변환부(244)는 요청 수신부(242)로 수신된 음성 데이터들을 신호 처리 과정을 통해 디지털 신호로 변환한다. 즉, 음성 신호를 샘플링, 양자화 및 디지털 신호로 변환하여 컴퓨터가 처리할 수 있는 형태로 변환한다.
그리고 다양한 언어와 음성 특성에 대한 정보를 포함하고 있으며, 음성의 특징을 인식할 수 있는 음향 모델을 구축한다. 또한 문장의 구조, 문법, 어휘 등을 포함하고 있으며, 텍스트로 변환할 때 문맥에 맞는 결과를 제공하기 위한 언어 모델을 구축한다.
그리고 구축된 음향 모델과 언어 모델을 활용하여 음성 데이터를 분석하여 해당 언어의 어휘와 문법 규칙을 기반으로 인식된 단어를 문장으로 구성한다. 이에 따라 음성 데이터를 텍스트로 변환한 결과를 도출해낼 수 있다.
번역부(246)는 데이터 변환부(244)에서 변환된 텍스트 데이터를 청자 사용 언어로 번역한다.
일 실시예에 있어서 번역부(246)는 기계 번역(Machine Translation, MT)을 수행하도록 구현될 수 있다. 번역부(246)는 문법적 규칙과 어휘 정보를 기반으로 번역을 수행하는 규칙 기반 기계 번역 (Rule-based Machine Translation, RBMT) 방식으로 번역을 수행하도록 구현될 수 있다. 이때 번역 규칙은 사람들이 번역 작업을 수행할 때 수동으로 작성되고, 언어 사전과 문법 규칙을 포함한다. 입력 문장은 이러한 규칙에 따라 구문 분석되고 번역되어 출력 문장을 생성하도록 구현될 수 있다. RBMT 방식은 정확성과 일관성 면에서 강점이 있다.
또한 번역부(246)는 대량의 언어 데이터를 기반으로 번역을 수행하는 통계 기반 기계 번역 (Statistical Machine Translation, SMT) 방식으로 번역을 수행하도록 구현될 수 있다. 번역부(246)는 학습 데이터로부터 통계적 모델을 생성하고, 이 모델을 사용하여 입력 문장을 번역한다. SMT는 문장 수준의 통계적 유사성과 문맥을 고려하며, 입력 문장의 확률적인 번역 결과를 생성한다.
또한, 번역부(246)는 심층 학습과 인공 신경망을 기반으로 한 신경 기계 번역(Neural Machine Translation, NMT)을 수행하여 번역을 수행할 수 있다. NMT는 인공 신경망 모델을 활용하여 문장을 번역하는 방식으로, 입력 문장과 대상 문장 사이의 복잡한 관계를 학습하여 번역을 수행한다. NMT는 큰 양의 학습 데이터와 연산 리소스를 필요로하지만 더 자연스러운 번역 결과를 제공할 수 있다.
그리고 번역 데이터 제공부(248)는 번역부(246)에서 번역된 번역 텍스트를 통신 인터페이스(210)를 통해 LCD 장치(10)로 제공해준다. 번역부(246)는 적어도 둘 이상의 LCD 장치(10)들로부터 음성 데이터의 번역 요청을 수신할 수 있는데, 번역 요청 수신시에 LCD 장치(10)의 식별 정보를 함께 수신하여 번역 후에 번역 텍스트를 번역 요청시 수신한 LCD 장치(10)의 식별 정보에 대응되게 해당 LCD 장치(10)로 전송한다.
도 4 는 본 발명의 일 실시예에 따른 번역 서비스 제공 방법을 설명하기 위한 흐름도이다.
일 실시예에 있어서 LCD 장치와 번역 서버를 포함하는 분역 서비스 제공 시스템에서 구동되는 번역 서비스 제공 방법은, LCD 장치(10)가 마이크를 통해 음성 데이터가 입력되면(S400), 마이크로 입력된 음성 데이터를 번역 서버로 전송한다(S410).
LCD 장치(10)는 음성 데이터와, LCD 장치(10)를 식별하기 위한 식별 정보와, 그리고 음성 데이터를 번역할 청자의 사용 언어 정보를 번역 서버(20)로 더 제공해준다. 일 실시예에 있어서 LCD 장치(10)는 적어도 둘 이상의 상이한 언어로 번역하도록 구현될 수도 있다.
이후에 번역 서버(20)는 LCD 장치(10)로부터 음성 데이터 및 번역 요청을 수신하고, 수신된 음성 데이터를 인식하여 텍스트 형태로 변환한다(S420). 일 실시예에 있어서 데이터 변환 단계는 음성 신호를 분석하여 해당 음성을 텍스트로 변환하는 음성 인식(Speech Recognition) 기술을 수행한다.
데이터 변환 단계는 LCD 장치(10)로부터 수신된 음성 데이터들을 신호 처리 과정을 통해 디지털 신호로 변환한다. 즉, 음성 신호를 샘플링, 양자화 및 디지털 신호로 변환하여 컴퓨터가 처리할 수 있는 형태로 변환한다.
이후에 번역 서버(20)가 변환된 텍스트 데이터를 청자 사용 언어로 번역한다(S430).
일 실시예에 있어서, 번역하는 단계는 심층 학습과 인공 신경망을 기반으로 한 신경 기계 번역(Neural Machine Translation, NMT)을 수행하여 번역을 수행할 수 있다. NMT는 인공 신경망 모델을 활용하여 문장을 번역하는 방식으로, 입력 문장과 대상 문장 사이의 복잡한 관계를 학습하여 번역을 수행한다. NMT는 큰 양의 학습 데이터와 연산 리소스를 필요로하지만 더 자연스러운 번역 결과를 제공할 수 있다. 그러나 이에 한정되는 것은 아니다.
그리고 번역 서버는 번역하는 단계에서 번역된 번역 텍스트를 LCD 장치로 제공한다(S440).
이후에 LCD 장치(10)가 번역 서버(20)로부터 마이크로 입력된 음성 데이터의 번역 텍스트를 수신한다(S450).
그리고 LCD 장치(10)가 번역 서버(20)로부터 수신된 번역 텍스트를 가시적인 형태로 표시한다(S460).
본 발명의 추가적인 양상에 있어서, LCD 장치(10)가 수신된 번역 텍스트를 음성 합성 기술에 의해 번역 음성으로 변환하고, 변환된 번역 음성을 스피커를 통해 가청음 형태로 출력한다(S470).
일 실시예에 있어서 LCD 장치(10)는 마이크로 음성 입력 방향을 감지하여 화자 방향을 인식하고, 표시하는 단계는 화자 방향과 반대 면의 유리 패널을 통해 번역 텍스트를 가시적인 형태로 표시한다.
본 발명의 추가적인 양상에 있어서, LCD 장치(10)는 번역 서비스 전용 앱이 설치된 사용자 단말의 번역 서비스 전용 앱과 연동한다(S480).
그리고 번역하는 단계는 번역 서비스 전용 앱과 연동하여 사용 언어를 파악한다.
일 실시예에 있어서 번역하는 단계는 사용자 단말의 번역 서비스 전용 앱과 연동하여 사용자의 기기 설정, 지역 정보, 이전 언어 설정, 사용자의 프로파일 정보, 언어 선택 기록 등을 종합적으로 고려하여 청자 사용 언어를 추론할 수 있다. 추론되는 청자의 사용 언어로 번역을 요청할 수 있다.
전술한 방법은 애플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.
상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거니와 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다.
컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD 와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.
프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
10 : LCD 장치 20 : 번역 서버
110 : 마이크 120 : 번역 처리부
130 : 화면 표시부 140 : 음성 변환부
150 : 스피커 160 : 단말 연동부
242 : 요청 수신부 244 : 데이터 변환부
246 : 번역부 248 : 번역 데이터 제공부

Claims (8)

  1. 음성 데이터를 입력받는 마이크, 상기 마이크로 입력된 음성 데이터를 번역 서버로 전송하고, 번역 서버로부터 상기 마이크로 입력된 음성 데이터의 번역 텍스트를 수신하는 번역 처리부 및 상기 번역 처리부로 수신된 번역 텍스트를 가시적인 형태로 표시하는 화면 표시부를 포함하는 LCD 장치; 및
    상기 LCD 장치로부터 음성 데이터 및 번역 요청을 수신하는 요청 수신부, 상기 요청 수신부로 수신된 음성 데이터를 인식하여 텍스트 형태로 변환하는 데이터 변환부, 상기 데이터 변환부에서 변환된 텍스트 데이터를 청자 사용 언어로 번역하는 번역부, 및 상기 번역부에서 번역된 번역 텍스트를 상기 LCD 장치로 제공하는 번역 데이터 제공부를 포함하는 번역 서버;를 포함하는, 번역 서비스 제공 시스템.
  2. 제 1 항에 있어서,
    상기 LCD 장치는,
    상기 번역 처리부에서 수신된 번역 텍스트를 음성 합성 기술에 의해 번역 음성으로 변환하는 음성 변환부 및
    상기 음성 변환부에서의 변환된 번역 음성을 가청음 형태로 출력하는 스피커를 더 포함하는, 번역 서비스 제공 시스템.
  3. 제 2 항에 있어서,
    상기 LCD 장치는,
    상기 마이크로 음성 입력 방향을 감지하여 화자 방향을 인식하고,
    화면 표시부는 화자 방향과 반대 면의 유리 패널을 통해 번역 텍스트를 가시적인 형태로 표시하는, 번역 서비스 제공 시스템.
  4. 제 1 항에 있어서,
    상기 LCD 장치는,
    번역 서비스 전용 앱이 설치된 사용자 단말의 번역 서비스 전용 앱과 연동하는 단말 연동부;를 더 포함하고
    상기 번역 처리부는,
    상기 번역 서비스 전용 앱과 연동하여 청자 사용 언어를 파악하는, 번역 서비스 제공 시스템.
  5. LCD 장치와 번역 서버를 포함하는 분역 서비스 제공 시스템에서 구동되는 번역 서비스 제공 방법에 있어서,
    LCD 장치가 음성 데이터를 입력받는 마이크로 입력된 음성 데이터를 번역 서버로 전송하는 단계;
    번역 서버가 상기 LCD 장치로부터 음성 데이터 및 번역 요청을 수신하고 수신된 음성 데이터를 인식하여 텍스트 형태로 변환하는 데이터 변환 단계;
    번역 서버가 상기 데이터 변환 단계에서 변환된 텍스트 데이터를 청자 사용 언어로 번역하는 단계;
    번역 서버가 상기 번역하는 단계에서 번역된 번역 텍스트를 LCD 장치로 제공하는 번역 데이터 제공 단계;
    LCD 장치가 번역 서버로부터 상기 마이크로 입력된 음성 데이터의 번역 텍스트를 수신하는 단계; 및
    LCD 장치가 번역 서버로부터 수신된 번역 텍스트를 가시적인 형태로 표시하는 단계;를 포함하는, 번역 서비스 제공 방법.
  6. 제 5 항에 있어서,
    상기 LCD 장치가 수신된 번역 텍스트를 음성 합성 기술에 의해 번역 음성으로 변환하고, 변환된 번역 음성을 스피커를 통해 가청음 형태로 출력하는 단계;를 더 포함하는, 번역 서비스 제공 방법.
  7. 제 6 항에 있어서,
    상기 LCD 장치는,
    상기 마이크로 음성 입력 방향을 감지하여 화자 방향을 인식하고,
    상기 표시하는 단계는,
    화자 방향과 반대 면의 유리 패널을 통해 번역 텍스트를 가시적인 형태로 표시하는, 번역 서비스 제공 방법.
  8. 제 5 항에 있어서,
    상기 LCD 장치는,
    번역 서비스 전용 앱이 설치된 사용자 단말의 번역 서비스 전용 앱과 연동하는 단말 연동 단계;를 더 포함하고
    상기 번역하는 단계는,
    상기 번역 서비스 전용 앱과 연동하여 사용 언어를 파악하는, 번역 서비스 제공 방법.
KR1020230090483A 2022-07-29 2023-07-12 투명 lcd를 이용한 번역 서비스 제공 시스템 및 방법 KR20240017316A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20220094513 2022-07-29
KR1020220094513 2022-07-29

Publications (1)

Publication Number Publication Date
KR20240017316A true KR20240017316A (ko) 2024-02-07

Family

ID=89873109

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230090483A KR20240017316A (ko) 2022-07-29 2023-07-12 투명 lcd를 이용한 번역 서비스 제공 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR20240017316A (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210121818A (ko) 2020-03-31 2021-10-08 조선대학교산학협력단 대화자간 실시간 동시통역 서비스 제공방법
KR20220105298A (ko) 2021-01-20 2022-07-27 (주)퀀텀웨이브 Ai기반 다국어 실시간 번역 가상비서 시스템

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210121818A (ko) 2020-03-31 2021-10-08 조선대학교산학협력단 대화자간 실시간 동시통역 서비스 제공방법
KR20220105298A (ko) 2021-01-20 2022-07-27 (주)퀀텀웨이브 Ai기반 다국어 실시간 번역 가상비서 시스템

Similar Documents

Publication Publication Date Title
O’Brien et al. Language translation during disaster: A comparative analysis of five national approaches
JP6947852B2 (ja) 複数のコンピューティングデバイスを使用したインターホン式の通信
US9542956B1 (en) Systems and methods for responding to human spoken audio
EP3271917B1 (en) Communicating metadata that identifies a current speaker
US11347801B2 (en) Multi-modal interaction between users, automated assistants, and other computing services
KR20050063996A (ko) 보이스엑스엠엘 문서를 엑스에이치티엠엘플러스보이스문서로 변환하기 위한 방법 및 이를 이용한 멀티모달서비스 시스템
US20090099850A1 (en) Vocal Command Directives To Compose Dynamic Display Text
US11721338B2 (en) Context-based dynamic tolerance of virtual assistant
JP2022105273A (ja) 自然言語の対話記録から複数のユーザのための要約および次の行動をリアルタイムで生成するためのコンピュータ実施方法、コンピュータ実施システム、およびコンピュータ・プログラム製品
KR102253279B1 (ko) 인공지능을 사용하는 키오스크 기반 무인결제시스템 및 그 방법
US20230401978A1 (en) Enhancing video language learning by providing catered context sensitive expressions
Hermawati et al. Assistive technologies for severe and profound hearing loss: Beyond hearing aids and implants
Glasser et al. Understanding Deaf and Hard-of-Hearing users' interest in sign-language interaction with personal-assistant devices
Alkhalifa et al. Enssat: wearable technology application for the deaf and hard of hearing
US20200201598A1 (en) Automatic slide page progression based on verbal and visual cues
KR20240017316A (ko) 투명 lcd를 이용한 번역 서비스 제공 시스템 및 방법
Dokania et al. An assistive interface protocol for communication between visually and hearing-speech impaired persons in internet platform
US11575527B2 (en) Facilitating social events in web conferences
Suzuki et al. See-through captions in a museum guided tour: exploring museum guided tour for deaf and hard-of-hearing people with real-time captioning on transparent display
US20210385319A1 (en) Systems and Methods for Detecting Voice Commands to Generate a Peer-to-Peer Communication Link
US20220084437A1 (en) Mobile-enabled cognitive braille adjustment
KR20210116223A (ko) 인공지능 기반의 가상상담 서비스 장치 및 방법
US10559298B2 (en) Discussion model generation system and method
Saha et al. A Framework for Artificially Intelligent Customized Voice Response System Design using Speech Synthesis Markup Language
Amarasekara et al. Real-time interactive voice communication-For a mute person in Sinhala (RTIVC)