KR20120019011A - Interaction service providing apparatus based on combination of users' information - Google Patents
Interaction service providing apparatus based on combination of users' information Download PDFInfo
- Publication number
- KR20120019011A KR20120019011A KR1020100082078A KR20100082078A KR20120019011A KR 20120019011 A KR20120019011 A KR 20120019011A KR 1020100082078 A KR1020100082078 A KR 1020100082078A KR 20100082078 A KR20100082078 A KR 20100082078A KR 20120019011 A KR20120019011 A KR 20120019011A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- user
- unit
- service
- personal information
- Prior art date
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 22
- 238000013519 translation Methods 0.000 description 37
- 230000015572 biosynthetic process Effects 0.000 description 10
- 238000003786 synthesis reaction Methods 0.000 description 10
- 238000000034 method Methods 0.000 description 9
- 230000006854 communication Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
Landscapes
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Machine Translation (AREA)
Abstract
Description
본 발명은 적어도 두 명의 사용자가 각자의 장치를 연결하여 상호작용할 때 제공되는 서비스의 성능을 개선하는 장치에 관한 것으로서, 보다 구체적으로는 각자의 장치를 통해 상호작용하는 사용자들의 사용자 정보 조합을 이용하여 서비스를 제공하는 장치에 관한 것이다.The present invention relates to a device for improving the performance of a service provided when at least two users connect and interact with their respective devices, and more specifically, by using a combination of user information of users interacting through their own devices. It relates to a device for providing a service.
본 발명은 지식경제부의 IT성장동력기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호:2008-S-019-02,과제명:휴대형 한/영 자동통역 기술 개발].The present invention is derived from a study conducted as part of the IT growth engine technology development project of the Ministry of Knowledge Economy [Task management number: 2008-S-019-02, Title: Development of portable Korean / English automatic interpretation technology].
소프트웨어 및 휴대용 전자기기 등의 장치가 사용자에게 제공하는 서비스는 하나의 장치와 사용자 한 사람, 둘 만의 관계에 한정되는 것들이 대부분이지만, 각자의 장치를 가진 두 사용자가 각각의 장치를 이용하여 상호작용하는데 제공되는 서비스도 있다. The services provided to users by devices such as software and portable electronic devices are mostly limited to the relationship between one device and one user, but two users having their own devices interact with each other by using each device. There are also services provided.
예를 들어, 두 사람이 각자의 장치를 연결하여 한 사용자의 장치 안에 저장되어 있는 자료를 다른 사용자의 장치로 전송하는 행위와, 다른 언어를 사용하는 두 사람이 각자의 자동통역 장치를 이용해 대화를 시도하는 것 등이 각자의 장치를 가진 두 사용자가 각각의 장치를 이용하여 상호작용하는 경우에 해당한다. For example, two people connect each other's devices to transfer data stored on one user's device to another user's device, and two people who speak different languages communicate with each other using their automatic interpreter. This is the case when two users with their own devices interact with each other.
전술한 자동통역 장치는 서로 다른 언어를 사용하는 사람들이 자신들의 모국어로도 의사소통을 할 수 있도록 하기 위한 장치로서, 음성 신호를 받아 음성 인식을 수행하고 그 결과를 제 2의 언어로 자동 번역한 후, 그 결과를 다시 음성으로 합성하여 출력한다. 즉, 두 사람의 장치를 연결하여 상대방이 한 말을 사용자의 자동통역 장치가 상대방의 언어로 음성 인식하고, 그 결과를 제 2의 언어로 자동 번역하여 그 결과를 사용자의 자동통역 장치의 화면에 보여주거나 음성 합성을 통해 출력하게 된다.The above-described automatic interpreter is a device for allowing people who speak different languages to communicate in their native language, which receives speech signals, performs speech recognition, and automatically translates the results into a second language. After that, the result is synthesized again by voice and output. In other words, by connecting two devices, the user's automatic interpreter recognizes the speech spoken by the other person's language, automatically translates the result into a second language, and translates the result into the screen of the user's automatic interpreter. It can be shown or output through speech synthesis.
한편, 사용자와 장치 둘 만의 관계에 한정되는 서비스의 경우, 장치에 미리 저장된 사용자의 정보를 이용하여 서비스를 제공할 수 있다. 예를 들면 음악을 재생하여 출력하는 장치의 경우, 사용자의 정보를 바탕으로 사용자가 좋아할 만한 음악을 선정하여 제시할 수 있다. 하지만 이 경우 이용할 수 있는 정보가 사용자의 일반적인 특성, 즉 성별, 나이, 관심사 등에 한정되며 이러한 정보는 사용자가 장치를 사용하려 하는 그 순간의 상황은 반영하지 못하므로, 이를 통해 제공되는 서비스는 상당히 한정적일 수밖에 없다.On the other hand, in the case of a service limited to the relationship between the user and the device alone, the service may be provided using information of the user previously stored in the device. For example, a device that plays and outputs music may select and present music that the user may like based on the information of the user. However, in this case, the information available is limited to the general characteristics of the user, such as gender, age, interests, etc., and this information does not reflect the moment in which the user is trying to use the device, so the services provided through it are quite limited. It must be
그러나, 두 사람이 각자의 장치를 이용하여 상호작용할 경우, 두 사람의 정보를 조합할 수 있으며 이 경우 두 사람이 어떤 상호작용을 하려 하는지, 어떤 문제를 해결하려 하는지에 대해 더욱 구체적인 정보를 얻을 수 있다. 그리고 이를 통해 더욱 효과적으로 상호작용시의 서비스를 개선하여 제공할 수 있다.However, when two people interact with their own devices, they can combine their information, which gives them more specific information about what they want to do and what problems they want to solve. have. And through this, the service at the time of interaction can be improved and provided more effectively.
예컨대, 사람의 경우 다른 사람과 만나 직접 상호작용할 때 다양한 정보를 이용한다. 상호작용하는 장소, 상대방의 모습과 그것으로 유추한 상대방의 직업, 지위, 출신, 그리고 상호작용이 이루어지는 시간과 전후 상황 등을 이용하여 상호작용에 활용한다. 예를 들어, 사람이 다른 사람이 말하는 음성을 인식할 때, 상대방이 누구이며 대화가 어디서 이루어지는지, 현재시간은 언제이며 서로 원하는 것이 무엇인지 등의 다양한 배경 정보를 갖고 있다. 실제로 상대방이 말하는 문장의 단어 하나하나를 다 듣지 못했더라도 이러한 정보들을 이용하여 상대방의 의도를 파악할 수 있다. For example, people use a variety of information when meeting and interacting directly with others. It uses the place of interaction, the appearance of the other party, and the job, status, origin, and time of the interaction and the situation before and after the interaction. For example, when a person recognizes a voice spoken by another person, he or she has various background information such as who the other person is, where the conversation takes place, when the current time is, and what they want from each other. In fact, even if you do not hear every word of the sentence spoken by the other party can use this information to determine the other person's intention.
이와 유사하게 두 사람이 각자의 장치를 이용하여 상호작용하는 경우, 각 장치가 사람과 같이 두 사람의 정보를 조합하여 상황을 파악함으로써, 두 사용자의 상호작용을 더 잘 보조할 수 있도록 하는 서비스를 제공할 수 있다. Similarly, when two people interact with their own devices, each device combines the information of two people together, like a person, to grasp the situation, providing a service that can better assist the interaction of two users. Can provide.
그러나, 기존의 서비스 제공 장치는 적어도 두 명의 사용자가 각자의 장치를 통해 상호작용하려 할 때 사용자들이 속해 있는 상황에 대한 이해 없이 사용자들의 지시만을 따르고, 이는 사용자들에게 필요 이상의 지시를 하게 함으로써 불편을 초래할 수 있으며, 사용자들의 지시사항이 덜 구체적이거나 장치가 사용자의 지시사항을 제대로 이해하지 못했을 경우, 사용자가 요구하는 수준의 서비스를 제공할 수 없는 문제점이 있다. However, existing service providing devices only follow the user's instructions when at least two users attempt to interact through their own devices, without understanding the situation in which the users belong, which causes inconvenience to users by providing more instructions than necessary. If the user's instructions are less specific or the device does not understand the user's instructions, there is a problem that the user cannot provide the level of service required.
본 발명은 상기와 같은 문제점을 감안하여 창출한 것으로서, 서비스 제공 장치를 이용하여 상호작용하는 적어도 두 명의 사용자의 장치를 연결하여 사용자들의 개인정보를 교환하고, 이를 조합하여 현재 사용자들이 속한 상황을 분석하여 사용자들이 상호작용할 때 제공받고자 하는 서비스의 품질을 향상시킬 수 있는 사용자 정보 조합을 이용한 상호작용 서비스 제공 장치를 제공하는 데 그 목적이 있다.The present invention was created in view of the above-mentioned problems, and connects the devices of at least two users who interact with each other using a service providing device to exchange personal information of users, and analyzes the current user's situation by combining them. Therefore, the object of the present invention is to provide an interactive service providing apparatus using a combination of user information that can improve the quality of service to be provided when users interact with each other.
전술한 목적을 달성하기 위하여, 본 발명의 일면에 따른 상호작용을 위한 서비스 제공 장치는 적어도 두 사용자 간 각자의 전자기기를 이용한 상호작용에 지원 서비스를 제공하는 장치로서, 입력된 사용자의 개인정보와 수신된 상대 사용자의 개인정보를 조합하고, 조합된 정보를 근거로 상기 사용자와 상기 상대 사용자의 주변 상황을 분석하는 상황 판단부; 분석된 상기 주변 상황을 근거로 상기 지원 서비스의 정보와 자원을 조정하는 서비스 조정부; 및 조정된 상기 정보와 자원에 따라 상기 주변 상황에 적합한 지원 서비스를 제공하는 서비스 제공부를 포함한다.In order to achieve the above object, a service providing device for interaction according to an aspect of the present invention is a device for providing a support service to the interaction using the electronic device between at least two users, the user's personal information and A situation determination unit for combining the received personal information of the counterpart user and analyzing surrounding conditions of the user and the counterpart user based on the combined information; A service adjustment unit for adjusting information and resources of the support service based on the analyzed surrounding situation; And a service provider for providing a support service suitable for the surrounding situation according to the adjusted information and resources.
본 발명에 따르면, 각자의 서비스 제공 장치를 사용하여 상호작용을 시도하는 적어도 두 명의 사용자의 개인 정보를 조합하여 현재 사용자들이 처한 상황에 대한 정보를 추출하고, 이를 기반으로 상호작용이 이루어지는 상황에 적합한 서비스를 제공할 수 있는 효과가 있다.According to the present invention, the personal information of at least two users attempting to interact using their respective service providing devices is combined to extract information on the current situation of users, and based on this, it is suitable for the situation in which the interaction is made. There is an effect that can provide a service.
특히 상호작용이 이루어지는 상황에 적합한 서비스를 제공할 수 있어서 서비스 제공 장치의 성능을 향상시킬 수 있는 이점이 있다.In particular, there is an advantage that can improve the performance of the service providing apparatus can provide a service suitable for the situation in which the interaction occurs.
도 1은 본 발명의 일실시예에 따른 상호작용 서비스 제공 장치를 설명하기 위한 블럭도.
도 2는 도 1을 구체적으로 설명하기 위한 입력된 음성에 대한 통역 결과를 출력하는 자동통역 장치의 블럭도.
도 3은 본 발명의 일실시예에 따른 입력된 음성에 대한 통역 결과를 출력하는 과정을 설명하기 위한 흐름도.1 is a block diagram illustrating an interaction service providing apparatus according to an embodiment of the present invention.
FIG. 2 is a block diagram of an automatic interpreter for outputting an interpretation result for an input voice to specifically describe FIG. 1.
3 is a flowchart illustrating a process of outputting an interpretation result for an input voice according to an embodiment of the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 용이하게 이해할 수 있도록 제공되는 것이며, 본 발명은 청구항의 기재에 의해 정의된다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자 이외의 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. And is intended to enable a person skilled in the art to readily understand the scope of the invention, and the invention is defined by the claims. It is to be understood that the terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. It is noted that " comprises, " or "comprising," as used herein, means the presence or absence of one or more other components, steps, operations, and / Do not exclude the addition.
자동통역 장치를 이용하여 모국어가 다른 두 사람이 대화하려할 때 두 사람 모두 자동통역 장치가 설치된 전자기기를 소지하고 있다고 가정한다. 현재 스마트 폰, 넷북 등 모바일 전자기기가 대중화되고 있으며, 사용자가 PC의 메신저 프로그램을 통해 대화하는 환경에서 PC에 설치된 자동통역 장치를 사용할 수도 있으므로 사용자 각자가 갖고 있는 전자기기에 자동통역 장치가 설치된 상황은 충분히 일반적인 가정에 해당한다When two people from different languages speak using the automatic interpreter, it is assumed that both have electronic devices equipped with the automatic interpreter. Currently, mobile electronic devices such as smart phones and netbooks are becoming popular, and automatic interpretation devices installed in PCs can be used in an environment where users can communicate through the messenger program of PCs. Is a general assumption enough
이하, 도 1 및 도 2를 참조하여 본 발명의 일실시예에 따른 사용자 정보 조합을 이용한 상호작용 서비스 제공 장치를 설명한다. 도 1은 본 발명의 일실시예에 따른 상호작용 서비스 제공 장치를 설명하기 위한 블럭도이고, 도 2는 도 1을 구체적으로 설명하기 위한 입력된 음성에 대한 통역 결과를 출력하는 자동통역 장치의 블럭도이다.Hereinafter, an interaction service providing apparatus using a combination of user information according to an embodiment of the present invention will be described with reference to FIGS. 1 and 2. FIG. 1 is a block diagram illustrating an interaction service providing apparatus according to an embodiment of the present invention, and FIG. 2 is a block diagram of an automatic interpretation apparatus outputting an interpretation result for an input voice to specifically describe FIG. 1. It is also.
도 1에 도시된 바와 같이, 본 발명의 상호작용 서비스 제공 장치(100)는 개인정보 관리부(110), 상대방 정보 수신부(120), 상황 판단부(130), 서비스 조정부(140) 및 서비스 제공부(150)를 포함한다.As shown in FIG. 1, the interactive
개인정보 관리부(110)는 주 사용자에 의해 입력된 사용자의 직업, 출신지, 모국어, 나이, 성별, 관심사 등이 포함된 개인정보를 저장한다. 예컨대, 개인정보 관리부(110)는 주 사용자가 상호작용 서비스 제공 장치(100)를 처음 구매하여 설치할 때 개인정보를 입력하도록 요청할 수 있고, 요청에 응하여 사용자가 입력한 개인정보를 저장할 수 있다. The
개인정보 관리부(110)는 개인정보를 상황 판단부(130)에 전달하고, 상대방 장치(20)에 전송한다. 예컨대, 개인정보 관리부(110)는 상호 작용할 상대방 장치(20)와의 정보 교환을 위해, 적외선부, 라디오 주파수(Radio Frequency)부, 블루투스(Bluetooth)부 및 무선 LAN부 중 어느 하나를 포함하고, 적외선, 라디오 주파수(Radio Frequency), 블루투스(Bluetooth), 무선 LAN 중 어느 하나의 통신을 이용하여 상대방 장치(20)에 주 사용자의 개인정보를 전송한다. The
상대방 정보 수신부(120)는 대화할 상대방에 대한 개인정보를 그 사람 장치의 개인정보 관리부로부터 받아들인다. 예컨대, 상대방 정보 수신부(120)는 상대방 장치(20)와의 정보 교환을 위해 적외선, 라디오 주파수, 블루투스 및 무선 LAN 등의 장치가 설치될 수 있다. 상대방 정보 수신부(120)가 수신하는 상대방 정보는 개인정보와 동일하게 직업, 출신지, 모국어, 나이, 성별, 관심사 등을 포함한다. 상대방 정보 수신부(120)는 상대방 정보를 상황 판단부(130)로 출력한다.The other party
상황 판단부(130)는 입력된 주 사용자의 개인정보 및 상대방 정보를 조합하여 현재 상호작용이 이루어지는 상황을 판단한다. 두 사람의 개인정보가 어떤 식으로 조합되느냐에 따라 정보 조합의 유용성이 결정된다. 상황 판단부(130)에서는 조합된 정보를 서비스 조정부(140)로 출력한다.The
서비스 조정부(140)는 입력된 두 사람의 개인정보 조합과 상황별 서비스 조정에 필요한 자원을 바탕으로 적절한 조정정보를 결정하여 서비스 제공부(150)에 출력한다.The
서비스 제공부(150)는 사용자에 의해 입력된 정보와 서비스 조정부(140)에서 출력된 조정정보를 바탕으로 상황에서 적합한 서비스를 결정하여 출력한다.The
이하에서는 사용자 정보 조합을 이용한 상호작용 서비스 제공 장치를 보다 구체적으로 설명하기 위해, 도 2를 참조하여 두 사용자의 개인 정보를 조합하여 상황을 판단하고, 이를 음성 인식과 자동 번역에 이용하여 자동통역의 품질을 높이는 자동통역 장치를 설명한다. Hereinafter, in order to describe the interaction service providing apparatus using the user information combination in detail, the situation is determined by combining the personal information of the two users with reference to FIG. 2 and used for voice recognition and automatic translation. Explain the automatic interpreter that improves quality.
도 2에 도시된 바와 같이, 자동통역 장치(200)는 개인정보 관리부(210), 상대방 정보 수신부(220), 상황 판단부(230), 언어 모델 조정부(240), 번역자원 조정부(250), 음성 인식부(260), 자동 번역부(270) 및 음성 합성부(280)를 포함한다.As shown in FIG. 2, the
개인정보 관리부(210)는 주 사용자에 의해 사용자의 직업, 출신지, 모국어, 나이, 성별, 관심사 및 자동통역 장치(200)가 사용되는 상황에서의 역할정보 등을 포함하는 개인정보를 입력받을 수 있다. 예컨대, 자동통역 장치(200)가 여행용으로 사용되는 경우, 자동통역 장치(200)는 여행자의 역할, 현지인의 역할, 또는 여행자가 많이 찾는 가게의 점원역할 등 사용자가 자동통역이 필요한 상황에서 어떠한 역할을 수행하는지에 대한 정보를 사용자로부터 입력받을 수 있다. 또는 자동통역 장치(200)가 의료용으로 사용되는 경우, 자동통역 장치(200)는 환자의 역할, 의사나 약사의 역할 등의 역할정보를 입력받을 수 있다. 이러한 역할정보는 사용자의 직업과 일치할 수 있고 일치하지 않을 수도 있으므로, 자동통역 장치(200)의 용도에 따라 사용자에 의해 다양하게 입력될 수 있다.The
개인정보 관리부(210)는 주 사용자의 개인정보를 상황 판단부(230)로 출력한다. 또한 개인정보 관리부(210)는 대화할 상대방 자동통역 장치(30)로 주 사용자의 개인정보를 송신한다.The
상대방 정보 수신부(220)는 대화할 상대방에 대한 개인정보를 상대방 자동통역 장치(30)의 개인정보 관리부로부터 받아들인다. 예컨대, 상대방 정보 수신부(220)는 상대방 자동통역 장치(30)로부터 개인정보와 동일하게 직업, 출신지, 모국어, 나이, 성별, 관심사 및 자동통역 장치(200)가 사용되는 상황에서의 역할정보 등을 포함하는 상대방 정보를 수신하고, 수신된 상대방 정보를 상황 판단부(230)로 출력한다.The counterpart information receiver 220 receives personal information on the counterpart to be communicated with from the personal information manager of the counterpart
상황 판단부(230)는 입력된 주 사용자의 개인정보 및 상대방 정보를 조합하여 현재 대화가 이루어지는 상황을 판단한다. 상황 판단부(230)는 조합된 정보를 언어 모델 조정부(240)와 번역자원 조정부(250)로 출력한다.The
언어 모델 조정부(240)는 입력된 두 사람의 개인정보 조합과 상황별 언어모델 추출에 필요한 자원을 바탕으로 적절한 언어모델을 결정하여 음성 인식부(260)에 출력한다.The language
번역자원 조정부(250)는 입력된 두 사람의 개인정보 조합과 상황별 번역자원을 바탕으로 적절한 번역자원을 결정하여 자동 번역부(270)에 출력한다.The translation
음성 인식부(260)는 입력된 음성과 언어 모델 조정부(240)에서 출력된 언어 모델을 바탕으로 주어진 상황에서 가장 확률이 높은 문장을 결정하여 자동 번역부(270)로 출력한다.The
자동 번역부(270)는 입력된 문장과 번역자원 조정부(250)에서 출력된 번역자원을 바탕으로 주어진 상황에서 가장 적절한 번역 결과를 결정하여 음성 합성부(280)로 출력한다.The
음성 합성부(280)는 입력된 문장을 음성으로 합성하여 출력한다. 이때 음성 합성부(280)는 상대방 자동통역 장치(30)에 있는 음성 합성부를 사용할 수 있다. 이러한 경우 번역 결과를 주고 받는 통신 과정이 필요하며, 통신 장치는 개인정보 관리부에 속하는 통신 장치, 예컨대 적외선부, 라디오 주파수부, 블루투스부 및 무선 LNA 부 중 어느 하나를 활용할 수 있다. 주 사용자의 자동통역 장치(200)에서 음성합성을 수행할 경우 다양한 외국어에 대한 음성 합성부(280)를 모두 갖고 있어야 하지만, 상대방의 음성 합성부를 사용하는 경우 각 사용자는 자신의 언어에 해당하는 음성 합성부만 설치함으로써 대화가 가능하다.The
이상 본 발명의 일실시예에 따른 사용자 정보 조합을 이용한 상호작용 서비스 제공 장치와 그에 대한 구체적인 예로서 입력된 음성에 대한 통역 결과를 출력하는 자동통역 장치를 설명하였고, 이하에서는 도 3을 참조하여 자동통역 장치를 이용하여 사용자의 정보를 조합하고 입력된 음성을 상황에 적절한 통역결과로 변환하여 출력하는 과정에 대해 설명한다. 도 3은 본 발명의 일실시예에 따른 입력된 음성에 대한 통역 결과를 출력하는 과정을 설명하기 위한 흐름도이다.The interaction service providing apparatus using a user information combination according to an embodiment of the present invention and an automatic interpretation apparatus for outputting an interpretation result for an input voice as a specific example thereof have been described below. The process of combining the user's information using an interpreter and converting the input voice into an interpretation result suitable for the situation will be described. 3 is a flowchart illustrating a process of outputting an interpretation result for an input voice according to an embodiment of the present invention.
제1사용자는 한국인이고 20대 초반의 여행자이며, 제2사용자는 미국인이고 50대 중반의 신발 가게 관리인이라고 가정한다.Suppose a first user is a Korean, a traveler in his early twenties, and a second user is an American and a shoe store manager in his mid-fifties.
도 3에 도시된 바와 같이, 사용자가 처음 자동통역 장치(200)를 구입하거나 설치하였을 경우, 사용자에게 개인정보 입력을 요구한다. 개인정보 관리부(210)는 입력된 개인정보를 저장한다(S300). 이 과정에 의해 일반적으로 개인정보는 사용자가 처음 자동통역 장치(200)를 실행할 때 한번 입력되나, 사용자의 상황이 바뀔 때는 재입력될 수 있다. 개인정보는 [모국어, 연령대, 여행상황에서의 역할]과 같이 구성되며, 제1사용자의 개인정보는 [한국어, 20대 초반, 여행자], 제2사용자의 개인정보는 [영어, 50대 중반, 신발 가게 관리인]과 같이 구성될 수 있다.As shown in FIG. 3, when a user purchases or installs the
두 사람이 각자의 자동통역 장치(200, 30)를 갖고 대화를 시도할 경우, 먼저 두 자동통역 장치(200, 30)를 통신으로 연결한다(S310). 예컨대, 블루투스 통신을 통해 두 장치(200, 30)가 서로 검색하여 상대 장치를 확인하는 과정을 거쳐 연결된다. 또는 두 장치(200,30)에 가속도 센서가 설치되어 있을 경우, 두 장치(200, 30)를 부딪히게 하고, 이때 기록된 가속도 변화 정보를 비교하여 두 장치(200, 30)가 부딪혔음을 알아내어 두 장치(200,30)를 연결시키는 "Bump"기능을 이용할 수도 있다. When two people attempt a conversation with their respective
이렇게 두 자동통역 장치(200, 30)가 무선으로 연결되면, 두 장치(200, 30)의 사용자 개인정보를 각 장치(200, 30)의 개인정보 관리부(210)에서 상대 장치의 상대방 정보 수신부(220)로 보낸다(S320).When the two
각 자동통역 장치(200, 30)는 상대방 정보 수신부(220)에 수신된 상대방의 개인정보와 이미 개인정보 관리부(210)에 저장된 사용자의 개인정보를 상황 판단부(230)로 전송한다(S330).Each of the
상황 판단부(230)는 정보들을 조합하여 음성 인식과 자동 번역에 도움이 되는 정보를 추출하고(S340), 추출한 정보를 언어 모델 조정부(240) 및 번역자원 조정부(250)에 출력한다.The
언어 모델 조정부(240)는 입력된 정보를 통해 주어진 상황에서 발화될 만한 문장들을 잘 표현하는 언어모델을 만든다. The language
번역자원 조정부(250)는 입력된 정보를 통해 주어진 상황에 적절한 번역자원을 추출한다(S350). 여기서 상황 제시 정보는 제1사용자와 제2사용자의 연령대의 조합 및 여행 상황에서의 역할일 수 있다. The translation
즉, 상황 판단부(230)에서 [20대 초반, 50대 후반]과 같은 연령대 조합 정보와 [여행자, 신발 가게 관리인]이라는 역할 조합 정보를 언어모델 조정부(240) 및 번역자원 조정부(250)에 보낼 수 있다. 이 과정은 두 사람의 자동통역 장치(200,30)에서 각각 동시에 이루어진다. That is, in the
제1사용자의 자동통역 장치(200)의 언어모델 조정부(240)에서는 [20대 초반, 50대 후반]이라는 정보를 통해 제1 사용자가 제2 사용자와의 대화에서 존대말을 발화하리라는 것을 예상하고, 그에 맞는 언어 모델을 만들 수 있다. 또한 [여행자, 신발 가게 관리인]이라는 정보를 통해 특정 신발이 어디에 있는지, 어떤 사이즈가 있는지 등의 질문을 하리라는 것을 예상할 수 있으므로, 그에 맞는 언어 모델을 만들 수 있다.The language
제2 사용자의 자동통역 장치(30)의 언어 모델 조정부에서는 [여행자, 신발 가게 관리인]이라는 정보를 통해 제2 사용자가 매장 배치, 신발 종류에 대해 설명하고 결재 방법을 안내하는 발화를 하리라는 것을 예상할 수 있으므로, 그에 맞는 언어 모델을 만들 수 있다. 또한 제2 사용자의 번역자원 조정부에서는 [여행자, 신발가게 관리인]이라는 정보를 통해 신발 가게에서 이루어지는 대화에 적합한 번역자원을 불러올 수 있다. The language model adjustment unit of the
'Air Force'의 경우 일반적으로는 '공군'으로 번역되지만 신발 가게에서는 특정 상표 이름이며, 제2 사용자가 'This doesn't go that small.'라고 발성하였을 때 이 문장의 번역 결과가 직역 결과인 '이것은 그것 작게 가지 않습니다.'가 아닌 '이것은 그렇게 작은 사이즈가 나오지 않습니다.'라고 번역되어야 한다는 등의 번역자원을 불러 올 수 있다.In the case of "Air Force," it is usually translated as "air force." But in a shoe store, it is a specific brand name. When a second user speaks "This doesn't go that small." Translation resources such as 'This doesn't go that small' but 'It doesn't come out that small' can be called.
언어 모델 조정부(240)에서 만들어진 언어모델은 음성 인식부(260)로 보내어지고, 음성 인식부(260)에서는 입력된 언어 모델과 음성 신호를 바탕으로 사용자가 발화한 음성을 인식하여 텍스트 문장으로 자동 번역부(270)에 출력한다(S360). The language model generated by the language
번역자원 조정부(250)에서 추출된 번역자원은 자동 번역부(270)로 보내어지고, 자동 번역부(270)는 입력된 번역자원과 음성 인식부(260)에서 출력된 문장을 바탕으로 사용자가 발화한 음성을 제2언어로 번역하여 이를 텍스트 문장으로 음성 합성부(280)에 출력한다(S370). The translation resource extracted from the translation
음성 합성부(280)는 자동 번역부(270)에서 출력된 텍스트문장을 음성으로 합성하여 출력한다(S380).The
전술한 바와 같이, 각 사용자가 자신의 서비스 제공 장치를 사용하여 상호작용을 시도할 경우, 각 사용자의 서비스 제공 장치에서는 사용자의 개인 정보와 상호작용을 위한 상대방의 개인정보를 조합하여 주변 정보를 추출하고, 이를 기반으로 각 사용자 간의 상호작용이 이루어지는 상황에 적합한 서비스를 제공할 수 있다.As described above, when each user attempts to interact using his or her own service providing device, the service providing device of each user extracts the surrounding information by combining the user's personal information and the other's personal information for interaction. And, based on this, it is possible to provide a service suitable for the situation where the interaction between each user is made.
이상의 실시 예에서는 도 2의 모든 과정이 사용자의 자동통역 장치(200)에서 이루어지는 것으로 가정하였으나, 음성 합성부(280)는 상대방이 들어야 할 음성을 출력하는 장치이므로, 자동통역 장치(200)가 자동 번역부(270)에서 출력되는 번역 결과를 상대방 자동통역 장치(30)로 전송하고, 상대방 자동통역 장치(30)에서 번역 결과를 수신하여 화면에 표시하고 음성 합성부를 통해 음성합성 결과를 출력하도록 구성할 수 있음은 물론이다. 이렇게 함으로써, 사용자가 자신의 자동통역 장치(200)를 이용하여 음성합성 결과를 상대방에게 전달하는 구성일 경우, 자동통역 장치에 상대방이 사용하는 언어에 따라 각기 다른 음성 합성부(280)를 설치하여 하는 것과 달리, 각 사용자의 자동통역 장치(200)에 자신의 언어에 해당하는 음성 합성부(280)만을 설치하면 된다.In the above embodiment, it is assumed that all the processes of FIG. 2 are performed by the user's
또한, 자동 번역부(270)의 경우 사용자의 자동통역 장치(200)에 설치하거나 상대방 자동통역 장치(30)의 자동 번역부를 이용하는 방법 모두 가능하며, 두 자동통역 장치(200)가 아닌 제3의 장소에 많은 계산량과 메모리를 사용할 수 있는 서버급 연산장치에 자동 번역부를 설치하고, 통신을 통하여 음성인식 결과 및 자동번역 결과를 주고 받을 수 있도록 구성할 수도 있다. In addition, the
이상 바람직한 실시예와 첨부도면을 참조하여 본 발명의 구성에 관해 구체적으로 설명하였으나, 이는 예시에 불과한 것으로 본 발명의 기술적 사상을 벗어나지 않는 범주내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 안되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.
Although the configuration of the present invention has been described in detail with reference to the preferred embodiments and the accompanying drawings, this is only an example, and various modifications are possible within the scope without departing from the spirit of the present invention. Therefore, the scope of the present invention should not be limited by the illustrated embodiments, but should be determined by the scope of the appended claims and equivalents thereof.
20 : 상대방 장치 30 : 상대방 자동통역 장치
100 : 상호작용 서비스 제공 장치 110 : 개인정보 관리부
120 : 상대방 정보 수신부 130 : 상황 판단부
140 : 서비스 조정부 150 : 서비스 제공부
160 : 서비스 조정지원 200 : 자동통역 장치
210 : 개인정보 관리부 220 : 상대방 정보 수신부
230 : 상황 판단부 240 : 언어 모델 조정부
250 : 번역자원 조정부 260 : 음성 인식부
270 : 자동 번역부 280 : 음성 합성부
290 : 상황별 번역자원 291 : 상황별 언어모델 추출자원 20: counterpart device 30: counterpart automatic interpretation device
100: interaction service providing apparatus 110: personal information management unit
120: counterpart information receiver 130: situation determination unit
140: service adjustment unit 150: service provider
160: service coordination support 200: automatic interpretation device
210: personal information manager 220: counterpart information receiver
230: situation determination unit 240: language model adjustment unit
250: translation resource adjustment unit 260: speech recognition unit
270: automatic translation unit 280: speech synthesis unit
290: Contextual Translation Resources 291: Contextual Language Model Extraction Resources
Claims (1)
입력된 사용자의 개인정보와 수신된 상대 사용자의 개인정보를 조합하고, 조합된 정보를 근거로 상기 사용자와 상기 상대 사용자의 주변 상황을 분석하는 상황 판단부;
분석된 상기 주변 상황을 근거로 상기 지원 서비스의 정보와 자원을 조정하는 서비스 조정부; 및
조정된 상기 정보와 자원에 따라 상기 주변 상황에 적합한 지원 서비스를 제공하는 서비스 제공부
를 포함하는 상호작용을 위한 서비스 제공 장치.
An apparatus for providing a support service for interaction between at least two users using their own electronic devices,
A situation determination unit which combines input personal information of the user and personal information of the received counterpart user, and analyzes the surrounding conditions of the user and the counterpart user based on the combined information;
A service adjustment unit for adjusting information and resources of the support service based on the analyzed surrounding situation; And
A service provider for providing a support service suitable for the surrounding situation according to the adjusted information and resources
Device for providing a service for interaction comprising a.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100082078A KR20120019011A (en) | 2010-08-24 | 2010-08-24 | Interaction service providing apparatus based on combination of users' information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100082078A KR20120019011A (en) | 2010-08-24 | 2010-08-24 | Interaction service providing apparatus based on combination of users' information |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20120019011A true KR20120019011A (en) | 2012-03-06 |
Family
ID=46128074
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100082078A KR20120019011A (en) | 2010-08-24 | 2010-08-24 | Interaction service providing apparatus based on combination of users' information |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20120019011A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170022784A (en) * | 2015-08-21 | 2017-03-02 | 한국전자통신연구원 | Method for connecting automatic interpretation service in crowd |
-
2010
- 2010-08-24 KR KR1020100082078A patent/KR20120019011A/en not_active Application Discontinuation
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170022784A (en) * | 2015-08-21 | 2017-03-02 | 한국전자통신연구원 | Method for connecting automatic interpretation service in crowd |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9864745B2 (en) | Universal language translator | |
US9507772B2 (en) | Instant translation system | |
US8775181B2 (en) | Mobile speech-to-speech interpretation system | |
KR101834546B1 (en) | Terminal and handsfree device for servicing handsfree automatic interpretation, and method thereof | |
AU2011209760B2 (en) | Integration of embedded and network speech recognizers | |
JP5967569B2 (en) | Speech processing system | |
JP5628749B2 (en) | Interpretation method using interpreter terminal and mutual communication between interpreter terminals | |
KR101412657B1 (en) | Method and apparatus for improving automatic interpretation function by use of mutual communication between portable interpretation terminals | |
CN111354362A (en) | Method and device for assisting hearing-impaired communication | |
US20190164541A1 (en) | Real-time utterance verification system and method thereof | |
JP6832503B2 (en) | Information presentation method, information presentation program and information presentation system | |
KR20160059640A (en) | Method for recognition voice apply to multi voice recognition module and voice recognition apparatus thereof | |
KR20120019011A (en) | Interaction service providing apparatus based on combination of users' information | |
KR20200045867A (en) | Server And System For Providing Service Of Multi-Lingual Service | |
KR20220099083A (en) | System, user device and method for providing automatic interpretation service based on speaker separation | |
CN107316644A (en) | Method and device for information exchange | |
KR101165906B1 (en) | Voice-text converting relay apparatus and control method thereof | |
KR100369732B1 (en) | Method and Apparatus for intelligent dialog based on voice recognition using expert system | |
JP7333371B2 (en) | Automatic Interpretation Method Based on Speaker Separation, User Terminal Providing Automatic Interpretation Service Based on Speaker Separation, and Automatic Interpretation Service Providing System Based on Speaker Separation | |
US20230377558A1 (en) | Gaze-based and augmented automatic interpretation method and system | |
JP6856277B1 (en) | Automatic voice translation system that sets the translation language by voice input, automatic voice translation method and its program | |
WO2021161856A1 (en) | Information processing device and information processing method | |
JP6298806B2 (en) | Speech translation system, control method therefor, and speech translation program | |
KR20110021439A (en) | Apparatus and method for transformation voice stream | |
CN114514576A (en) | Data processing method, device and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Withdrawal due to no request for examination |