KR20120019011A - Interaction service providing apparatus based on combination of users' information - Google Patents

Interaction service providing apparatus based on combination of users' information Download PDF

Info

Publication number
KR20120019011A
KR20120019011A KR1020100082078A KR20100082078A KR20120019011A KR 20120019011 A KR20120019011 A KR 20120019011A KR 1020100082078 A KR1020100082078 A KR 1020100082078A KR 20100082078 A KR20100082078 A KR 20100082078A KR 20120019011 A KR20120019011 A KR 20120019011A
Authority
KR
South Korea
Prior art keywords
information
user
unit
service
personal information
Prior art date
Application number
KR1020100082078A
Other languages
Korean (ko)
Inventor
이일빈
김승희
김영익
김동현
조훈영
박준
김상훈
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020100082078A priority Critical patent/KR20120019011A/en
Publication of KR20120019011A publication Critical patent/KR20120019011A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Landscapes

  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Machine Translation (AREA)

Abstract

PURPOSE: An interaction service providing device using user information combination is provided to enable a user to analyze a state and to improve the quality of a service. CONSTITUTION: A condition determining unit(130) combines inputted personal information of a user and received personal information of the other user. The condition determining unit analyzes a condition o the user and the other user based on the combined information. A service adjusting unit(140) adjusts support service information.

Description

사용자 정보 조합을 이용한 상호작용 서비스 제공 장치{Interaction Service Providing Apparatus Based On Combination of Users' Information}Interaction service providing device using user information combinations {Interaction Service Providing Apparatus Based On Combination of Users' Information}

본 발명은 적어도 두 명의 사용자가 각자의 장치를 연결하여 상호작용할 때 제공되는 서비스의 성능을 개선하는 장치에 관한 것으로서, 보다 구체적으로는 각자의 장치를 통해 상호작용하는 사용자들의 사용자 정보 조합을 이용하여 서비스를 제공하는 장치에 관한 것이다.The present invention relates to a device for improving the performance of a service provided when at least two users connect and interact with their respective devices, and more specifically, by using a combination of user information of users interacting through their own devices. It relates to a device for providing a service.

본 발명은 지식경제부의 IT성장동력기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호:2008-S-019-02,과제명:휴대형 한/영 자동통역 기술 개발].The present invention is derived from a study conducted as part of the IT growth engine technology development project of the Ministry of Knowledge Economy [Task management number: 2008-S-019-02, Title: Development of portable Korean / English automatic interpretation technology].

소프트웨어 및 휴대용 전자기기 등의 장치가 사용자에게 제공하는 서비스는 하나의 장치와 사용자 한 사람, 둘 만의 관계에 한정되는 것들이 대부분이지만, 각자의 장치를 가진 두 사용자가 각각의 장치를 이용하여 상호작용하는데 제공되는 서비스도 있다. The services provided to users by devices such as software and portable electronic devices are mostly limited to the relationship between one device and one user, but two users having their own devices interact with each other by using each device. There are also services provided.

예를 들어, 두 사람이 각자의 장치를 연결하여 한 사용자의 장치 안에 저장되어 있는 자료를 다른 사용자의 장치로 전송하는 행위와, 다른 언어를 사용하는 두 사람이 각자의 자동통역 장치를 이용해 대화를 시도하는 것 등이 각자의 장치를 가진 두 사용자가 각각의 장치를 이용하여 상호작용하는 경우에 해당한다. For example, two people connect each other's devices to transfer data stored on one user's device to another user's device, and two people who speak different languages communicate with each other using their automatic interpreter. This is the case when two users with their own devices interact with each other.

전술한 자동통역 장치는 서로 다른 언어를 사용하는 사람들이 자신들의 모국어로도 의사소통을 할 수 있도록 하기 위한 장치로서, 음성 신호를 받아 음성 인식을 수행하고 그 결과를 제 2의 언어로 자동 번역한 후, 그 결과를 다시 음성으로 합성하여 출력한다. 즉, 두 사람의 장치를 연결하여 상대방이 한 말을 사용자의 자동통역 장치가 상대방의 언어로 음성 인식하고, 그 결과를 제 2의 언어로 자동 번역하여 그 결과를 사용자의 자동통역 장치의 화면에 보여주거나 음성 합성을 통해 출력하게 된다.The above-described automatic interpreter is a device for allowing people who speak different languages to communicate in their native language, which receives speech signals, performs speech recognition, and automatically translates the results into a second language. After that, the result is synthesized again by voice and output. In other words, by connecting two devices, the user's automatic interpreter recognizes the speech spoken by the other person's language, automatically translates the result into a second language, and translates the result into the screen of the user's automatic interpreter. It can be shown or output through speech synthesis.

한편, 사용자와 장치 둘 만의 관계에 한정되는 서비스의 경우, 장치에 미리 저장된 사용자의 정보를 이용하여 서비스를 제공할 수 있다. 예를 들면 음악을 재생하여 출력하는 장치의 경우, 사용자의 정보를 바탕으로 사용자가 좋아할 만한 음악을 선정하여 제시할 수 있다. 하지만 이 경우 이용할 수 있는 정보가 사용자의 일반적인 특성, 즉 성별, 나이, 관심사 등에 한정되며 이러한 정보는 사용자가 장치를 사용하려 하는 그 순간의 상황은 반영하지 못하므로, 이를 통해 제공되는 서비스는 상당히 한정적일 수밖에 없다.On the other hand, in the case of a service limited to the relationship between the user and the device alone, the service may be provided using information of the user previously stored in the device. For example, a device that plays and outputs music may select and present music that the user may like based on the information of the user. However, in this case, the information available is limited to the general characteristics of the user, such as gender, age, interests, etc., and this information does not reflect the moment in which the user is trying to use the device, so the services provided through it are quite limited. It must be

그러나, 두 사람이 각자의 장치를 이용하여 상호작용할 경우, 두 사람의 정보를 조합할 수 있으며 이 경우 두 사람이 어떤 상호작용을 하려 하는지, 어떤 문제를 해결하려 하는지에 대해 더욱 구체적인 정보를 얻을 수 있다. 그리고 이를 통해 더욱 효과적으로 상호작용시의 서비스를 개선하여 제공할 수 있다.However, when two people interact with their own devices, they can combine their information, which gives them more specific information about what they want to do and what problems they want to solve. have. And through this, the service at the time of interaction can be improved and provided more effectively.

예컨대, 사람의 경우 다른 사람과 만나 직접 상호작용할 때 다양한 정보를 이용한다. 상호작용하는 장소, 상대방의 모습과 그것으로 유추한 상대방의 직업, 지위, 출신, 그리고 상호작용이 이루어지는 시간과 전후 상황 등을 이용하여 상호작용에 활용한다. 예를 들어, 사람이 다른 사람이 말하는 음성을 인식할 때, 상대방이 누구이며 대화가 어디서 이루어지는지, 현재시간은 언제이며 서로 원하는 것이 무엇인지 등의 다양한 배경 정보를 갖고 있다. 실제로 상대방이 말하는 문장의 단어 하나하나를 다 듣지 못했더라도 이러한 정보들을 이용하여 상대방의 의도를 파악할 수 있다. For example, people use a variety of information when meeting and interacting directly with others. It uses the place of interaction, the appearance of the other party, and the job, status, origin, and time of the interaction and the situation before and after the interaction. For example, when a person recognizes a voice spoken by another person, he or she has various background information such as who the other person is, where the conversation takes place, when the current time is, and what they want from each other. In fact, even if you do not hear every word of the sentence spoken by the other party can use this information to determine the other person's intention.

이와 유사하게 두 사람이 각자의 장치를 이용하여 상호작용하는 경우, 각 장치가 사람과 같이 두 사람의 정보를 조합하여 상황을 파악함으로써, 두 사용자의 상호작용을 더 잘 보조할 수 있도록 하는 서비스를 제공할 수 있다. Similarly, when two people interact with their own devices, each device combines the information of two people together, like a person, to grasp the situation, providing a service that can better assist the interaction of two users. Can provide.

그러나, 기존의 서비스 제공 장치는 적어도 두 명의 사용자가 각자의 장치를 통해 상호작용하려 할 때 사용자들이 속해 있는 상황에 대한 이해 없이 사용자들의 지시만을 따르고, 이는 사용자들에게 필요 이상의 지시를 하게 함으로써 불편을 초래할 수 있으며, 사용자들의 지시사항이 덜 구체적이거나 장치가 사용자의 지시사항을 제대로 이해하지 못했을 경우, 사용자가 요구하는 수준의 서비스를 제공할 수 없는 문제점이 있다. However, existing service providing devices only follow the user's instructions when at least two users attempt to interact through their own devices, without understanding the situation in which the users belong, which causes inconvenience to users by providing more instructions than necessary. If the user's instructions are less specific or the device does not understand the user's instructions, there is a problem that the user cannot provide the level of service required.

본 발명은 상기와 같은 문제점을 감안하여 창출한 것으로서, 서비스 제공 장치를 이용하여 상호작용하는 적어도 두 명의 사용자의 장치를 연결하여 사용자들의 개인정보를 교환하고, 이를 조합하여 현재 사용자들이 속한 상황을 분석하여 사용자들이 상호작용할 때 제공받고자 하는 서비스의 품질을 향상시킬 수 있는 사용자 정보 조합을 이용한 상호작용 서비스 제공 장치를 제공하는 데 그 목적이 있다.The present invention was created in view of the above-mentioned problems, and connects the devices of at least two users who interact with each other using a service providing device to exchange personal information of users, and analyzes the current user's situation by combining them. Therefore, the object of the present invention is to provide an interactive service providing apparatus using a combination of user information that can improve the quality of service to be provided when users interact with each other.

전술한 목적을 달성하기 위하여, 본 발명의 일면에 따른 상호작용을 위한 서비스 제공 장치는 적어도 두 사용자 간 각자의 전자기기를 이용한 상호작용에 지원 서비스를 제공하는 장치로서, 입력된 사용자의 개인정보와 수신된 상대 사용자의 개인정보를 조합하고, 조합된 정보를 근거로 상기 사용자와 상기 상대 사용자의 주변 상황을 분석하는 상황 판단부; 분석된 상기 주변 상황을 근거로 상기 지원 서비스의 정보와 자원을 조정하는 서비스 조정부; 및 조정된 상기 정보와 자원에 따라 상기 주변 상황에 적합한 지원 서비스를 제공하는 서비스 제공부를 포함한다.In order to achieve the above object, a service providing device for interaction according to an aspect of the present invention is a device for providing a support service to the interaction using the electronic device between at least two users, the user's personal information and A situation determination unit for combining the received personal information of the counterpart user and analyzing surrounding conditions of the user and the counterpart user based on the combined information; A service adjustment unit for adjusting information and resources of the support service based on the analyzed surrounding situation; And a service provider for providing a support service suitable for the surrounding situation according to the adjusted information and resources.

본 발명에 따르면, 각자의 서비스 제공 장치를 사용하여 상호작용을 시도하는 적어도 두 명의 사용자의 개인 정보를 조합하여 현재 사용자들이 처한 상황에 대한 정보를 추출하고, 이를 기반으로 상호작용이 이루어지는 상황에 적합한 서비스를 제공할 수 있는 효과가 있다.According to the present invention, the personal information of at least two users attempting to interact using their respective service providing devices is combined to extract information on the current situation of users, and based on this, it is suitable for the situation in which the interaction is made. There is an effect that can provide a service.

특히 상호작용이 이루어지는 상황에 적합한 서비스를 제공할 수 있어서 서비스 제공 장치의 성능을 향상시킬 수 있는 이점이 있다.In particular, there is an advantage that can improve the performance of the service providing apparatus can provide a service suitable for the situation in which the interaction occurs.

도 1은 본 발명의 일실시예에 따른 상호작용 서비스 제공 장치를 설명하기 위한 블럭도.
도 2는 도 1을 구체적으로 설명하기 위한 입력된 음성에 대한 통역 결과를 출력하는 자동통역 장치의 블럭도.
도 3은 본 발명의 일실시예에 따른 입력된 음성에 대한 통역 결과를 출력하는 과정을 설명하기 위한 흐름도.
1 is a block diagram illustrating an interaction service providing apparatus according to an embodiment of the present invention.
FIG. 2 is a block diagram of an automatic interpreter for outputting an interpretation result for an input voice to specifically describe FIG. 1.
3 is a flowchart illustrating a process of outputting an interpretation result for an input voice according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 용이하게 이해할 수 있도록 제공되는 것이며, 본 발명은 청구항의 기재에 의해 정의된다. 한편, 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자 이외의 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. And is intended to enable a person skilled in the art to readily understand the scope of the invention, and the invention is defined by the claims. It is to be understood that the terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. It is noted that " comprises, " or "comprising," as used herein, means the presence or absence of one or more other components, steps, operations, and / Do not exclude the addition.

자동통역 장치를 이용하여 모국어가 다른 두 사람이 대화하려할 때 두 사람 모두 자동통역 장치가 설치된 전자기기를 소지하고 있다고 가정한다. 현재 스마트 폰, 넷북 등 모바일 전자기기가 대중화되고 있으며, 사용자가 PC의 메신저 프로그램을 통해 대화하는 환경에서 PC에 설치된 자동통역 장치를 사용할 수도 있으므로 사용자 각자가 갖고 있는 전자기기에 자동통역 장치가 설치된 상황은 충분히 일반적인 가정에 해당한다When two people from different languages speak using the automatic interpreter, it is assumed that both have electronic devices equipped with the automatic interpreter. Currently, mobile electronic devices such as smart phones and netbooks are becoming popular, and automatic interpretation devices installed in PCs can be used in an environment where users can communicate through the messenger program of PCs. Is a general assumption enough

이하, 도 1 및 도 2를 참조하여 본 발명의 일실시예에 따른 사용자 정보 조합을 이용한 상호작용 서비스 제공 장치를 설명한다. 도 1은 본 발명의 일실시예에 따른 상호작용 서비스 제공 장치를 설명하기 위한 블럭도이고, 도 2는 도 1을 구체적으로 설명하기 위한 입력된 음성에 대한 통역 결과를 출력하는 자동통역 장치의 블럭도이다.Hereinafter, an interaction service providing apparatus using a combination of user information according to an embodiment of the present invention will be described with reference to FIGS. 1 and 2. FIG. 1 is a block diagram illustrating an interaction service providing apparatus according to an embodiment of the present invention, and FIG. 2 is a block diagram of an automatic interpretation apparatus outputting an interpretation result for an input voice to specifically describe FIG. 1. It is also.

도 1에 도시된 바와 같이, 본 발명의 상호작용 서비스 제공 장치(100)는 개인정보 관리부(110), 상대방 정보 수신부(120), 상황 판단부(130), 서비스 조정부(140) 및 서비스 제공부(150)를 포함한다.As shown in FIG. 1, the interactive service providing apparatus 100 of the present invention includes a personal information managing unit 110, a counterpart information receiving unit 120, a situation determining unit 130, a service adjusting unit 140, and a service providing unit. And 150.

개인정보 관리부(110)는 주 사용자에 의해 입력된 사용자의 직업, 출신지, 모국어, 나이, 성별, 관심사 등이 포함된 개인정보를 저장한다. 예컨대, 개인정보 관리부(110)는 주 사용자가 상호작용 서비스 제공 장치(100)를 처음 구매하여 설치할 때 개인정보를 입력하도록 요청할 수 있고, 요청에 응하여 사용자가 입력한 개인정보를 저장할 수 있다. The personal information manager 110 stores personal information including a job, a place of origin, a native language, an age, a gender, and an interest of the user input by the main user. For example, the personal information management unit 110 may request to input personal information when the main user first purchases and installs the interactive service providing apparatus 100, and may store personal information input by the user in response to the request.

개인정보 관리부(110)는 개인정보를 상황 판단부(130)에 전달하고, 상대방 장치(20)에 전송한다. 예컨대, 개인정보 관리부(110)는 상호 작용할 상대방 장치(20)와의 정보 교환을 위해, 적외선부, 라디오 주파수(Radio Frequency)부, 블루투스(Bluetooth)부 및 무선 LAN부 중 어느 하나를 포함하고, 적외선, 라디오 주파수(Radio Frequency), 블루투스(Bluetooth), 무선 LAN 중 어느 하나의 통신을 이용하여 상대방 장치(20)에 주 사용자의 개인정보를 전송한다. The personal information manager 110 transmits the personal information to the situation determination unit 130 and transmits the personal information to the counterpart device 20. For example, the personal information management unit 110 may include any one of an infrared unit, a radio frequency unit, a Bluetooth unit, and a wireless LAN unit for exchanging information with the counterpart device 20 to be interacted with. The personal information of the main user is transmitted to the counterpart device 20 by using any one of communication, a radio frequency, a Bluetooth, and a wireless LAN.

상대방 정보 수신부(120)는 대화할 상대방에 대한 개인정보를 그 사람 장치의 개인정보 관리부로부터 받아들인다. 예컨대, 상대방 정보 수신부(120)는 상대방 장치(20)와의 정보 교환을 위해 적외선, 라디오 주파수, 블루투스 및 무선 LAN 등의 장치가 설치될 수 있다. 상대방 정보 수신부(120)가 수신하는 상대방 정보는 개인정보와 동일하게 직업, 출신지, 모국어, 나이, 성별, 관심사 등을 포함한다. 상대방 정보 수신부(120)는 상대방 정보를 상황 판단부(130)로 출력한다.The other party information receiving unit 120 receives the personal information of the other party to communicate with from the personal information manager of the person device. For example, the counterpart information receiver 120 may be equipped with devices such as infrared, radio frequency, Bluetooth, and wireless LAN to exchange information with the counterpart device 20. The counterpart information received by the counterpart information receiver 120 includes a job, a place of origin, a native language, an age, a gender, an interest, and the like, as the personal information. The other party information receiving unit 120 outputs the other party information to the situation determination unit 130.

상황 판단부(130)는 입력된 주 사용자의 개인정보 및 상대방 정보를 조합하여 현재 상호작용이 이루어지는 상황을 판단한다. 두 사람의 개인정보가 어떤 식으로 조합되느냐에 따라 정보 조합의 유용성이 결정된다. 상황 판단부(130)에서는 조합된 정보를 서비스 조정부(140)로 출력한다.The situation determination unit 130 determines a situation in which a current interaction is performed by combining the input personal information and the counterpart information of the main user. How the two people's personal information is combined determines the usefulness of the information combination. The situation determination unit 130 outputs the combined information to the service adjustment unit 140.

서비스 조정부(140)는 입력된 두 사람의 개인정보 조합과 상황별 서비스 조정에 필요한 자원을 바탕으로 적절한 조정정보를 결정하여 서비스 제공부(150)에 출력한다.The service coordination unit 140 determines appropriate coordination information based on the input of the personal information of the two persons and the resources necessary for coordinating the service for each situation, and outputs the coordination information to the service provider 150.

서비스 제공부(150)는 사용자에 의해 입력된 정보와 서비스 조정부(140)에서 출력된 조정정보를 바탕으로 상황에서 적합한 서비스를 결정하여 출력한다.The service provider 150 determines and outputs a suitable service in a situation based on the information input by the user and the adjustment information output from the service adjustment unit 140.

이하에서는 사용자 정보 조합을 이용한 상호작용 서비스 제공 장치를 보다 구체적으로 설명하기 위해, 도 2를 참조하여 두 사용자의 개인 정보를 조합하여 상황을 판단하고, 이를 음성 인식과 자동 번역에 이용하여 자동통역의 품질을 높이는 자동통역 장치를 설명한다. Hereinafter, in order to describe the interaction service providing apparatus using the user information combination in detail, the situation is determined by combining the personal information of the two users with reference to FIG. 2 and used for voice recognition and automatic translation. Explain the automatic interpreter that improves quality.

도 2에 도시된 바와 같이, 자동통역 장치(200)는 개인정보 관리부(210), 상대방 정보 수신부(220), 상황 판단부(230), 언어 모델 조정부(240), 번역자원 조정부(250), 음성 인식부(260), 자동 번역부(270) 및 음성 합성부(280)를 포함한다.As shown in FIG. 2, the automatic interpreter 200 includes a personal information manager 210, a counterpart information receiver 220, a situation determiner 230, a language model adjuster 240, a translation resource adjuster 250, The voice recognition unit 260, an automatic translation unit 270, and a speech synthesis unit 280 are included.

개인정보 관리부(210)는 주 사용자에 의해 사용자의 직업, 출신지, 모국어, 나이, 성별, 관심사 및 자동통역 장치(200)가 사용되는 상황에서의 역할정보 등을 포함하는 개인정보를 입력받을 수 있다. 예컨대, 자동통역 장치(200)가 여행용으로 사용되는 경우, 자동통역 장치(200)는 여행자의 역할, 현지인의 역할, 또는 여행자가 많이 찾는 가게의 점원역할 등 사용자가 자동통역이 필요한 상황에서 어떠한 역할을 수행하는지에 대한 정보를 사용자로부터 입력받을 수 있다. 또는 자동통역 장치(200)가 의료용으로 사용되는 경우, 자동통역 장치(200)는 환자의 역할, 의사나 약사의 역할 등의 역할정보를 입력받을 수 있다. 이러한 역할정보는 사용자의 직업과 일치할 수 있고 일치하지 않을 수도 있으므로, 자동통역 장치(200)의 용도에 따라 사용자에 의해 다양하게 입력될 수 있다.The personal information manager 210 may receive personal information including a job, a place of origin, a native language, an age, a gender, a concern, and role information in a situation where the automatic interpreter 200 is used by the main user. . For example, when the automatic interpreter 200 is used for travel, the automatic interpreter 200 may play a role in a situation where the user needs an automatic interpreter such as a role of a traveler, a role of a local, or a clerk of a shop that a lot of travelers find. Information about whether to perform may be input from the user. Alternatively, when the automatic interpreter 200 is used for medical purposes, the automatic interpreter 200 may receive role information such as a role of a patient, a role of a doctor or a pharmacist. Since the role information may or may not match the user's job, the role information may be variously input by the user according to the purpose of the automatic interpretation device 200.

개인정보 관리부(210)는 주 사용자의 개인정보를 상황 판단부(230)로 출력한다. 또한 개인정보 관리부(210)는 대화할 상대방 자동통역 장치(30)로 주 사용자의 개인정보를 송신한다.The personal information manager 210 outputs the personal information of the main user to the situation determiner 230. In addition, the personal information manager 210 transmits the personal information of the main user to the counterpart interpreter 30 to communicate with.

상대방 정보 수신부(220)는 대화할 상대방에 대한 개인정보를 상대방 자동통역 장치(30)의 개인정보 관리부로부터 받아들인다. 예컨대, 상대방 정보 수신부(220)는 상대방 자동통역 장치(30)로부터 개인정보와 동일하게 직업, 출신지, 모국어, 나이, 성별, 관심사 및 자동통역 장치(200)가 사용되는 상황에서의 역할정보 등을 포함하는 상대방 정보를 수신하고, 수신된 상대방 정보를 상황 판단부(230)로 출력한다.The counterpart information receiver 220 receives personal information on the counterpart to be communicated with from the personal information manager of the counterpart automatic interpreter 30. For example, the counterpart information receiving unit 220 may provide job information, a place of origin, a native language, an age, a gender, a concern, and role information in a situation in which the automatic interpreter 200 is used in the same manner as the personal information from the counterpart interpreter 30. Receives the other party information to be included, and outputs the received other party information to the situation determination unit 230.

상황 판단부(230)는 입력된 주 사용자의 개인정보 및 상대방 정보를 조합하여 현재 대화가 이루어지는 상황을 판단한다. 상황 판단부(230)는 조합된 정보를 언어 모델 조정부(240)와 번역자원 조정부(250)로 출력한다.The situation determination unit 230 determines a situation where a current conversation is made by combining the input personal information and the counterpart information of the main user. The situation determination unit 230 outputs the combined information to the language model adjusting unit 240 and the translation resource adjusting unit 250.

언어 모델 조정부(240)는 입력된 두 사람의 개인정보 조합과 상황별 언어모델 추출에 필요한 자원을 바탕으로 적절한 언어모델을 결정하여 음성 인식부(260)에 출력한다.The language model adjusting unit 240 determines the appropriate language model based on the input combination of the two persons' personal information and the resources required for the contextual language model extraction and outputs the appropriate language model to the speech recognition unit 260.

번역자원 조정부(250)는 입력된 두 사람의 개인정보 조합과 상황별 번역자원을 바탕으로 적절한 번역자원을 결정하여 자동 번역부(270)에 출력한다.The translation resource adjustment unit 250 determines an appropriate translation resource based on the input personal information combination and contextual translation resources of the two persons and outputs the appropriate translation resource to the automatic translation unit 270.

음성 인식부(260)는 입력된 음성과 언어 모델 조정부(240)에서 출력된 언어 모델을 바탕으로 주어진 상황에서 가장 확률이 높은 문장을 결정하여 자동 번역부(270)로 출력한다.The speech recognizer 260 determines the most probable sentence in a given situation based on the input voice and the language model output from the language model adjuster 240 and outputs the sentence to the automatic translation unit 270.

자동 번역부(270)는 입력된 문장과 번역자원 조정부(250)에서 출력된 번역자원을 바탕으로 주어진 상황에서 가장 적절한 번역 결과를 결정하여 음성 합성부(280)로 출력한다.The automatic translation unit 270 determines the most appropriate translation result in a given situation based on the input sentence and the translation resource output from the translation resource adjusting unit 250 and outputs the result to the speech synthesis unit 280.

음성 합성부(280)는 입력된 문장을 음성으로 합성하여 출력한다. 이때 음성 합성부(280)는 상대방 자동통역 장치(30)에 있는 음성 합성부를 사용할 수 있다. 이러한 경우 번역 결과를 주고 받는 통신 과정이 필요하며, 통신 장치는 개인정보 관리부에 속하는 통신 장치, 예컨대 적외선부, 라디오 주파수부, 블루투스부 및 무선 LNA 부 중 어느 하나를 활용할 수 있다. 주 사용자의 자동통역 장치(200)에서 음성합성을 수행할 경우 다양한 외국어에 대한 음성 합성부(280)를 모두 갖고 있어야 하지만, 상대방의 음성 합성부를 사용하는 경우 각 사용자는 자신의 언어에 해당하는 음성 합성부만 설치함으로써 대화가 가능하다.The speech synthesizer 280 synthesizes the input sentence into speech and outputs the synthesized speech. In this case, the voice synthesizer 280 may use the voice synthesizer in the counterpart interpreter 30. In this case, a communication process of transmitting and receiving a translation result is required, and the communication device may utilize any one of communication devices belonging to the personal information management unit, such as an infrared unit, a radio frequency unit, a Bluetooth unit, and a wireless LNA unit. When speech synthesis is performed by the user's automatic interpretation device 200, the voice synthesis unit 280 for various foreign languages should be provided. However, when the other person's speech synthesis unit is used, each user has a voice corresponding to his or her language. The conversation is possible by installing only the synthesis unit.

이상 본 발명의 일실시예에 따른 사용자 정보 조합을 이용한 상호작용 서비스 제공 장치와 그에 대한 구체적인 예로서 입력된 음성에 대한 통역 결과를 출력하는 자동통역 장치를 설명하였고, 이하에서는 도 3을 참조하여 자동통역 장치를 이용하여 사용자의 정보를 조합하고 입력된 음성을 상황에 적절한 통역결과로 변환하여 출력하는 과정에 대해 설명한다. 도 3은 본 발명의 일실시예에 따른 입력된 음성에 대한 통역 결과를 출력하는 과정을 설명하기 위한 흐름도이다.The interaction service providing apparatus using a user information combination according to an embodiment of the present invention and an automatic interpretation apparatus for outputting an interpretation result for an input voice as a specific example thereof have been described below. The process of combining the user's information using an interpreter and converting the input voice into an interpretation result suitable for the situation will be described. 3 is a flowchart illustrating a process of outputting an interpretation result for an input voice according to an embodiment of the present invention.

제1사용자는 한국인이고 20대 초반의 여행자이며, 제2사용자는 미국인이고 50대 중반의 신발 가게 관리인이라고 가정한다.Suppose a first user is a Korean, a traveler in his early twenties, and a second user is an American and a shoe store manager in his mid-fifties.

도 3에 도시된 바와 같이, 사용자가 처음 자동통역 장치(200)를 구입하거나 설치하였을 경우, 사용자에게 개인정보 입력을 요구한다. 개인정보 관리부(210)는 입력된 개인정보를 저장한다(S300). 이 과정에 의해 일반적으로 개인정보는 사용자가 처음 자동통역 장치(200)를 실행할 때 한번 입력되나, 사용자의 상황이 바뀔 때는 재입력될 수 있다. 개인정보는 [모국어, 연령대, 여행상황에서의 역할]과 같이 구성되며, 제1사용자의 개인정보는 [한국어, 20대 초반, 여행자], 제2사용자의 개인정보는 [영어, 50대 중반, 신발 가게 관리인]과 같이 구성될 수 있다.As shown in FIG. 3, when a user purchases or installs the automatic interpretation device 200 for the first time, a user is required to input personal information. The personal information manager 210 stores the input personal information (S300). By this process, the personal information is generally input once when the user first executes the automatic interpretation device 200, but may be re-entered when the user's situation changes. Personal information consists of [the language, age group, role in travel situation], the first user's personal information [Korean, early 20s, traveler], the second user's personal information [English, mid 50's, Shoe store manager].

두 사람이 각자의 자동통역 장치(200, 30)를 갖고 대화를 시도할 경우, 먼저 두 자동통역 장치(200, 30)를 통신으로 연결한다(S310). 예컨대, 블루투스 통신을 통해 두 장치(200, 30)가 서로 검색하여 상대 장치를 확인하는 과정을 거쳐 연결된다. 또는 두 장치(200,30)에 가속도 센서가 설치되어 있을 경우, 두 장치(200, 30)를 부딪히게 하고, 이때 기록된 가속도 변화 정보를 비교하여 두 장치(200, 30)가 부딪혔음을 알아내어 두 장치(200,30)를 연결시키는 "Bump"기능을 이용할 수도 있다. When two people attempt a conversation with their respective automatic interpretation devices 200 and 30, they first connect the two automatic interpretation devices 200 and 30 by communication (S310). For example, two devices 200 and 30 are connected to each other through a process of searching for each other to identify a counterpart device through Bluetooth communication. Alternatively, when the acceleration sensors are installed in the two devices 200 and 30, the two devices 200 and 30 are bumped, and the two devices 200 and 30 are bumped by comparing the recorded acceleration change information. You can also use the "Bump" function to connect the two devices (200, 30).

이렇게 두 자동통역 장치(200, 30)가 무선으로 연결되면, 두 장치(200, 30)의 사용자 개인정보를 각 장치(200, 30)의 개인정보 관리부(210)에서 상대 장치의 상대방 정보 수신부(220)로 보낸다(S320).When the two automatic interpretation devices 200 and 30 are wirelessly connected, the user information of the two devices 200 and 30 may be transferred from the personal information management unit 210 of each device 200 or 30 to the counterpart information receiving unit of the counterpart device ( 220) (S320).

각 자동통역 장치(200, 30)는 상대방 정보 수신부(220)에 수신된 상대방의 개인정보와 이미 개인정보 관리부(210)에 저장된 사용자의 개인정보를 상황 판단부(230)로 전송한다(S330).Each of the automatic interpretation devices 200 and 30 transmits the personal information of the counterpart received by the counterpart information receiver 220 and the personal information of the user already stored in the personal information manager 210 to the situation determination unit 230 (S330). .

상황 판단부(230)는 정보들을 조합하여 음성 인식과 자동 번역에 도움이 되는 정보를 추출하고(S340), 추출한 정보를 언어 모델 조정부(240) 및 번역자원 조정부(250)에 출력한다.The situation determination unit 230 combines the information to extract information useful for speech recognition and automatic translation (S340), and outputs the extracted information to the language model adjusting unit 240 and the translation resource adjusting unit 250.

언어 모델 조정부(240)는 입력된 정보를 통해 주어진 상황에서 발화될 만한 문장들을 잘 표현하는 언어모델을 만든다. The language model adjusting unit 240 creates a language model that expresses sentences that may be uttered in a given situation through the input information.

번역자원 조정부(250)는 입력된 정보를 통해 주어진 상황에 적절한 번역자원을 추출한다(S350). 여기서 상황 제시 정보는 제1사용자와 제2사용자의 연령대의 조합 및 여행 상황에서의 역할일 수 있다. The translation resource adjustment unit 250 extracts a translation resource suitable for a given situation through the input information (S350). Here, the context presentation information may be a combination of age groups of the first user and the second user and a role in the travel situation.

즉, 상황 판단부(230)에서 [20대 초반, 50대 후반]과 같은 연령대 조합 정보와 [여행자, 신발 가게 관리인]이라는 역할 조합 정보를 언어모델 조정부(240) 및 번역자원 조정부(250)에 보낼 수 있다. 이 과정은 두 사람의 자동통역 장치(200,30)에서 각각 동시에 이루어진다. That is, in the situation determination unit 230, age group combination information such as [early 20s and late 50s] and role combination information of [traveler, shoe store manager] are provided to the language model adjusting unit 240 and the translation resource adjusting unit 250. can send. This process is performed at the same time in each of the two automatic interpreter (200,30).

제1사용자의 자동통역 장치(200)의 언어모델 조정부(240)에서는 [20대 초반, 50대 후반]이라는 정보를 통해 제1 사용자가 제2 사용자와의 대화에서 존대말을 발화하리라는 것을 예상하고, 그에 맞는 언어 모델을 만들 수 있다. 또한 [여행자, 신발 가게 관리인]이라는 정보를 통해 특정 신발이 어디에 있는지, 어떤 사이즈가 있는지 등의 질문을 하리라는 것을 예상할 수 있으므로, 그에 맞는 언어 모델을 만들 수 있다.The language model adjusting unit 240 of the automatic interpretation apparatus 200 of the first user anticipates that the first user will utter great words in the dialogue with the second user through the information [the early 20s and the late 50s], You can create a language model for that. In addition, the information "Traveler, Shoe Store Manager" can be used to predict where a particular shoe is, what size it is, and so on, so you can create a language model that fits it.

제2 사용자의 자동통역 장치(30)의 언어 모델 조정부에서는 [여행자, 신발 가게 관리인]이라는 정보를 통해 제2 사용자가 매장 배치, 신발 종류에 대해 설명하고 결재 방법을 안내하는 발화를 하리라는 것을 예상할 수 있으므로, 그에 맞는 언어 모델을 만들 수 있다. 또한 제2 사용자의 번역자원 조정부에서는 [여행자, 신발가게 관리인]이라는 정보를 통해 신발 가게에서 이루어지는 대화에 적합한 번역자원을 불러올 수 있다. The language model adjustment unit of the automatic interpretation device 30 of the second user may expect that the second user will make a utterance explaining the store arrangement, the type of shoes, and guide the payment method through the information [traveler, shoe store manager]. You can create a language model that fits your needs. In addition, the translation resource coordination unit of the second user may retrieve a translation resource suitable for a conversation in the shoe store through the information [traveler, shoe store manager].

'Air Force'의 경우 일반적으로는 '공군'으로 번역되지만 신발 가게에서는 특정 상표 이름이며, 제2 사용자가 'This doesn't go that small.'라고 발성하였을 때 이 문장의 번역 결과가 직역 결과인 '이것은 그것 작게 가지 않습니다.'가 아닌 '이것은 그렇게 작은 사이즈가 나오지 않습니다.'라고 번역되어야 한다는 등의 번역자원을 불러 올 수 있다.In the case of "Air Force," it is usually translated as "air force." But in a shoe store, it is a specific brand name. When a second user speaks "This doesn't go that small." Translation resources such as 'This doesn't go that small' but 'It doesn't come out that small' can be called.

언어 모델 조정부(240)에서 만들어진 언어모델은 음성 인식부(260)로 보내어지고, 음성 인식부(260)에서는 입력된 언어 모델과 음성 신호를 바탕으로 사용자가 발화한 음성을 인식하여 텍스트 문장으로 자동 번역부(270)에 출력한다(S360). The language model generated by the language model adjusting unit 240 is sent to the speech recognition unit 260, and the speech recognition unit 260 recognizes the voice spoken by the user based on the input language model and the voice signal and automatically converts the text into a text sentence. Output to the translation unit 270 (S360).

번역자원 조정부(250)에서 추출된 번역자원은 자동 번역부(270)로 보내어지고, 자동 번역부(270)는 입력된 번역자원과 음성 인식부(260)에서 출력된 문장을 바탕으로 사용자가 발화한 음성을 제2언어로 번역하여 이를 텍스트 문장으로 음성 합성부(280)에 출력한다(S370). The translation resource extracted from the translation resource adjusting unit 250 is sent to the automatic translation unit 270, and the automatic translation unit 270 utters the user based on the input translation resource and the sentence output from the voice recognition unit 260. The voice is translated into the second language and output as a text sentence to the voice synthesizer 280 (S370).

음성 합성부(280)는 자동 번역부(270)에서 출력된 텍스트문장을 음성으로 합성하여 출력한다(S380).The speech synthesizer 280 synthesizes the text sentences output from the automatic translation unit 270 into speech and outputs the speech (S380).

전술한 바와 같이, 각 사용자가 자신의 서비스 제공 장치를 사용하여 상호작용을 시도할 경우, 각 사용자의 서비스 제공 장치에서는 사용자의 개인 정보와 상호작용을 위한 상대방의 개인정보를 조합하여 주변 정보를 추출하고, 이를 기반으로 각 사용자 간의 상호작용이 이루어지는 상황에 적합한 서비스를 제공할 수 있다.As described above, when each user attempts to interact using his or her own service providing device, the service providing device of each user extracts the surrounding information by combining the user's personal information and the other's personal information for interaction. And, based on this, it is possible to provide a service suitable for the situation where the interaction between each user is made.

이상의 실시 예에서는 도 2의 모든 과정이 사용자의 자동통역 장치(200)에서 이루어지는 것으로 가정하였으나, 음성 합성부(280)는 상대방이 들어야 할 음성을 출력하는 장치이므로, 자동통역 장치(200)가 자동 번역부(270)에서 출력되는 번역 결과를 상대방 자동통역 장치(30)로 전송하고, 상대방 자동통역 장치(30)에서 번역 결과를 수신하여 화면에 표시하고 음성 합성부를 통해 음성합성 결과를 출력하도록 구성할 수 있음은 물론이다. 이렇게 함으로써, 사용자가 자신의 자동통역 장치(200)를 이용하여 음성합성 결과를 상대방에게 전달하는 구성일 경우, 자동통역 장치에 상대방이 사용하는 언어에 따라 각기 다른 음성 합성부(280)를 설치하여 하는 것과 달리, 각 사용자의 자동통역 장치(200)에 자신의 언어에 해당하는 음성 합성부(280)만을 설치하면 된다.In the above embodiment, it is assumed that all the processes of FIG. 2 are performed by the user's automatic interpreter 200, but since the speech synthesizer 280 is a device that outputs the voice to be heard by the other party, the automatic interpreter 200 automatically Translating the translation result output from the translator 270 to the other party's automatic interpreter 30, receiving the translation result from the other party's automatic interpreter 30 to display on the screen and outputs the speech synthesis results through the speech synthesizer Of course you can. In this way, when the user is configured to deliver the result of speech synthesis to the other party using his or her automatic interpreter 200, by installing a different speech synthesizer 280 according to the language used by the other party in the automatic interpreter Unlike, the user only needs to install the speech synthesizer 280 corresponding to the language of the automatic interpretation device 200 of each user.

또한, 자동 번역부(270)의 경우 사용자의 자동통역 장치(200)에 설치하거나 상대방 자동통역 장치(30)의 자동 번역부를 이용하는 방법 모두 가능하며, 두 자동통역 장치(200)가 아닌 제3의 장소에 많은 계산량과 메모리를 사용할 수 있는 서버급 연산장치에 자동 번역부를 설치하고, 통신을 통하여 음성인식 결과 및 자동번역 결과를 주고 받을 수 있도록 구성할 수도 있다. In addition, the automatic translator 270 may be installed in the user's automatic translator 200 or by using the automatic translator of the counterpart's automatic translator 30. An automatic translation unit may be installed in a server-class computing device that can use a large amount of computation and memory at a place, and may be configured to transmit and receive voice recognition results and automatic translation results through communication.

이상 바람직한 실시예와 첨부도면을 참조하여 본 발명의 구성에 관해 구체적으로 설명하였으나, 이는 예시에 불과한 것으로 본 발명의 기술적 사상을 벗어나지 않는 범주내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 안되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.
Although the configuration of the present invention has been described in detail with reference to the preferred embodiments and the accompanying drawings, this is only an example, and various modifications are possible within the scope without departing from the spirit of the present invention. Therefore, the scope of the present invention should not be limited by the illustrated embodiments, but should be determined by the scope of the appended claims and equivalents thereof.

20 : 상대방 장치 30 : 상대방 자동통역 장치
100 : 상호작용 서비스 제공 장치 110 : 개인정보 관리부
120 : 상대방 정보 수신부 130 : 상황 판단부
140 : 서비스 조정부 150 : 서비스 제공부
160 : 서비스 조정지원 200 : 자동통역 장치
210 : 개인정보 관리부 220 : 상대방 정보 수신부
230 : 상황 판단부 240 : 언어 모델 조정부
250 : 번역자원 조정부 260 : 음성 인식부
270 : 자동 번역부 280 : 음성 합성부
290 : 상황별 번역자원 291 : 상황별 언어모델 추출자원
20: counterpart device 30: counterpart automatic interpretation device
100: interaction service providing apparatus 110: personal information management unit
120: counterpart information receiver 130: situation determination unit
140: service adjustment unit 150: service provider
160: service coordination support 200: automatic interpretation device
210: personal information manager 220: counterpart information receiver
230: situation determination unit 240: language model adjustment unit
250: translation resource adjustment unit 260: speech recognition unit
270: automatic translation unit 280: speech synthesis unit
290: Contextual Translation Resources 291: Contextual Language Model Extraction Resources

Claims (1)

적어도 두 사용자 간 각자의 전자기기를 이용한 상호작용에 지원 서비스를 제공하는 장치에 있어서,
입력된 사용자의 개인정보와 수신된 상대 사용자의 개인정보를 조합하고, 조합된 정보를 근거로 상기 사용자와 상기 상대 사용자의 주변 상황을 분석하는 상황 판단부;
분석된 상기 주변 상황을 근거로 상기 지원 서비스의 정보와 자원을 조정하는 서비스 조정부; 및
조정된 상기 정보와 자원에 따라 상기 주변 상황에 적합한 지원 서비스를 제공하는 서비스 제공부
를 포함하는 상호작용을 위한 서비스 제공 장치.




An apparatus for providing a support service for interaction between at least two users using their own electronic devices,
A situation determination unit which combines input personal information of the user and personal information of the received counterpart user, and analyzes the surrounding conditions of the user and the counterpart user based on the combined information;
A service adjustment unit for adjusting information and resources of the support service based on the analyzed surrounding situation; And
A service provider for providing a support service suitable for the surrounding situation according to the adjusted information and resources
Device for providing a service for interaction comprising a.




KR1020100082078A 2010-08-24 2010-08-24 Interaction service providing apparatus based on combination of users' information KR20120019011A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100082078A KR20120019011A (en) 2010-08-24 2010-08-24 Interaction service providing apparatus based on combination of users' information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100082078A KR20120019011A (en) 2010-08-24 2010-08-24 Interaction service providing apparatus based on combination of users' information

Publications (1)

Publication Number Publication Date
KR20120019011A true KR20120019011A (en) 2012-03-06

Family

ID=46128074

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100082078A KR20120019011A (en) 2010-08-24 2010-08-24 Interaction service providing apparatus based on combination of users' information

Country Status (1)

Country Link
KR (1) KR20120019011A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170022784A (en) * 2015-08-21 2017-03-02 한국전자통신연구원 Method for connecting automatic interpretation service in crowd

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170022784A (en) * 2015-08-21 2017-03-02 한국전자통신연구원 Method for connecting automatic interpretation service in crowd

Similar Documents

Publication Publication Date Title
US9864745B2 (en) Universal language translator
US9507772B2 (en) Instant translation system
US8775181B2 (en) Mobile speech-to-speech interpretation system
KR101834546B1 (en) Terminal and handsfree device for servicing handsfree automatic interpretation, and method thereof
AU2011209760B2 (en) Integration of embedded and network speech recognizers
JP5967569B2 (en) Speech processing system
JP5628749B2 (en) Interpretation method using interpreter terminal and mutual communication between interpreter terminals
KR101412657B1 (en) Method and apparatus for improving automatic interpretation function by use of mutual communication between portable interpretation terminals
CN111354362A (en) Method and device for assisting hearing-impaired communication
US20190164541A1 (en) Real-time utterance verification system and method thereof
JP6832503B2 (en) Information presentation method, information presentation program and information presentation system
KR20160059640A (en) Method for recognition voice apply to multi voice recognition module and voice recognition apparatus thereof
KR20120019011A (en) Interaction service providing apparatus based on combination of users' information
KR20200045867A (en) Server And System For Providing Service Of Multi-Lingual Service
KR20220099083A (en) System, user device and method for providing automatic interpretation service based on speaker separation
CN107316644A (en) Method and device for information exchange
KR101165906B1 (en) Voice-text converting relay apparatus and control method thereof
KR100369732B1 (en) Method and Apparatus for intelligent dialog based on voice recognition using expert system
JP7333371B2 (en) Automatic Interpretation Method Based on Speaker Separation, User Terminal Providing Automatic Interpretation Service Based on Speaker Separation, and Automatic Interpretation Service Providing System Based on Speaker Separation
US20230377558A1 (en) Gaze-based and augmented automatic interpretation method and system
JP6856277B1 (en) Automatic voice translation system that sets the translation language by voice input, automatic voice translation method and its program
WO2021161856A1 (en) Information processing device and information processing method
JP6298806B2 (en) Speech translation system, control method therefor, and speech translation program
KR20110021439A (en) Apparatus and method for transformation voice stream
CN114514576A (en) Data processing method, device and storage medium

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination