KR100735378B1 - Method for performing video telephone of sign language in wireless terminal - Google Patents

Method for performing video telephone of sign language in wireless terminal Download PDF

Info

Publication number
KR100735378B1
KR100735378B1 KR1020050079923A KR20050079923A KR100735378B1 KR 100735378 B1 KR100735378 B1 KR 100735378B1 KR 1020050079923 A KR1020050079923 A KR 1020050079923A KR 20050079923 A KR20050079923 A KR 20050079923A KR 100735378 B1 KR100735378 B1 KR 100735378B1
Authority
KR
South Korea
Prior art keywords
text
data
sign language
database
text data
Prior art date
Application number
KR1020050079923A
Other languages
Korean (ko)
Other versions
KR20070027943A (en
Inventor
김환
김정훈
임채환
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020050079923A priority Critical patent/KR100735378B1/en
Publication of KR20070027943A publication Critical patent/KR20070027943A/en
Application granted granted Critical
Publication of KR100735378B1 publication Critical patent/KR100735378B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72439User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for image or video messaging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72436User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for text messaging, e.g. SMS or e-mail
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72475User interfaces specially adapted for cordless or mobile telephones specially adapted for disabled users
    • H04M1/72478User interfaces specially adapted for cordless or mobile telephones specially adapted for disabled users for hearing-impaired users
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/40Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/50Telephonic communication in combination with video communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/74Details of telephonic subscriber devices with voice recognition means

Abstract

본 발명은 휴대단말기에서 수화 화상통화의 수행방법에 관한 것으로, 특히, 상기 휴대단말기의 화상통화모드에서 수화를 통해 대화를 수행하는 휴대단말기의 수화 화상통화 수행방법에 관한 것이다.The present invention relates to a method for performing a sign language video call in a mobile terminal, and more particularly, to a method for performing a sign language video call in a mobile terminal for performing a conversation through a sign language in a video call mode of the portable terminal.

이를 달성하기 위하여 휴대단말기의 화상통화모드에서 수화를 통해 화상통화를 수행하는 방법이, 상기 휴대단말기의 수화 화상통화모드에서 입력모드의 종류를 선택하는 과정과; 상기 입력모드의 종류가 문자입력모드로 선택되면, 상기 문자입력모드로 전환하여 입력되는 제1문자데이터에 대응되는 제2문자데이터를 추출하는 과정과; 상기 입력모드의 종류가 음성입력모드로 선택되면, 상기 음성입력모드로 전환하여 입력되는 음성데이터에 대응되는 제2문자데이터를 추출하는 과정과; 상기 입력모드를 통해 제2문자데이터가 추출되면, 상기 추출된 제2문자데이터의 출력모드의 종류를 선택하는 과정과; 상기 출력모드의 종류가 문자출력모드로 선택되면, 상기 제2문자데이터를 이미지로 처리하며, 상기 이미지로 처리된 제2문자데이터를 전송버퍼에 저장하여 전송하는 과정과; 상기 출력모드의 종류가 이미지출력모드로 선택되면, 상기 제2문자데이터를 수화 이미지로 구성하며, 상기 수화 이미지를 전송버퍼에 저장하여 전송하는 과정으로 이루어진 것을 특징으로 한다.In order to achieve this, a method of performing a video call through sign language in a video call mode of the portable terminal includes: selecting a type of an input mode in a sign language video call mode of the portable terminal; If the type of the input mode is selected as a text input mode, switching to the text input mode and extracting second text data corresponding to the input first text data; If the type of the input mode is selected as the voice input mode, switching to the voice input mode to extract second text data corresponding to the input voice data; If the second text data is extracted through the input mode, selecting a type of an output mode of the extracted second text data; If the type of the output mode is selected as a text output mode, processing the second text data as an image, storing and transmitting the second text data processed as the image in a transmission buffer; When the type of the output mode is selected as the image output mode, the second text data may be composed of a sign language image, and the sign language image may be stored in a transmission buffer and transmitted.

수화 화상통화모드, 문자입력모드, 음성입력모드, 문자출력모드. 이미지출력모드 Sign language video call mode, text input mode, voice input mode, text output mode. Image output mode

Description

휴대단말기에서 수화 화상통화의 수행방법{METHOD FOR PERFORMING VIDEO TELEPHONE OF SIGN LANGUAGE IN WIRELESS TERMINAL}Sign language video call in mobile terminal {METHOD FOR PERFORMING VIDEO TELEPHONE OF SIGN LANGUAGE IN WIRELESS TERMINAL}

도 1은 본 발명의 실시 예에 따른 휴대단말기의 구성도.1 is a block diagram of a mobile terminal according to an embodiment of the present invention.

도 2a 및 도 2b는 본 발명의 실시 예에 따른 휴대단말기의 화상통화모드에서 수화 화상통화를 수행하는 과정을 도시한 흐름도.2A and 2B are flowcharts illustrating a process of performing a sign language video call in a video call mode of a mobile terminal according to an exemplary embodiment of the present invention.

도 3a- 도 3c는 상기 도 2a 및 도 2b를 설명하기 위한 도면.3A-3C are views for explaining the above-described FIGS. 2A and 2B.

본 발명은 휴대단말기에서 수화 화상통화의 수행방법에 관한 것으로, 특히, 상기 휴대단말기의 화상통화모드에서 수화를 통해 대화를 수행하는 휴대단말기의 수화 화상통화 수행방법에 관한 것이다.The present invention relates to a method for performing a sign language video call in a mobile terminal, and more particularly, to a method for performing a sign language video call in a mobile terminal for performing a conversation through a sign language in a video call mode of the portable terminal.

현재 휴대 이동통신 단말기는 음성 통신 기능 이외에 고속의 데이터를 전송할 수 있는 구조로 변환하고 있다. 즉, IMT 2000 규격의 이동통신 망을 구현하면, 상기 휴대 단말기를 이용하여 음성통신 이외에 고속의 데이터 통신을 구현할 수 있 다. 상기 데이터 통신을 수행하는 휴대 단말기에서 처리할 수 있는 데이터들은 패킷 데이터 및 영상데이터들이 될 수 있다. 또한 휴대단말기에 카메라나 TV수신기 등을 부가하여 동영상신호를 표시할 수 있는 기능이 구현되고 있다. 따라서 상기와 같이 카메라를 구비하는 휴대단말기는 영상화면을 촬영하여 동영상(moving picture) 및 정지영상(still picture)으로 표시할 수 있으며, 또한 촬영된 영상 화면을 전송할 수도 있다. 또한 TV수신기를 구비하는 상기 휴대단말기는 수신되는 영상신호를 표시할 수 있다.Currently, portable mobile communication terminals are converting to a structure capable of transmitting high speed data in addition to voice communication functions. That is, by implementing a mobile communication network of the IMT 2000 standard, it is possible to implement high-speed data communication in addition to voice communication using the portable terminal. Data that can be processed by the mobile terminal performing the data communication may be packet data and image data. In addition, a function of displaying a video signal by adding a camera or a TV receiver to the portable terminal is implemented. Therefore, the mobile terminal having a camera as described above can take a picture of the video and display it as a moving picture and a still picture, and can also transmit the captured picture. In addition, the mobile terminal having a TV receiver may display a received video signal.

또한 화상통화 기능을 구비하는 상기 휴대단말기는 오디오송수신과 함께 비디오송수신을 수행하면서, 사용자의 비디오데이터를 송신하고 상대측의 비디오데이터를 수신하여 표시하면서 통화를 수행할 수 있다.In addition, the mobile terminal having a video call function can perform a call while transmitting and receiving video along with an audio transmission and reception, transmitting video data of the user and receiving and displaying video data of the other party.

상기와 같이 화상통화기능을 구비한 휴대단말기에서 수화를 통해 대화가 이루어진다면, 보다 편리한 기능을 제공할 수 있을 것이다. As described above, if a conversation is made through a sign language in a mobile terminal having a video call function, a more convenient function may be provided.

따라서 본 발명의 목적은 휴대단말기의 화상통화모드에서 수화를 통해 대화를 수행하는 휴대단말기의 수화 화상통화 수행방법을 제공함에 있다. Accordingly, an object of the present invention is to provide a method of performing a sign language video call of a mobile terminal which performs a conversation through sign language in a video call mode of the portable terminal.

상기 목적을 달성하기 위한 휴대단말기의 화상통화모드에서 수화를 통해 화상통화를 수행하는 방법이, 상기 휴대단말기의 수화 화상통화모드에서 데이터가 입력되면, 상기 입력된 데이터에 대응되는 문자를 추출하는 과정과; 상기 추출된 문자를 이미지로 처리하거나 또는 수화이미지로 구성하여 화상통화 중인 상대방에게 전송하는 과정으로 이루어진 것을 특징으로 한다. A method of performing a video call through a sign language in a video call mode of a mobile terminal to achieve the above object, if data is input in a sign language video call mode of the portable terminal, extracting a character corresponding to the input data and; The extracted text is processed into an image or composed of a sign language image and is transmitted to a counterpart during a video call.

또한 상기 목적을 달성하기 위한 휴대단말기의 화상통화모드에서 수화를 통해 화상통화를 수행하는 방법이, 상기 휴대단말기의 수화 화상통화모드에서 입력모드의 종류를 선택하는 과정과; 상기 입력모드의 종류가 문자입력모드로 선택되면, 상기 문자입력모드로 전환하여 입력되는 제1문자데이터에 대응되는 제2문자데이터를 추출하는 과정과; 상기 입력모드의 종류가 음성입력모드로 선택되면, 상기 음성입력모드로 전환하여 입력되는 음성데이터에 대응되는 제2문자데이터를 추출하는 과정과; 상기 입력모드를 통해 제2문자데이터가 추출되면, 상기 추출된 제2문자데이터의 출력모드의 종류를 선택하는 과정과; 상기 출력모드의 종류가 문자출력모드로 선택되면, 상기 제2문자데이터를 이미지로 처리하며, 상기 이미지로 처리된 제2문자데이터를 전송버퍼에 저장하여 전송하는 과정과; 상기 출력모드의 종류가 이미지출력모드로 선택되면, 상기 제2문자데이터를 수화 이미지로 구성하며, 상기 수화 이미지를 전송버퍼에 저장하여 전송하는 과정으로 이루어진 것을 특징으로 한다.In addition, a method of performing a video call through a sign language in a video call mode of a portable terminal for achieving the above object comprises the steps of: selecting a type of an input mode in a sign language video call mode of the portable terminal; If the type of the input mode is selected as a text input mode, switching to the text input mode and extracting second text data corresponding to the input first text data; If the type of the input mode is selected as the voice input mode, switching to the voice input mode to extract second text data corresponding to the input voice data; If the second text data is extracted through the input mode, selecting a type of an output mode of the extracted second text data; If the type of the output mode is selected as a text output mode, processing the second text data as an image, storing and transmitting the second text data processed as the image in a transmission buffer; When the type of the output mode is selected as the image output mode, the second text data may be composed of a sign language image, and the sign language image may be stored in a transmission buffer and transmitted.

이하 본 발명의 바람직한 실시 예들의 상세한 설명이 첨부된 도면들을 참조하여 설명될 것이다. 도면들 중 동일한 구성들은 가능한 한 어느 곳에서든지 동일한 부호들을 나타내고 있음을 유의하여야 한다.DETAILED DESCRIPTION Hereinafter, detailed descriptions of preferred embodiments of the present invention will be described with reference to the accompanying drawings. It should be noted that the same components in the figures represent the same numerals wherever possible.

도 1은 본 발명의 실시 예에 따른 휴대단말기의 구성을 도시하는 도면으로써, 화상통화기능을 구비하는 휴대단말기의 구성을 도시하는 도면이다. 1 is a view showing the configuration of a mobile terminal according to an embodiment of the present invention, which shows the configuration of a mobile terminal having a video call function.

상기 도 1을 참조하면, RF부123은 휴대 단말기의 무선통신 기능을 수행한다. 상기 RF부123은 송신되는 신호의 주파수를 상승변환 및 증폭하는 RF송신기와, 수신되는 신호를 저잡음 증폭하고 주파수를 하강변환하는 RF수신기등을 포함한다. 모뎀(MODEM)120은 상기 송신되는 신호를 부호화 및 변조하는 송신기 및 상기 수신되는 신호를 복조 및 복호화하는 수신기 등을 구비한다. 오디오 처리부125는 코덱을 구성할 수 있으며, 상기 코덱은 패킷데이터 등을 처리하는 데이터 코덱과 음성 등의 오디오 신호를 처리하는 오디오 코덱을 구비한다. 상기 오디오 처리부125는 상기 모뎀120에서 수신되는 디지털 오디오신호를 상기 오디오코덱을 통해 아날로그신호 변환하여 재생하거나 또는 마이크로부터 발생되는 송신되는 아날로그 오디오신호를 상기 오디오코덱을 통해 디지털 오디오신호로 변환하여 상기 모뎀120으로 전송하는 기능을 수행한다. 상기 코덱은 별도로 구비거나 또는 제어부110에 포함될 수 있다.Referring to FIG. 1, the RF unit 123 performs a wireless communication function of the portable terminal. The RF unit 123 includes an RF transmitter for upconverting and amplifying a frequency of a transmitted signal, and an RF receiver for low noise amplifying and downconverting a received signal. The modem 120 includes a transmitter for encoding and modulating the transmitted signal, a receiver for demodulating and decoding the received signal, and the like. The audio processor 125 may configure a codec, and the codec includes a data codec for processing packet data and an audio codec for processing an audio signal such as voice. The audio processor 125 converts and reproduces the digital audio signal received by the modem 120 through the audio codec or converts the analog audio signal generated from the microphone into a digital audio signal through the audio codec and converts the digital audio signal into the digital audio signal. Sends the function to 120. The codec may be provided separately or included in the controller 110.

메모리130은 프로그램 메모리, 데이터 메모리들로 구성될 수 있다. 상기 프로그램 메모리는 휴대 단말기의 일반적인 동작을 제어하기 위한 프로그램들 및 본 발명의 실시 예에 따라 화상통화모드에서 수화로 화상통화를 수행하도록 제어하는 프로그램들을 저장할 수 있다. 또한 상기 데이터 메모리는 상기프로그램들을 수행하는 중에 발생되는 데이터들을 일시 저장하는 기능을 수행한다. The memory 130 may include program memory and data memories. The program memory may store programs for controlling a general operation of the portable terminal and programs for controlling a video call by sign language in a video call mode according to an embodiment of the present invention. The data memory also temporarily stores data generated during the execution of the programs.

또한 상기 메모리130은 본 발명의 실시 예에 따라 음성데이터베이스, 문자데이터베이스 및 수화데이터베이스를 포함한다. The memory 130 also includes a voice database, a text database, and a sign language database, according to an embodiment of the present invention.

상기 음성데이터베이스는 수화 화상통화모드의 음성입력모드에서 입력되는 음성데이터에 대응되는 문자데이터(이하 "제1문자데이터"라 칭함)를 저장한다. The voice database stores text data (hereinafter referred to as "first text data") corresponding to voice data input in a voice input mode of a sign language video call mode.

또한 상기 문자데이터베이스는 상기 음성데이터베이스를 통해 출력되는 제1 문자데이터에 대응되는 문자데이터(이하, "제2문자데이터"라 칭함) 즉, 수화 화상통화를 위한 문자데이터를 저장한다. 또한 상기 문자데이터베이스는 수화 화상통화모드의 문자입력모드에서 입력되는 문자데이터(이하 "제1문자데이터"라 칭함)에 대응되는 제2문자데이터를 저장한다. In addition, the text database stores text data corresponding to the first text data output through the voice database (hereinafter referred to as "second text data"), that is, text data for a sign language video call. The text database also stores second text data corresponding to text data (hereinafter referred to as "first text data") input in the text input mode of the sign language video call mode.

또한 상기 수화 데이터베이스는 상기 문자데이터베이스를 통해 출력되는 제2문자데이터에 대응되는 수화이미지가 저장된다. 상기 수화 데이터베이스는 손 위치, 손 모양 및 손 동작에 대한 각각의 데이터베이스를 포함한다. In addition, the sign language database stores a sign language image corresponding to the second text data output through the text database. The sign language database includes respective databases for hand position, hand shape, and hand motion.

제어부110은 휴대단말기의 전반적인 동작을 제어하는 기능을 수행한다. 또한 상기 제어부110은 상기 모뎀120 및 코덱을 포함할 수도 있다. 또한 상기 제어부110은 본 발명의 실시 예에 따라 수화 화상통화모드에 입력되는 문자데이터 또는 음성데이터에 대응되는 문자데이터를 추출하여 출력하도록 제어한다.The controller 110 controls a general operation of the mobile terminal. In addition, the controller 110 may include the modem 120 and the codec. In addition, the controller 110 controls to extract and output text data corresponding to text data or voice data input in a sign language video call mode according to an exemplary embodiment of the present invention.

또한 상기 제어부110은 본 발명의 실시 예에 따라 상기 수화 화상통화모드에서 입력된 문자데이터 또는 음성데이터에 대응되는 문자데이터를 이미지로 처리하여 화상통화 중인 상대방에게 전송하도록 제어한다. 또한 상기 제어부110은 본 발명의 실시 예에 따라 상기 수화 화상통화모드에서 입력된 문자데이터 또는 음성데이터에 대응되는 문자데이터를 수화이미지로 구성하여 화상통화 중인 상대방에게 전송하도록 제어한다. In addition, the control unit 110 controls the text data input in the sign language video call mode or text data corresponding to the voice data to be transmitted to the other party in the video call according to the embodiment of the present invention. In addition, the control unit 110 controls the text data input in the sign language video call mode or text data corresponding to the voice data to be a sign language image and transmits the text data to a counterpart in a video call.

카메라부(camera module)140은 영상 데이터를 촬영하며, 촬영된 광 신호를 전기적 신호로 변환하는 카메라 센서와, 상기 카메라센서로부터 촬영되는 아날로그 영상신호를 디지털 데이터로 변환하는 신호처리부를 구비한다. 여기서 상기 카메라 센서는 CCD센서라 가정하며, 상기 신호처리부는 DSP(Digital Signal Processor: DSP)로 구현할 수 있다. 또한 상기 카메라 센서 및 신호처리부는 일체형으로 구현할 수 있으며, 또한 분리하여 구현할 수도 있다. The camera module 140 includes a camera sensor for capturing image data, converting the photographed optical signal into an electrical signal, and a signal processor for converting the analog image signal photographed from the camera sensor into digital data. Herein, it is assumed that the camera sensor is a CCD sensor, and the signal processor may be implemented by a digital signal processor (DSP). In addition, the camera sensor and the signal processor may be integrally implemented or may be separately implemented.

영상처리부150은 상기 카메라부140에서 출력되는 영상신호를 표시하기 위한 화면 데이터를 발생하는 기능을 수행한다. 상기 영상처리부150은 상기 카메라부40에서 출력되는 영상신호를 프레임 단위로 처리하며, 상기 프레임 영상데이터를 상기 표시부160의 특성 및 크기에 맞춰 출력한다. 또한 상기 영상처리부150은 영상코덱을 구비하며, 상기 표시부160에 표시되는 프레임 영상데이터를 설정된 방식으로 압축하거나, 압축된 프레임 영상데이터를 원래의 프레임 영상데이터로 복원하는 기능을 수행한다. 여기서 상기 영상코덱은 JPEG 코덱, MPEG4 코덱, Wavelet 코덱 등이 될 수 있다. 상기 영상처리부150은 OSD(On Screen Display) 기능을 구비한다고 가정하며, 상기 제어부110의 제어하여 표시되는 화면크기에 따라 온스크린 표시데이터를 출력할 수 있다. 또한 상기 영상처리부150은 화상통화모드에서 상기 카메라부140을 통해 수신되는 사용자의 비디오데이터를 압축하며, 화상통화를 위해 연결된 상대방의 비디오데이터를 디코딩하여 상기 표시부160에 출력한다.The image processor 150 performs a function of generating screen data for displaying an image signal output from the camera unit 140. The image processor 150 processes the image signal output from the camera unit 40 in units of frames, and outputs the frame image data according to the characteristics and size of the display unit 160. In addition, the image processor 150 includes an image codec and performs a function of compressing the frame image data displayed on the display unit 160 in a set manner or restoring the compressed frame image data to the original frame image data. The image codec may be a JPEG codec, an MPEG4 codec, a wavelet codec, or the like. It is assumed that the image processor 150 has an On Screen Display (OSD) function, and may output on-screen display data according to a screen size displayed by the control of the controller 110. In addition, the image processor 150 compresses the video data of the user received through the camera unit 140 in the video call mode, decodes the video data of the other party connected for the video call and outputs it to the display unit 160.

상기 표시부160은 상기 영상처리부150에서 출력되는 영상신호를 화면으로 표시하며, 상기 제어부110에서 출력되는 사용자 데이터를 표시한다. 여기서 상기 표시부160은 LCD를 사용할 수 있으며, 이런 경우 상기 표시부160은 LCD제어부(LCD controller), 영상데이터를 저장할 수 있는 메모리 및 LCD표시소자 등을 구비할 수 있다. 여기서 상기 LCD를 터치스크린(touch screen) 방식으로 구현하는 경우, 입력 부로 동작할 수도 있다. 또한 상기 표시부160은 본 발명의 실시 예에 따라 수화 화상통화모드의 문자입력모드에서 문자데이터를 입력하기 위한 문자입력부가 표시될 수 있으며, 상기 문자입력부는 터치스크린으로 구비될 수 있다. 또한 상기 표시부160은 본 발명의 실시 예에 따라 수화 화상통화모드에서 문자이미지 또는 수화 이미지를 표시할 수 있다.The display unit 160 displays an image signal output from the image processor 150 on a screen, and displays user data output from the controller 110. The display unit 160 may use an LCD. In this case, the display unit 160 may include an LCD controller, a memory capable of storing image data, and an LCD display device. In this case, when the LCD is implemented using a touch screen method, the LCD may operate as an input unit. Also, the display unit 160 may display a text input unit for inputting text data in a text input mode of a sign language video call mode according to an embodiment of the present invention, and the text input unit may be provided as a touch screen. The display unit 160 may display a text image or a sign language image in a sign language video call mode according to an exemplary embodiment of the present invention.

키입력부127은 숫자 및 문자 정보를 입력하기 위한 키들 및 각종 기능들을 설정하기 위한 기능키들을 구비한다. 또한 상기 키 입력부127은 본 발명의 실시 예에 따라 수화 다자간의 화상통화를 제어하기 위한 키를 구비할 수 있다. The key input unit 127 includes keys for inputting numeric and character information and function keys for setting various functions. Also, the key input unit 127 may include a key for controlling a video call between sign language multi parties according to an exemplary embodiment of the present invention.

상기와 같은 휴대단말기와 화상통화모드에 수화를 통해 대화를 수행하는 동작을 도 2a 및 도 2b와 도 3a-도 3c를 통해 상세히 살펴본다.An operation of performing a conversation through a sign language in the video communication mode with the mobile terminal will be described in detail with reference to FIGS. 2A, 2B, and 3A through 3C.

상기 도 2a 및 도 2b는 본 발명의 실시 예에 따른 휴대단말기의 화상통화모드에서 수화 화상통화를 수행하는 과정을 도시한 흐름도이며, 상기 도 3a- 도 3c는 상기 도 2a 및 도 2b를 설명하기 위한 도면이다.2A and 2B are flowcharts illustrating a process of performing a sign language video call in a video call mode of a mobile terminal according to an exemplary embodiment of the present invention, and FIGS. 3A to 3C illustrate FIGS. 2A and 2B. It is for the drawing.

이하 본 발명의 실시 예를 도 1의 참조와 함께 상세히 설명한다. Hereinafter, an embodiment of the present invention will be described in detail with reference to FIG. 1.

상기 도 2a 및 도 2b를 참조하면, 상기 휴대단말기의 화상통화모드인 201단계에서 수화가 선택되면, 상기 제어부110은 202단계에서 이를 감지하고 수화입력모드의 종류를 표시한다. 상기 도 3a는 상기 휴대단말기의 화상통화모드에서 상대방의 화상이 표시되는 화면161과 상기 휴대단말기 사용자의 자신의 화상이 표시되는 화면162를 나타내고 있다. 2A and 2B, when sign language is selected in step 201, which is a video call mode of the mobile terminal, the controller 110 detects the sign language and displays the type of sign language input mode in step 202. 3A illustrates a screen 161 on which an image of the other party is displayed in a video call mode of the portable terminal and a screen 162 on which an image of the user of the portable terminal is displayed.

상기 수화입력모드의 종류 중 문자입력모드가 선택되면, 상기 제어부110은 204단계에서 이를 감지하고 문자입력모드로 전환한다. 상기 휴대단말기의 사용자가 205단계에서 문자데이터 즉, 제1문자데이터를 입력하면, 상기 제어부110은 이를 감지하고 상기 입력된 제1문자데이터에 대응되는 제2문자데이터가 존재하는지 상기 메모리130의 문자데이터베이스를 검색하는 206단계를 진행한다. 상기 문자입력모드에서 사용자는 키 입력부127 통해 또는 터치스크린을 통해 제1문자데이터를 입력할 수 있다.If the character input mode is selected from among the types of the sign language input modes, the controller 110 detects this in step 204 and switches to the character input mode. When the user of the portable terminal inputs the text data, that is, the first text data in step 205, the controller 110 detects this and determines whether there is a second text data corresponding to the input first text data. Proceed to step 206 to search the database. In the text input mode, the user may input first text data through a key input unit 127 or a touch screen.

상기 문자데이터베이스 검색 결과, 상기 제1문자데이터에 대응되는 제2문자데이터가 존재하지 않으면, 상기 제어부110은 207단계에서 이를 감지하고 사용자에 의해 제2문자데이터를 선택하여 추출하는 208단계를 진행하다. 상기 208단계에서 상기 제어부110은 상기 표시부160을 제어하여 상기 문자데이터베이스에 저장된 제2문자데이터의 종류를 표시하며, 상기 표시된 제2문자데이터의 종류들 중 상기 사용자에 의해 선택된 제2문자데이터를 추출한다.If there is no second text data corresponding to the first text data as a result of the text database search, the controller 110 detects it in step 207 and proceeds to step 208 to select and extract the second text data by the user. . In step 208, the controller 110 controls the display unit 160 to display the type of the second text data stored in the text database, and extracts the second text data selected by the user from among the displayed types of the second text data. do.

또는 상기 문자데이터베이스에 상기 제1문자데이터에 대응되는 제2문자데이터가 존재하면, 상기 제어부110은 207단계에서 이를 감지하고 상기 제1문자데이터에 대응되는 제2문자데이터의 동음이의어가 존재하는지 판단한다. Alternatively, if the second character data corresponding to the first character data exists in the character database, the control unit 110 detects it in step 207 and determines whether there is a homonym of the second character data corresponding to the first character data. do.

상기 제1문자데이터에 대응되는 제2문자데이터의 동음이의어가 존재하지 않으면, 상기 문자데이터베이스에서 추출된 제2문자데이터를 버퍼에 저장하는 211단계를 진행한다.If there is no homonym of the second character data corresponding to the first character data, step 211 is performed to store the second character data extracted from the character database in a buffer.

그러나, 상기 제1문자데이터에 대응되는 제2문자데이터의 동음이의어가 존재하면, 상기 제어부110은 209단계에서 이를 감지하고 상기 표시부160을 제어하여 상기 제1문자데이터에 대응되는 제2문자데이터의 동음이의어들을 표시한다. 상기 표시된 적어도 두 개의 동음이의어 중에서 해당 제2문자데이터가 선택되면, 상기 제어부110은 210단계에서 이를 감지하고 상기 선택된 제2문자데이터를 추출하여 버퍼에 저장하는 211단계를 진행한다.However, if there is a homonym of the second text data corresponding to the first text data, the controller 110 detects it in step 209 and controls the display unit 160 to display the second text data corresponding to the first text data. Homonyms. If the corresponding second character data is selected from the displayed at least two homonyms, the controller 110 detects it in step 210 and extracts the selected second character data to store in a buffer.

상기 수화입력모드의 종류 중 음성입력모드가 선택되면, 상기 제어부110은 212단계에서 이를 감지하고 음성입력모드로 전환한다. 상기 휴대단말기의 사용자가 213단계에서 음성데이터를 입력하면, 상기 제어부110은 이를 감지하고 상기 입력된 음성데이터를 파싱하여 분석하는 214단계를 진행하다. 상기 제어부110은 상기 214단계에서 분석된 음성데이터에 대응되는 문자데이터가 상기 메모리130의 음성데이터베이스에 존재하는지 검색하는 215단계를 진행한다. 상기 음성데이터베이스에 상기 음성데이터에 대응되는 문자데이터 즉, 제1문자데이터가 존재하면, 상기 제어부110은 이를 감지하고 상기 음성데이터에 대응되는 제1문자데이터를 추출하는 216단계를 진행한다. If the voice input mode is selected from among the types of the sign language input modes, the controller 110 detects this in step 212 and switches to the voice input mode. When the user of the portable terminal inputs the voice data in step 213, the controller 110 detects this and proceeds to step 214 in which the input voice data is parsed and analyzed. The controller 110 proceeds to step 215 for searching whether text data corresponding to the voice data analyzed in step 214 exists in the voice database of the memory 130. If the text data corresponding to the voice data, that is, the first text data exists in the voice database, the controller 110 detects it and proceeds to step 216 of extracting the first text data corresponding to the voice data.

그리고 상기 제어부110은 상기 216단계에서 추출된 제1문자데이터가 상기 메모리130의 문자데이터베이스에 존재하는지 검색하는 206단계를 진행한다.The controller 110 proceeds to step 206 for searching whether the first character data extracted in the step 216 exists in the character database of the memory 130.

상기 문자데이터베이스에 상기 제1문자데이터에 대응되는 제2문자데이터가 존재하지 않으면, 상기 제어부110은 207단계에서 이를 감지하고 사용자에 의해 제2문자데이터를 선택하여 추출하는 208단계를 진행하다. 상기 208단계에서 상기 제어부110은 상기 표시부160을 제어하여 상기 문자데이터베이스에 저장된 제2문자데이터의 종류를 표시하며, 상기 표시된 제2문자데이터의 종류들 중 상기 사용자에 의 해 선택된 제2문자데이터를 추출한다.If the second text data corresponding to the first text data does not exist in the text database, the controller 110 detects it in step 207 and proceeds to step 208 to select and extract the second text data by the user. In step 208, the controller 110 controls the display unit 160 to display the type of the second character data stored in the character database, and displays the second character data selected by the user among the displayed types of the second character data. Extract.

또는 상기 문자데이터베이스에 상기 제1문자데이터에 대응되는 제2문자데이터가 존재하면, 상기 제어부110은 207단계에서 이를 감지하고 상기 제1문자데이터에 대응되는 제2문자데이터의 동음이의어가 존재하는지 판단한다. Alternatively, if the second character data corresponding to the first character data exists in the character database, the control unit 110 detects it in step 207 and determines whether there is a homonym of the second character data corresponding to the first character data. do.

상기 제1문자데이터에 대응되는 제2문자데이터의 동음이의어가 존재하지 않으면, 상기 문자데이터베이스에서 추출된 제2문자데이터를 버퍼에 저장하는 211단계를 진행한다.If there is no homonym of the second character data corresponding to the first character data, step 211 is performed to store the second character data extracted from the character database in a buffer.

그러나, 상기 제1문자데이터에 대응되는 제2문자데이터의 동음이의어가 존재하면, 상기 제어부110은 209단계에서 이를 감지하고 상기 표시부160을 제어하여 상기 제1문자데이터에 대응되는 제2문자데이터의 동음이의어들을 표시한다. 상기 표시된 적어도 두 개의 동음이의어 중에서 해당 제2문자데이터가 선택되면, 상기 제어부110은 210단계에서 이를 감지하고 상기 선택된 제2문자데이터를 추출하여 버퍼에 저장하는 211단계를 진행한다.However, if there is a homonym of the second text data corresponding to the first text data, the controller 110 detects it in step 209 and controls the display unit 160 to display the second text data corresponding to the first text data. Homonyms. If the corresponding second character data is selected from the displayed at least two homonyms, the controller 110 detects it in step 210 and extracts the selected second character data to store in a buffer.

상기 211단계에서 제2문자데이터가 추출되어 버퍼에 저장되면, 상기 제어부110은 수화출력모드의 종류를 표시한다.When the second text data is extracted and stored in the buffer in step 211, the controller 110 displays the type of sign language output mode.

상기 수화출력모드의 종류 중 문자출력모드가 선택되면, 상기 제어부110은 217단계에서 이를 감지하고 상기 211단계의 제2문자데이터를 이미지로 처리하는 218단계를 진행한다. 상기 제어부110은 상기 218단계에서 이미지로 처리된 제2문자데이터를 전송버퍼인 RGB버퍼에 저장하여 화상통화 중인 상대방의 휴대단말기로 전송하도록 제어하는 219단계를 진행한다. 상기 도 3b는 상기 상대방 휴대단말기의 수화 화상통화모드에서 수화를 위한 문자데이터의 표시를 나타내고 있다. 상기 도 3b에서 상대방의 화상 즉, 상기 휴대단말기 사용자의 화상이 표시되는 화면161에는 수화를 위한 문자데이터 즉, 상기 219단계에서 전송된 문자데이터가 표시되고, 화면162에는 상기 상대방 휴대단말기의 사용자 자신의 화상이 표시되고 있다. If the text output mode is selected among the types of the sign language output modes, the controller 110 detects it in step 217 and proceeds to step 218 for processing the second text data in step 211 as an image. In step 218, the controller 110 controls the second text data processed as an image to be stored in an RGB buffer, which is a transmission buffer, to be transmitted to a mobile terminal of a counterpart in a video call. FIG. 3B shows the display of character data for sign language in the sign language video call mode of the counterpart mobile terminal. In FIG. 3B, the screen 161 on which the image of the other party, ie, the image of the user of the mobile terminal is displayed, displays text data for sign language, that is, text data transmitted in step 219, and the user of the mobile terminal of the other party is displayed on the screen 162. The image of is displayed.

상기 수화출력모드의 종류 중 이미지출력모드가 선택되면, 상기 제어부110은 220단계에서 이를 감지하고 상기 수화데이터베이스를 검색하는 221단계를 진행하다. 상기 수화데이터베이스의 검색을 통해 상기 제어부110은 에 상기 221단계의 제2문자데이터와 대응되는 수화이미지를 구성 및 랜더링하는 222단계를 진행한다. 상기 222단계에서 상기 제어부110은 상기 수화데이터베이스에 포함된 손위치 데이터베이스 , 손모양 데이터베이스 및 손동작 데이터베이스를 각각 검색하여 해당 데이터를 추출한 후 상기 제2문자데이터에 대응되는 수화이미지를 구성 및 랜더링한다.If the image output mode is selected among the types of the sign language output modes, the controller 110 detects it in step 220 and proceeds to step 221 for searching the sign language database. In step 222, the controller 110 constructs and renders a sign language image corresponding to the second text data in step 221 through searching the sign language database. In step 222, the controller 110 searches for a hand position database, a hand shape database, and a hand gesture database included in the sign language database, extracts the corresponding data, and constructs and renders a sign language image corresponding to the second text data.

상기 222단계에서 구성 및 랜더링된 수화이미지는 전송버퍼인 RGB버퍼에 저장하여 화상통화 중인 상대방의 휴대단말기로 전송하도록 제어하는 219단계를 진행한다. 상기 도 3c는 상기 상대방 휴대단말기의 수화 화상통화모드에서 수화이미지데이터의 표시를 나타내고 있다. 상기 도 3c에서 상대방의 화상 즉, 상기 휴대단말기 사용자의 화상이 표시되는 화면161에는 수화이미지 데이터 즉, 상기 222단계에서 전송된 문자데이터가 표시되고, 화면162에는 상기 상대방 휴대단말기의 사용자 자신의 화상이 표시되고 있다. The sign language image constructed and rendered in step 222 is stored in an RGB buffer which is a transmission buffer and is controlled to be transmitted to a mobile terminal of a counterpart in a video call. 3C shows the display of sign language image data in a sign language video call mode of the counterpart mobile terminal. In FIG. 3C, a sign language image data, that is, text data transmitted in step 222 is displayed on the screen 161 on which the image of the other party, ie, the image of the user of the portable terminal is displayed, and the image of the user of the mobile terminal of the other party are displayed on the screen 162. Is displayed.

상술한 본 발명의 설명에서는 휴대 단말기와 같은 구체적인 실시 예에 관해 설명하였으나, 여러 가지 변형이 본 발명의 범위에서 벗어나지 않고 실시 할 수 있 다. 따라서 본 발명의 범위는 설명된 실시 예에 의하여 정할 것이 아니고 특허청구범위와 특허청구범위의 균등한 것에 의해 정해져야 한다.In the above description of the present invention, a specific embodiment such as a mobile terminal has been described, but various modifications can be made without departing from the scope of the present invention. Therefore, the scope of the present invention should not be defined by the described embodiments, but should be determined by the equivalent of claims and claims.

즉, 상술한 바와 같이 본 발명은 휴대단말기에서 수화 화상통화의 수행방법을 제공함으로써, 상기 휴대단말기의 화상통화를 통해 청각장애인들이 대화를 할 수 있는 효과가 있다. That is, as described above, the present invention provides a method of performing a sign language video call in a mobile terminal, and thus, the hearing impaired person can communicate through the video call of the mobile terminal.

Claims (17)

휴대단말기의 화상통화모드에서 수화를 통해 화상통화를 수행하는 방법에 있어서,In the method of performing a video call through the sign language in the video call mode of the mobile terminal, 상기 휴대단말기의 수화 화상통화모드에서 데이터가 입력되면, 상기 입력된 데이터에 대응되는 문자를 추출하는 과정과,Extracting a character corresponding to the input data when data is input in a sign language video call mode of the portable terminal; 상기 추출된 문자를 이미지로 처리하거나 또는 수화이미지로 구성하여 화상통화 중인 상대방에게 전송하는 과정으로 이루어진 것을 특징으로 하는 상기 방법. And processing the extracted text as an image or constructing a sign language image and transmitting the extracted text to a counterpart in a video call. 삭제delete 제1항에 있어서, 상기 문자를 추출하는 과정이,The method of claim 1, wherein the extracting of the text comprises: 상기 수화 화상통화모드에서 입력되는 제1문자데이터가 문자데이터베이스에 존재하는지 검색하는 과정과,Searching whether the first text data input in the sign language video call mode exists in a text database; 상기 제1문자데이터가 상기 문자데이터베이스에 존재하면, 상기 제1문자데이터에 대한 동음이의어가 존재하는지 판단하는 과정과,If the first text data exists in the text database, determining whether a homonym for the first text data exists; 상기 동음이의어가 존재하면, 상기 문자데이터베이스에서 상기 제1문자데이터와 대응되는 적어도 두 개의 제2문자데이터들을 표시하는 과정과,If the homonym is present, displaying at least two second character data corresponding to the first character data in the character database; 상기 표시된 제2문자데이터들 중 사용자에 의해 선택된 제2문자데이터를 추출하는 과정이 더 포함된 것을 특징으로 하는 상기 방법.And extracting second text data selected by a user from among the displayed second text data. 제3항에 있어서,The method of claim 3, 상기 제1문자데이터가 상기 문자데이터베이스에 존재하지 않으면, 상기 문자데이터베이스에서 사용자에 의해 선택된 제2문자데이터를 추출하는 과정이 더 포함 된 것을 특징으로 하는 상기 방법.And extracting second character data selected by a user from the character database if the first character data does not exist in the character database. 삭제delete 제1항에 있어서, 상기 문자를 추출하는 과정이,The method of claim 1, wherein the extracting of the text comprises: 상기 수화 화상통화모드에서 음성데이터가 입력되면, 상기 입력된 음성데이터를 파싱하여 분석하는 과정과,When voice data is input in the sign language video call mode, parsing and analyzing the input voice data; 상기 분석된 음성데이터가 음성데이터베이스에 존재하는지 판단하는 과정과,Determining whether the analyzed voice data exists in a voice database; 상기 분석된 음성데이터가 상기 음성데이터베이스에 존재하면, 상기 음성데이터에 대응되는 제1문자데이터를 검색하는 과정과,If the analyzed voice data exists in the voice database, searching for first text data corresponding to the voice data; 상기 제1문자데이터가 문자데이터베이스에 존재하는지 판단하는 과정과,Determining whether the first character data exists in a character database; 상기 제1문자데이터가 상기 문자데이터베이스에 존재하면, 상기 제1문자데이터에 대한 동음이의어가 존재하는지 판단하는 과정과,If the first text data exists in the text database, determining whether a homonym for the first text data exists; 상기 동음이의어가 존재하면, 상기 문자데이터베이스에서 상기 제1문자데이터와 대응되는 적어도 두 개의 제2문자데이터들을 표시하는 과정과,If the homonym is present, displaying at least two second character data corresponding to the first character data in the character database; 상기 표시된 제2문자데이터들 중 사용자에 의해 선택된 제2문자데이터를 추출하는 과정이 더 포함된 것을 특징으로 하는 상기 방법.And extracting second text data selected by a user from among the displayed second text data. 제6항에 있어서,The method of claim 6, 상기 제1문자데이터가 상기 문자데이터베이스에 존재하지 않으면, 상기 문자데이터베이스에서 사용자에 의해 선택된 제2문자데이터를 추출하는 과정이 더 포함 된 것을 특징으로 하는 상기 방법.And extracting second character data selected by a user from the character database if the first character data does not exist in the character database. 제1항에 있어서, 상기 전송하는 과정이,The method of claim 1, wherein the transmitting process, 상기 추출된 문자의 출력모드의 종류를 선택하는 과정과,Selecting a type of an output mode of the extracted character; 상기 출력모드의 종류가 문자출력모드로 선택되면, 상기 추출된 문자를 이미지로 처리하며, 상기 이미지로 처리된 문자를 전송버퍼에 저장하여 전송하는 과정과,If the type of the output mode is selected as the character output mode, the process of processing the extracted character as an image, storing the character processed in the image in a transmission buffer and transmitting; 상기 출력모드의 종류가 이미지출력모드로 선택되면, 상기 추출된 문자를 수화 이미지로 구성하며, 상기 수화 이미지를 전송버퍼에 저장하여 전송하는 과정으로 이루어진 것을 특징으로 하는 상기 방법.And when the type of the output mode is selected as the image output mode, configuring the extracted text as a sign language image, storing the sign language image in a transmission buffer, and transmitting the same. 제8항에 있어서, 상기 추출된 문자를 수화 이미지로 구성하는 과정이,The method of claim 8, wherein the process of configuring the extracted text as a sign language image comprises: 상기 추출된 문자가 수화데이터베이스에 존재하는지 판단하는 과정과,Determining whether the extracted characters exist in a sign language database; 상기 추출된 문자가 수화데이터베이스에 존재하면, 상기 추출된 문자에 대응되는 수화 이미지로를 구성하는 과정으로 이루어진 것을 특징으로 하는 상기 방법.And if the extracted characters exist in a sign language database, constructing a sign language image corresponding to the extracted characters. 제9항에 있어서,The method of claim 9, 상기 수화데이터베이스에는 수화이미지를 구성하기 위한 손 위치, 손 모양 및 손 동작에 대한 각각의 데이터베이스를 포함하는 것을 특징으로 하는 상기 방법.And said sign language database includes respective databases for hand position, hand shape and hand motion for constructing a sign language image. 휴대단말기의 화상통화모드에서 수화를 통해 화상통화를 수행하는 방법에 있어서,In the method of performing a video call through the sign language in the video call mode of the mobile terminal, 상기 휴대단말기의 수화 화상통화모드에서 입력모드의 종류를 선택하는 과정과,Selecting a type of an input mode in a sign language video call mode of the portable terminal; 상기 입력모드의 종류가 문자입력모드로 선택되면, 상기 문자입력모드로 전환하여 입력되는 제1문자데이터에 대응되는 제2문자데이터를 추출하는 과정과, If the type of the input mode is selected as a text input mode, switching to the text input mode to extract second text data corresponding to the first text data input; 상기 입력모드의 종류가 음성입력모드로 선택되면, 상기 음성입력모드로 전환하여 입력되는 음성데이터에 대응되는 제2문자데이터를 추출하는 과정과, If the type of the input mode is selected as the voice input mode, switching to the voice input mode to extract second text data corresponding to the input voice data; 상기 입력모드를 통해 제2문자데이터가 추출되면, 상기 추출된 제2문자데이터의 출력모드의 종류를 선택하는 과정과,When the second text data is extracted through the input mode, selecting a type of an output mode of the extracted second text data; 상기 출력모드의 종류가 문자출력모드로 선택되면, 상기 제2문자데이터를 이미지로 처리하며, 상기 이미지로 처리된 제2문자데이터를 전송버퍼에 저장하여 전송하는 과정과,When the type of the output mode is selected as a text output mode, processing the second text data as an image, storing and transmitting the second text data processed as the image in a transmission buffer; 상기 출력모드의 종류가 이미지출력모드로 선택되면, 상기 제2문자데이터를 수화 이미지로 구성하며, 상기 수화 이미지를 전송버퍼에 저장하여 전송하는 과정으로 이루어진 것을 특징으로 하는 상기 방법.And when the type of the output mode is selected as the image output mode, configuring the second text data as a sign language image, storing the sign language image in a transmission buffer, and transmitting the sign language image. 제11항에 있어서, 상기 문자입력모드에서 상기 제2문자데이터를 추출하는 과 정이, The process of claim 11, wherein the extracting of the second text data in the text input mode comprises: 상기 문자입력모드에서 입력되는 제1문자데이터가 문자데이터베이스에 존재하는지 판단하는 과정과,Determining whether the first text data input in the text input mode exists in a text database; 상기 제1문자데이터가 상기 문자데이터베이스에 존재하면, 상기 제1문자데이터에 대응되는 제2문자데이터를 상기 문자데이터베이스에서 추출하는 과정과,If the first text data exists in the text database, extracting second text data corresponding to the first text data from the text database; 상기 제1문자데이터가 상기 문자데이터베이스에 존재하지 않으면, 상기 문자데이터베이스에서 사용자에 의해 선택된 제2문자데이터를 추출하는 과정으로 이루어진 것을 특징으로 하는 상기 방법.And if the first text data does not exist in the text database, extracting second text data selected by a user from the text database. 삭제delete 제11항에 있어서, 상기 음성입력모드에서 상기 제2문자데이터를 추출하는 과정이, The method of claim 11, wherein the extracting of the second text data in the voice input mode comprises: 상기 음성입력모드에서 음성데이터가 입력되면, 상기 입력된 음성데이터를 파싱하여 분석하는 과정과,When voice data is input in the voice input mode, parsing and analyzing the input voice data; 상기 분석된 음성데이터가 음성데이터베이스에 존재하는지 판단하는 과정과,Determining whether the analyzed voice data exists in a voice database; 상기 분석된 음성데이터가 상기 음성데이터베이스에 존재하면, 상기 음성데이터에 대응되는 제1문자데이터를 검색하는 과정과,If the analyzed voice data exists in the voice database, searching for first text data corresponding to the voice data; 상기 제1문자데이터가 문자데이터베이스에 존재하는지 판단하는 과정과,Determining whether the first character data exists in a character database; 상기 제1문자데이터가 상기 문자데이터베이스에 존재하면, 상기 제1문자데이터에 대응되는 제2문자데이터를 상기 문자데이터베이스에서 추출하는 과정과,If the first text data exists in the text database, extracting second text data corresponding to the first text data from the text database; 상기 제1문자데이터가 상기 문자데이터베이스에 존재하지 않으면, 상기 문자데이터베이스에서 사용자에 의해 선택된 제2문자데이터를 추출하는 과정으로 이루어진 것을 특징으로 하는 상기 방법.And if the first text data does not exist in the text database, extracting second text data selected by a user from the text database. 삭제delete 제11항에 있어서, 상기 이미지출력모드에서 상기 제2문자데이터를 수화 이미지로 구성하는 과정이,The method of claim 11, wherein the configuring of the second text data as a sign language image in the image output mode comprises: 상기 제2문자데이터가 수화데이터베이스에 존재하는지 판단하는 과정과,Determining whether the second character data exists in a sign language database; 상기 제2문자데이터가 상기 수화데이터베이스에 존재하면, 상기 제2문자데이터 대응되는 수화 이미지를 구성하는 과정으로 이루어진 것을 특징으로 하는 상기 방법.And if the second text data exists in the sign language database, constructing a sign language image corresponding to the second text data. 삭제delete
KR1020050079923A 2005-08-30 2005-08-30 Method for performing video telephone of sign language in wireless terminal KR100735378B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050079923A KR100735378B1 (en) 2005-08-30 2005-08-30 Method for performing video telephone of sign language in wireless terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050079923A KR100735378B1 (en) 2005-08-30 2005-08-30 Method for performing video telephone of sign language in wireless terminal

Publications (2)

Publication Number Publication Date
KR20070027943A KR20070027943A (en) 2007-03-12
KR100735378B1 true KR100735378B1 (en) 2007-07-04

Family

ID=38100884

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050079923A KR100735378B1 (en) 2005-08-30 2005-08-30 Method for performing video telephone of sign language in wireless terminal

Country Status (1)

Country Link
KR (1) KR100735378B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101481001B1 (en) * 2008-03-17 2015-01-09 에스케이텔레콤 주식회사 System and method for producing picture-based voice sensoring, server applied to the same

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100778715B1 (en) * 2006-09-29 2007-11-22 한국전자통신연구원 Apparatus and method of controlling for multilateral image communication and visitor confirm in service mode connected home server and home automation

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000043616A (en) * 1998-12-29 2000-07-15 윤종용 Speech recognition videophone communication device
KR20020041379A (en) * 2002-05-07 2002-06-01 이금용 Algorithms and implementations for automatic generation of dactychirogram basecd on text input

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000043616A (en) * 1998-12-29 2000-07-15 윤종용 Speech recognition videophone communication device
KR20020041379A (en) * 2002-05-07 2002-06-01 이금용 Algorithms and implementations for automatic generation of dactychirogram basecd on text input

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101481001B1 (en) * 2008-03-17 2015-01-09 에스케이텔레콤 주식회사 System and method for producing picture-based voice sensoring, server applied to the same

Also Published As

Publication number Publication date
KR20070027943A (en) 2007-03-12

Similar Documents

Publication Publication Date Title
KR100678206B1 (en) Method for displaying emotion in video telephone mode of wireless terminal
KR100678209B1 (en) Method for controlling image in wireless terminal
KR100735290B1 (en) Method for controlling image?in video telephone mode of wireless terminal
KR100606076B1 (en) Method for controlling image in wireless terminal
KR100735289B1 (en) Method for performing call in wireless terminal
KR100678214B1 (en) Method for performing presentation in video telephone mode of wireless terminal
KR100703354B1 (en) Method for transmitting image data in video telephone mode of wireless terminal
KR100735415B1 (en) Method for performing video telephone call of multilateral in?wireless terminal
KR100735378B1 (en) Method for performing video telephone of sign language in wireless terminal
KR100584390B1 (en) Method for performing camera function in mobile communication terminal
KR20050054751A (en) Method for serving data of thumb nail pictorial image in the mobile terminal
KR100703462B1 (en) Method for changing image attach mode in wireless terminal
KR100678130B1 (en) Method for performing call in wireless terminal
KR100678104B1 (en) Method for controlling resource of external device in wireless terminal
KR100630165B1 (en) Method for searching phone number in wireless terminal
KR100617736B1 (en) Method for zooming of picture in wireless terminal
KR100678261B1 (en) Method for performing multitasking in wireless terminal
KR100606079B1 (en) Method for zooming of picture in wireless terminal
KR20060136235A (en) Method for performing call in wireless terminal
KR100557096B1 (en) Method for displaying data in wireless terminal with both camera
KR20070044426A (en) Method for controlling image in video telephone mode of wireless terminal
KR100724892B1 (en) Method for calling using inputted character in wireless terminal
KR100640348B1 (en) Method for displaying of call list in wireless terminal
KR100810362B1 (en) Method for performing file of external memory in wireless terminal
KR20060115197A (en) Method for displaying caller information in wireless terminal

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Publication of correction
FPAY Annual fee payment

Payment date: 20130530

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140529

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20150528

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20160530

Year of fee payment: 10

LAPS Lapse due to unpaid annual fee