CN1423216A - 交流支持装置以及方法 - Google Patents
交流支持装置以及方法 Download PDFInfo
- Publication number
- CN1423216A CN1423216A CN02152408A CN02152408A CN1423216A CN 1423216 A CN1423216 A CN 1423216A CN 02152408 A CN02152408 A CN 02152408A CN 02152408 A CN02152408 A CN 02152408A CN 1423216 A CN1423216 A CN 1423216A
- Authority
- CN
- China
- Prior art keywords
- mentioned
- language
- information
- user
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000013519 translation Methods 0.000 claims abstract description 89
- 238000003860 storage Methods 0.000 claims description 39
- 230000003319 supportive effect Effects 0.000 claims description 36
- 230000033228 biological regulation Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 5
- 210000004704 glottis Anatomy 0.000 claims 1
- 238000004891 communication Methods 0.000 abstract description 4
- 230000000007 visual effect Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 16
- 238000012545 processing Methods 0.000 description 15
- 238000005516 engineering process Methods 0.000 description 9
- 230000008676 import Effects 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000005755 formation reaction Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000014759 maintenance of location Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/142—Image acquisition using hand-held instruments; Constructional details of the instruments
- G06V30/1423—Image acquisition using hand-held instruments; Constructional details of the instruments the instrument generating sequences of position coordinates corresponding to handwriting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Machine Translation (AREA)
- User Interface Of Digital Computer (AREA)
- Character Discrimination (AREA)
- Document Processing Apparatus (AREA)
Abstract
本发明提供了交流支持装置以及方法。用于有效地支持使用不同语言的使用者之间的交流。其中,磁性传感器部(13),检测采用笔器件(11)的手写输入。文字记号识别部(14),根据手写输入识别文字记号,语言记号翻译部(15),翻译被识别后的文字记号。控制部(18),例如通过笔器件(11)的操作,求使用者的位置,把使用者的位置信息存储在配置信息存储部(17)中。另外,控制部(18),把翻译结果向着与使用者的位置对应的方向显示在图象显示部(12)的画面上。进而,控制部(18),直接显示图案,对文字以及记号进行翻译处理。由此,可以有效地支持交流。
Description
技术领域
本发明涉及翻译在使用不同语言的用户之间使用的语言信息,并有效地提示给对方的交流支持装置以及方法。
背景技术
近年,普通人出国的机会在增加,另外,生活在其它国家的外国人也在增加。进而,因特网等的通信技术和计算机网络技术的进步也很显著。由于接触外语的机会和与外国人交流的机会增加,因而不同语言或者不同文化间交流的必要性提高。这从世界规模的统一性看也是必然潮流,可以认为今后这种趋势更加显著。
为了这种不同语言或者不同文化之间的交流,作为以不同语言为母语的人之间的交流的不同语言间交流,和作为具有不同文化背景的人之间的交流的不同文化间交流的必要性增加。
作为和说自己母语不同语言的人交流的方法,可以考虑一方的人学习对方(外国人)的语言的方法,和相互翻译多种语言传达给对方的翻译的方法等。
但是,外语的学习对谁都不容易,另外,为了学习需要花费大量的时间。进而,假设即使可以学到1种外语,但与想要进行交流的对方进行交流时,也有不能使用自己已学会的语言的情况。这种情况下,需要学习第2、第3种外语,语言学习的困难性增大。另外,因为翻译是具有特殊技能的专门职业,所以人数有限,雇佣翻译的费用也很高,一般不太利用。
因而,一般人在旅行海外时考虑的方法是,利用在对译的同时记述在将要遇到的场景中想好的会话短语的会话短语集。在会话短语集中,收录有用于交流的定型短语表现。
但是,因为在会话短语集中收录数受到限制,所以不能收罗在实际的会话中所需要的表现,不另人满意。另外,使用者存储被收录在会话短语集中的定型短语的方法,和学习外语一样是极其困难的。而且,因为会话短语是书籍,所以在实际的会话场面中,迅速查找记述有所需要表现的页是困难的。因而,在实际的交流中不一定有效。
因而,有把这样的会话集的数据电子化,例如作为可以携带大小的电子机器使用的电子翻译机。使用者手持电子翻译机,通过键盘和菜单选择翻译指定翻译的文章。电子翻译机把被输入的文章转换为另一国语言,把转换(翻译)后的文章显示在显示器上,或者声音输出。这样,可以实现和对方的交流。
在电子翻译机中,所需要的短语检索的工作,与作为书籍的会话集相比,减轻了不少。但是,和会话集一样,只能使用限定的定型短语,和局部改变该短语的一些扩展表现。即,使用不同语言的人士之间不能完美的交流。
另外,如果增加电子翻译机的收录短语,由于电子翻译机的操作是通过键盘和菜单选择进行的,所以选择翻译的文章困难。即,实际的交流中的有效性降低。
这样,以往,存在没有一种完美流畅地在使用不同语言的人士之间进行交流的工具的问题。
发明内容
本发明的目的在于提供可以在使用不同语言的人士之间流畅地进行交流的交流支持装置以及方法。
在技术方案1中,描绘部,由在和显示画面之间具有规定的位置关系的多个使用者内规定的使用者,把基于第1种语言的描述信息描绘在上述显示画面上。转换部,把基于上述第1种语言的描述信息转换为基于第2种语言的信息。控制部,在上述多个使用者内,对应成为基于上述第2种语言的信息提供目标的另一使用者的位置,在上述显示画面上提示基于上述第2种语言的信息。因而,在相对显示画面的位置关系不同的多个使用者中,可以把基于作为转换结果的第2种语言的信息,显示在对方使用者容易看到的位置以及方向上。
在技术方案14中,输入部,接受来自使用者的第1种语言的输入信息。翻译部,把上述第1种语言的输入信息翻译为对应于另一使用者的第2种语言的输出信息。提示部,利用与另一使用者的位置对应的指向性,提示采用上述第2种语言的输出信息。由此,可以把输出信息提示在对方的使用者以使用的第2种语言容易看的方向上。
在技术方案27中,在描绘步骤中,由在和显示画面之间具有规定的位置关系的多个使用者内规定的使用者,把基于第1种语言的描述信息描绘在上述显示画面上。在转换步骤中,把基于上述第1种语言的描述信息转换为基于第2种语言的信息。在控制步骤中,在上述多个使用者内,对应成为基于上述第2种语言的信息提供目标的另一使用者的位置,在上述显示画面上提示基于上述第2种语言的信息。因而,在相对显示画面的位置关系不同的多个使用者中,可以把基于作为转换结果的第2种语言的信息,显示在对方使用者容易看到的位置以及方向上。
在技术方案28中,在输入步骤中,接受来自使用者的使用第1种语言的输入信息。在翻译步骤中,把上述第1种语言的输入信息翻译为给另一使用者的第2种语言的输出信息。在提示步骤中,利用对应上述另一使用者的位置的指向性,提示采用上述第2种语言的输出信息。由此,可以以对方使用者使用的第2种语言中容易看到的方向上提示输出信息。
附图说明
图1是展示本发明的实施方式1的交流支持装置的方框图。
图2是展示在图1中的显示信息存储部16的存储内容的一例的说明图。
图3是展示在显示画面上描述的文字位置以及正方向的说明图。
图4展示在图1中的配置信息存储部17的存储内容的一例的说明图。
图5是展示相对显示画面的使用者的配置位置以及正方向的说明图。
图6是用于说明本发明的实施方式1的动作的流程图。
图7是用于说明本发明的实施方式1的具体的使用方法的说明图。
图8是用于说明本发明的实施方式1的具体的使用法的说明图。
图9是展示本发明的实施方式2的交流支持装置的方框图。
图10是用于说明图9中的麦克风21a以及21b、扬声器22a以及22b的实际的配置的说明图。
具体实施方式
以下,参照附图详细说明本发明的实施方式。图1是展示本发明的实施方式1的交流支持装置的方框图。
本实施方式,鉴于近年的声音识别技术和手写输入的自动识别技术的发展、自然语言处理技术,特别是对文本的机械翻译技术的高速化以及精度的提高等的背景,灵活使用这些技术流畅地进行不同语言间的交流。
即,在本实施方式中,受理来自使用者的输入信息,在进行作为信息的提供目标的另一使用者可以理解的翻译处理后,通过对应该使用者的位置确定翻译信息的提示方向,有效地支持使用者相互间的交流。
可是,作为对和说外语的外国人交流的有效的方法,有使用钢笔、铅笔和笔记本等,一边画图和写字一边和对方对话的笔谈的方法。在该方法中,通过以手写显示描绘和图象,可以得到和对方的有效的交流。但是,只在描绘和图形中,把可以表现的具体的事物以外的事物传给对方困难。另外,因为进行交流的双方的人的文化性背景不同,所以不依赖于记号和文化的符号和图形未必有效。
另外,例如日语和汉语,即使是使用双方都称为汉字的共同的罗马字母(文字)的语言之间,实际所使用的汉字的种类(形状)也不同。
因而,在本实施方式中,考虑笔谈具有的有效性,可以手写输入。即,在翻译手写输入的文章的同时,把翻译的文章显示在与对方的位置相应的方向上或者以声音输出。由此,可以进行有效的交流。另外,这种情况下,即使是各种记号以及符号,由于根据各国的语言以及文化进行翻译处理(转换),因而可以谋求交流的有效化。
在图1中,交流支持装置10,至少由1个以上的笔器件11、图象显示部12、磁性传感器部13、文字记号识别部14、语言记号翻译部15、显示信息存储部16、配置信息存储部17,以及控制部18构成。
笔器件11(11a、11b、……),在每个器件上,从笔尖输出包含固有的识别信号的磁性信号。在图象显示部12上设置磁性传感器部13,使用者用手拿着笔器件11,用笔尖在图象显示部12上描绘,由此可以手写输入文字、记号、图形等的图象信息。
图象显示部12,例如由液晶显示器(LCD)等构成,根据后述的控制部18的指示,可以适宜地提示使用者文字和记号、图形等的图象信息。
磁性传感器部13,通过受理各笔器件11发出的磁性信号进行解析,把与在各笔器件11的空间内的位置、移动等的轨迹有关的信息,与主体的接触状态,或者笔器件11的姿势有关的信息作为笔输入信息得到,输出到控制部18。
在本实施方式中,控制部18,可以用与笔器件11的姿势等有关的信息,检测使用笔器件11的使用者和装置10(图象显示部12)的相对位置关系。
文字记号识别部14,通过解析从控制部18提供的笔输入信息,分离抽出手写输入的文字、记号、图形、描绘图象,把与笔尖的轨迹、种类、内容和位置或者方向有关的信息作为识别结果信息得到并输出到控制部18。进而,笔器件的手写输入的识别处理,例如可以采用和在特许第3167799号“联机手写文字识别”中使用的方法一样的方法。
在本实施方式中,控制部18,根据文字记号识别部14的识别结果检测已输入的文字记号等的方向,可以掌握手写输入成为识别对象的文字等的使用者和装置10(图象显示部12)的相对位置关系。另外,控制部18,检测文字记号等是否与某种语言对应,根据检测结果,可以掌握输入了与各语言对应的文字的使用者和装置10(图象显示部12)的相对位置关系。
另外,控制部18,解析手写输入,通过抽出分析与手写输入时的笔迹和笔压有关的信息,和输入图象的特征等,还可以判定进行手写输入的使用者。具体地说,可以判定使用者和装置10(图象显示部12)的相对位置关系,或者使用者10的使用语言种类。
语言记号翻译部15,从由控制部18提供的识别结果信息中,抽出语言信息,和语言种类或者文化固有的记号,翻译成目标语言,把翻译结果信息输出到控制部18。进而,语言信息的翻译处理,可以采用和在例如特许第3131432号“机器翻译方法以及机器翻译装置”中使用的方法一样的方法。
控制部18,根据笔尖输入信息、识别结果信息、翻译结果信息等得到各种显示信息。控制部18,适宜分类这些各种显示信息,保存在显示信息存储部16中。
图2是展示在图1中的显示信息存储部16的存储内容的一例的说明图。
如图2所示,显示信息存储部16,把已输入的信息,分成ID信息、位置信息、方向信息、种类信息、轨迹信息、对译ID信息、内容信息等存储。
在图2所示的显示信息存储部16的各输入中,在ID信息栏中,记述各输入的识别记号。在位置信息栏中,在各显示信息的图象显示部12中的位置以及区域,作为基于图象显示部12的坐标系的坐标记录。如图3所示,图象显示部12上的画面位置,以左上角为原点,用在向右方向延伸的X轴上的坐标值,和向下方延伸的在Y轴上的坐标值的组表示为(X,Y)。例如,在图2中ID信息的13的输入位置信息的值L3,具体地说可以记述为图3中的(10,20)等。
在图2、图3的例子中,与该13的输入对应的输入是表示日语的“家”的日语文字,表示被显示在显示画面上的坐标(10,20)的位置上的文字。
在方向信息栏中,各显示信息的正方向,用基于画面上的坐标系的向量表现。进而,关于不具有正方向的显示信息,记录记号“-。
在种类信息栏中,各显示信息的种类记录为“图形”、“日语”、“英语”、“日语记号”、“英语记号”等。在轨迹信息栏中,记录与从笔输入信息得到的各显示信息对应的输入描绘轨迹。进而,在与用语言记号翻译部15得到的翻译结果对应的输入中,因为不存在轨迹信息,所以记录记号 “-。
另外,在对译ID信息栏中,记录作为翻译对对应的显示信息的输入ID信息。进而,在翻译对不存在的输入中,记录记号 “-。
在内容信息栏中,记录要显示在画面显示部12上的信息的内容。进而,在图形等中,在该栏中记述记号“-,它表示轨迹信息是要直接显示的信息。
在图1中,配置信息存储部17,记录与各利用者相对装置10(图象显示部12)的空间配置有关的信息,
图4是展示图1中的配置信息存储部17的内容的一例的说明图。
如图4所示,配置信息,可以分成用户ID信息、配置信息以及正方向信息等存储。在配置信息存储部17的各输入中,在用户ID信息栏中,记录用于识别各用户的记号。在配置信息的栏中,对应的用户和装置10的空间性的位置关系,沿着装置10的图象显示部12的画面上的坐标系叙述。
即,用把作为图象显示部12的画面上的坐标系采用的X轴以及Y轴向+以及-两方向外推的坐标轴,表现装置10和各使用者的位置。例如,当图4的用户ID信息是使用者J输入的,其配置信息P1的值是(200,-150)的情况下,如图5所示,使用者在使用者与Y轴的负方向(从图象显示部12的画面看的上方向)的坐标值150对应的位置上。
另外,在正方向信息栏中,从对应的用户看为正的方向,沿着图象显示部12的画面上的坐标形用向量表现记录。该正方向,作为向该用户显示信息时的显示方向使用。
在图1中,控制部18控制装置10的各部。
另外,控制部18,还具有样式信息检测功能,它解析手写输入,检测在该手写输入中使用的作为表现的样式信息的输入样式信息。而后,控制部18,把语言种类信息和对应的输入样式信息作为组存储。因而,控制部18,还可以参照存储的信息的组,对应输出信息的语言种类,控制输出样式使其和用同一种语言形成的输入样式相同。
以下,参照图6说明这样构成的实施方式的动作。图6是与控制部18进行的处理程序对应的流程图。
在此,假定对各使用者来说在配置信息存储部17中准备输入。即,与相对使用者的装置10的位置和正方向有关的信息,用上述的方法取得,预先存储在配置信息存储部17中。
在图6的步骤S1中,控制部18,变为笔输入发生的待机状态。如果使用者使用笔器件11进行手写输入,则磁性传感器部13,检测使用者通过笔器件11操作的笔尖的位置以及状态,在控制部18中作为笔输入信息随时输出。
以下,在步骤S2中,进行显示信息的存储。即,控制部18,如果接受笔输入信息,则把该信息输出到文字记号识别部14。在步骤S3中,文字记号识别部14对笔输入进行语言记号识别处理,把识别结果信息输出到控制部18。
控制部18,如果接受来自文字记号识别部14的识别结果信息,则在显示信息存储部16内准备新的输入,适宜地分类接受到的信息存储。这时,在该输入的对译ID信息的栏中存储记号“-。
控制部18,在步骤S4中,专注种类信息的栏和对译ID信息的栏检索显示信息存储部16的各输入。在此,从对译ID信息的内容是“-”的信息之中,抽出种类信息的内容,是语言的种类(日语,英语等),或者是依赖语言的记号的种类(日语记号、英语记号等)的输入。
控制部18,对于被抽出的全部的输入Es,重复以后步骤S5~S7的处理。即,控制部18,把未记录对译的输入的识别结果信息发送到语言记号翻译部15。语言记号翻译部15,在步骤S5中,对识别结果信息进行翻译处理,得到翻译结果信息Rs。语言记号翻译部15,把翻译结果信息Rs输出到控制部18。
以下,控制部18,在步骤S6中,在显示信息存储部16中准备新的输入Et,在输入Et的种类信息的栏中,记录翻译结果信息Rs的翻译结果的种类。另外,控制部18,在输入Et的内容信息的栏中,记录翻译结果信息Rs的翻译结果。
以下,控制部18,在步骤S7中,参照配置信息存储部17,得到与该输入Ed对应的应该接受翻译结果的用户的配置信息的值Pt,和正方向信息的值Vt。而后,控制部18,在输入Et的方向信息栏中,记录值Vt。控制部18,参照显示信息存储部16的内容,查找不会和另一输入的位置信息重复,并且与输入Es的位置信息表示的位置接近的位置Lt,记录在输入Et的位置信息栏中。
以下,在步骤S8中,读出下一输入的信息,重复步骤S4~S8的处理。如果记录全部的输入的对译,则转移至步骤S9,进行显示。
即,控制部18,参照显示信息存储部16的内容,把各个输入表示的内容输出到图象显示部12,使得在各个输入的位置信息表示的位置上,把各个输入的方向信息表示的方向作为正方向显示。
以下,参照图7以及图8的说明图。说明具体的使用方法。图7以及图8的说明图与图2对应。
图7假想使用日语的第1使用者J,和使用英语的第2使用者E面对面,把装置10放置在两者之间,一边描绘地图一边说明地点的场面。图8展示图象显示部12的画面显示的推移。
现在,如图8(a)所示,使用者J用笔器件11,输入表示河流的线I1。通过该输入,执行图6的步骤S1、S2的处理,在显示信息存储部16上生成ID信息=I1的输入。
该输入I1,其种类是图形。文字记号识别部14,识别手写输入不是文字或者记号。因而,这种情况下,控制部18,从图6的步骤S4至步骤S9一步步处理,只把用户输入的描绘线直接输出到图象显示部12。这样在图象显示部12的画面上显示河流的绘画。
以下,假设使用者J输入表示家的线描绘图形I2。于是,如图8(b)所示,在显示信息存储部16中产生I2的输入,直接追加该线描绘图形,显示在图象显示部12的画面上。
在此,假设使用者J,在表示家的线描绘图形附近,用日语输入“家”。于是,由控制部18在显示信息存储部16中生成I3的输入。该输入,是可以翻译的语言信息,根据文字记号识别部14的识别结果,在显示信息存储部16中生成作为对译的英语“HOME”的输入I4。另外,控制部18,设定为使与输入I4对应的显示位置与其它的显示位置不重复,在作为翻译的原语言的日语的“家”附近,并且在靠近使用者E的位置附近,该文字的方向从使用者E看为正方向(步骤S5~S8)。
根据控制部18的设定,如图8(c)所示,在步骤S9中,加上此前的显示内容,显示由使用者J输入的日语的文字“家”。进而,如图8(d)所示,在其附近作为英语对译的英语字符串“HOME”,从使用者E看显示为正向。
以下,如图8(e)所示,由使用者E,手写输入表示桥的线描绘图形15,和英语字符串I6“bridge”。对此同样进行上述各处理,追加从使用者J看正向的日语的对译字符串I7“桥”。
以下,假设使用者J手写表示邮局的记号I8
于是,文字记号识别部14把用手写描绘的图案作为语言文化特有的符号抽出。进而,语言记号翻译部15,对该符号,得到英语的字符串I9“postoffice”的翻译结果。控制部18,在从使用者看的正方向上,把该字符串作为注释追加显示(图8(f))。
这样在本实施方式中,判定使用者的手写信息是否是文字记号,不只是文字,对记号也可以进行对应于对方使用者的翻译处理。进而,在该使用者正向的方向上,把翻译结果作为信息提示。不只是文字,因为采用利用记号和绘画的笔谈,所以即使在定型短语等的用于交流的表现收录数少的情况下,也可以向对方提供交流所需要的很多信息。而且,可以进行文字和绘画的手写输入,输入操作极其容易。即,因为进行绘画和记号和文字的复合性翻译处理,所以极其简单地进行使用图象的交流,在地点的说明等中有效。而且,即使对于不是原本翻译的对象的记号和符号等,也可以进行用文字表现的这种翻译处理,可以容易理解信息。
进而,在本实施方式中,根据各使用者的位置,确定信息的提示位置以及方向。因而,可以同时正向看自己写的文字记号和对方写的文字记号的翻译结果,可以极其有效地支持交流。
例如,假设多个使用者共有1个共用显示画面,多个使用者在该共用显示画面内,用各个笔器件进行手写输入的情况。例如假设在说日语的第1使用者描绘的图形的横向上,第1使用者用日语进一步写入注释。而且,把该日语的注释,例如向说英语的第2使用者翻译为英语,和原日语注释并列显示。这种情况下,在该图形的附近区域中,在距第2使用者物理上近的位置上,显示被翻译为英语的注释。
另外例如,假设隔着桌子相对的,说日语的第1使用者和说英语的第2使用者,把1个共用显示画面平放在位于两者之间的桌子上使用的情况。在第1使用者在描绘的图形的横方向上用日语进一步写入注释时,把日语注释的英语的翻译结果向着第2使用者显示。这种情况下,在该图形的附近区域中,在向着从第2使用者看正向的方向上,显示英语的注释。
另外例如,当受理来自使用者的手写输入的情况下,例如通过解析输入文字和图形的方向,或者输入笔画的行进方向等,检测进行该输入的使用者相对装置10的空间性位置关系。根据该信息,控制对各使用者提示的信息的提示方法,对该使用者提示采用文字信息的信息。这时,参照在上述的处理中检测出的使用者的位置信息,输出相对该用户的文字信息,使得从该使用者的位置看是正向。
另外例如,由通过受理来自使用者的手写输入,解析被包含在其中的文字的种类,辨认所使用的语言的种类。使用该原语言种类信息,可以用于控制对使用者的输出的样式。
另外例如,通过解析来自第1使用者的手写输入,确认该输入是用日语进行的,和包含在其中的文字的正方向。以下,把来自第2使用者的英语输入翻译为日语,提示给第1使用者。这时,在通过上述处理确认的和来自第1使用者采用日语手写输入的正方向相同的方向上,输出作为来自第2使用者的英语输入翻译结果的采用日语的信息。
另外例如,还可以存储第1使用者使用日语,第2使用者使用英语这一信息。即,在受理来自使用者的输入时,解析该输入判定该语言种类,与使用者的空间位置信息的判定结果对应地存储,还可以在后面的信息的提示方法的控制中使用。
在上述的实施方式中,作为输入装置使用具有笔器件以及磁性传感器部的图象显示部,作为提示装置使用图象显示部。但是,通过使用输入输出声音的麦克风和扬声器,即使使用声音也可以进行同样的交流支持。
图9是展示本发明的实施方式2的方框图,展示可以采用声音的交流支持装置。在图9中,在和图1同样的构成要素上赋予同一符号并省略说明。
本实施方式的交流支持装置20,在附加麦克风21a以及21b、扬声器22a以及22b的同时,附加声音识别部25、声音翻译部26以及声音输出部27这一点和图1的实施方式不同。
图10是用于说明麦克风21a以及21b,扬声器22a以及22b的实际的配置的说明图。如图10所示,一对麦克风21a以及21b被安装在图象显示部12的一边的两端上,一对扬声器22a以及22b被安装在与安装有一对麦克风的一边相对的边的两端上。
麦克风21a以及21b把取得的声音信号输出到控制部18。一对麦克风21a以及21b只以规定的间隔配置。通过来自各麦克风21a以及21b的声音信号的时间性的延迟关系,控制部18,可以特定发出被麦克风21a、以及21b取入的声音信号的使用者的位置。
控制部18,把来自麦克风21a以及21b的声音信号付与声音识别部25。声音识别部25,声音识别已被输入的声音信号,把识别结果返回控制部18。控制部18,把声音识别结果输出到声音翻译部26。声音翻译部26,翻译被输入的声音识别结果后返回控制部18。控制部18,把来自声音翻译部26的翻译结果输出到声音输出部27。
声音输出部27具备音像定位装置28。声音输出部27,把被输入的翻译结果转换为声音信号。声音定位装置28,调整声音信号的电平、声音以及相位,使得将翻译结果的声音信号,朝着作为其提供目标的使用者定位。这样,音像输出部,把调整后的声音信号输出到各扬声器22a以及22b。
进而,麦克风以及扬声器的数不只是2个,也可以采用分别设置3个以上的麦克风排列以及扬声器排列。
进而,控制部18,可以解析声音输入,也可以抽出与从声音输入信号得到的声纹和发生样式有关的信息分析。这样,还可以判定进行声音输入的使用者。
在这样构成的实施方式中,不只是手写输入,还可以是声音输入。而且,可以把该声音输入的语言,翻译为对方使用者可以听懂的语言,向对方所在位置输出声音。
另外,控制部18,通过把手写输入的识别结果付与声音翻译部26,还可以把手写输入的文章用对方的语言向对方以声音输出。另外相反,控制部18,由于把声音输入的识别结果付与语言记号翻译部15,还可以把声音输入的文章转换为与对方的语言对应的文字记号显示在图象显示部12的画面上。
这样,在本实施方式中,不只在共用显示画面上对应相互位置进行基于相互语言的图象显示,而且把使用者发出的声音转换为对方语言的声音,可以向对方的位置输出声音。由此,可以显著提高交流的效率。
例如,说日语的第1使用者和说英语的第2使用者,在处于1个共用显示画面的右方和左方的状态下,向第1使用者输出的日语的声音信号,被控制输出在第1使用者的右方向上例如音量变大,向第2使用者输出的英语的声音信号,被控制输出在第2声音者所在的左方向上例如音量增大。
例如,采用具有多个麦克风,根据从各麦克风得到的音量信号的时间性延迟关系,检测发出各个声音信号的空间内的位置的麦克风排列技术,检测装置20和使用者的空间性的配置关系。根据该信息,可以把采用文字和图象的信息配置在距离接受该信息的使用者近的位置上,在对该使用者为正的方向上提示,或者把声音信息定位在接受该信息的使用者的位置上。
另外例如,接受来自使用者的声音输入,通过解析声音输入,辨别发出各声音输入的使用者。利用该信息,解析装置20和各使用者的空间性位置关系,还可以用于控制对使用者的输出样式。
本发明并不限于上述的各实施方式。例如,在手写输入中使用的笔器件中,嵌入磁性标记,通过用磁性传感器解析该标记信息。解析笔器件的空间性位置和姿势。这样,也可以检测出本装置和使用者之间的空间性的配置关系。
另外,使用本装置的各使用者把无线标记带在身边,用具有指向性的天线读取解析该无线标记信息。这样也可以检测出本装置和使用者的空间性配置关系。
另外,输入不只可以由使用者实时进行,也可以经由介质和网络提供。
另外,手写输入和声音输入等,也可以同时并用多个输入装置。
另外,输入例如也可以通过菜单选择等进行。
另外,也可以是输入以声音,输出以文字图象信息等,输入和输出以不同装置(介质)进行。
另外,也可以是一方的使用者以声音进行输入,另一方的使用者以手写输入等,每个使用者的输入装置不同。
另外,也可以是对一方的使用者以声音输出,对另一方的使用者以文字图象输出等,每个使用者的输出装置不同。
另外,除了进行语言翻译的功能,还可以把声音信号转换为文字信号等,并用介质转换功能。
另外,也可以同时输出给多个使用者。
另外,还可以具有多个输出部和输入部。
另外,在上述实施方式中,展示了多名使用者共用1个装置,其构成也可以是相互通信的多台机器。
另外,也可以把语言种类判定处理的结果,利用在翻译方向的确定上。
另外,也可以把输入者判定处理的结果,作为该输入者的使用语言种类,利用到翻译方向的确定上。
另外,当可以作为使用者用手拿着的便携装置实现的情况下,由于具备检测在主体的空间内的姿势的装置,因而也可以并用该信息控制输出的形式。
另外,在上述例子中,展示了控制文字的方向的例子,例如,也可以使用半透明显示、多颜色显示、立体显示等。
另外,各使用者所使用的语言并不限于1种,使用语言也可以有多种。
另外,使用者使用的语言,可以预先设定,或者,可以由使用者适宜的确定。
另外,在使用者和本装置的位置关系的检测处理中,也可以使用对人传感器、脸和手识别等图象识别技术、运动捕获技术进行等。
另外,在控制声音信号的输出形式时,在不是接受该声音信号的使用者的使用者的位置上,可以屏蔽该声音信号,使得其减小或者不能听到。
另外,在上述各实施方式中,展示了作为装置实现本发明的例子,但在上述的具体例子中展示的处理步骤,即使把流程图作为程序记述、安装,用通用的计算机同样地执行也可以得到同样的功能和效果。
即,上述实施方式所述的方法,作为可以使计算机执行的程序,如果用磁盘(软盘、硬盘等)、光盘(CD-ROM、DVD等)半导体存储器等的记录介质把程序读入计算机,用CPU部执行,则可以实现本发明的交流支持装置。
如上所述如果采用本发明,则具有可以实现在使用不同语言的人之间的流畅交流的效果。
Claims (28)
1.一种交流支持装置,其特征在于包含:
描绘部,由相对显示画面在具有规定的位置关系位置上的多个使用者内的规定的使用者,把基于第1种语言的描绘信息描绘在上述显示画面上;
转换部,把基于上述第1种语言的描绘信息转换为基于第2种语言的转换信息;
控制部,在上述多个使用者内,根据成为基于上述第2种语言的信息提供目标的另一使用者的位置,在上述显示画面上把基于上述第2种语言的信息提示到上述显示画面上。
2.权利要求1所述的交流支持装置,其特征在于:上述描绘信息,是文字、单词、文章以及记号内的至少1种。
3.权利要求1所述的交流支持装置,其特征在于:上述描绘部,输入由上述多个使用者各自手写的描绘信息。
4.权利要求3所述的交流支持装置,其特征在于:上述控制部,根据用上述描绘部输入的描绘信息的特征,判定相对上述显示画面的各使用者的配置、正方向,或者语言种类。
5.权利要求4所述的交流支持装置,其特征在于:进一步具备对应各使用者ID,存储配置信息以及正方向信息的配置信息存储部。
6.权利要求2所述的交流支持装置,其特征在于:
上述转换部,从基于上述第1种语言的描绘信息中抽出语言依赖数据,把该语言依赖数据翻译成第2种语言。
7.权利要求6所述的交流支持装置,其特征在于:上述转换部,把基于第1种语言的记号信息翻译为基于第2种语言的单词信息。
8.权利要求6所述的交流支持装置,其特征在于:进一步具备,在用上述描绘部输入基于上述第1种语言的描绘信息时,与该描绘信息ID对应地,存储在上述显示画面上的位置、方向、种类以及描绘内容的显示信息存储部。
9.权利要求8所述的交流支持装置,其特征在于:上述控制部,当被存储在上述显示信息存储部中的描绘信息的种类是语言依赖数据的情况下,与该描绘信息ID的对译ID对应地,把采用第2种语言的翻译结果作为描绘内容存储在上述显示信息存储部中。
10.权利要求9所述的交流支持装置,其特征在于:上述控制部,参照上述显示信息存储部,把在基于上述第1种语言的描绘信息附近,和另一描绘信息不重合的位置,作为采用上述第2种语言的翻译结果的位置信息,与上述对译ID对应地存储在上述显示信息存储部中。
11.权利要求10所述的交流支持装置,其特征在于:上述控制部,从上述配置信息存储部中检索成为采用上述第2种语言的翻译结果的提供目标的使用者的正方向信息,把该正方向信息作为采用上述第2种语言的翻译结果的方向信息,与上述对译ID对应地存储在上述显示信息存储部中。
12.权利要求11所述的交流支持装置,其特征在于:上述控制部,参照上述显示信息存储部,根据该位置信息以及方向信息把采用上述第2种语言的翻译结果显示在上述显示画面上。
13.权利要求4所述的交流支持装置,其特征在于:上述控制部,解析上述描绘信息,检索在该描绘信息中使用的输入样式信息,把该输入样式信息与该语言种类对应地存储。
14.权利要求13所述的交流支持装置,其特征在于:上述控制部,使用与应该提示的上述信息的语言种类对应的上述输入样式信息,确定上述信息的输出样式。
15.权利要求1所述的交流支持装置,其特征在于:上述控制部,利用无线标记或者磁性标记,检索相对上述显示画面的各使用者的位置。
16.一种交流支持装置,其特征在于包含:
输入部,接受来自使用者的第1种语言的输入消息;
翻译部,把上述第1种语言的输入消息翻译为对另一使用者的第2种语言的输出消息;
提示部,利用与上述另一使用者的位置对应的指向性,提示采用上述第2种语言的输出消息。
17.权利要求16所述的交流支持装置,其特征在于:上述输入输出消息,是包含口语以及非语言声音内的至少一种的声音信号。
18.权利要求17所述的交流支持装置,其特征在于:上述输入部,把多个使用者各自发出的声音作为声音消息输入。
19.权利要求18所述的交流支持装置,其特征在于:进一步包含:根据来自上述输入部的声音消息的特征,检索上述多个使用者各自的空间配置的控制部。
20.权利要求19所述的交流支持装置,其特征在于:上述控制部,根据从上述声音消息得到的与声门以及发生样式有关的信息,判定输入上述声音消息的使用者的语言种类。
21.权利要求20所述的交流支持装置,其特征在于:进一步包含:存储上述多个使用者各自的空间性配置以及语言种类的配置信息存储部。
22.权利要求21所述的交流支持装置,其特征在于:上述翻译部,从上述配置信息存储部中特定作为声音消息的提供目标的另一使用者的语言种类,把采用上述第1种语言的声音输入信息翻译为该语言种类的声音输出消息。
23.权利要求22所述的交流支持装置,其特征在于:上述控制部,从上述配置信息存储部中检索上述另一使用者的空间性配置,根据该空间性配置的指向性从上述提示部提示上述声音输出消息。
24.权利要求16所述的交流支持装置,其特征在于:上述输入部,作为上述输入消息接受由使用者进行的手写描绘信息。
25.权利要求16所述的交流支持装置,其特征在于:上述提示部,作为上述输出消息,使用文字、单词、文章以及记号的至少一种的图象信息。
26.权利要求16所述的交流支持装置,其特征在于:上述控制部,利用无线标记或者磁性标记,检索相对上述显示画面的各使用者的位置。
27.一种交流支持方法,其特征在于包含:
描绘步骤,由相对显示画面在具有规定的位置关系位置上的多个使用者内的规定的使用者,把基于第1种语言的描绘信息描绘在上述显示画面上;
转换步骤,把基于上述第1种语言的描绘信息转换为基于第2种语言的信息;
提示步骤,在上述多个使用者内,根据成为基于上述第2种语言的信息提供目标的另一使用者的位置,在上述显示画面上提示基于上述第2种语言的信息。
28.一种交流支持方法,其特征在于包含:
输入步骤,接受来自使用者的采用第1种语言的输入信息;
翻译步骤,把上述第1种语言的输入消息翻译为对另一使用者的第2种语言的输出消息;
提示步骤,利用与上述另一使用者的位置对应的指向性,提示采用上述第2种语言的输出消息。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001357949A JP3933449B2 (ja) | 2001-11-22 | 2001-11-22 | コミュニケーション支援装置 |
JP357949/2001 | 2001-11-22 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN1423216A true CN1423216A (zh) | 2003-06-11 |
CN100429649C CN100429649C (zh) | 2008-10-29 |
Family
ID=19169214
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNB021524084A Expired - Fee Related CN100429649C (zh) | 2001-11-22 | 2002-11-22 | 信息提示装置以及方法 |
Country Status (3)
Country | Link |
---|---|
US (2) | US7277845B2 (zh) |
JP (1) | JP3933449B2 (zh) |
CN (1) | CN100429649C (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101882025A (zh) * | 2010-06-29 | 2010-11-10 | 汉王科技股份有限公司 | 手写输入方法及系统 |
CN115061622A (zh) * | 2016-02-08 | 2022-09-16 | 三菱电机株式会社 | 输入显示控制装置、输入显示控制方法和输入显示系统 |
Families Citing this family (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100440189C (zh) * | 2003-06-04 | 2008-12-03 | 无敌科技(西安)有限公司 | 结合图形描绘的语言学习系统及其运作方法 |
US20060116925A1 (en) * | 2004-11-29 | 2006-06-01 | Yoo Seung Kim | System and method(s) for marketing by providing information of life in a foreign country and/or area, via CD-ROM, in the airplane and/or any vehicle in a language familiar to the passengers |
JP4263181B2 (ja) * | 2005-03-28 | 2009-05-13 | 株式会社東芝 | コミュニケーション支援装置、コミュニケーション支援方法およびコミュニケーション支援プログラム |
JP4050755B2 (ja) * | 2005-03-30 | 2008-02-20 | 株式会社東芝 | コミュニケーション支援装置、コミュニケーション支援方法およびコミュニケーション支援プログラム |
JP4064413B2 (ja) * | 2005-06-27 | 2008-03-19 | 株式会社東芝 | コミュニケーション支援装置、コミュニケーション支援方法およびコミュニケーション支援プログラム |
JP4559946B2 (ja) * | 2005-09-29 | 2010-10-13 | 株式会社東芝 | 入力装置、入力方法および入力プログラム |
JP2007220045A (ja) * | 2006-02-20 | 2007-08-30 | Toshiba Corp | コミュニケーション支援装置、コミュニケーション支援方法およびコミュニケーション支援プログラム |
WO2007120418A2 (en) * | 2006-03-13 | 2007-10-25 | Nextwire Systems, Inc. | Electronic multilingual numeric and language learning tool |
JP4393494B2 (ja) * | 2006-09-22 | 2010-01-06 | 株式会社東芝 | 機械翻訳装置、機械翻訳方法および機械翻訳プログラム |
JP5121252B2 (ja) * | 2007-02-26 | 2013-01-16 | 株式会社東芝 | 原言語による音声を目的言語に翻訳する装置、方法およびプログラム |
US20090024707A1 (en) * | 2007-07-18 | 2009-01-22 | Gm Global Technology Operations, Inc. | Electronic Messaging System and Method For A Vehicle |
US20090132257A1 (en) * | 2007-11-19 | 2009-05-21 | Inventec Corporation | System and method for inputting edited translation words or sentence |
JP5178484B2 (ja) * | 2008-12-08 | 2013-04-10 | キヤノン株式会社 | 情報処理装置及び情報処理方法 |
US9323854B2 (en) * | 2008-12-19 | 2016-04-26 | Intel Corporation | Method, apparatus and system for location assisted translation |
JP2010176543A (ja) * | 2009-01-30 | 2010-08-12 | Toshiba Corp | 翻訳装置、方法、及びプログラム |
US20110112822A1 (en) * | 2009-11-10 | 2011-05-12 | Charles Caraher | Talking Pen and Paper Translator |
CN102314781A (zh) * | 2010-07-08 | 2012-01-11 | 无敌科技股份有限公司 | 答题系统、答题方法及其计算机程序产品和储存介质 |
US8775156B2 (en) | 2010-08-05 | 2014-07-08 | Google Inc. | Translating languages in response to device motion |
US9058814B2 (en) * | 2010-11-15 | 2015-06-16 | At&T Intellectual Property I, L.P. | Mobile devices, methods, and computer program products for enhancing social interactions with relevant social networking information |
US8527259B1 (en) * | 2011-02-28 | 2013-09-03 | Google Inc. | Contextual translation of digital content |
US9104661B1 (en) * | 2011-06-29 | 2015-08-11 | Amazon Technologies, Inc. | Translation of applications |
EP2581816A1 (en) * | 2011-10-12 | 2013-04-17 | Research In Motion Limited | Apparatus and associated method for modifying media data entered pursuant to a media function |
US9323746B2 (en) * | 2011-12-06 | 2016-04-26 | At&T Intellectual Property I, L.P. | System and method for collaborative language translation |
US8499258B1 (en) * | 2012-03-04 | 2013-07-30 | Lg Electronics Inc. | Touch input gesture based command |
JP5284523B1 (ja) * | 2012-09-05 | 2013-09-11 | 株式会社東芝 | 情報処理システム、プログラムおよび情報処理システムの処理方法 |
JP6148163B2 (ja) | 2013-11-29 | 2017-06-14 | 本田技研工業株式会社 | 会話支援装置、会話支援装置の制御方法、及び会話支援装置のプログラム |
KR102214178B1 (ko) * | 2013-12-13 | 2021-02-10 | 한국전자통신연구원 | 자동 통역 장치 및 방법 |
JP6500376B2 (ja) * | 2014-06-26 | 2019-04-17 | 株式会社リコー | 情報処理システム、情報処理装置、情報処理方法、及びプログラム |
JP2016181077A (ja) * | 2015-03-24 | 2016-10-13 | シャープ株式会社 | 情報処理装置、情報処理プログラムおよび情報処理方法 |
EP3316110A4 (en) * | 2015-06-23 | 2018-06-20 | Ricoh Company, Ltd. | Communication terminal, management system, communication system, display method and program |
CN107273106B (zh) * | 2016-04-08 | 2021-07-06 | 北京三星通信技术研究有限公司 | 物体信息翻译、以及衍生信息获取方法和装置 |
US11495209B2 (en) * | 2016-08-25 | 2022-11-08 | Sony Corporation | Information presentation device, and information presentation method |
JP2019003433A (ja) * | 2017-06-15 | 2019-01-10 | 株式会社リクルートライフスタイル | プログラム、表示方法及び情報処理装置 |
CN110322881B (zh) * | 2018-03-29 | 2024-07-05 | 松下控股株式会社 | 语音翻译装置、语音翻译方法及其存储介质 |
JP2022141344A (ja) | 2021-03-15 | 2022-09-29 | 株式会社リコー | 表示装置、表示方法、プログラム |
JP2022147384A (ja) | 2021-03-23 | 2022-10-06 | 株式会社リコー | 表示装置、表示方法、プログラム |
JP2022147337A (ja) * | 2021-03-23 | 2022-10-06 | 株式会社リコー | 表示装置、表示方法、プログラム |
Family Cites Families (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6244873A (ja) | 1985-08-22 | 1987-02-26 | Toshiba Corp | 機械翻訳装置 |
US4882681A (en) * | 1987-09-02 | 1989-11-21 | Brotz Gregory R | Remote language translating device |
JPH03131432A (ja) | 1989-10-13 | 1991-06-05 | Nissan Motor Co Ltd | ワーク位置決め固定装置 |
JP3131432B2 (ja) | 1989-11-24 | 2001-01-31 | 株式会社東芝 | 機械翻訳方法及び機械翻訳装置 |
JPH03167799A (ja) | 1989-11-27 | 1991-07-19 | Matsushita Electric Works Ltd | 調光用放電灯点灯装置 |
JPH05197507A (ja) | 1992-01-17 | 1993-08-06 | Hitachi Ltd | ポータブルコンピュータ |
JP3167799B2 (ja) | 1992-07-29 | 2001-05-21 | 株式会社東芝 | オンライン手書き文字認識装置 |
US5583761A (en) * | 1993-10-13 | 1996-12-10 | Kt International, Inc. | Method for automatic displaying program presentations in different languages |
US5526268A (en) * | 1994-05-11 | 1996-06-11 | Westinghouse Electric Corporation | Dynamic language changing process graphics |
JPH08137385A (ja) | 1994-11-14 | 1996-05-31 | Hitachi Ltd | 会話装置 |
US6292769B1 (en) * | 1995-02-14 | 2001-09-18 | America Online, Inc. | System for automated translation of speech |
US6339754B1 (en) * | 1995-02-14 | 2002-01-15 | America Online, Inc. | System for automated translation of speech |
JPH0916602A (ja) * | 1995-06-27 | 1997-01-17 | Sony Corp | 翻訳装置および翻訳方法 |
TW347503B (en) * | 1995-11-15 | 1998-12-11 | Hitachi Ltd | Character recognition translation system and voice recognition translation system |
EP0810533B1 (en) * | 1996-05-29 | 2002-04-10 | Matsushita Electric Industrial Co., Ltd. | Document conversion apparatus |
US6122606A (en) * | 1996-12-10 | 2000-09-19 | Johnson; William J. | System and method for enhancing human communications |
JP3388153B2 (ja) | 1997-09-30 | 2003-03-17 | シャープ株式会社 | 機械翻訳装置および機械翻訳プログラムを記録したコンピュータ読取可能な記録媒体 |
US6593956B1 (en) * | 1998-05-15 | 2003-07-15 | Polycom, Inc. | Locating an audio source |
US6356866B1 (en) * | 1998-10-07 | 2002-03-12 | Microsoft Corporation | Method for converting a phonetic character string into the text of an Asian language |
JP3274652B2 (ja) | 1998-10-30 | 2002-04-15 | シャープ株式会社 | 翻訳装置 |
US6807563B1 (en) * | 1999-05-21 | 2004-10-19 | Terayon Communications Systems, Inc. | Automatic teleconferencing control system |
US6795107B1 (en) * | 1999-07-15 | 2004-09-21 | International Business Machines Corporation | Video conferencing apparatus and method therefor |
JP2001101187A (ja) * | 1999-09-30 | 2001-04-13 | Sony Corp | 翻訳装置および翻訳方法、並びに記録媒体 |
US6816468B1 (en) * | 1999-12-16 | 2004-11-09 | Nortel Networks Limited | Captioning for tele-conferences |
US6424264B1 (en) * | 2000-10-12 | 2002-07-23 | Safetzone Technologies Corporation | System for real-time location of people in a fixed environment |
US6980953B1 (en) * | 2000-10-31 | 2005-12-27 | International Business Machines Corp. | Real-time remote transcription or translation service |
JP2002215621A (ja) * | 2001-01-19 | 2002-08-02 | Nec Corp | 翻訳サーバ及び翻訳方法並びにプログラム |
CN1369834B (zh) * | 2001-01-24 | 2010-04-28 | 松下电器产业株式会社 | 语音转换设备 |
US7084765B2 (en) * | 2001-07-12 | 2006-08-01 | Intel Corporation | Processor-based positioning system |
US7272575B2 (en) * | 2001-07-13 | 2007-09-18 | Lilly Mae Vega | Method and system for facilitating service transactions |
US6583808B2 (en) * | 2001-10-04 | 2003-06-24 | National Research Council Of Canada | Method and system for stereo videoconferencing |
GB2381638B (en) * | 2001-11-03 | 2004-02-04 | Dremedia Ltd | Identifying audio characteristics |
US20030125959A1 (en) * | 2001-12-31 | 2003-07-03 | Palmquist Robert D. | Translation device with planar microphone array |
-
2001
- 2001-11-22 JP JP2001357949A patent/JP3933449B2/ja not_active Expired - Lifetime
-
2002
- 2002-11-15 US US10/294,819 patent/US7277845B2/en active Active
- 2002-11-22 CN CNB021524084A patent/CN100429649C/zh not_active Expired - Fee Related
-
2007
- 2007-08-23 US US11/892,448 patent/US8676562B2/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101882025A (zh) * | 2010-06-29 | 2010-11-10 | 汉王科技股份有限公司 | 手写输入方法及系统 |
CN115061622A (zh) * | 2016-02-08 | 2022-09-16 | 三菱电机株式会社 | 输入显示控制装置、输入显示控制方法和输入显示系统 |
Also Published As
Publication number | Publication date |
---|---|
US20080033728A1 (en) | 2008-02-07 |
JP3933449B2 (ja) | 2007-06-20 |
CN100429649C (zh) | 2008-10-29 |
JP2003162527A (ja) | 2003-06-06 |
US7277845B2 (en) | 2007-10-02 |
US20030097250A1 (en) | 2003-05-22 |
US8676562B2 (en) | 2014-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1423216A (zh) | 交流支持装置以及方法 | |
Shilkrot et al. | FingerReader: a wearable device to explore printed text on the go | |
CN104157171B (zh) | 一种点读系统及其方法 | |
CN110060524A (zh) | 一种机器人辅助阅读的方法及阅读机器人 | |
KR101667463B1 (ko) | 콘텍스트 정보를 이용한 모바일 디바이스 상에서의 광학적 문자 인식 | |
CN109766879A (zh) | 字符检测模型的生成、字符检测方法、装置、设备及介质 | |
KR20100136529A (ko) | 다중-양상 학습 시스템 | |
CN104850542A (zh) | 非可听语音输入校正 | |
CN104376336B (zh) | 一种手写识别的方法及手写笔 | |
CN101149812A (zh) | 基于纸面书写的互动信息服务方法、服务系统及互动读物 | |
CN104714942B (zh) | 用于针对自然语言处理任务的内容可用性的方法和系统 | |
JP2011076594A (ja) | 情報入出力装置、情報処理装置、情報入出力システム、印刷媒体および情報入出力方法 | |
TW201314638A (zh) | 具虛擬實境擴充功能的點讀裝置 | |
CN107608618A (zh) | 一种用于可穿戴设备的交互方法、装置和可穿戴设备 | |
CN107844531B (zh) | 答案输出方法、装置和计算机设备 | |
JP2004252689A (ja) | 情報処理装置およびそのプログラム | |
CN111104159A (zh) | 一种基于程序分析和神经网络的注释定位方法 | |
CN112528799B (zh) | 一种教学直播方法、装置、计算机设备和存储介质 | |
CN1875400A (zh) | 信息处理设备、信息处理方法和记录介质、以及程序 | |
CN102289586A (zh) | 一种评卷终端及其实现方法 | |
Shilkrot et al. | FingerReader: A finger-worn assistive augmentation | |
WO2011049313A2 (ko) | 표현 및 설명 추출을 위한 문서 처리 장치 및 방법 | |
Mills | Optophones and musical print | |
Rai et al. | MyOcrTool: visualization system for generating associative images of Chinese characters in smart devices | |
KR20040107245A (ko) | 문자 인식 장치를 이용하여 사용자로부터의 입력 데이터를처리하는 방법 및 이를 이용한 인터랙티브 원격 교육 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20081029 Termination date: 20201122 |
|
CF01 | Termination of patent right due to non-payment of annual fee |