JP6718828B2 - 情報入力方法および装置 - Google Patents
情報入力方法および装置 Download PDFInfo
- Publication number
- JP6718828B2 JP6718828B2 JP2017023271A JP2017023271A JP6718828B2 JP 6718828 B2 JP6718828 B2 JP 6718828B2 JP 2017023271 A JP2017023271 A JP 2017023271A JP 2017023271 A JP2017023271 A JP 2017023271A JP 6718828 B2 JP6718828 B2 JP 6718828B2
- Authority
- JP
- Japan
- Prior art keywords
- input
- information
- voice information
- user
- pictogram
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 50
- 238000013136 deep learning model Methods 0.000 claims description 11
- 230000036651 mood Effects 0.000 claims description 5
- 238000012549 training Methods 0.000 claims description 5
- 230000002996 emotional effect Effects 0.000 claims description 2
- 230000008921 facial expression Effects 0.000 claims description 2
- 238000004590 computer program Methods 0.000 description 7
- 230000002040 relaxant effect Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 2
- 238000012905 input function Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/274—Converting codes to words; Guess-ahead of partial word inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/63—Querying
- G06F16/632—Query formulation
- G06F16/634—Query by example, e.g. query by humming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0236—Character input methods using selection techniques to select from displayed items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0237—Character input methods using prediction or retrieval techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/34—Microprocessors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/40—Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Child & Adolescent Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Computer Networks & Wireless Communication (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- User Interface Of Digital Computer (AREA)
Description
Claims (6)
- ユーザによって入力された、アプリケーションの入力領域に入力されるべきコンテンツに関連付けられた音声情報を受信するステップと、
前記音声情報に関連付けられた絵文字を候補結果とするステップと、
前記ユーザが候補結果から選択した絵文字をアプリケーションの入力領域に入力するステップと、を含み、
ここで、前記絵文字は、複数のユーザが前記音声情報の意味に関連付けられた音声情報を入力する履歴入力における、アプリケーションの入力領域への入力の回数が回数閾値よりも大きい絵文字を含み、
前記音声情報に関連付けられた絵文字を候補結果とする前に、
前記音声情報に対して音声認識を行い、音声情報に対応する文を取得するステップと、
ルールマッチング方式で前記文に対して意味認識を行い、ユーザの気持ちを表す気持ちタイプを含む意味認識結果を取得するステップと、
前記気持ちタイプに対応する絵文字を前記音声情報に関連付けられた絵文字とするステップと、を更に含み、
ルールマッチング方式で前記文に対して意味認識を行い、ユーザの気持ちを表す気持ちタイプを含む意味認識結果を取得するステップは、
ユーザの気持ちタイプを表すキーワードを含むルールマッチングテンプレートを事前に設定するステップと、
ユーザによって入力された音声情報に対応する文が、ルールマッチングテンプレートとマッチングする場合に、ルールマッチングテンプレートのタイプに基づいて、ユーザの気持ちの気持ちタイプを確定するステップと、を更に含む、
情報入力方法であって、
更に、
複数の絵文字の、絵文字に対応する気持ちタイプを表す注釈情報を取得するステップと、
前記絵文字と前記注釈情報を用いてサンプルデータとし、ディープラーニングモデルをトレーニングするステップと、
トレーニングされたディープラーニングモデルで大量の絵文字に対応する気持ちタイプを認識するステップと、
大量の絵文字と気持ちタイプとの対応関係を確立するステップと、を含む、
情報入力方法。 - ユーザによって入力された音声情報を受信する前に、
複数のユーザの履歴入力情報を取得するステップと、
意味に関連付けられた複数の音声情報を確定するステップと、
意味に関連付けられた複数の音声情報に対応する絵文字を集合するステップと、
前記絵文字から対応する入力回数が回数閾値よりも大きい絵文字を選択するステップと、を更に含み、
ここで、前記履歴入力情報は、履歴入力における入力された音声情報と、アプリケーションの入力領域に入力された絵文字とを含む
ことを特徴とする請求項1に記載の方法。 - 前記のユーザによって入力された音声情報を受信するステップにおいては、
入力方式でユーザによって入力された音声情報を受信するステップを含む
ことを特徴とする請求項2に記載の方法。 - ユーザによって入力された、アプリケーションの入力領域に入力されるべきコンテンツに関連付けられた音声情報を受信するように配置されている受信ユニットと、
前記音声情報に関連付けられた絵文字を候補結果とするように配置されている選択ユニットと、
前記ユーザが候補結果から選択した絵文字をアプリケーションの入力領域に入力するように配置されている入力ユニットと、を備え、
ここで、前記絵文字は、複数のユーザが前記音声情報の意味に関連付けられた音声情報を入力する履歴入力における、アプリケーションの入力領域への入力の回数が回数閾値よりも大きい絵文字を含み、
前記音声情報に関連付けられた絵文字を候補結果とする前に、前記音声情報に対して音声認識を行い、音声情報に対応する文を取得するように配置されている音声認識ユニットと、
ルールマッチング方式で前記文に対して意味認識を行い、ユーザの気持ちを表す気持ちタイプを含む意味認識結果を取得するように配置されている意味認識ユニットと、
前記気持ちタイプに対応する絵文字を前記音声情報に関連付けられた絵文字とするように配置されている絵文字確定ユニットと、を更に備え、
前記意味認識ユニットは、
ユーザの気持ちタイプを表すキーワードを含むルールマッチングテンプレートを事前に設定することと、
ユーザによって入力された音声情報に対応する文が、ルールマッチングテンプレートとマッチングする場合に、ルールマッチングテンプレートのタイプに基づいて、ユーザの気持ちの気持ちタイプを確定することと、を更に実行する、
情報入力装置であって、
更に、
複数の絵文字の、絵文字に対応する気持ちタイプを表す注釈情報を取得するように配置されている情報取得ユニットと、
前記絵文字と前記注釈情報を用いてサンプルデータとし、ディープラーニングモデルをトレーニングするように配置されているトレーニングユニットと、
トレーニングされたディープラーニングモデルで大量の絵文字に対応する気持ちタイプを認識するように配置されている表情タイプ認識ユニットと、
大量の絵文字と気持ちタイプとの対応関係を確立するように配置されている確立ユニットと、を備える、
ことを特徴とする情報入力装置。 - ユーザによって入力された音声情報を受信する前に、複数のユーザの履歴入力情報を取得するように配置されている履歴入力情報取得ユニットと、
意味に関連付けられた複数の音声情報を確定するように配置されている関連音声情報確定ユニットと、
意味に関連付けられた複数の音声情報に対応する絵文字を集合するように配置されている絵文字集合ユニットと、
前記絵文字から対応する入力回数が回数閾値よりも大きい絵文字を選択するように配置されている絵文字選択ユニットと、を更に備え、
ここで、前記履歴入力情報は、履歴入力における入力された音声情報と、アプリケーションの入力領域に入力された絵文字とを含む
ことを特徴とする請求項4に記載の装置。 - 入力方式でユーザによって入力された音声情報を受信するように配置されている入力方式実行ユニットを更に備える
ことを特徴とする請求項5に記載の装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610770021.0A CN106372059B (zh) | 2016-08-30 | 2016-08-30 | 信息输入方法和装置 |
CN201610770021.0 | 2016-08-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018036621A JP2018036621A (ja) | 2018-03-08 |
JP6718828B2 true JP6718828B2 (ja) | 2020-07-08 |
Family
ID=57902432
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017023271A Active JP6718828B2 (ja) | 2016-08-30 | 2017-02-10 | 情報入力方法および装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10210865B2 (ja) |
EP (1) | EP3291224A1 (ja) |
JP (1) | JP6718828B2 (ja) |
KR (1) | KR101909807B1 (ja) |
CN (1) | CN106372059B (ja) |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10057358B2 (en) * | 2016-12-09 | 2018-08-21 | Paypal, Inc. | Identifying and mapping emojis |
CN106873800A (zh) * | 2017-02-20 | 2017-06-20 | 北京百度网讯科技有限公司 | 信息输出方法和装置 |
CN106888158B (zh) * | 2017-02-28 | 2020-07-03 | 天翼爱动漫文化传媒有限公司 | 一种即时通信方法和装置 |
CN106886606A (zh) * | 2017-03-21 | 2017-06-23 | 联想(北京)有限公司 | 用于根据用户语音推荐表情的方法和系统 |
CN109213332B (zh) * | 2017-06-29 | 2022-11-08 | 北京搜狗科技发展有限公司 | 一种表情图片的输入方法和装置 |
CN107153496B (zh) * | 2017-07-04 | 2020-04-28 | 北京百度网讯科技有限公司 | 用于输入表情图标的方法和装置 |
CN110019885B (zh) * | 2017-08-01 | 2021-10-15 | 北京搜狗科技发展有限公司 | 一种表情数据推荐方法及装置 |
CN107450746A (zh) * | 2017-08-18 | 2017-12-08 | 联想(北京)有限公司 | 一种表情符号的插入方法、装置和电子设备 |
CN107479723B (zh) * | 2017-08-18 | 2021-01-15 | 联想(北京)有限公司 | 一种表情符号的插入方法、装置和电子设备 |
CN107609092B (zh) * | 2017-09-08 | 2021-03-09 | 北京百度网讯科技有限公司 | 智能应答方法和装置 |
CN109814730B (zh) * | 2017-11-20 | 2023-09-12 | 北京搜狗科技发展有限公司 | 输入方法和装置、用于输入的装置 |
CN108335226A (zh) * | 2018-02-08 | 2018-07-27 | 江苏省农业科学院 | 农业种质资源信息实时智能采集系统 |
US11310176B2 (en) * | 2018-04-13 | 2022-04-19 | Snap Inc. | Content suggestion system |
CN108733651A (zh) * | 2018-05-17 | 2018-11-02 | 新华网股份有限公司 | 表情符号预测方法及模型构建方法、装置、终端 |
CN109033423A (zh) * | 2018-08-10 | 2018-12-18 | 北京搜狗科技发展有限公司 | 同传字幕显示方法及装置、智能会议方法、装置及系统 |
CN110910898B (zh) * | 2018-09-15 | 2022-12-30 | 华为技术有限公司 | 一种语音信息处理的方法和装置 |
CN109525725B (zh) * | 2018-11-21 | 2021-01-15 | 三星电子(中国)研发中心 | 一种基于情绪状态的信息处理方法和装置 |
CN109683726B (zh) * | 2018-12-25 | 2022-08-05 | 北京微播视界科技有限公司 | 字符输入方法、装置、电子设备及存储介质 |
CN109697290B (zh) * | 2018-12-29 | 2023-07-25 | 咪咕数字传媒有限公司 | 一种信息处理方法、设备及计算机存储介质 |
CN111489131A (zh) * | 2019-01-25 | 2020-08-04 | 北京搜狗科技发展有限公司 | 一种信息推荐方法及装置 |
US20220121817A1 (en) * | 2019-02-14 | 2022-04-21 | Sony Group Corporation | Information processing device, information processing method, and information processing program |
CN110149549B (zh) * | 2019-02-26 | 2022-09-13 | 腾讯科技(深圳)有限公司 | 信息的显示方法及装置 |
KR102381737B1 (ko) * | 2019-03-22 | 2022-03-31 | 박정길 | 보이스 이모티콘 편집 방법 및 보이스 이모티콘 편집 방법을 실행시키는 프로그램이 기록된 기록 매체 |
CN112416139A (zh) * | 2019-08-21 | 2021-02-26 | 北京搜狗科技发展有限公司 | 输入方法和装置、用于输入的装置 |
US11335360B2 (en) * | 2019-09-21 | 2022-05-17 | Lenovo (Singapore) Pte. Ltd. | Techniques to enhance transcript of speech with indications of speaker emotion |
CN113051427A (zh) * | 2019-12-10 | 2021-06-29 | 华为技术有限公司 | 一种表情制作方法和装置 |
CN112148133B (zh) * | 2020-09-10 | 2024-01-23 | 北京百度网讯科技有限公司 | 确定推荐表情的方法、装置、设备和计算机存储介质 |
CN112818841A (zh) * | 2021-01-29 | 2021-05-18 | 北京搜狗科技发展有限公司 | 一种识别用户情绪的方法及相关装置 |
KR102343036B1 (ko) * | 2021-02-10 | 2021-12-24 | 주식회사 인피닉 | 작업 가이드를 제공할 수 있는 어노테이션 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 |
KR102310587B1 (ko) * | 2021-02-10 | 2021-10-13 | 주식회사 인피닉 | 연속된 이미지들에 대한 스켈레톤 데이터 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 |
KR102310588B1 (ko) * | 2021-02-10 | 2021-10-13 | 주식회사 인피닉 | 인공지능 학습을 위한 스켈레톤 데이터 생성 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램 |
CN113297359B (zh) * | 2021-04-23 | 2023-11-28 | 阿里巴巴新加坡控股有限公司 | 交互信息的方法以及装置 |
KR102695017B1 (ko) * | 2021-08-30 | 2024-08-16 | 박정훈 | 반려동물 이미지에서 학습한 표정을 이용한 커뮤니케이션 서비스 시스템 및 방법 |
US11657558B2 (en) * | 2021-09-16 | 2023-05-23 | International Business Machines Corporation | Context-based personalized communication presentation |
WO2023141887A1 (zh) * | 2022-01-27 | 2023-08-03 | Oppo广东移动通信有限公司 | 语义通信的传输方法、终端设备 |
CN115641837A (zh) * | 2022-12-22 | 2023-01-24 | 北京资采信息技术有限公司 | 一种智能机器人对话意图识别方法和系统 |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003129711A (ja) * | 2001-10-26 | 2003-05-08 | Matsushita Electric Works Ltd | 電気錠制御装置 |
JP2006048352A (ja) * | 2004-08-04 | 2006-02-16 | Matsushita Electric Ind Co Ltd | キャラクタ映像表示機能付き通信端末およびその制御方法 |
JP2007003669A (ja) * | 2005-06-22 | 2007-01-11 | Murata Mach Ltd | 文書作成装置 |
US7983910B2 (en) * | 2006-03-03 | 2011-07-19 | International Business Machines Corporation | Communicating across voice and text channels with emotion preservation |
JP2008129711A (ja) * | 2006-11-17 | 2008-06-05 | Sky Kk | 入力文字変換システム |
KR100902861B1 (ko) | 2007-11-20 | 2009-06-16 | 경원대학교 산학협력단 | 수신된 문자메시지를 아바타에 의하여 음성으로 출력하는이동통신단말기 및 그 제어방법 |
KR100941598B1 (ko) | 2007-11-27 | 2010-02-11 | (주)씨앤에스 테크놀로지 | 감정적 콘텐츠 효과를 포함하는 전화 통신 서비스를제공하는 VoIP 전화 통신 시스템 및 방법 |
CN100570545C (zh) * | 2007-12-17 | 2009-12-16 | 腾讯科技(深圳)有限公司 | 表情输入方法及装置 |
US8756527B2 (en) * | 2008-01-18 | 2014-06-17 | Rpx Corporation | Method, apparatus and computer program product for providing a word input mechanism |
JP2009277015A (ja) * | 2008-05-14 | 2009-11-26 | Fujitsu Ltd | 入力支援プログラム、入力支援装置および入力支援方法 |
US8351581B2 (en) * | 2008-12-19 | 2013-01-08 | At&T Mobility Ii Llc | Systems and methods for intelligent call transcription |
US9015033B2 (en) * | 2010-10-26 | 2015-04-21 | At&T Intellectual Property I, L.P. | Method and apparatus for detecting a sentiment of short messages |
EP2704024B1 (en) * | 2011-04-26 | 2017-09-06 | NEC Corporation | Input assistance device, input asssistance method, and program |
KR101613155B1 (ko) * | 2011-12-12 | 2016-04-18 | 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 | 콘텐트에 기초한 자동 입력 프로토콜 선택 |
KR20130069263A (ko) * | 2011-12-18 | 2013-06-26 | 인포뱅크 주식회사 | 정보처리 방법 및 시스템과 기록매체 |
WO2013094982A1 (ko) | 2011-12-18 | 2013-06-27 | 인포뱅크 주식회사 | 정보처리 방법 및 시스템과 기록매체 |
US20130159919A1 (en) * | 2011-12-19 | 2013-06-20 | Gabriel Leydon | Systems and Methods for Identifying and Suggesting Emoticons |
US20140108308A1 (en) * | 2012-07-13 | 2014-04-17 | Social Data Technologies, LLC | System and method for combining data for identifying compatibility |
US20150100537A1 (en) * | 2013-10-03 | 2015-04-09 | Microsoft Corporation | Emoji for Text Predictions |
US20150262238A1 (en) * | 2014-03-17 | 2015-09-17 | Adobe Systems Incorporated | Techniques for Topic Extraction Using Targeted Message Characteristics |
CN104076944B (zh) * | 2014-06-06 | 2017-03-01 | 北京搜狗科技发展有限公司 | 一种聊天表情输入的方法和装置 |
WO2016002251A1 (ja) * | 2014-06-30 | 2016-01-07 | クラリオン株式会社 | 情報処理システム、及び、車載装置 |
JP6122816B2 (ja) * | 2014-08-07 | 2017-04-26 | シャープ株式会社 | 音声出力装置、ネットワークシステム、音声出力方法、および音声出力プログラム |
CN104298429B (zh) * | 2014-09-25 | 2018-05-04 | 北京搜狗科技发展有限公司 | 一种基于输入的信息展示方法和输入法系统 |
US10924444B2 (en) * | 2014-12-02 | 2021-02-16 | Facebook, Inc. | Device, method, and graphical user interface for managing customer relationships using a lightweight messaging platform |
KR101733011B1 (ko) * | 2015-06-18 | 2017-05-08 | 라인 가부시키가이샤 | 소셜 네트워크 서비스 기반 추천 정보 제공 장치 및 이를 이용한 방법 |
US20180077095A1 (en) * | 2015-09-14 | 2018-03-15 | X Development Llc | Augmentation of Communications with Emotional Data |
US10157224B2 (en) * | 2016-02-03 | 2018-12-18 | Facebook, Inc. | Quotations-modules on online social networks |
-
2016
- 2016-08-30 CN CN201610770021.0A patent/CN106372059B/zh active Active
-
2017
- 2017-02-09 EP EP17155430.6A patent/EP3291224A1/en not_active Ceased
- 2017-02-10 JP JP2017023271A patent/JP6718828B2/ja active Active
- 2017-02-10 US US15/429,353 patent/US10210865B2/en active Active
- 2017-02-10 KR KR1020170018938A patent/KR101909807B1/ko active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR20180025121A (ko) | 2018-03-08 |
KR101909807B1 (ko) | 2018-10-18 |
US10210865B2 (en) | 2019-02-19 |
EP3291224A1 (en) | 2018-03-07 |
JP2018036621A (ja) | 2018-03-08 |
CN106372059B (zh) | 2018-09-11 |
CN106372059A (zh) | 2017-02-01 |
US20180061407A1 (en) | 2018-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6718828B2 (ja) | 情報入力方法および装置 | |
JP6751122B2 (ja) | ページ制御方法および装置 | |
JP7127106B2 (ja) | 質問応答処理、言語モデルの訓練方法、装置、機器および記憶媒体 | |
CN109460514B (zh) | 用于推送信息的方法和装置 | |
CN108153800B (zh) | 信息处理方法、信息处理装置以及记录介质 | |
CN111428010B (zh) | 人机智能问答的方法和装置 | |
WO2017186050A1 (zh) | 人机智能问答系统的断句识别方法和装置 | |
CN107423277A (zh) | 一种表情输入方法、装置及终端 | |
KR102348084B1 (ko) | 영상표시장치, 영상표시장치의 구동방법 및 컴퓨터 판독가능 기록매체 | |
CN116521841B (zh) | 用于生成回复信息的方法、装置、设备及介质 | |
CN111738010B (zh) | 用于生成语义匹配模型的方法和装置 | |
JP2022088304A (ja) | ビデオを処理するための方法、装置、電子機器、媒体及びコンピュータプログラム | |
CN109933217B (zh) | 用于推送语句的方法和装置 | |
CN114861889B (zh) | 深度学习模型的训练方法、目标对象检测方法和装置 | |
CN110059172B (zh) | 基于自然语言理解的推荐答案的方法和装置 | |
CN116501960B (zh) | 内容检索方法、装置、设备及介质 | |
WO2020052061A1 (zh) | 用于处理信息的方法和装置 | |
CN110738056B (zh) | 用于生成信息的方法和装置 | |
CN112182255A (zh) | 用于存储媒体文件和用于检索媒体文件的方法和装置 | |
CN110825954A (zh) | 关键词推荐方法、装置和电子设备 | |
CN112069786A (zh) | 文本信息处理方法、装置、电子设备及介质 | |
CN109472028B (zh) | 用于生成信息的方法和装置 | |
CN111767259A (zh) | 内容分享的方法、装置、可读介质和电子设备 | |
CN114881008B (zh) | 一种文本生成方法、装置、电子设备及介质 | |
CN114996417A (zh) | 推荐话术的方法,推荐话术交互的方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180417 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190129 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190625 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191024 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20191101 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20191213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200615 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6718828 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |