JP2022510528A - 表示されたテキストコンテンツの自動オーディオ再生 - Google Patents
表示されたテキストコンテンツの自動オーディオ再生 Download PDFInfo
- Publication number
- JP2022510528A JP2022510528A JP2020561826A JP2020561826A JP2022510528A JP 2022510528 A JP2022510528 A JP 2022510528A JP 2020561826 A JP2020561826 A JP 2020561826A JP 2020561826 A JP2020561826 A JP 2020561826A JP 2022510528 A JP2022510528 A JP 2022510528A
- Authority
- JP
- Japan
- Prior art keywords
- text content
- user
- computing devices
- content
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004044 response Effects 0.000 claims abstract description 20
- 238000000034 method Methods 0.000 claims description 75
- 230000005236 sound signal Effects 0.000 claims description 71
- 238000010801 machine learning Methods 0.000 claims description 42
- 230000000007 visual effect Effects 0.000 claims description 11
- 238000013519 translation Methods 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 230000008859 change Effects 0.000 claims description 2
- 230000009471 action Effects 0.000 abstract description 18
- 230000000694 effects Effects 0.000 description 20
- 230000015654 memory Effects 0.000 description 18
- 238000012549 training Methods 0.000 description 18
- 238000013528 artificial neural network Methods 0.000 description 12
- 230000006399 behavior Effects 0.000 description 11
- 230000008901 benefit Effects 0.000 description 8
- 230000003993 interaction Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 239000008186 active pharmaceutical agent Substances 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000000306 recurrent effect Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000007373 indentation Methods 0.000 description 2
- 230000001151 other effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 1
- 238000013016 damping Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
追加の開示
50 コンピューティングデバイス
100 コンピューティングシステム、システム
102 ユーザコンピューティングデバイス、デバイス
112 プロセッサ
114 メモリ、ローカルメモリ、ユーザコンピューティングデバイスメモリ
116 データ
118 命令
119 オーディオ再生システム
120 機械学習モデル、モデル
121 TTSシステム
122 ユーザ入力構成要素
123 再生領域ハンドラ
124 スピーカ
130 サーバコンピューティングシステム
132 プロセッサ
134 メモリ
136 データ
138 命令
140 機械学習モデル、モデル
150 訓練コンピューティングシステム
152 プロセッサ
154 メモリ
156 データ
158 命令
160 モデルトレーナ
162 訓練データ、訓練データセット
180 ネットワーク
190 コンテンツ
200 コンピューティングデバイスディスプレイ、コンピューティングデバイス
202 検索クエリ、検索結果
204 テキストコンテンツ
204a~204e テキストコンテンツの部分
206 再生領域
208 非強調効果
210 強調効果
212 オーディオ信号
214 テキスト強調効果
216 移動入力
302 タイトル
304 非構造化アイテム
306 段落インデント
306a 段落インデント
306b 段落インデント
306c 段落インデント
306d 段落インデント
306e 段落インデント
308 テキストコンテンツ
308a テキストコンテンツの部分
308b テキストコンテンツの部分
308c テキストコンテンツの部分
308d テキストコンテンツの部分
308e テキストコンテンツの部分
400 再生領域設定インターフェース、再生領域設定
402 再生領域位置設定
404 再生領域寸法設定
406 再生領域開始時間設定
Claims (23)
- 表示されたテキストコンテンツのオーディオ再生を実行するためのコンピュータ実施方法であって、前記方法が、
1つまたは複数のコンピューティングデバイスによって、テキストコンテンツの複数の部分を含むコンテンツの1つまたは複数のアイテムを記述するデータを取得するステップと、
前記1つまたは複数のコンピューティングデバイスによって、前記1つまたは複数のコンピューティングデバイスに関連付けられたディスプレイ上の前記テキストコンテンツの部分のうちの1つまたは複数のそれぞれの位置を示す位置データを決定するステップと、
前記1つまたは複数のコンピューティングデバイスによって、ディスプレイに対する前記テキストコンテンツの部分のうちの前記1つまたは複数の前記それぞれの位置を変更するユーザ入力を示すデータを受信するステップと、
前記ユーザ入力を示す前記データを受信するステップに応答して、
前記1つまたは複数のコンピューティングデバイスによって、前記テキストコンテンツの部分のうちの前記1つまたは複数のそれぞれの更新された位置を示す更新位置データを決定するステップと、
前記1つまたは複数のコンピューティングデバイスによって、前記更新位置データに少なくとも部分的に基づいて、テキストコンテンツの第1の部分が前記ディスプレイの再生領域内に配置されていることを識別するステップと、
前記1つまたは複数のコンピューティングデバイスによって、前記テキストコンテンツの第1の部分の少なくとも一部の読み上げを含むオーディオ信号の再生を引き起こすステップと、
を含むコンピュータ実施方法。 - 前記ユーザ入力が、ユーザによって実行されるスクロール入力を含む、請求項1に記載のコンピュータ実施方法。
- 前記1つまたは複数のコンピューティングデバイスによって、前記再生領域内に配置された前記テキストコンテンツの第1の部分、または、前記再生領域以外の前記ディスプレイの1つもしくは複数の部分の一方または両方に、前記ディスプレイ上の1つまたは複数の視覚的効果を適用するステップをさらに含む、請求項1または2に記載のコンピュータ実施方法。
- 前記コンテンツのアイテムが、検索クエリに応答して生成された検索結果ページを含む、請求項1から3のいずれか一項に記載のコンピュータ実施方法。
- 前記テキストコンテンツの複数の部分が、前記検索クエリに対する応答である1つまたは複数の検索結果に少なくとも部分的に基づくテキストコンテンツカードを含む、請求項1から4のいずれか一項に記載のコンピュータ実施方法。
- 前記オーディオ信号が、前記テキストコンテンツの1つまたは複数の部分のテキスト読み上げ変換を含む、請求項1から5のいずれか一項に記載のコンピュータ実施方法。
- 前記オーディオ信号が、第1の言語から第2の言語への翻訳を含む、請求項1から6のいずれか一項に記載のコンピュータ実施方法。
- 前記オーディオ信号が、前記テキストコンテンツの第1の部分に関連するコンテキスト情報を含む、請求項1から7のいずれか一項に記載のコンピュータ実施方法。
- 前記テキストコンテンツの第1の部分の少なくとも一部の前記読み上げが、ユーザの好みに少なくとも部分的に基づく、請求項1から8のいずれか一項に記載のコンピュータ実施方法。
- 前記テキストコンテンツの第1の部分の少なくとも一部の前記読み上げが、機械学習モデルによって少なくとも部分的に決定される、請求項1から9のいずれか一項に記載のコンピュータ実施方法。
- 前記1つまたは複数のコンピューティングデバイスによって、前記テキストコンテンツの第1の部分の少なくとも一部の読み上げを含むオーディオ信号の再生を引き起こすステップが、
前記1つまたは複数のコンピューティングデバイスによって、前記テキストコンテンツの第1の部分が認識されていないテキストコンテンツを含んでいると決定するステップと、
前記1つまたは複数のコンピューティングデバイスによって、前記認識されていないテキストコンテンツ内に含まれる文字を認識するステップと、
をさらに含む、請求項1から10のいずれか一項に記載のコンピュータ実施方法。 - 前記1つまたは複数のコンピューティングデバイスによって、テキストコンテンツの複数の部分を含むコンテンツの1つまたは複数のアイテムを記述するデータを取得するステップが、
前記1つまたは複数のコンピューティングデバイスによって、非構造化テキストコンテンツを取得するステップと、
前記1つまたは複数のコンピューティングデバイスによって、前記非構造化テキストコンテンツからテキストコンテンツの複数の部分を決定するステップと、
をさらに含む、請求項1から11のいずれか一項に記載のコンピュータ実施方法。 - 前記1つまたは複数のコンピューティングデバイスによって、前記非構造化テキストコンテンツからテキストコンテンツの複数の部分を決定するステップが、機械学習モデルによって少なくとも部分的に決定される、請求項12に記載のコンピュータ実施方法。
- 前記1つまたは複数のコンピューティングデバイスによって、前記非構造化テキストコンテンツからテキストコンテンツの複数の部分を決定するステップが、少なくとも部分的に、前記非構造化テキストコンテンツに関連するメタデータにおいて決定される、請求項12に記載のコンピュータ実施方法。
- 前記ディスプレイの前記再生領域の位置が、ユーザの好みに少なくとも部分的に基づく、請求項1から14のいずれか一項に記載のコンピュータ実施方法。
- 前記ディスプレイの前記再生領域が、テキストコンテンツの複数の部分が前記再生領域内に配置されることを可能にするように構成される、請求項1から15のいずれか一項に記載のコンピュータ実施方法。
- 前記1つまたは複数のコンピューティングデバイスによって、前記更新位置データに少なくとも部分的に基づいて、テキストコンテンツの第1の部分が前記ディスプレイの再生領域内に配置されていることを識別するステップが、前記1つまたは複数のコンピューティングデバイスによって、前記ユーザ入力を示すデータを受信した後にある量の時間が経過したと決定するステップをさらに含む、請求項1から16のいずれか一項に記載のコンピュータ実施方法。
- 前記1つまたは複数のコンピューティングデバイスによって、前記更新位置データに少なくとも部分的に基づいて、テキストコンテンツの第1の部分が前記ディスプレイの再生領域内に配置されていることを識別するステップが、機械学習モデルに少なくとも部分的に基づく、請求項1から17のいずれか一項に記載のコンピュータ実施方法。
- 前記1つまたは複数のコンピューティングデバイスによって、前記ディスプレイに対する前記コンテンツの1つまたは複数の部分の前記それぞれの位置を変更する第2のユーザ入力を示すデータを受信するステップと、
前記第2のユーザ入力を示す前記データを受信するステップに応答して、
前記1つまたは複数のコンピューティングデバイスによって、前記テキストコンテンツの部分のうちの1つまたは複数のそれぞれの第2の更新された位置を示す更新位置データを決定するステップと、
前記1つまたは複数のコンピューティングデバイスによって、前記第2の更新位置データに少なくとも部分的に基づいて、前記テキストコンテンツの第1の部分が前記ディスプレイの前記再生領域の外側に配置されていることを識別するステップと、
前記1つまたは複数のコンピューティングデバイスによって、前記オーディオ信号の再生を停止するステップと、
をさらに含む、請求項1から18のいずれか一項に記載のコンピュータ実施方法。 - ユーザ入力を示すデータに少なくとも部分的に基づいて、前記再生領域の位置を画面上の異なる位置に調整するステップをさらに含む、請求項1から19のいずれか一項に記載のコンピュータ実施方法。
- 1つまたは複数のプロセッサと、
命令を記憶する1つまたは複数の非一時的コンピュータ可読媒体であって、前記命令が前記1つまたは複数のプロセッサによって実行されると、コンピューティングデバイスに請求項1から20のいずれか一項に記載の方法を実行させる、1つまたは複数の非一時的コンピュータ可読媒体と、
を備えるコンピューティングデバイス。 - 前記コンピューティングデバイスがモバイルコンピューティングデバイスを備える、請求項21に記載のコンピューティングデバイス。
- 命令を記憶する1つまたは複数の非一時的コンピュータ可読媒体であって、前記命令が1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサに請求項1から20のいずれか一項に記載の方法を実行させる、1つまたは複数の非一時的コンピュータ可読媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2019/061401 WO2021096507A1 (en) | 2019-11-14 | 2019-11-14 | Automatic audio playback of displayed textual content |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022510528A true JP2022510528A (ja) | 2022-01-27 |
JP7395505B2 JP7395505B2 (ja) | 2023-12-11 |
Family
ID=68848409
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020561826A Active JP7395505B2 (ja) | 2019-11-14 | 2019-11-14 | 表示されたテキストコンテンツの自動オーディオ再生 |
Country Status (6)
Country | Link |
---|---|
US (2) | US11887581B2 (ja) |
EP (1) | EP3841458B1 (ja) |
JP (1) | JP7395505B2 (ja) |
KR (2) | KR20210059670A (ja) |
CN (2) | CN115454370A (ja) |
WO (1) | WO2021096507A1 (ja) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006008871A1 (ja) * | 2004-07-21 | 2006-01-26 | Matsushita Electric Industrial Co., Ltd. | 音声合成装置 |
US20110184738A1 (en) * | 2010-01-25 | 2011-07-28 | Kalisky Dror | Navigation and orientation tools for speech synthesis |
JP2012133662A (ja) * | 2010-12-22 | 2012-07-12 | Fujifilm Corp | 電子コミックのビューワ装置、電子コミックの閲覧システム、ビューワプログラムならびに該ビューワプログラムが記録された記録媒体 |
JP2012185323A (ja) * | 2011-03-04 | 2012-09-27 | Sharp Corp | 再生装置、再生方法、プログラムおよび記録媒体 |
JP2013125372A (ja) * | 2011-12-14 | 2013-06-24 | Kyocera Corp | 文字表示装置、補助情報出力プログラムおよび補助情報出力方法 |
JP2014222542A (ja) * | 2014-08-06 | 2014-11-27 | 株式会社東芝 | 文書マークアップ支援装置、方法、及びプログラム |
JP2018072509A (ja) * | 2016-10-27 | 2018-05-10 | トッパン・フォームズ株式会社 | 音声読み上げ装置、音声読み上げシステム、音声読み上げ方法、およびプログラム |
JP2019185470A (ja) * | 2018-04-12 | 2019-10-24 | 株式会社Nttドコモ | 情報処理装置 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5850629A (en) * | 1996-09-09 | 1998-12-15 | Matsushita Electric Industrial Co., Ltd. | User interface controller for text-to-speech synthesizer |
US6324511B1 (en) | 1998-10-01 | 2001-11-27 | Mindmaker, Inc. | Method of and apparatus for multi-modal information presentation to computer users with dyslexia, reading disabilities or visual impairment |
KR100719776B1 (ko) | 2005-02-25 | 2007-05-18 | 에이디정보통신 주식회사 | 휴대형 코드인식 음성 합성출력장치 |
US9135333B2 (en) * | 2008-07-04 | 2015-09-15 | Booktrack Holdings Limited | Method and system for making and playing soundtracks |
KR101165201B1 (ko) | 2010-05-28 | 2012-07-16 | 주식회사 인큐브테크 | 컨텐츠 제공 시스템의 변환서버 |
US9836271B2 (en) | 2013-07-17 | 2017-12-05 | Booktrack Holdings Limited | Delivery of synchronised soundtracks for electronic media content |
US10592095B2 (en) * | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
KR20160032880A (ko) | 2014-09-17 | 2016-03-25 | 삼성전자주식회사 | 디스플레이 장치 및 그의 제어 방법 |
US9927957B1 (en) * | 2014-12-11 | 2018-03-27 | Audible, Inc. | Rotary navigation of synchronized content |
US9772816B1 (en) * | 2014-12-22 | 2017-09-26 | Google Inc. | Transcription and tagging system |
US9930463B2 (en) * | 2016-03-31 | 2018-03-27 | Sonos, Inc. | Defect detection via audio playback |
US10585956B2 (en) * | 2017-09-20 | 2020-03-10 | International Business Machines Corporation | Media selection and display based on conversation topics |
KR102318080B1 (ko) | 2019-08-05 | 2021-10-27 | 엘지전자 주식회사 | 지능적인 tts 제공 방법 및 tts를 제공하는 지능형 컴퓨팅 디바이스 |
US11962547B2 (en) * | 2019-09-27 | 2024-04-16 | Snap Inc. | Content item module arrangements |
-
2019
- 2019-11-14 CN CN202211006728.6A patent/CN115454370A/zh active Pending
- 2019-11-14 WO PCT/US2019/061401 patent/WO2021096507A1/en unknown
- 2019-11-14 CN CN201980040263.6A patent/CN113196227B/zh active Active
- 2019-11-14 EP EP19818353.5A patent/EP3841458B1/en active Active
- 2019-11-14 KR KR1020207032212A patent/KR20210059670A/ko not_active IP Right Cessation
- 2019-11-14 JP JP2020561826A patent/JP7395505B2/ja active Active
- 2019-11-14 KR KR1020237008599A patent/KR20230042389A/ko active IP Right Grant
- 2019-11-14 US US17/052,046 patent/US11887581B2/en active Active
-
2023
- 2023-12-11 US US18/535,279 patent/US20240127792A1/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006008871A1 (ja) * | 2004-07-21 | 2006-01-26 | Matsushita Electric Industrial Co., Ltd. | 音声合成装置 |
US20110184738A1 (en) * | 2010-01-25 | 2011-07-28 | Kalisky Dror | Navigation and orientation tools for speech synthesis |
JP2012133662A (ja) * | 2010-12-22 | 2012-07-12 | Fujifilm Corp | 電子コミックのビューワ装置、電子コミックの閲覧システム、ビューワプログラムならびに該ビューワプログラムが記録された記録媒体 |
JP2012185323A (ja) * | 2011-03-04 | 2012-09-27 | Sharp Corp | 再生装置、再生方法、プログラムおよび記録媒体 |
JP2013125372A (ja) * | 2011-12-14 | 2013-06-24 | Kyocera Corp | 文字表示装置、補助情報出力プログラムおよび補助情報出力方法 |
JP2014222542A (ja) * | 2014-08-06 | 2014-11-27 | 株式会社東芝 | 文書マークアップ支援装置、方法、及びプログラム |
JP2018072509A (ja) * | 2016-10-27 | 2018-05-10 | トッパン・フォームズ株式会社 | 音声読み上げ装置、音声読み上げシステム、音声読み上げ方法、およびプログラム |
JP2019185470A (ja) * | 2018-04-12 | 2019-10-24 | 株式会社Nttドコモ | 情報処理装置 |
Also Published As
Publication number | Publication date |
---|---|
US11887581B2 (en) | 2024-01-30 |
JP7395505B2 (ja) | 2023-12-11 |
EP3841458B1 (en) | 2024-07-03 |
CN113196227B (zh) | 2022-09-09 |
KR20230042389A (ko) | 2023-03-28 |
WO2021096507A1 (en) | 2021-05-20 |
US20240127792A1 (en) | 2024-04-18 |
CN115454370A (zh) | 2022-12-09 |
US20230094174A1 (en) | 2023-03-30 |
KR20210059670A (ko) | 2021-05-25 |
EP3841458A1 (en) | 2021-06-30 |
CN113196227A (zh) | 2021-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11797606B2 (en) | User interfaces for a podcast browsing and playback application | |
AU2019219760B2 (en) | Systems, devices, and methods for dynamically providing user interface controls at a touch-sensitive secondary display | |
US11989252B2 (en) | Using a web accessibility profile to introduce bundle display changes | |
US10699063B2 (en) | Authoring content for digital books | |
CN109791465B (zh) | 用于对文本进行注释的设备、方法和图形用户界面 | |
US20110087974A1 (en) | User interface controls including capturing user mood in response to a user cue | |
US20140215340A1 (en) | Context based gesture delineation for user interaction in eyes-free mode | |
US12020681B2 (en) | Systems and methods for a text-to-speech interface | |
CN112424853A (zh) | 以对文本文档的音频回放进行补充的视觉内容为特点的文本到语音界面 | |
US20220021749A1 (en) | System and Method for Selecting and Providing Available Actions from One or More Computer Applications to a User | |
JP7395505B2 (ja) | 表示されたテキストコンテンツの自動オーディオ再生 | |
Chadha | The Basics: Functional User Needs and Common Solutions | |
WO2020023068A1 (en) | Systems and methods for a text-to-speech interface | |
JP2023172915A (ja) | プログラム、情報処理装置、情報処理システム、情報処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220524 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221011 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230110 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230515 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230809 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230823 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231106 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231129 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7395505 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |