JP2022534824A - 多重音声システムが装着されたオンラインメディアサービス具現方法 - Google Patents

多重音声システムが装着されたオンラインメディアサービス具現方法 Download PDF

Info

Publication number
JP2022534824A
JP2022534824A JP2021513294A JP2021513294A JP2022534824A JP 2022534824 A JP2022534824 A JP 2022534824A JP 2021513294 A JP2021513294 A JP 2021513294A JP 2021513294 A JP2021513294 A JP 2021513294A JP 2022534824 A JP2022534824 A JP 2022534824A
Authority
JP
Japan
Prior art keywords
online
voice
articles
contents
subscriber
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021513294A
Other languages
English (en)
Other versions
JP7262142B2 (ja
Inventor
ヨプ リ,ジョン
ヨン リ,グン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020190115017A external-priority patent/KR102111360B1/ko
Application filed by Individual filed Critical Individual
Publication of JP2022534824A publication Critical patent/JP2022534824A/ja
Application granted granted Critical
Publication of JP7262142B2 publication Critical patent/JP7262142B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/38Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/383Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/438Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/45Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0613Third-party assisted
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • G10L13/047Architecture of speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A10/00TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE at coastal zones; at river basins
    • Y02A10/40Controlling or monitoring, e.g. of flood or hurricane; Forecasting, e.g. risk assessment or mapping

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Library & Information Science (AREA)
  • Artificial Intelligence (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本発明はインターネット新聞及び検索ポータルなどの多様なオンラインコンテンツプラットホームでオンライン記事及びコンテンツを購読するとき、目で記事及びコンテンツを見て読むとともに読者自分を含む多数の人物の音声で当該記事及びコンテンツを購読者が直接選択して聴取することができるようにする多重音声システムが装着されたオンラインメディアサービス具現方法に関するものである。本発明による多重音声システムが装着されたオンラインメディアサービス具現方法は、既設定のオンライン記事及びコンテンツを特定のメディアサイトから収集して個人端末機の画面に表示する1段階と、購読者の音声を入力するかデータベースに予め保存された音声の中で特定人物の音声を設定する2段階と、前記オンライン記事及びコンテンツを認識して分類する3段階と、前記分類されたオンライン記事及びコンテンツを音声に変換する4段階と、前記2段階で設定された購読者又は特定人物の音声で前記オンライン記事及びコンテンツを出力する5段階とを含む。【選択図】 図1

Description

本発明は多重音声システムが装着されたオンラインメディアサービス具現方法に関するもので、より詳しくはインターネット新聞及び検索ポータルなどの多様なオンラインコンテンツプラットホームでオンライン記事を購読するとき、目で記事を見て読むとともに読者自身を含めた多数の人物の音声で当該記事を購読者が直接選択して聴取することができるようにする一連の過程を含む多重音声システムが装着されたオンラインメディアサービス具現方法に関するものである。
従来、インターネット新聞のようなオンラインメディア、検索ポータル、オンラインコンテンツプラットホームなどでオンライン記事及びコンテンツを購読するとき、単純テキストのみで構成された記事を購読することが一般的であった。
しかし、オンラインメディア環境変化につれて読者の記事購読パターン方式もPCからモバイルに転換されるのに従い、記事を読むことから見ることへの進化も一緒になされている実情である。
実際に、最近のオンラインメディア読者の場合は、膨大な情報の洪水の中で自分に必要な情報のみ獲得しようとすることが現実である。
したがって、読者に主要な核心イッシューのみを簡潔に提供することにより、必ず必要な情報のみをモバイルで手軽かつ便利に読者が確認することができるように構成されたカードニュースも人気を呼んでいる。
しかし、オンライン上での記事及びコンテンツの購読の際、伝統的なテキスト基盤の記事(コンテンツ)やカードニュースがオンラインメディア環境で読者の全ての記事購読活動を満たすことができるものではない。
実際に、現在のオンラインメディア環境でのオンライン記事及びコンテンツの購読には主に人の目を用い、よって視力低下などの疾患にさらされている。
また、忙しい現代人の生活パターンでもモバイル上で目のみでオンライン記事及びコンテンツを購読することは、時間的、場所的及び環境的な影響のためその活用度が低くなっていることも事実である。
特に、長距離運転による出張及び移動が多い人の場合、モバイルを活用して目のみでオンライン記事及びコンテンツを購読することは相当な眼疲労につながるだけでなく、交通事故などの人命被害に至りうる事件を引き起こす危険にさらされてしまう。
また、モバイルを通して目のみでオンライン記事及びコンテンツを購読するときは、その他の活動を並行することができないという欠点などもある。
よって、その後にオンライン記事及びコンテンツ購読(消費)のために登場した技術が、テキストを音声に変換し、画一的な音声でコンテンツを送り出すことである。
しかし、このような従来の技術は、変換プログラムを用いる音声への変換によって、既設定の音声でスピーカーを通してテキストを単純に出力するものに過ぎないので、インターネット新聞と検索ポータルなどの多様なオンラインコンテンツプラットホームで記事を聴取するときに非常に退屈であり、読者(大衆)の参加システムの不在のため大衆的関心も引くことができない問題点があった。
韓国公開特許第2004-0033767号公報
本発明はこのような従来の問題点を解決するためになされたもので、インターネット新聞及び検索ポータルなどの多様なオンラインコンテンツプラットホームでオンライン記事及びコンテンツを購読するとき、目で記事及びコンテンツを見て読むとともに読者自分を含めた多数の人物の音声で当該記事及びコンテンツを購読者が直接選択して聴取することができるようにする多重音声システムが装着されたオンラインメディアサービス具現方法を提供することに目的がある。
本発明が解決しようとする課題は以上で言及した課題に制限されず、言及しなかった他の課題は以下の記載から通常の技術者に明らかに理解可能であろう。
前記目的を達成するために、本発明による多重音声システムが装着されたオンラインメディアサービス具現方法は、既設定のオンライン記事及びコンテンツを特定のメディアサイトから収集して個人端末機の画面に表示する1段階と、購読者の音声を入力するかデータベースに予め保存された音声の中で特定人物の音声を設定する2段階と、前記オンライン記事及びコンテンツを認識して分類する3段階と、前記分類されたオンライン記事及びコンテンツを音声に変換する4段階と、前記2段階で設定された購読者又は特定人物の音声で前記オンライン記事及びコンテンツを出力する5段階とを含む。
前記2段階は、前記特定人物の音声がオンライン商店に分野別に予め保存されており、前記購読者の選択によって前記オンライン商店で購買することができる。
前記2段階は、前記購読者の音声を前記オンライン商店に直接登録して販売することができ、前記購読者は購読者自身又は購読者が使用権を獲得した第3者を含む。
前記5段階は、前記オンライン記事及びコンテンツを全体又はセクション別、キーワード別、記事別、出版社別、最新順、日付別、アクセス数別、関連度順、ヘッドライン別の中で一つ以上選択し、既設定の音声で出力することができる。
前記4段階で分類されたオンライン記事及びコンテンツの条件によって予め保存された背景音の中で特定の背景音を設定し、前記音声とともに背景音を出力することができる。
前記4段階で分類されたオンライン記事及びコンテンツの条件によって予め保存されたイントネーションスタイルの中で特定のイントネーションスタイルを設定して音声で出力することができる。
前記5段階は、前記オンライン記事及びコンテンツを全体又はセクション別、キーワード別、記事別、出版社別、最新順、日付別、アクセス数別、関連度順、ヘッドライン別の中で一つ以上選択し、使用者が選択した音声で選択的に出力することができる。
通常のインターネット新聞及び検索ポータルなどの多様なオンラインコンテンツプラットホーム(ウェブ又はアプリを含む)が前記1~5段階を組み込むことができる。
前記購読者自身又は購読者が使用権を獲得した第3者の音声を購読者が選択した国家の言語に変換して入力及び出力することができる。
予め設定されて商店に登録されている音声は、出力の際、利用者が選択した国家の言語に変換して出力することができる。
前記5段階で、音声出力の際、使用者が出力される音声の速度を選択して調節することができるように構成されることができる。
前記5段階で、音声出力の際、使用者が出力される音声のボリュームを選択して調節することができるように構成されることができる。
前記1~5段階で、オンライン記事及びコンテンツの選択と音声出力に対する実行、中止又は変更の命令を音声で実施することができるように、通常のインターネット新聞及び検索ポータルなどの多様なオンラインコンテンツプラットホーム(ウェブ又はアプリを含む)に音声認識ボタンが装着されることができる。
本発明の他の特徴及びより具体的な事項は詳細な説明及び図面に含まれている。
このように構成された本発明による多重音声システムが装着されたオンラインメディアサービス具現方法によれば、従来技術の問題点を克服し、現代人の多様な日常生活でも時間的、場所的及び環境的な影響を受けず、円滑なオンラインメディア購読活動の便宜性を高める効果がある。
また、購読者自分の音声を録音するか又は読者が使用権を獲得した第3者の音声を録音しておき、オンラインメディアサイト(インターネット新聞、検索ポータル、多様なオンラインコンテンツプラットホーム)などで記事及びコンテンツを購読するとき、自分の音声又は購読者が使用権を獲得した第3者の音声で特定の記事及びコンテンツを聴取することができるだけでなく、既設定の多様な分野の人物の音声を音声保存システムに保存しておき、読者が特定の音声を選択して自分の好みに応じて記事及びコンテンツを聴取することができる効果もある。
また、自分の音声又は購読者が使用権を獲得した第3者の音声を直接音声ストアで販売することもでき、特定人の音声も購読者(利用者)が選択して購買することができる非常に有用な効果もある。
また、使用者は自分が望む言語を直接選択した言語で特定の記事及びコンテンツを聴取することができ、インターネット新聞及びポータルなどの多様なオンラインコンテンツプラットホームで提供する全体又はセクション別、キーワード別、記事別、出版社別、最新順、日付別、アクセス数別、関連度順、ヘッドライン別に自分が選択した記事及びコンテンツを自分が選択した音声で聴取することができる効果もある。
本発明の効果は以上で言及した効果に制限されず、言及しなかった他の効果は以下の記載から通常の技術者に明らかに理解可能であろう。
本発明の多重音声認識の実施例を示す図である。 本発明による多重音声システムが装着されたオンラインメディアサービス具現方法の一実施例を示す制御フローチャートである。 検索ポータル又はインターネット新聞などの多様なオンラインコンテンツプラットホームのオンライン記事及びコンテンツを音声で具現する具体的な実施例を示すフローチャートである。 図2の他の実施例を示す制御フローチャートである。 本発明の購読者の音声を録音して保存する過程を示す制御フローチャートである。 本発明の保存された音声を選択してオンライン商店に登録して販売する過程を示す制御フローチャートである 本発明の背景音を設定する過程を示す制御フローチャートである。 本発明のスタイル別音声を設定する過程を示す制御フローチャートである。
本発明は多様な変形例及び実施例を有することができるが、その中で特定の実施例を詳細な説明及び添付図面の例示に基づいてより詳細に説明する。また、本発明の説明において、関連した周知の慣用技術についての具体的な説明が本発明の要旨をあいまいにする可能性があると判断される場合にはその説明を省略する。
以下、本発明の好適な実施例を添付図面に基づいて詳細に説明する。
図1及び図2は本発明による多重音声システムが装着されたオンラインメディアサービス具現方法の一実施例を示す制御フローチャートである。
図のように、発明による多重音声システムが装着されたオンラインメディアサービス具現方法は、既設定のオンライン記事及びコンテンツを特定のメディアサイトから収集して個人端末機の画面に表示する1段階(S11)と、購読者の音声を入力するかデータベースに予め保存された音声の中で特定人物の音声を設定する2段階(S12)と、前記オンライン記事及びコンテンツを認識して分類する3段階(S13)と、分類されたオンライン記事及びコンテンツを音声に変換する4段階(S14)と、前記2段階で設定された購読者又は特定人物の音声で前記オンライン記事及びコンテンツを出力する5段階(S15)とを含む。
前記1段階(S11)では、既設定のオンライン記事及びコンテンツを特定のメディアサイトから収集して個人端末機の画面に表示する。
ここで、前記オンライン記事及びコンテンツは、政治、経済、スポーツ、文化などのように記事別ウェブ漫画又はセクション別に分類して設定することができる。また、韓国語、英語、日本語、中国語などの各国の言語を選択することができる。
前記2段階(S12)は、前記購読者の音声を前記オンライン商店に直接登録して販売することができ、前記購読者は購読者自身又は購読者が使用権を獲得した第3者を含む。
したがって、前記2段階(S12)では、購読者自身又は購読者が使用権を獲得した第3者の音声を入力するか、データベースに予め保存された音声の中で特定人物の音声を設定することができる。
前記商店には政治家、芸能人、アナウンサー、スポーツマンなどのように分類された購買音声リストが備えられており、これに自分の音声を直接登録することもできる。
3段階(S13)では前記オンライン記事及びコンテンツを認識して分類する。
ここで、通常の人工知能(Artificial Intelligence)技術を用いて抽出したキーフレームからイメージ又はテキスト領域を抽出し、抽出された領域から文字認識によってニュース及びコンテンツの各記事(コンテンツ)別題目を獲得して保存することにより、題目別又は内容別にニュース及びコンテンツを分類することができる。
より具体的には、前記人工知能技術を用いてオンライン記事及びコンテンツの全体又はセクション別、キーワード別、記事別、出版社別、最新順、日付別、アクセス数別、関連度順、ヘッドライン別にニュース、ウェブ漫画などを分類することもできる。
4段階(S14)では、分類されたオンライン記事及びコンテンツを音声に変換し、5段階(S15)では前記2段階で設定された購読者又は特定人物の音声で前記オンライン記事及びコンテンツを出力する。
前記5段階は、前記オンライン記事及びコンテンツを全体又はセクション別、キーワード別、記事別、出版社別、最新順、日付別、アクセス数別、関連度順、ヘッドライン別の中で一つ以上を選択し、既設定の音声で出力することが好ましい。
図3は検索ポータル又はインターネット新聞などの多様なオンラインコンテンツプラットホームのオンライン記事及びコンテンツを音声で具現する具体的な実施例を示すフローチャートである。
図示のように、特定の検索ポータルから既設定のオンライン記事及びコンテンツを収集し(S21)、購読者自身又は購読者が使用権を獲得した第3者の音声又はオンライン商店で購買した特定人物の音声を設定し(S22)、前記オンライン記事及びコンテンツを認識して分類した後(S23)、分類されたオンライン記事及びコンテンツを音声に変換した後、出力順を検索し(S24)、前記段階で設定された購読者又は特定人物の音声で前記オンライン記事及びコンテンツを出力する(S25)。
他の例として、図示のように、特定のインターネット新聞から予め設定されたオンライン記事及びコンテンツを収集し(S31)、購読者自身又は購読者が使用権を獲得した第3者の音声を設定するか又はオンライン商店で購買した特定人物の音声を設定し(S32)、前記オンライン記事及びコンテンツを認識して分類した後(S33)、分類されたオンライン記事及びコンテンツを音声に変換した後、出力順を検索し(S34)、前記段階で設定された購読者又は特定人物の音声で前記オンライン記事及びコンテンツを出力する(S35)。
図4は図2の他の実施例を示す制御フローチャートである。
図示のように、発明による多重音声システムが装着されたオンラインメディアサービス具現方法は、既設定のオンライン記事及びコンテンツを特定のメディアサイトから収集して個人端末機の画面に表示する1段階(S41)と、購読者自身又は購読者が使用権を獲得した第3者の音声を入力するかデータベースに予め保存された音声の中で特定人物の音声を設定する2段階(S42)と、前記オンライン記事及びコンテンツを認識して分類する3段階(S43)と、分類されたオンライン記事及びコンテンツを音声に変換する4段階(S44)と、前記2段階で設定された購読者又は特定人物の音声で前記オンライン記事及びコンテンツを出力する5段階(S45)を含むものは図1に基づいて説明したものとほぼ同じである。
ただ、前記2段階(S42)で購読者自身又は購読者が使用権を獲得した第3者の音声を入力するかデータベースに予め保存された音声の中で特定人物の音声を設定するにあたり、前記購読者自身又は購読者が使用権を獲得した第3者の音声を前記オンライン商店に直接登録して販売することができる機能を追加する。
図5は本発明の購読者自身又は購読者が使用権を獲得した第3者の音声を録音して保存する過程を示す制御フローチャートである。
図示のように、音声録音(S50)のために、まず個人の音声をマイクを通して入力すれば(S51)、入力された音声を聞いた後、保存するか否かを選択する(S52~S53)。
保存することに選択されれば、英語、韓国語、日本語、中国語などの言語の中で特定の言語変換を選択し、変化及び保存段階を順次経て保存を完了する(S54~S58)。
図6は本発明の保存された音声を選択してオンライン商店に登録して販売する過程を示す制御フローチャートである。
図示のように、前記特定人物の音声がオンライン商店に分野別に予め保存されており、前記購読者の選択によって前記オンライン商店で購買することができる。
例として、まずデータベースに保存された音声リストを見て(S60)、特定音声を選択して商店に伝送すれば(S61~62)、商店では当該音声の特定人の例として政治家、芸能人、アナウンサー、スポーツマンなどの分類別に表示することができ(S63)、これに購読者の音声の希望売価を登録して販売登録することができる(S64~S66)。
図7は本発明の背景音を設定する過程を示す制御フローチャートである。
本発明の前記4段階で分類されたオンライン記事及びコンテンツの条件によって予め保存された背景音の中で特定の背景音を設定し、前記音声とともに背景音を出力することができる。
ここで、図示のように、背景音設定の際(S70)、購読者は背景音の非使用又は使用を選択し(S71~S72)、区間(例えば、全体、始部、中部、終部、ランダム)を設定して種類別(例えば、雨音、雷鳴、波音、風の音、鐘の音、笛音など)に背景音を出力することができる(S73~S74)。
図8は本発明のスタイル別音声を設定する過程を示す制御フローチャートである。
本発明の前記4段階で分類されたオンライン記事及びコンテンツの条件によって予め保存されたイントネーションスタイルの中で特定のイントネーションスタイルを設定し、当該スタイルの音声を出力することができる。
ここで、図示のように、前記スタイルの設定の際(S80)、購読者はイントネーションスタイルの非使用又は使用を選択し(S81~S82)、多様な種類別イントネーションスタイルの例として、喜び、悲しみ、沈着さ、可愛らしさ、溌剌さ、爽やかさなどを選択的に使うことができる。
本発明は、通常のインターネット新聞、検索ポータル、多様なオンラインコンテンツプラットホーム(ウェブ(ウェブ漫画)又はアプリを含む)が前記1~5段階の方法を組み込むことができる。
前記購読者自身又は購読者が使用権を獲得した第3者の音声の入力及び出力は購読者が選択した国家の言語に変換して音声として入力及び出力することができる。
ここで、購読者が選択した国家の言語に変換する過程は通常の音声変換システムを使うことができる。
また、予め設定されて商店に登録されている音声を利用者が選択した国家の言語に変換して出力することも前記音声変換システムによって遂行することができる。
また、前記5段階で、音声出力の際、使用者が出力される音声の速度を選択して調節することができるように構成される。
ここで、オンライン記事及びコンテンツが音声に変換されて出力されるとき、購読者が出力される音声の速度を非常に速く、速く、普通、遅く、非常に遅くのように設定して出力するように構成することができる。
また、使用者が音声の速度調節を自分が自由に直接設定することができるように音声速度調節メニューを備えているので、使用者は当該メニューの0から100までの速度調節数値内で自由に設定して速度調節を選択することができる、
また、前記5段階で、音声出力の際、使用者が出力される音声のボリュームを選択して調節することができるように構成される。
ここで、オンライン記事及びコンテンツが音声に変換されて出力されるとき、購読者が出力される音声のボリュームを非常に大きく、大きく、普通、小さく、非常に小さくなどのように設定して出力することができるように構成することができる。
また、使用者が音声のボリューム調節を自分が自由に直接設定することができるように音声ボリューム調節のメニューを備え、使用者は当該メニューで0から100までのボリューム調節数値内で自由に設定してボリューム調節を選択することができる、
また、前記1~5段階で、オンライン記事及びコンテンツの選択と音声出力に対する実行及び中止又は変更の命令を音声で実施することができるように、通常のインターネット新聞及び検索ポータルを含む多様なオンラインコンテンツプラットホーム(ウェブ又はアプリを含む)に音声認識ボタンを装着することができる。
すなわち、使用者(購読者)は、本サービスの利用の際、モバイル画面で音声実行ボタンを介して全ての命令を実施することができる。
一例として、記事及びコンテンツの検索において、出版社に対する検索、ヘッドライン記事及びコンテンツに対する検索、キーワードによる記事及びコンテンツ検索、最新記事コンテンツに対する検索、アクセス数の高い記事及びコンテンツの検索、分類やセクションによる検索、日付別検索、関連度順検索を該当音声認識ボタンを介して指示することができ、当該命令の中止及び実行、サービス利用停止に対する全ての使用者(購読者)の命令を音声実行ボタン装置によって実施することができる。
本明細書に記載した本発明の実施例及び図面に示した構成は本発明の好適な実施例に関するものであり、発明の技術的思想の全部を包括するものではないので、出願時点にこれらを代替することができた多様な均等物及び変形例があり得ることを理解しなければならない。よって、本発明は上述した実施例に限定されなく、請求範囲で請求する本発明の要旨を離脱しない範疇内で、本発明が属する技術分野で通常の知識を有する者であれば誰でも多様な変形実施が可能であり、そのような変更は本発明の請求範囲に記載の権利範囲内に属するものである。
S11 メディアサイト
S12 音声
S13 資料分析
S14 音声変換
S15 出力

Claims (13)

  1. 既設定のオンライン記事及びコンテンツを特定のメディアサイトから収集して個人端末機の画面に表示する1段階と、
    購読者の音声を入力するかデータベースに予め保存された音声の中で特定人物の音声を設定する2段階と、
    前記オンライン記事及びコンテンツを認識して分類する3段階と、
    前記分類されたオンライン記事及びコンテンツを音声に変換する4段階と、
    前記2段階で設定された購読者又は特定人物の音声で前記オンライン記事及びコンテンツを出力する5段階とを含み、
    音声の入力及び出力は選択国家の言語に変換されて入力及び出力可能であることを特徴とする、多重音声システムが装着されたオンラインメディアサービス具現方法。
  2. 前記2段階は、前記特定人物の音声がオンライン商店に分野別に予め保存されており、前記購読者の選択によって前記オンライン商店で購買することができることを特徴とする、請求項1に記載の多重音声システムが装着されたオンラインメディアサービス具現方法。
  3. 前記2段階は、前記購読者の音声を前記オンライン商店に直接登録して販売することができ、前記購読者は購読者自身又は購読者が使用権を獲得した第3者を含むことを特徴とする、請求項1に記載の多重音声システムが装着されたオンラインメディアサービス具現方法。
  4. 前記5段階は、前記オンライン記事及びコンテンツを全体又はセクション別、キーワード別、記事別、出版社別、最新順、日付別、アクセス数別、関連度順、ヘッドライン別の中で一つ以上を選択し、既設定の音声で出力することを特徴とする、請求項1に記載の多重音声システムが装着されたオンラインメディアサービス具現方法。
  5. 前記4段階で分類されたオンライン記事及びコンテンツの条件によって予め保存された背景音の中で特定の背景音を設定し、前記音声とともに前記背景音を出力することを特徴とする、請求項1に記載の多重音声システムが装着されたオンラインメディアサービス具現方法。
  6. 前記4段階で分類されたオンライン記事及びコンテンツの条件によって予め保存されたイントネーションスタイルの中で特定のイントネーションスタイルを設定して音声を出力することを特徴とする、請求項1に記載の多重音声システムが装着されたオンラインメディアサービス具現方法。
  7. 前記5段階は、前記オンライン記事及びコンテンツを全体又はセクション別、キーワード別、記事別、出版社別、最新順、日付別、アクセス数別、関連度順、ヘッドライン別の中で一つ以上を選択し、使用者が選択した音声で出力することを特徴とする、請求項1に記載の多重音声システムが装着されたオンラインメディアサービス具現方法。
  8. 通常のインターネット新聞及び検索ポータルなどの多様なオンラインコンテンツプラットホーム(ウェブ又はアプリを含む)が前記1~5段階を組み込むことを特徴とする、請求項1に記載の多重音声システムが装着されたオンラインメディアサービス具現方法。
  9. 前記購読者自身又は購読者が使用権を獲得した第3者の音声を前記購読者が選択した国家の言語に変換して入力及び出力することができることを特徴とする、請求項3に記載の多重音声システムが装着されたオンラインメディアサービス具現方法。
  10. 予め設定されて商店に登録されている音声は、出力の際、利用者が選択した国家の言語に変換して出力することを特徴とする、請求項1に記載の多重音声システムが装着されたオンラインメディアサービス具現方法。
  11. 前記5段階で、音声出力の際、使用者が出力される音声の速度を選択して調節することができるように構成されることを特徴とする、請求項1に記載の多重音声システムが装着されたオンラインメディアサービス具現方法。
  12. 前記5段階で、音声出力の際、使用者が出力される音声のボリュームを選択して調節することができるように構成されることを特徴とする、請求項1に記載の多重音声システムが装着されたオンラインメディアサービス具現方法。
  13. 前記1~5段階で、オンライン記事及びコンテンツの選択と音声出力に対する実行、中止又は変更の命令を音声で実施することができるように、通常のインターネット新聞及び検索ポータルなどの多様なオンラインコンテンツプラットホーム(ウェブ又はアプリを含む)に音声認識ボタンが装着されることを特徴とする、請求項1に記載の多重音声システムが装着されたオンラインメディアサービス具現方法。
JP2021513294A 2019-09-18 2020-05-20 複数の音声システムが装着されたオンラインメディアサービス具現方法 Active JP7262142B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2019-0115017 2019-09-18
KR1020190115017A KR102111360B1 (ko) 2019-09-18 2019-09-18 다중 음성시스템이 장착된 온라인미디어 서비스 구현 방법
PCT/KR2020/006592 WO2021054565A1 (ko) 2019-09-18 2020-05-20 다중 음성시스템이 장착된 온라인미디어 서비스 구현 방법

Publications (2)

Publication Number Publication Date
JP2022534824A true JP2022534824A (ja) 2022-08-04
JP7262142B2 JP7262142B2 (ja) 2023-04-21

Family

ID=74867869

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021513294A Active JP7262142B2 (ja) 2019-09-18 2020-05-20 複数の音声システムが装着されたオンラインメディアサービス具現方法

Country Status (2)

Country Link
US (1) US11521593B2 (ja)
JP (1) JP7262142B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002328694A (ja) * 2001-03-02 2002-11-15 Matsushita Electric Ind Co Ltd 携帯端末装置及び読み上げシステム
JP2006330440A (ja) * 2005-05-27 2006-12-07 Kenwood Corp 音声案内装置、音声案内システム及びプログラム
JP2007164210A (ja) * 2007-01-25 2007-06-28 Oki Electric Ind Co Ltd コンテンツ音声化提供システム
JP2009265279A (ja) * 2008-04-23 2009-11-12 Sony Ericsson Mobilecommunications Japan Inc 音声合成装置、音声合成方法、音声合成プログラム、携帯情報端末、および音声合成システム
JP2019161465A (ja) * 2018-03-13 2019-09-19 株式会社東芝 情報処理システム、情報処理方法およびプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100071765A (ko) 2008-12-19 2010-06-29 비플라이소프트(주) 온라인 망을 이용한 맞춤형 정보 제공 시스템 및 그 방법
US8370151B2 (en) * 2009-01-15 2013-02-05 K-Nfb Reading Technology, Inc. Systems and methods for multiple voice document narration
US20120265533A1 (en) * 2011-04-18 2012-10-18 Apple Inc. Voice assignment for text-to-speech output
US9159313B2 (en) * 2012-04-03 2015-10-13 Sony Corporation Playback control apparatus, playback control method, and medium for playing a program including segments generated using speech synthesis and segments not generated using speech synthesis
PL401346A1 (pl) * 2012-10-25 2014-04-28 Ivona Software Spółka Z Ograniczoną Odpowiedzialnością Generowanie spersonalizowanych programów audio z zawartości tekstowej
JP6038848B2 (ja) 2014-09-01 2016-12-07 ヤフー株式会社 再生プログラム、配信装置、再生方法および情報処理装置
US10083684B2 (en) * 2016-08-22 2018-09-25 International Business Machines Corporation Social networking with assistive technology device
US10783883B2 (en) 2016-11-03 2020-09-22 Google Llc Focus session at a voice interface device
CN111566655B (zh) 2018-01-11 2024-02-06 新智株式会社 多种语言文本语音合成方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002328694A (ja) * 2001-03-02 2002-11-15 Matsushita Electric Ind Co Ltd 携帯端末装置及び読み上げシステム
JP2006330440A (ja) * 2005-05-27 2006-12-07 Kenwood Corp 音声案内装置、音声案内システム及びプログラム
JP2007164210A (ja) * 2007-01-25 2007-06-28 Oki Electric Ind Co Ltd コンテンツ音声化提供システム
JP2009265279A (ja) * 2008-04-23 2009-11-12 Sony Ericsson Mobilecommunications Japan Inc 音声合成装置、音声合成方法、音声合成プログラム、携帯情報端末、および音声合成システム
JP2019161465A (ja) * 2018-03-13 2019-09-19 株式会社東芝 情報処理システム、情報処理方法およびプログラム

Also Published As

Publication number Publication date
US11521593B2 (en) 2022-12-06
JP7262142B2 (ja) 2023-04-21
US20210082393A1 (en) 2021-03-18

Similar Documents

Publication Publication Date Title
KR102111360B1 (ko) 다중 음성시스템이 장착된 온라인미디어 서비스 구현 방법
JP6505117B2 (ja) 模写によるデジタル携帯情報端末の対話、および応答時のリッチなマルチメディア
CN109118562A (zh) 虚拟形象的讲解视频制作方法、装置以及终端
WO2013054839A1 (ja) 画像認識システムを備えた知識情報処理サーバシステム
CN103236259A (zh) 语音识别处理及反馈系统、语音回复方法
US10777199B2 (en) Information processing system, and information processing method
KR101983635B1 (ko) 개인방송 컨텐츠 추천방법
WO2019047850A1 (zh) 标识的显示方法和装置、请求的响应方法和装置
CN108877753A (zh) 音乐合成方法及系统、终端以及计算机可读存储介质
US20220246135A1 (en) Information processing system, information processing method, and recording medium
CN112750187A (zh) 一种动画生成方法、装置、设备及计算机可读存储介质
CN113033245A (zh) 一种功能调节方法、装置、存储介质及电子设备
JP4250938B2 (ja) コミュニケーション支援方法およびコミュニケーションサーバ
CN112673641A (zh) 对视频或语音消息的内联响应
CN110379406A (zh) 语音评论转换方法、系统、介质和电子设备
CN113821188A (zh) 调整音频播放速度的方法、装置、电子设备及存储介质
JP7262142B2 (ja) 複数の音声システムが装着されたオンラインメディアサービス具現方法
CN113573128A (zh) 一种音频处理方法、装置、终端以及存储介质
KR20210067426A (ko) 음성 일기 장치
JP7229296B2 (ja) 関連情報提供方法及びシステム
JP2014109998A (ja) 対話装置及びコンピュータ対話方法
Behrendt Telephones, music and history: From the invention era to the early smartphone days
KR102267651B1 (ko) 오디오 컨텐츠 제공 방법 및 장치
Brooks Voices of Black Folk: The Sermons of Rev. AW Nix, by Terri Brinegar
Moroney Shakespeare’s Accents: Voicing Identity in Performance: by Sonia Massai. Cambridge: Cambridge University Press, 2020, 236 pp, ISBN 9781108429627 (hardback)

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211210

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210304

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211210

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210304

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220809

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221108

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20230106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230404

R150 Certificate of patent or registration of utility model

Ref document number: 7262142

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150