JP2018041443A - ディープラーニング人工神経網基盤のタスク提供プラットフォーム - Google Patents
ディープラーニング人工神経網基盤のタスク提供プラットフォーム Download PDFInfo
- Publication number
- JP2018041443A JP2018041443A JP2017137802A JP2017137802A JP2018041443A JP 2018041443 A JP2018041443 A JP 2018041443A JP 2017137802 A JP2017137802 A JP 2017137802A JP 2017137802 A JP2017137802 A JP 2017137802A JP 2018041443 A JP2018041443 A JP 2018041443A
- Authority
- JP
- Japan
- Prior art keywords
- task
- learning model
- extracting
- information
- conversation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 11
- 238000013135 deep learning Methods 0.000 title abstract description 10
- 238000000605 extraction Methods 0.000 claims abstract description 45
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 41
- 230000000306 recurrent effect Effects 0.000 claims abstract description 4
- 238000000034 method Methods 0.000 claims description 50
- 239000013598 vector Substances 0.000 claims description 25
- 230000014509 gene expression Effects 0.000 claims description 18
- 238000003058 natural language processing Methods 0.000 claims description 17
- 230000006870 function Effects 0.000 claims description 16
- 238000010206 sensitivity analysis Methods 0.000 claims description 10
- 230000002787 reinforcement Effects 0.000 claims description 9
- 238000004458 analytical method Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 7
- 238000012545 processing Methods 0.000 abstract description 22
- 230000008569 process Effects 0.000 description 19
- 238000004891 communication Methods 0.000 description 16
- 230000015654 memory Effects 0.000 description 15
- 238000005516 engineering process Methods 0.000 description 12
- 239000000284 extract Substances 0.000 description 11
- 238000010586 diagram Methods 0.000 description 7
- 238000009826 distribution Methods 0.000 description 6
- 238000011176 pooling Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 238000005065 mining Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000001915 proofreading effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 235000013405 beer Nutrition 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000010195 expression analysis Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000007794 visualization technique Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/22—Indexing; Data structures therefor; Storage structures
- G06F16/2219—Large Object storage; Management thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/01—Social networking
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Strategic Management (AREA)
- Human Resources & Organizations (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Marketing (AREA)
- Computing Systems (AREA)
- General Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Economics (AREA)
- Entrepreneurship & Innovation (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Primary Health Care (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
【課題】ディープラーニング人工神経網基盤のタスク提供プラットフォームを提供する。
【解決手段】ディープラーニング人工神経網基盤のタスク提供プラットフォームを提供するサーバ150は、電子機器110にインストールされた少なくとも1つのメッセージアプリケーション10から会話情報を抽出する会話抽出部301、自然語処理のためのCNN(convolutional neural network)学習モデルと文章生成のためのRNN(recurrent neural network)学習モデルを利用して会話情報からタスク(task)情報を抽出するタスク抽出部303および電子機器110にインストールされたタスク提供アプリケーション20にタスク情報を提供するタスク提供部305を含む。
【選択図】図3
【解決手段】ディープラーニング人工神経網基盤のタスク提供プラットフォームを提供するサーバ150は、電子機器110にインストールされた少なくとも1つのメッセージアプリケーション10から会話情報を抽出する会話抽出部301、自然語処理のためのCNN(convolutional neural network)学習モデルと文章生成のためのRNN(recurrent neural network)学習モデルを利用して会話情報からタスク(task)情報を抽出するタスク抽出部303および電子機器110にインストールされたタスク提供アプリケーション20にタスク情報を提供するタスク提供部305を含む。
【選択図】図3
Description
以下の説明は、ディープラーニング人工神経網基盤のプラットフォームサービスに関する。
今日、インターネットなどのような通信網の急激な発展に伴い、通信網を介したメッセンジャサービスが一般化している。
インターネットを利用することで、ユーザは、いつどこにいても他のユーザと容易にメッセージをやり取りすることができるが、このようなメッセンジャサービスは、我々の生活全般に多くの変化をもたらしている。
メッセンジャサービスは、移動通信の発達に伴い、モバイルメッセンジャとして国境を越えた大衆的な会話手段として利用されているが、そのユーザ数は増え続けている。これに付随して、メッセンジャを基盤としたサービスも増加傾向にある。
このようなメッセンジャサービスは、ユーザ間で会話形式によって情報を伝達できるようにしたサービスである。
メッセンジャサービスの関連技術の一例として、特許文献1(公開日2004年06月26日)には、携帯用端末機においてメッセンジャ機能を実現する技術が開示されている。
DNN(deep neural network)を基盤としてユーザがやり取りした会話内容からタスク(task、すべきこと)を抽出して提供することができる、タスク提供プラットフォームを提供する。
DNNによる自然語処理(natural language process)によってタスクを抽出することができる、タスク提供プラットフォームを提供する。
会話内容でタスク関連単語とタスク外単語を正確かつ効果的に区分することができる、学習アルゴリズムを提供する。
ユーザがやり取りした会話内容から抽出されたタスクをユーザが確認可能な形態に可視化することができる、タスク可視化方法を提供する。
コンピュータで実現される方法であって、電子機器にインストールされた少なくとも1つのメッセージアプリケーションから会話情報を抽出する段階、自然語処理のためのCNN(convolutional neural network)学習モデルと文章生成のためのRNN(recurrent neural network)学習モデルを利用して前記会話情報からタスク(task)情報を抽出する段階、および前記電子機器にインストールされたタスク提供アプリケーションで前記タスク情報を提供する段階を含む方法を提供する。
一側面によると、前記タスク情報を抽出する段階は、タスク関連単語が学習された前記CNN学習モデルに基づいて前記会話情報に含まれた文章から前記タスク関連単語に該当する核心単語を抽出する段階、および前記RNN学習モデルに基づいて前記核心単語を利用してタスク文章を生成する段階を含んでよい。
他の側面によると、前記タスク情報を抽出する段階は、感性分析特化学習モデルを含む前記RNN学習モデルに基づいて前記会話情報に含まれた文章で肯定表現と否定表現を分析し、前記否定表現を除いた確定文章を生成する段階、およびタスク関連単語が学習された前記CNN学習モデルに基づき、前記確定文章から前記タスク関連単語に該当する核心単語を抽出する段階を含んでよい。
また他の側面によると、前記タスク情報を抽出する段階は、タスク関連単語が学習された前記CNN学習モデルに基づき、前記会話情報に含まれた文章からタスクを5W1H(When、Where、Who、What、Why、How)の属性で抽出する段階を含んでよい。
また他の側面によると、前記タスク情報を抽出する段階は、感性分析特化学習モデルに基づいて前記会話情報に含まれた文章で肯定/否定を分析し、肯定/否定分析結果をタスク抽出に反映してよい。
また他の側面によると、前記CNN学習モデルは、ワードエンベディング(word embedding)方法によって学習データの単語をワードベクトルで表現した後、前記タスク関連単語を目的関数として定義し、前記タスク関連単語とタスク外単語の区分のためにエンベディングベクトルの距離を調整して学習してよい。
また他の側面によると、前記CNN学習モデルは、前記タスク関連単語として場所と時間および目的に該当する単語を目的関数として定義して学習してよい。
また他の側面によると、前記CNN学習モデルと前記RNN学習モデルは、学習データが追加される場合、追加された学習データに対してキャッシュ(cache)モデルが生成された後、既存の学習モデルとの併合によって補強学習モデルが生成されてよい。
タスク提供方法を実行させるためにコンピュータで読み取り可能な記録媒体に記録されたコンピュータプログラムであって、前記タスク提供方法は、電子機器にインストールされた少なくとも1つのメッセージアプリケーションから会話情報を抽出する段階、自然語処理のためのCNN学習モデルと文章生成のためのRNN学習モデルを利用して前記会話情報からタスク情報を抽出する段階、および前記電子機器にインストールされたタスク提供アプリケーションで前記タスク情報を提供する段階を含む、コンピュータプログラムを提供する。
コンピュータで実現されるシステムであって、コンピュータが読み取り可能な命令を実行するように実現される少なくとも1つのプロセッサを含み、前記少なくとも1つのプロセッサは、電子機器にインストールされた少なくとも1つのメッセージアプリケーションから会話情報を抽出する会話抽出部、自然語処理のためのCNN学習モデルと文章生成のためのRNN学習モデルを利用して前記会話情報からタスク情報を抽出するタスク抽出部、および前記電子機器にインストールされたタスク提供アプリケーションで前記タスク情報を提供するタスク提供部を含む、システムを提供する。
本発明の実施形態によると、DNNを基盤としてユーザがやり取りした会話内容からタスクを抽出して提供することができる。
本発明の実施形態によると、DNNによる高い信頼度のある自然語処理によってタスクを正確に抽出することができる。
本発明の実施形態によると、会話内容でタスク関連単語とタスク外単語を正確かつ効果的に区分することができる。
本発明の実施形態によると、感性分析特化学習モデルを適用して会話内の肯定/否定判断結果をタスク抽出に反映することにより、有効なタスクを正確に抽出することができる。
本発明の実施形態によると、タスク抽出のための学習モデルに学習データが追加される場合、キャッシュ(cache)モデルを生成して既存のモデルと併合する方法により、リアルタイム(real−time)学習処理の実現が可能となる。
本発明の実施形態によると、多様な会話内容からタスクを5W1H(When、Where、Who、What、Why、How)の属性で抽出して提供することができる。
本発明の実施形態によると、ユーザがやり取りした会話内容から抽出されたタスクを、最適化したUI(user interface)/UX(user experience)に合うように可視化することができる。
本発明の実施形態によると、会話内容からタスクを自動抽出して提供することにより、会話に起因されるべきことを別途管理したり記憶したりしなくても、ユーザがスケジュールを判断あるいは記録するための思考と行動の時間を短縮することができる。
以下、本発明の実施形態について、添付の図面を参照しながら詳細に説明する。
本発明の実施形態は、ディープラーニング人工神経網基盤のプラットフォームサービスを提供する技術に関し、より詳細には、DNNを基盤として会話メッセージからタスクを抽出して可視化することのできるタスク提供プラットフォームに関する。
本明細書で具体的に開示されるものを含む実施形態は、ディープラーニング人工神経網基盤のプラットフォームサービスを実現してよく、これによって混雑とする会話内容からタスクを抽出して可視化することができ、さらに効率性、合理性、実効性、費用節減などの側面において相当な長所を達成することができる。
図1は、本発明の一実施形態における、ネットワーク環境の例を示した図である。図1のネットワーク環境は、複数の電子機器110、120、130、140、複数のサーバ150、160、およびネットワーク170を含む例を示している。このような図1は、発明の説明のための一例に過ぎず、電子機器の数やサーバの数が図1のように限定されることはない。
複数の電子機器110、120、130、140は、コンピュータ装置によって実現される固定端末や移動端末であってよい。複数の電子機器110、120、130、140の例としては、スマートフォン、携帯電話、ナビゲーション、コンピュータ、ノート型パソコン、デジタル放送用端末、PDA(Personal Digital Assistant)、PMP(Portable Multimedia Player)、タブレットなどがある。一例として、電子機器1(110)は、無線または有線通信方式を利用し、ネットワーク170を介して他の電子機器120、130、140および/またはサーバ150、160と通信してよい。
通信方式が限定されることはなく、ネットワーク170が含むことのできる通信網(一例として、移動通信網、有線インターネット、無線インターネット、放送網)を活用する通信方式だけではなく、機器間の近距離無線通信が含まれてもよい。例えば、ネットワーク170は、PAN(personal area network)、LAN(local area network)、CAN(campus area network)、MAN(metropolitan area network)、WAN(wide area network)、BBN(broadband network)、インターネットなどのネットワークのうちの1つ以上の任意のネットワークを含んでよい。さらに、ネットワーク170は、バスネットワーク、スターネットワーク、リングネットワーク、メッシュネットワーク、スター−バスネットワーク、ツリーまたは階層的(hierarchical)ネットワークなどを含むネットワークトポロジのうちの任意の1つ以上を含んでもよいが、これらに限定されることはない。
サーバ150、160それぞれは、電子機器110、120、130、140とネットワーク170を介して通信して命令、コード、ファイル、コンテンツ、サービスなどを提供するコンピュータ装置または複数のコンピュータ装置によって実現されてよい。一例として、サーバ160は、ネットワーク170を介して接続した電子機器1(110)にアプリケーションのインストールのためのファイルを提供してよい。この場合、電子機器1(110)は、サーバ160から提供されたファイルを利用してアプリケーションをインストールしてよい。また、電子機器1(110)が含むオペレーティングシステム(Operating System:OS)や少なくとも1つのプログラム(一例として、ブラウザや前記インストールされたアプリケーション)の制御にしたがってサーバ150に接続してサーバ150が提供するサービスやコンテンツの提供を受けてもよい。例えば、電子機器1(110)がアプリケーションの制御にしたがってネットワーク170を介してサービス要請メッセージをサーバ150に送信すると、サーバ150は、サービス要請メッセージに対応するコードを電子機器1(110)に送信してよく、電子機器1(110)は、アプリケーションの制御にしたがってコードに基づいた画面を構成して表示することによってユーザにコンテンツを提供してよい。
図2は、本発明の一実施形態における、電子機器およびサーバの内部構成を説明するためのブロック図である。図2では、1つの電子機器に対する例として電子機器1(110)の内部構成を、1つのサーバに対する例としてサーバ150の内部構成を説明する。他の電子機器120、130、140やサーバ160も同一または類似の内部構成を備えてよい。
電子機器1(110)とサーバ150は、メモリ211、221、プロセッサ212、222、通信モジュール213、223、および入力/出力インタフェース214、224を含んでよい。メモリ211、221は、コンピュータで読み取り可能な記録媒体であって、RAM(random access memory)、ROM(read only memory)、およびディスクドライブのような永久大容量記憶装置(permanent mass storage device)を含んでよい。また、メモリ211、221には、オペレーティングシステムと、少なくとも1つのプログラムコード(一例として、電気機器1(110)にインストールされ駆動するブラウザや専用アプリケーションなどのためのコード)が格納されてよい。このようなソフトウェア構成要素は、メモリ211、221とは別のコンピュータで読み取り可能な記録媒体からロードされてよい。このような別のコンピュータで読み取り可能な記録媒体は、フロッピー(登録商標)ドライブ、ディスク、テープ、DVD/CD−ROMドライブ、メモリカードなどのコンピュータで読み取り可能な記録媒体を含んでよい。他の実施形態において、ソフトウェア構成要素は、コンピュータで読み取り可能な記録媒体ではない通信モジュール213、223を通じてメモリ211、221にロードされてもよい。例えば、少なくとも1つのプログラムは、開発者またはアプリケーションのインストールファイルを配布するファイル配布システム(一例として、上述したサーバ160)がネットワーク170を介して提供するファイルによってインストールされるプログラム(一例として、上述したアプリケーション)に基づいてメモリ211、221にロードされてよい。
プロセッサ212、222は、基本的な算術、ロジック、および入出力演算を実行することにより、コンピュータプログラムの命令を処理するように構成されてよい。命令は、メモリ211、221または通信モジュール213、223によって、プロセッサ212、222に提供されてよい。例えば、プロセッサ212、222は、メモリ211、221のような記録装置に格納されたプログラムコードにしたがって受信される命令を実行するように構成されてよい。
通信モジュール213、223は、ネットワーク170を介して電子機器1(110)とサーバ150とが互いに通信するための機能を提供してもよいし、他の電子機器(一例として、電子機器2(120))または他のサーバ(一例として、サーバ160)と通信するための機能を提供してもよい。一例として、電子機器1(110)のプロセッサ212がメモリ211のような記録装置に格納されたプログラムコードにしたがって生成した要求が、通信モジュール213の制御にしたがってネットワーク170を介してサーバ150に伝達されてよい。これとは逆に、サーバ150のプロセッサ222の制御にしたがって提供される制御信号や命令、コンテンツ、ファイルなどが、通信モジュール223とネットワーク170を経て電子機器1(110)の通信モジュール213を通じて電子機器1(110)に受信されてもよい。例えば、通信モジュール213を通じて受信したサーバ150の制御信号や命令などは、プロセッサ212やメモリ211に伝達されてよく、コンテンツやファイルなどは、電子機器1(110)がさらに含むことのできる格納媒体に格納されてよい。
入力/出力インタフェース214は、入力/出力装置215とのインタフェースのための手段であってよい。例えば、入力装置は、キーボードまたはマウスなどの装置を、出力装置は、アプリケーションの通信セッションを表示するためのディスプレイのような装置を含んでよい。他の例として、入力/出力インタフェース214は、タッチスクリーンのように入力と出力のための機能が1つに統合された装置とのインタフェースのための手段であってもよい。より具体的な例として、電子機器1(110)のプロセッサ212は、メモリ211にロードされたコンピュータプログラムの命令を処理するにあたり、サーバ150や電子機器2(120)が提供するデータを利用して構成されるサービス画面やコンテンツが入力/出力インタフェース214を通じてディスプレイに表示されてよい。
また、他の実施形態において、電子機器1(110)およびサーバ150は、図2の構成要素よりも多くの構成要素を含んでもよい。しかし、大部分の従来技術的構成要素を明確に図に示す必要はない。例えば、電子機器1(110)は、上述した入力/出力装置215のうちの少なくとも一部を含むように実現されてもよいし、トランシーバ、GPS(Global Positioning System)モジュール、カメラ、各種センサ、データベースなどのような他の構成要素をさらに含んでもよい。より具体的な例として、電子機器1(110)がスマートフォンである場合、一般的にスマートフォンが含んでいる加速度センサやジャイロセンサ、カメラ、物理的な各種ボタン、タッチパネルを利用したボタン、入力/出力ポート、振動のための振動器などの多様な構成要素が電子機器1(110)にさらに含まれるように実現されてもよいことが理解できるであろう。
以下では、DNN基盤のプラットフォームサービス方法およびシステムの具体的な実施形態について説明する。
図3は、本発明の一実施形態における、DNN基盤のプラットフォームサービスを提供するサーバが含むことのできる構成要素の例を示した構成図であり、図4は、DNN基盤のプラットフォームサービスを提供するサーバが実行することのできる方法の例を示したフローチャートである。
サーバ150は、DNNを基盤として会話メッセージからタスクを自動抽出して可視化することが可能なプラットフォームの役割をする。
図3に示すように、サーバ150のプロセッサ222は、構成要素として、会話抽出部301、タスク抽出部303、およびタスク提供部305を含んでよい。サーバ150は、図2を参照しながら説明した構成要素を基本的に含み、さらにDNN基盤のプラットフォームサービスを提供するためのビックデータプラットフォームの役割を担うものであって、会話抽出部301から抽出された会話情報を格納するための会話情報データベース302、およびタスク抽出部303から抽出されたタスク情報を格納するためのタスク情報データベース304をさらに含んでよい。
このようなプロセッサ222およびプロセッサ222の構成要素は、図4の方法が含む段階S410〜S430を実行するようにサーバ150を制御してよい。このとき、プロセッサ222およびプロセッサ222の構成要素は、メモリ221が含むオペレーティングシステムのコードと少なくとも1つのプログラムのコードによる命令(instruction)を実行するように実現されてよい。また、プロセッサ222の構成要素は、オペレーティングシステムや少なくとも1つのプログラムが提供する制御命令にしたがってプロセッサ222によって実行される互いに異なる機能(different functions)の表現であってよい。例えば、プロセッサ222が上述した制御命令にしたがって会話情報を抽出する機能的表現として会話抽出部301が使用されてよい。
図3に示すように、サーバ150で提供するプラットフォームサービスは、インターネットを介してユーザ間で会話をやり取りする媒体と連動して実施される。ここで、媒体とは、テキスト、音声、動画などのような多様な形式でメッセージをやり取りするサービスを提供するメッセージアプリケーション10を意味し、インスタントメッセンジャ、SNS(social network service)、電子メール(E−mail)、SMS(short message service)、MMS(multi−media message service)などを含んでよい。例えば、メッセージアプリケーション10が、カカオトーク、LINE、NATE ON、FACE BOOK、LINKED INなどのような多様なアプリケーションであってよいことは言うまでもない。サーバ150は、メッセージアプリケーション10と密接に情報をやり取りし、これと関連してユーザに別途のサービスを提供してよいが、言い換えれば、メッセージアプリケーション10から抽出したタスクを要約し、これに合った情報を提供することができる。
段階S410で、会話抽出部301は、電子機器1(110)にインストールされた少なくとも1つのメッセージアプリケーション(例えば、メッセンジャA、メッセンジャB、SNSCなど)10から電子機器1(110)のユーザの会話情報を抽出して会話情報データベース302に格納してよい。言い換えれば、会話抽出部301は、メッセージアプリケーション10から、該当のアプリケーションの製造社で提供する開発者ツール(SDK)を利用して、ユーザと会話をやり取りする会話者の情報、会話内容に関する情報などを含む会話情報を抽出してよい。このとき、メッセージアプリケーションから抽出された会話情報は、異質的かつ広大な分散処理システム(heterogeneous distribute system)のビックデータプラットフォームである会話情報データベース302に追跡してよい。
段階S420で、タスク抽出部303は、自然語処理のためのCNN(convolutional neural network)学習モデルと文章生成のためのRNN(recurrent neural network)学習モデルを利用して、会話情報データベース302に格納された会話情報からタスク情報を抽出してタスク情報データベース304に格納してよい。タスク抽出部303は、自然語処理によって会話内容からタスクと関連する単語(以下、「タスク関連単語」と称する)を抽出するためのCNNアルゴリズムと、会話内容でタスク文章を生成するためのRNNアルゴリズムとを組み合わせて会話情報からタスク情報を抽出してよい。タスク抽出部303は、CNN学習モデルに基づいて先学習した後、RNN学習モデルに基づいてタスク文章を生成する形態のアルゴリズムを適用してもよいし、RNN学習モデルに基づいてタスク関連単語を抽出した後、CNN学習モデルに基づいてタスク文章を生成する形態のアルゴリズムを適用してもよい。本発明では、タスク情報抽出に特化して学習されたDNNアルゴリズムがタスクを5W1H(When、Where、Who、What、Why、How)の属性で抽出および整理する。会話情報から抽出されたタスク情報は、異質的かる広大な分散処理システム(heterogeneous distribute system)のビックデータプラットフォームであるタスク情報データベース304に追跡してよい。タスク情報抽出に特化した学習モデルと具体的なタスク情報抽出過程については、以下で説明する。
段階S430で、タスク提供部305は、電子機器1(110)にインストールされたタスク提供アプリケーションでタスク情報を可視化することによって電子機器1(110)のユーザにタスク情報を提供してよい。タスク提供部305は、タスク情報データベース304に追跡されたタスクとリアルタイムでメッセージアプリケーションから抽出される会話情報を学習させ、タスク提供アプリケーションでタスクをリアルタイムで示すための処理を実施してよい。このとき、タスク提供アプリケーションは、PC基盤のプログラムまたはモバイル端末専用のアプリケーションで構成されてよい。また、タスク提供アプリケーションは、独立的に動作するプログラム形態で実現されてもよいし、特定のアプリケーション(例えば、メッセージアプリケーション)のイン−アプリ(in−app)形態で構成されて前記特定のアプリケーション上で動作が可能なように実現されてもよい。言い換えれば、タスク提供部305は、ウェブサービスまたはモバイル端末専用アプリケーションの形態で提供されるタスク提供アプリケーションで、リアルタイムで処理されるタスクを最適化されたUI/UXに合うように表示することができる。
本発明では、人間と同じように思考することが可能なディープラーニング基盤に独自の汎用人工知能(general artificial intelligence)アルゴリズムで実現される特徴を有し、自然語処理技術とタスク抽出アルゴリズムを適用してよい。自然語処理技術とは、単語表現の分析技術を活用して単語間の関係をDNNによって学習し、文章と句を分析して感性分析アルゴリズムを組み合わせることにより、文章の肯定/否定分析はもちろん、新造語および打ち間違えまでも探知および予測可能な独自のアルゴリズムである。感性分析アルゴリズムであるオピニオンマイニング(opinion mining)は、会話内容を分析して有用な情報を提供する技術であって、テキストを分析してテキストを作成したユーザの感性と意見を統計/数値化して客観的な情報に変えることができる技術である。このような感性分析アルゴリズムを適用することにより、メッセージアプリケーションでやり取りする会話内容から肯定表現と否定表現を分析してタスク抽出に反映することができる。また、タスク抽出アルゴリズムは、膨大かつ良質のデータを独自の自然語処理技術に基づいて学習させ、会話内容でのタスク成立確率を機械が自ら判断して自主的にタスク辞書を自動で構築して学習していくアルゴリズムである。
タスク情報抽出に特化した学習モデルの構築過程を説明すると、次のとおりとなる。
サーバ150は、タスク抽出のための学習モデルを構築するために、複数の電子機器110、120、130、140にインストールされたメッセージアプリケーションを利用して電子機器110、120、130、140のユーザそれぞれがやり取りした会話メッセージを学習データとして収集してよく、サーバ150のプロセッサ222に含まれることのできる構成要素である学習モジュール(図示せず)で多くのユーザが利用するメッセージアプリケーションから収集した学習データを利用してタスク情報抽出に特化した学習モデルを構築してよい。
1.学習モジュールは、学習データで単語をワードベクトルによって表現することで単語のベクトル化を実行してよい。
い.学習モジュールは、機械学習モデルであるword2vecのskip−gram(N−gram)モデルを利用してタスク分散に特化したワードエンベディング(word embedding)方法を適用してよく、例えば、学習文章でタスク関連単語として場所に該当する単語、時間に該当する単語、目的に該当する単語などを学習してよい。
先ず、学習文章で場所を分散化する過程を説明すると、次のとおりとなる。
(1)一例として<江南でビール1杯飲みましょう>という文章を学習文章に設定した後に学習する。
(2)ユニグラム(1単語)分布(unigram distribution)であるP(w)分布に該当する雑音分布から予め設定した個数だけの雑音(noise)サンプルと対照する。
(3)設定雑音の個数を1に設定するとき、学習文章で「で」という単語がノイズ単語として選択されたと仮定する。
(4)学習段階tで目的関数を数式(1)のように定義した後に1次学習を行う。
ここで、logQθ(D=1|w、h)は、エンベディングベクトルθを学習しながらデータセットDにおいてコンテクストhで単語wが出る確率を計算する二陣ロジスティック回帰分析確率(binary logistic regression probability)モデルを意味し、kEw〜Pnoiseは、雑音分布でk個のノイズ単語を意味する。
(5)目的関数を最大化するために、エンベディング因子θを更新する。
(6)エンベディング因子θの損失に対する勾配(gradient)を誘導するために(∂/∂θ)JNEG(θ値に該当する目的関数の微分値)を算出する。
(7)タスク関連単語(学習文章で場所に該当する単語である「江南」)とタスク外単語(学習文章で「で」)の区分が成功的になされるまでエンベディングベクトル(embedding vectors)の距離を調整する。エンベディングベクトルの距離を調整することにより、「場所」に近づいたベクトルが得られるようになる。
上述した(1)〜(7)過程により、学習文章から目的と時間を分散化してよい。
ろ.学習モジュールは、タスク関連単語の群集範囲および勾配を調整してよい。表1は、タスク関連単語の群集範囲および勾配調整の例を示している。
2.学習アルゴリズム
い.学習モジュールは、自然語処理のためのCNNアルゴリズムを適用してよく、CNN学習モデルは、次のような構造からなる。
(1)CNN学習モデルの入力レイヤ(input layer)に学習文章内の単語のベクトル値(word2vec)を行列で並べる。
(2)多重フィルタ(multiple filters)を有するコンボリューションレイヤ(convolutional layer)とプーリングレイヤ(max−pooling layer)を連結する。
(3)分類層(classification layer)でsoftmax分類機を選択する。
ろ.学習モジュールは、文章生成のための次の構造のRNNアルゴリズムを適用してよく、RNN学習モデルは、次のような構造からなる。
(1)RNN学習モデルは、タスク処理のためのLSTM(long−term short−term memory)モデル(図5参照)を利用する。
(2)RNN学習モデルは、学習文章が有する文脈の流れから肯定/否定を判断してよく、肯定/否定判断のためのアルゴリズム数式は、数式(2)のとおりとなる。
ここで、hはヒドゥンレイヤ(hidden layer)の出力を示すベクトル値、Wはアテンション(attention)を求めるための加重値ベクトル値、bはバイアス(bias)、eは指数関数、aは肯定/否定加重値、すなわち、c(context vector)を求めるときにhに対する加重値を意味する。
は.学習モジュールは、学習データに対するリアルタイム補強学習処理を適用してよい
(1)一般的なディープラーニング補強学習処理プロセスは、図6に示すように、学習データを学習して学習モデル61(CNN学習モデル、RNN学習モデル)を生成するようになるが、この後に学習データが追加される場合には既存の学習モデル61を破棄し、新たなデータを含む全体学習データを再び学習して新たな学習モデル63を生成する構造である。
(2)リアルタイム補強学習処理プロセスは、キャッシュモデルを生成して既存の学習モデルと併合(merge)する方法であって、リアルタイム学習処理が実現可能である。図7を参照すると、学習データを学習して学習モデル71を生成した後に学習データが追加される場合、追加された学習データに対してキャッシュモデル73を生成し、既存の学習モデル71と併合して補強学習モデル75を生成する。したがって、キャッシュモデルを活用して学習モデルに対するリアルタイム学習処理と補強学習処理を実現することにより、学習モデルを構築するのに必要となるリソースと費用を節減することができる。
具体的なタスク情報抽出過程として、タスク情報を抽出するための学習アルゴリズムは、次のとおりとなる。
1.タスク抽出部303は、CNN学習モデルを利用して先学習した後、RNN学習モデルを利用してタスク文章を生成する形態のアルゴリズム(CNN+RNN学習アルゴリズム)を適用してよい。
い.タスク抽出部303は、CNN学習モデルを利用して文章内から核心単語であるタスク関連単語を抽出してよい(図8参照)。
(1)文章に含まれた単語をベクトル値によってエンベディングする。
(2)3個のフィルタ(行の長さをそれぞれ2、3、4に設定)を合計6個の文章マトリックス合成積を実行して特徴マップを生成する。
(3)各マップのmax−poolingを行って最大値を抽出する。
(4)6個の単変量特徴ベクトル(max−pooling結果値)を分類レイヤ(softmax分類機)の特徴ベクトルに連結する。
(5)分類レイヤ(softmax分類機)を利用してタスク関連単語(場所、目的、時間別単語)を抽出する。
ろ.タスク抽出部303は、RNN学習モデルであるLSTMを利用してタスク文章を生成してよい。タスク抽出部303は、CNN学習モデルに基づいて選別された単語をRNN学習モデルの入力データとして学習してよいが、このとき、口語や隠語などの単語校正処理も可能である。図9は、CNN学習モデルに基づいて選別された単語を入力データとするRNN学習モデルを図式化したものでさる。
(1)単語表現(word representation)層:CNNによって選別された単語のベクトル値を時系列に配置する(口語や隠語などを含む)。
(2)文章構成(sentence composition)層:単語表現層で入力されたベクトル値をLSTMアルゴリズムによって文章を再生成する。
(3)文章表現(sentence representation)層:文章構成層で生成された文章を配置する。
(4)文書構成(document composition)層:生成された文章で非学習データ(口語や隠語など)を学習された会話の文章で最も近い意味の単語(類似文章のベクトル値の組み合わせによって判別)に代替する。
(5)文書表現(document representation)層:代替された単語が含まれた文章を、softmax関数を利用して最終文章を選択する。
2.タスク抽出部303は、あるいはRNN学習モデルを利用してタスク関連単語を抽出した後にCNN学習モデルによってタスク文章を生成する形態のアルゴリズム(RNN+CNN学習アルゴリズム)を適用してよい。
い.タスク抽出部303は、RNN学習モデルを利用して会話の流れを要約してよい。
(1)タスク抽出部303は、感性分析特化学習モデルを適用して文章内の肯定/否定を把握してよい。感性分析特化学習モデルは、数式(3)のように定義されてよい。
ここで、σはシグモイド(sigmoid)関数、xtは以前シーケンスの入力、ht−1は以前シーケンスの出力、Wz、Uz、Wr、Ur、Wm、Umはそれぞれゲート(gate)とセルメモリ(cell memory)のための加重値行列、rは以前状態をユニットの入力に反映する比率を決定するリセットゲート(reset gate)、zは以前状態を格納して反映する程度を決定するアップデートゲート(update gate)、actは活性化(activation)関数、∇は要素別の積(element−wise product)を意味する。
(2)タスク抽出部303は、文脈で否定単語が影響を与える範囲を判断してよい。
(3)タスク抽出部303は、図10を参照すると、タスク関連単語から否定表現単語は除いて肯定表現単語は含んだタスク関連単語を組み合わせてタスク確定文章を生成してよい。言い換えれば、肯定表現単語の場合はタスク関連単語として成立するが、否定表現単語の場合はタスク関連単語から除かれる。
ろ.タスク抽出部303は、CNN学習モデルを利用してタスク関連単語を5W1H(When、Where、Who、What、Why、How)の属性で抽出した後、タスク確率を算出して最終タスク文章を決定してよい。図11は、5W1Hの属性でタスクを抽出するCNN学習モデルを図式化したものである。
(1)文章で各単語のベクトル値を行列で並べる。図11では、6次元形態で示したが、これは説明の便宜のためであり、実際には100次元以上の形態を有する。
(2)多重フィルタ(multiple filters)を利用して合成積変換を実行する。
(3)合成積レイヤの結果を5W1H特徴マップとしてmax−poolingを実行する。
(4)max−poolingによってタスク確率を算出する。
一例として、タスク抽出部303は、RNN学習モデルを利用して生成されたタスク確定文章それぞれに対して上述したCNN学習モデルを適用し、タスク確定文章のうちでタスク確率が設定値以上である文章を最終タスク文章として決定してよい。
本発明で適用しようとする学習アルゴリズムの例としては、Hadoop+Hbase、Spark+Word2vec、Tensorflow+Theano+Kerarなどによって実現可能である。
要するに、本発明に係るDNN基盤のプラットフォームサービスのためのタスク抽出方法は、データ収集段階、データ正規化段階、データ分類段階、およびパターンマイニング段階を含んでよい。
データ収集段階は、ユーザが利用するメッセージアプリケーションにアクセスし、メッセージアプリケーションでやり取りした会話内容を含むすべての活用可能なデータを収集する過程である。
データ正規化段階は、収集されたデータでテキストをSpark MLlibの機能の1つであるWord2Vecを利用して定量化し、定量化されたデータをベクトル値(数値)に変換する過程である。言い換えれば、単語表現を、人工神経網を利用してベクトル空間上に示すことのできる値に変換する過程である。Word2Vecは、各単語間の前後関係を見て接近度を定めるアルゴリズムであって、ディープラーニングに基づく教師なし学習(unsupervised learning)により単語辞書が必要ないという点と、新造語、口語、隠語などの抽出が容易であるという点などにおいて利点がある。
データ分類化段階は、共通するデータ群集と類似するベクトル性向を示すデータを分類する過程である。すなわち、類似のパターンと性向を有するデータを群集化して分類化するのである。例えば、文章において、場所、目的、時間に該当する単語に対する群集化が可能である。
パターンマイニング段階は、共通するデータ群集で頻繁に発生する同じベクトルパターンを認識する過程である。このように認識されたパターンに基づき、会話内容からタスク抽出のための情報を学習することができる。
上述したアルゴリズムに自然語処理技術を組み合わせることにより、会話内容からタスクを抽出してよい。先ず、膨大なデータを自然語処理技術に基づいて学習させる。次に、会話内容でタスク成立確率を自らが判断し、自主的にタスク辞書を自動で構築して学習していく。このような学習モデルにより、ユーザが利用する多様なメッセージアプリケーション上での会話内容からタスクを抽出することができる。自然語処理部分は、word2vecでタスク単語の調整段階を省略し、RNNを利用してすべての単語に対する非学習データ(隠語や口語など)の校正段階を経るアルゴリズムに該当する。
このように、本発明の実施形態によると、DNNを基盤としてユーザがやり取りした会話内容からタスクを抽出して可視化することにより、会話に起因したすべきことを別途で管理したり記憶したりしなくても、ユーザがスケジュールを判断あるいは記録するための思考や行動の時間を短縮することができる。また、本発明の実施形態によると、高い信頼度をもつ自然語処理技術を適用して会話内容からタスクを抽出することにより、タスク関連単語とタスク外単語を正確かつ効果的に区分することができる。また、本発明の実施形態によると、感性分析特化学習モデルを適用して会話内の肯定/否定判断結果をタスク抽出に反映することにより、有効なタスクを正確に抽出することができる。さらに、本発明の実施形態によると、タスク抽出のための学習モデルに学習データが追加される場合、キャッシュ(cache)モデルを生成して既存のモデルと併合する方法でリアルタイム(real−time)学習処理を実現することにより、学習モデルを構築するのに必要となるリソースと費用を節減することができる。
上述した装置は、ハードウェア構成要素、ソフトウェア構成要素、および/またはハードウェア構成要素とソフトウェア構成要素との組み合わせによって実現されてよい。例えば、実施形態で説明された装置および構成要素は、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPGA(field programmable gate array)、PLU(programmable logic unit)、マイクロプロセッサ、または命令を実行して応答することができる様々な装置のように、1つ以上の汎用コンピュータまたは特殊目的コンピュータを利用して実現されてよい。処理装置は、オペレーティングシステム(OS)および前記OS上で実行される1つ以上のソフトウェアアプリケーションを実行してよい。また、処理装置は、ソフトウェアの実行に応答し、データにアクセスし、データを格納、操作、処理、および生成してよい。理解の便宜のために、1つの処理装置が使用されるとして説明される場合もあるが、当業者は、処理装置が複数個の処理要素および/または複数種類の処理要素を含んでもよいことが理解できるであろう。例えば、処理装置は、複数個のプロセッサまたは1つのプロセッサおよび1つのコントローラを含んでよい。また、並列プロセッサのような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、またはこれらのうちの1つ以上の組み合わせを含んでもよく、思うままに動作するように処理装置を構成したり、独立的または集合的に処理装置に命令したりしてよい。ソフトウェアおよび/またはデータは、処理装置に基づいて解釈されたり、処理装置に命令またはデータを提供したりするために、いかなる種類の機械、コンポーネント、物理装置、仮想装置、コンピュータ格納媒体または装置、または伝送される信号波に永久的または一時的に具現化されてもよい。ソフトウェアは、ネットワークによって接続されたコンピュータシステム上に分散され、分散された状態で格納されても実行されてもよい。ソフトウェアおよびデータは、1つ以上のコンピュータで読み取り可能な記録媒体に格納されてもよい。
実施形態に係る方法は、多様なコンピュータ手段によって実行可能なプログラム命令の形態で実現されてコンピュータで読み取り可能な媒体に記録されてよい。前記コンピュータで読み取り可能な媒体は、プログラム命令、データファイル、データ構造などを単独でまたは組み合わせて含んでもよい。前記媒体に記録されるプログラム命令は、実施形態のために特別に設計されて構成されたものであってもよいし、コンピュータソフトウェア当業者に公知な使用可能なものであってもよい。コンピュータで読み取り可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク、および磁気テープのような磁気媒体、CD−ROM、DVDのような光媒体、フロプティカルディスク(floptical disk)のような光磁気媒体、およびROM、RAM、フラッシュメモリなどのようなプログラム命令を格納して実行するように特別に構成されたハードウェア装置が含まれる。プログラム命令の例は、コンパイラによって生成されるもののような機械語コードだけではなく、インタプリタなどを使用してコンピュータによって実行される高級言語コードを含む。上述したハードウェア装置は、実施形態の動作を実行するために1つ以上のソフトウェアモジュールとして動作するように構成されてもよく、その逆も同じである。
以上のように、実施形態を、限定された実施形態と図面に基づいて説明したが、当業者であれば、上述した記載から多様な修正および変形が可能であろう。例えば、説明された技術が、説明された方法とは異なる順序で実行されたり、かつ/あるいは、説明されたシステム、構造、装置、回路などの構成要素が、説明された方法とは異なる形態で結合されたりまたは組み合わされたり、他の構成要素または均等物によって対置されたり置換されたとしても、適切な結果を達成することができる。
したがって、異なる実施形態であっても、特許請求の範囲と均等なものであれば、添付される特許請求の範囲に属する。
10:メッセージアプリケーション
20:タスク提供アプリケーション
110:電子機器
150:サーバ
301:会話抽出部
302:会話情報データベース
303:タスク抽出部
304:タスク情報データベース
305:タスク提供部
20:タスク提供アプリケーション
110:電子機器
150:サーバ
301:会話抽出部
302:会話情報データベース
303:タスク抽出部
304:タスク情報データベース
305:タスク提供部
Claims (10)
- コンピュータで実現される方法であって、
電子機器にインストールされた少なくとも1つのメッセージアプリケーションから会話情報を抽出する段階、
自然語処理のためのCNN(convolutional neural network)学習モデルと文章生成のためのRNN(recurrent neural network)学習モデルを利用して前記会話情報からタスク(task)情報を抽出する段階、および
前記電子機器にインストールされたタスク提供アプリケーションで前記タスク情報を提供する段階
を含む、方法。 - 前記タスク情報を抽出する段階は、
タスク関連単語が学習された前記CNN学習モデルに基づき、前記会話情報に含まれた文章から前記タスク関連単語に該当する核心単語を抽出する段階、および
前記RNN学習モデルに基づき、前記核心単語を利用してタスク文章を生成する段階
を含む、請求項1に記載の方法。 - 前記タスク情報を抽出する段階は、
感性分析特化学習モデルを含む前記RNN学習モデルに基づいて前記会話情報に含まれた文章で肯定表現と否定表現を分析し、前記否定表現を除いた確定文章を生成する段階、および
タスク関連単語が学習された前記CNN学習モデルに基づき、前記確定文章から前記タスク関連単語に該当する核心単語を抽出する段階
を含む、請求項1に記載の方法。 - 前記タスク情報を抽出する段階は、
タスク関連単語が学習された前記CNN学習モデルに基づき、前記会話情報に含まれた文章からタスクを5W1H(When、Where、Who、What、Why、How)の属性で抽出する段階
を含む、請求項1に記載の方法。 - 前記タスク情報を抽出する段階は、
感性分析特化学習モデルに基づいて前記会話情報に含まれた文章で肯定/否定を分析し、肯定/否定分析結果をタスク抽出に反映すること
を特徴とする、請求項1に記載の方法。 - 前記CNN学習モデルは、
ワードエンベディング(word embedding)方法によって学習データの単語をワードベクトルで表現した後、前記タスク関連単語を目的関数として定義して前記タスク関連単語とタスク外単語の区分のためにエンベディングベクトルの距離を調整して学習すること
を特徴とする、請求項1に記載の方法。 - 前記CNN学習モデルは、
前記タスク関連単語として場所と時間および目的に該当する単語を目的関数として定義して学習すること
を特徴とする、請求項6に記載の方法。 - 前記CNN学習モデルと前記RNN学習モデルは、
学習データが追加される場合、追加された学習データに対してキャッシュ(cache)モデルが生成された後、既存の学習モデルとの併合によって補強学習モデルが生成されること
を特徴とする、請求項1に記載の方法。 - タスク提供方法を実行させるためにコンピュータで読み取り可能な記録媒体に記録されたコンピュータプログラムであって、
前記タスク提供方法は、
電子機器にインストールされた少なくとも1つのメッセージアプリケーションから会話情報を抽出する段階、
自然語処理のためのCNN学習モデルと文章生成のためのRNN学習モデルを利用して前記会話情報からタスク情報を抽出する段階、および
前記電子機器にインストールされたタスク提供アプリケーションで前記タスク情報を提供する段階
を含む、コンピュータプログラム。 - コンピュータで実現されるシステムであって、
コンピュータが読み取り可能な命令を実行するように実現される少なくとも1つのプロセッサ
を含み、
前記少なくとも1つのプロセッサは、
電子機器にインストールされた少なくとも1つのメッセージアプリケーションから会話情報を抽出する会話抽出部、
自然語処理のためのCNN学習モデルと文章生成のためのRNN学習モデルを利用して前記会話情報からタスク情報を抽出するタスク抽出部、および
前記電子機器にインストールされたタスク提供アプリケーションで前記タスク情報を提供するタスク提供部
を含む、システム。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2016-0089289 | 2016-07-14 | ||
KR20160089289 | 2016-07-14 | ||
KR10-2017-0009236 | 2017-01-19 | ||
KR1020170009236A KR101886373B1 (ko) | 2016-07-14 | 2017-01-19 | 딥러닝 인공신경망 기반의 타스크 제공 플랫폼 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018041443A true JP2018041443A (ja) | 2018-03-15 |
Family
ID=61029408
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017137802A Pending JP2018041443A (ja) | 2016-07-14 | 2017-07-14 | ディープラーニング人工神経網基盤のタスク提供プラットフォーム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2018041443A (ja) |
KR (1) | KR101886373B1 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109241287A (zh) * | 2018-09-21 | 2019-01-18 | 中山大学 | 基于强化学习和胶囊网络的文本分类模型及方法 |
JPWO2018083804A1 (ja) * | 2016-11-07 | 2019-07-11 | 富士通株式会社 | 分析プログラム、情報処理装置および分析方法 |
KR20200053005A (ko) * | 2018-10-31 | 2020-05-18 | 주식회사 알스피릿 | 상황인지 기반의 기업주가예측 알고리즘 제공 방법 |
KR20210015010A (ko) * | 2019-07-31 | 2021-02-10 | 주식회사 휴마트컴퍼니 | 심리상담 데이터를 이용한 텍스트 내 감정분석을 위한 시스템 및 방법 |
KR20220099425A (ko) * | 2021-01-06 | 2022-07-13 | (주)지엔에이컴퍼니 | Ai 기반의 사용자 게임 플레이 예측 시스템 |
WO2023157994A1 (ko) * | 2022-02-21 | 2023-08-24 | (주)지엔에이컴퍼니 | Ai 기반의 사용자 게임 플레이 예측 시스템 |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102118603B1 (ko) | 2018-03-20 | 2020-06-05 | (주)에어사운드 | 딥러닝 알고리즘 기반의 핵심문장 추출 방법 |
KR102069076B1 (ko) * | 2018-05-11 | 2020-01-22 | 경북대학교 산학협력단 | 대화문장 생성 장치, 이를 포함하는 대화로봇 및 대화문장 생성 방법 |
KR102178427B1 (ko) * | 2018-10-30 | 2020-11-18 | 주식회사 알스피릿 | 상황인지 기반의 경기 지표를 이용하여 예측한 위기 감지 방법 및 이를 위한 장치 |
KR102116353B1 (ko) | 2018-11-27 | 2020-05-29 | 주식회사 크라우드웍스 | 진료 및 처방 인공지능을 위한 표제어-질문-답변 데이터 셋 자동 구축 방법 및 시스템 |
KR102334018B1 (ko) * | 2018-11-27 | 2021-12-02 | 연세대학교 산학협력단 | 자가 증식된 비윤리 텍스트의 유효성 검증 장치 및 방법 |
CN109783817B (zh) * | 2019-01-15 | 2022-12-06 | 浙江大学城市学院 | 一种基于深度强化学习的文本语义相似计算模型 |
KR102061445B1 (ko) * | 2019-02-22 | 2019-12-31 | 써모아이 주식회사 | 가시광 및 적외선 융합 영상 기반 객체 검출 방법 및 장치 |
KR102221513B1 (ko) * | 2019-02-28 | 2021-03-03 | 전남대학교산학협력단 | 음성 감정 인식 방법 및 시스템 |
US11829861B2 (en) | 2019-07-17 | 2023-11-28 | Unist (Ulsan National Institute Of Science And Technology) | Methods and apparatus for extracting data in deep neural networks |
CN110569984B (zh) * | 2019-09-10 | 2023-04-14 | Oppo广东移动通信有限公司 | 配置信息生成方法、装置、设备及存储介质 |
KR102456409B1 (ko) * | 2019-12-23 | 2022-10-19 | 주식회사 제로원에이아이 | 인공 신경망의 추론 데이터에 대한 신뢰도를 판단하는 방법 |
KR102313037B1 (ko) * | 2020-03-23 | 2021-10-14 | 윤종식 | 동영상을 추천하기 위한 방법 및 시스템 |
KR102307598B1 (ko) * | 2020-04-27 | 2021-10-05 | 주식회사 엔스마트 | 딥러닝을 활용한 상품 가격 비교 방법 및 시스템 |
KR102254827B1 (ko) * | 2020-08-13 | 2021-05-21 | 정진연 | 딥러닝을 통한 패턴마이닝 이후 레코멘데이션 서비스 |
KR102620697B1 (ko) * | 2021-07-12 | 2024-01-02 | 주식회사 카카오뱅크 | 딥러닝 기반의 자연어 처리를 통한 메시지 내 이체 정보 판단 방법 및 장치 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004295837A (ja) * | 2003-03-28 | 2004-10-21 | Nippon Telegr & Teleph Corp <Ntt> | 音声制御方法、音声制御装置、音声制御プログラム |
JP2014102280A (ja) * | 2012-11-16 | 2014-06-05 | Ntt Docomo Inc | 機能実行指示システム、機能実行指示方法及び機能実行指示プログラム |
JP2015092327A (ja) * | 2013-09-30 | 2015-05-14 | 株式会社日本総合研究所 | 外出スケジュール自動作成装置及びその方法 |
US20160140435A1 (en) * | 2014-11-14 | 2016-05-19 | Google Inc. | Generating natural language descriptions of images |
US20160155096A1 (en) * | 2014-11-27 | 2016-06-02 | Samsung Electronics Co., Ltd. | System and method of providing to-do list of user |
JP2016126596A (ja) * | 2015-01-06 | 2016-07-11 | 富士通株式会社 | 差分学習管理プログラム、差分学習管理装置及び差分学習管理方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7567958B1 (en) * | 2000-04-04 | 2009-07-28 | Aol, Llc | Filtering system for providing personalized information in the absence of negative data |
EP2369505A1 (en) * | 2010-03-26 | 2011-09-28 | British Telecommunications public limited company | Text classifier system |
US8874434B2 (en) * | 2010-06-02 | 2014-10-28 | Nec Laboratories America, Inc. | Method and apparatus for full natural language parsing |
US8566270B2 (en) * | 2010-09-24 | 2013-10-22 | Nuance Communications, Inc. | Sparse representations for text classification |
US20150095017A1 (en) * | 2013-09-27 | 2015-04-02 | Google Inc. | System and method for learning word embeddings using neural language models |
US9606977B2 (en) * | 2014-01-22 | 2017-03-28 | Google Inc. | Identifying tasks in messages |
KR20150089693A (ko) * | 2014-01-28 | 2015-08-05 | 한국전자통신연구원 | 빅 데이터 플랫폼 기반 데이터 저장 시스템 확장 장치 및 방법 |
EP3100212A1 (en) * | 2014-01-31 | 2016-12-07 | Google Inc. | Generating vector representations of documents |
KR101627428B1 (ko) * | 2014-11-17 | 2016-06-03 | 포항공과대학교 산학협력단 | 딥 러닝을 이용하는 구문 분석 모델 구축 방법 및 이를 수행하는 장치 |
KR102315574B1 (ko) * | 2014-12-03 | 2021-10-20 | 삼성전자주식회사 | 데이터 분류 방법 및 장치와 관심영역 세그멘테이션 방법 및 장치 |
-
2017
- 2017-01-19 KR KR1020170009236A patent/KR101886373B1/ko active IP Right Grant
- 2017-07-14 JP JP2017137802A patent/JP2018041443A/ja active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004295837A (ja) * | 2003-03-28 | 2004-10-21 | Nippon Telegr & Teleph Corp <Ntt> | 音声制御方法、音声制御装置、音声制御プログラム |
JP2014102280A (ja) * | 2012-11-16 | 2014-06-05 | Ntt Docomo Inc | 機能実行指示システム、機能実行指示方法及び機能実行指示プログラム |
JP2015092327A (ja) * | 2013-09-30 | 2015-05-14 | 株式会社日本総合研究所 | 外出スケジュール自動作成装置及びその方法 |
US20160140435A1 (en) * | 2014-11-14 | 2016-05-19 | Google Inc. | Generating natural language descriptions of images |
US20160155096A1 (en) * | 2014-11-27 | 2016-06-02 | Samsung Electronics Co., Ltd. | System and method of providing to-do list of user |
JP2016126596A (ja) * | 2015-01-06 | 2016-07-11 | 富士通株式会社 | 差分学習管理プログラム、差分学習管理装置及び差分学習管理方法 |
Non-Patent Citations (4)
Title |
---|
伊藤 哲 外4名: "利用目的に応じて最適化可能なキーワード抽出手法", 電子情報通信学会技術研究報告, vol. 第93巻第366号, JPN6018039510, 9 December 1993 (1993-12-09), JP, pages 41 - 46, ISSN: 0004011595 * |
坪井 祐太: "自然言語処理におけるディープラーニングの発展", 経営の科学 オペレーションズ・リサーチ, vol. 第60巻第4号, JPN6018039513, 1 April 2015 (2015-04-01), JP, pages 205 - 211, ISSN: 0003894924 * |
小澤 奈美 外2名: "記号パターンのための階層型追加記憶ネットワークモデル", 電子情報通信学会技術研究報告, vol. 第98巻第674号, JPN6018039512, 19 March 1999 (1999-03-19), JP, pages 55 - 62, ISSN: 0004011597 * |
進藤 智則: "第4部:先端動向編 RNN見ずに次のAI語れず先端研究の有用部品に", 日経エレクトロニクス, vol. 第1156号, JPN6018039511, 20 May 2015 (2015-05-20), JP, pages 53 - 57, ISSN: 0004011596 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2018083804A1 (ja) * | 2016-11-07 | 2019-07-11 | 富士通株式会社 | 分析プログラム、情報処理装置および分析方法 |
CN109241287A (zh) * | 2018-09-21 | 2019-01-18 | 中山大学 | 基于强化学习和胶囊网络的文本分类模型及方法 |
KR20200053005A (ko) * | 2018-10-31 | 2020-05-18 | 주식회사 알스피릿 | 상황인지 기반의 기업주가예측 알고리즘 제공 방법 |
KR102146546B1 (ko) * | 2018-10-31 | 2020-08-21 | 주식회사 알스피릿 | 상황인지 기반의 기업주가예측 알고리즘 제공 방법 |
KR20210015010A (ko) * | 2019-07-31 | 2021-02-10 | 주식회사 휴마트컴퍼니 | 심리상담 데이터를 이용한 텍스트 내 감정분석을 위한 시스템 및 방법 |
KR102216768B1 (ko) | 2019-07-31 | 2021-02-17 | 주식회사 휴마트컴퍼니 | 심리상담 데이터를 이용한 텍스트 내 감정분석을 위한 시스템 및 방법 |
KR20220099425A (ko) * | 2021-01-06 | 2022-07-13 | (주)지엔에이컴퍼니 | Ai 기반의 사용자 게임 플레이 예측 시스템 |
KR102517835B1 (ko) * | 2021-01-06 | 2023-04-05 | (주)지엔에이컴퍼니 | Ai 기반의 사용자 게임 플레이 예측 시스템 |
WO2023157994A1 (ko) * | 2022-02-21 | 2023-08-24 | (주)지엔에이컴퍼니 | Ai 기반의 사용자 게임 플레이 예측 시스템 |
Also Published As
Publication number | Publication date |
---|---|
KR20180008247A (ko) | 2018-01-24 |
KR101886373B1 (ko) | 2018-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018041443A (ja) | ディープラーニング人工神経網基盤のタスク提供プラットフォーム | |
US20180018562A1 (en) | Platform for providing task based on deep learning | |
US11861477B2 (en) | Utilizing machine learning models to identify insights in a document | |
CN106997370B (zh) | 基于作者的文本分类和转换 | |
WO2022007823A1 (zh) | 一种文本数据处理方法及装置 | |
US10254935B2 (en) | Systems and methods of providing content selection | |
CN111143576A (zh) | 一种面向事件的动态知识图谱构建方法和装置 | |
McIntosh et al. | From google gemini to openai q*(q-star): A survey of reshaping the generative artificial intelligence (ai) research landscape | |
US20200125967A1 (en) | Electronic device and method for controlling the electronic device | |
KR102179890B1 (ko) | 텍스트 데이터 수집 및 분석을 위한 시스템 | |
WO2021103761A1 (zh) | 化合物的性质分析方法、模型训练方法、装置及存储介质 | |
US20210209289A1 (en) | Method and apparatus for generating customized content based on user intent | |
US20220237376A1 (en) | Method, apparatus, electronic device and storage medium for text classification | |
CN115269786B (zh) | 可解释的虚假文本检测方法、装置、存储介质以及终端 | |
US10049108B2 (en) | Identification and translation of idioms | |
Ahmed et al. | Sentiment analysis for smart cities: state of the art and opportunities | |
CN110765301A (zh) | 图片处理方法、装置、设备及存储介质 | |
CN116561592A (zh) | 文本情感识别模型的训练方法和文本情感识别方法及装置 | |
CN115269828A (zh) | 用于生成评论回复的方法、设备和介质 | |
KR20180049791A (ko) | 복수 개의 메시지들을 필터링하는 방법 및 이를 위한 장치 | |
US11610401B2 (en) | Acquiring public opinion and training word viscosity model | |
CN116563034A (zh) | 基于人工智能的购买预测方法、装置、设备及存储介质 | |
US20220198358A1 (en) | Method for generating user interest profile, electronic device and storage medium | |
JP7236501B2 (ja) | 文書類似度学習に基づくディープラーニングモデルの転移学習方法およびコンピュータ装置 | |
CN115827865A (zh) | 一种融合多特征图注意力机制的不良文本分类方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180810 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181009 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190409 |