JP6913848B2 - ユーモア識別に基づく感情対話方法とロボットシステム - Google Patents

ユーモア識別に基づく感情対話方法とロボットシステム Download PDF

Info

Publication number
JP6913848B2
JP6913848B2 JP2018164941A JP2018164941A JP6913848B2 JP 6913848 B2 JP6913848 B2 JP 6913848B2 JP 2018164941 A JP2018164941 A JP 2018164941A JP 2018164941 A JP2018164941 A JP 2018164941A JP 6913848 B2 JP6913848 B2 JP 6913848B2
Authority
JP
Japan
Prior art keywords
humor
degree
user
small data
phrase
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018164941A
Other languages
English (en)
Other versions
JP2019046476A (ja
Inventor
朱定局
Original Assignee
大国創新智能科技(東莞)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 大国創新智能科技(東莞)有限公司 filed Critical 大国創新智能科技(東莞)有限公司
Publication of JP2019046476A publication Critical patent/JP2019046476A/ja
Application granted granted Critical
Publication of JP6913848B2 publication Critical patent/JP6913848B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Description

本発明は人工知能技術分野を取り上げて、具体的には感情対話方法とシステムであり、特にユーモア識別に基づく感情対話方法とロボットシステムである。
ロボット技術の急速な発展に伴い、ユーザーがロボット機能に対する要求はますます高まり、感情とユーモアがスマートロボットにとって最も重要な内容の一つである。
既存の感情計算の主な機能が感情の識別と表現であり、既存のユーモア計算の主な機能がユーモアの識別と生成であるが、既存の感情計算技術とユーモア計算技術は別々に実行し、結合していない。
また、既存のロボットがすべてユーモア知識ベースを検索することによってユーモラス語句あるいはユーモラスな成分を識別し、ユーモア知識ベースの中のユーモラス語句あるいはユーモラスな成分の数量が限られているため、ユーモア知識ベースの中に収集されておらないユーモラス語句が識別できなく、ユーモアの識別レベルが低い。
中国特許出願公開第104965552号明細書
本発明の目的は上記の現在の技術中の問題を解決するため、ユーモア識別に基づく感情対話方法を提供し、その方法がユーモア識別を通じてユーザーのユーモアを識別でき、これによりロボットのユーモア識別能力を検証し、そして感情表現を通じて識別の結果を表現することにある。
本発明のもう一つの目的はユーモア識別に基づく感情対話ロボットシステムを提供することにある。
本発明は以下の技術プランを通じて実現する:
ユーモア識別に基づく感情対話方法は、前記方法がロボットとユーモア検証装置を通じて実現され、
ロボットがユーザーの入力した文を取得し、ユーザー文とするステップ、
ロボットがユーザー文を識別し、ユーザー文のユーモア程度を取得するステップ、
ユーモア検証装置がユーザー文の実際ユーモア程度を取得するステップ、
ユーモア検証装置が識別されたユーモア程度とユーザー文の実際ユーモア程度の差異を比べることによって、ユーモア識別の精度を判断するステップを含む。
更に、前記方法は、ユーモア検証装置がユーザー文の実際ユーモア程度を取得する前に、
ロボットがユーザー文のユーモア程度に基づき、フィードバックされる感情程度を計算するステップ、
ロボットがフィードバックされる感情程度に基づき、感情計算で感情を表すステップ、
ユーモア検証装置が表現された感情に対する感情識別を通じて、フィードバックされた感情程度を取得するステップ、
ユーモア検証装置が感情識別の結果の中のフィードバックされた感情程度に基づき、識別取得されたユーモア程度を計算するステップを含む。
更に、前記ロボットがユーザー文を識別し、ユーザー文のユーモア程度を取得するステップは、具体的には、
ユーザー文の属性データを取得するステップ、
ユーザー文の属性データから各部分のデータを各スモールデータとして取り出し、スモールデータコレクションに保存するステップ、
ビッグデータを取得するステップ、
スモールデータコレクションの中の各スモールデータとユーザー文との関連度を計算するステップ、
スモールデータコレクションの中の各スモールデータとユーザー文の関連度に基づき、スモールデータコレクションの中の各スモールデータとユーザー文の関連ダイバシティファクタを計算するステップ、
スモールデータコレクションの中の各スモールデータとユーザー文の関連ダイバシティファクタをニューラルネットワークあるいはディープニューラルネットワークに入力し、ユーザー文のユーモア程度を取得するステップを含む。
更に、前記スモールデータコレクションの中の各スモールデータとユーザー文との関連度を計算するステップは、具体的には、
ユーザー文のビッグデータでの類似データの数量を統計し、第一数量とするステップ、
スモールデータコレクションの各スモールデータのビッグデータでの類似データの数量を統計し、当該スモールデータの第二数量とするステップ、
当該スモールデータとユーザー文が組み合わせた後に得られたデータのビッグデータでの類似データの数量を統計し、当該スモールデータの第三数量とするステップ、
第一数量、当該スモールデータの第二数量及び第三数量に基づき、当該スモールデータとユーザー文の関連度を取得ステップを含み、その中に、前記当該スモールデータとユーザー文の関連度の具体的な計算公式は:当該スモールデータの第三数量/((第一数量×当該スモールデータの第二数量)1/2)であり、
前記スモールデータコレクションの中の各スモールデータとユーザー文の関連度に基づき、スモールデータコレクションの中の各スモールデータとユーザー文の関連ダイバシティファクタを計算するステップは、具体的には、
各スモールデータとユーザー文の関連度の平均値を計算するステップ、
各スモールデータとユーザー文の関連度、各スモールデータとユーザー文の関連度の平均値及びスモールデータコレクションの中のスモールデータの数に基づき、スモールデータコレクションの中の各スモールデータとユーザー文の関連ダイバシティファクタを計算するステップを含み、その中に、前記スモールデータコレクションの各スモールデータとユーザ語句の関連ダイバシティファクタについて、具体的な計算公式は:(スモールデータコレクションの中の各スモールデータとユーザー文との関連度−スモールデータコレクションの中の各スモールデータとユーザー文との関連度の平均値)^(1/スモールデータコレクションの中のスモールデータの数)である。
更に、前記ロボットがユーザー文を識別し、ユーザー文のユーモア程度を取得するステップは、具体的には、
ユーザー文に基づいて検索し、検索結果を取得するステップ、
検索結果の中からユーザー文との一致度の降順によりトップm個の語句をそれぞれm個の第一語句として選別するステップ(その中に、mが正整数であり)、
ユーザー文の属性データを取得するステップ、
属性データを毎個の第一語句にそれぞれ合併し、第一語句にそれぞれ対応するm個の合併語句を取得するステップ、
毎個の第一語句及び毎個の第一語句に対応する合併語句にそれぞれ基づき、毎個の第一語句のユーモラスパラメーターを計算ステップ、
一致度の一番大きい第一語句に対応するユーモラスパラメーターと一番小さなユーモラスパラメーターとの間の階差、及び一番大きなユーモラスパラメーターと一致度の一番大きい第一語句に対応するユーモラスパラメーターの間の階差に基づき、ユーザー文のユーモア程度を取得するステップを含む。
本発明のもう一つの目的は以下の技術プランを通じて実現される:
ユーモア識別に基づく感情対話ロボットシステムは、ロボットとユーモア検証装置を含み、
前記ロボットは下記をユーザー文取得モジュール、ユーモア程度識別モジュールを含み、
前記ユーザー文取得モジュールは、ユーザーの入力語句をユーザー文として取得し、
前記ユーモア程度識別モジュールは、ロボットがユーザー文を識別してユーザー文のユーモア程度を取得し、
前記ユーモア検証装置は実際ユーモア程度取得モジュール、精度判断モジュールを含み、
前記実際ユーモア程度取得モジュールは、ユーザー文の実際ユーモア程度を取得し、
前記精度判断モジュールは、ロボットに識別取得されたユーモア程度とユーザー文の実際ユーモア程度との差異を比べて、ロボットのユーモア識別の精度を判断する。
更に、前記ロボットは感情程度計算モジュール、感情表現モジュールも含み、
前記感情程度計算モジュールは、ロボットがユーザー文のユーモア程度に基づき、フィードバックされる感情程度を計算し、
前記感情表現モジュールは、ロボットがフィードバックされる感情程度に基づいて感情計算を通じて感情を表現し、
前記ユーモア検証装置は感情程度取得モジュール、ユーモア程度計算モジュールも含み、
前記感情程度取得モジュールは、ロボットの表現した感情に対して感情識別を行ってロボットに識別取得されたユーモア程度を計算し、
前記ユーモア程度計算モジュールは、感情識別の結果でのロボットにフィードバックされた感情程度に基づき、ロボットに識別取得されたユーモア程度を計算する。
更に、前記ユーモア程度識別モジュールは、具体的には第一属性データ取得ユニット、スモールデータコレクション取得ユニット、ビッグデータ取得ユニット、関連度計算ユニット、関連ダイバシティファクタ計算ユニット、第一ユーモア程度取得ユニットを含み、
前記第一属性データ取得ユニットは、ユーザー文の属性データを取得し、
前記スモールデータコレクション取得ユニットは、ユーザー文の属性データの中から各部分のデータを各スモールデータとしてアクセスし、スモールデータコレクションに保存し、
前記ビッグデータ取得ユニットは、ビッグデータを取得し、
前記関連度計算ユニットは、スモールデータコレクションの各スモールデータとユーザー文との関連度を計算し、
前記関連ダイバシティファクタ計算ユニットは、スモールデータコレクションの中の各スモールデータとユーザー文との関連度に基づき、スモールデータコレクションの中の各スモールデータとユーザー文との関連ダイバシティファクタを計算し、
前記第一ユーモア程度取得ユニットは、スモールデータコレクションの中の各スモールデータとユーザー文との関連ダイバシティファクタをニューラルネットワークあるいはディープニューラルネットワークに入力し、ユーザー文のユーモア程度を取得する。
更に、前記関連度計算ユニットは、具体的には第一統計サブユニット、第二統計サブユニット、第三統計サブユニット、関連度計算サブユニットを含み、
前記第一統計サブユニットは、ユーザー文のビッグデータでの類似データの数量を第一数量として統計し、
前記第二統計サブユニットは、スモールデータコレクションの中の各スモールデータのビッグデータでの類似データの数量を当該スモールデータの第二数量として統計し、
前記第三統計サブユニットは、当該スモールデータをユーザー文と組み合わせた後で得たデータのビッグデータでの類似データの数量を第三数量として統計し、
前記関連度計算サブユニットは、第一数量、当該スモールデータの第二数量及び第三数量に基づき、当該スモールデータのユーザー文との関連度を取得し、その中に、前記当該スモールデータとユーザー文の関連度について、具体的な計算公式は:当該スモールデータの第三数量/((第一数量×当該スモールデータの第二数量)1/2);
前記関連ダイバシティファクタ計算ユニットは、具体的には関連度平均値計算サブユニット、関連ダイバシティファクタ計算サブユニットを含み、
前記関連度平均値計算サブユニットは、各スモールデータとユーザー文との関連度の平均値を計算し、
前記関連ダイバシティファクタ計算サブユニットは、各スモールデータとユーザー文との関連度、各スモールデータとユーザー文との関連度の平均値及びスモールデータコレクションの中のスモールデータの数に基づき、スモールデータコレクションの中の各スモールデータとユーザー文との関連ダイバシティファクタを計算し、その中に、前記スモールデータコレクションの中の各スモールデータとユーザー文との関連ダイバシティファクタの具体的な計算公式は:(スモールデータコレクションの中の各スモールデータとユーザー文の関連度−スモールデータコレクションの中の各スモールデータとユーザー文との関連度の平均値)^(1/スモールデータコレクションの中のスモールデータの数)である。
更に、前記ユーモア程度識別モジュールは、具体的には検索ユニット、選別ユニット、第二属性データ取得ユニット、合併ユニット、ユーモラスパラメーター計算ユニット、第二ユーモア程度取得ユニット
を含み、
前記検索ユニットは、ユーザー文に基づいて検索し、検索結果を取得し、
前記選別ユニットは、検索結果の中からユーザー文との一致度の降順によりトップm個の語句をそれぞれm個の第一語句として選別し、その中に、mが正整数であり、
前記第二属性データ取得ユニットは、ユーザー文の属性データを取得し、
前記合併ユニットは、属性データをそれぞれ毎個の第一語句に合併し、第一語句にそれぞれ対応するm個の合併語句を取得し、
前記ユーモラスパラメーター計算ユニットは、毎個の第一語句及び毎個の第一語句に対応する合併語句にそれぞれ基づき、毎個の第一語句のユーモラスパラメーターを計算し、
前記第二ユーモア程度取得ユニットは一致度の一番大きい第一語句に対応するユーモラスパラメーターと一番低いユーモラスパラメーターの間の階差に基づき、ユーザー文のユーモア程度を取得する。
本発明は既存の技術に対して下記の有益効果がある:
1、本発明はロボットのユーモア程度が外部に出力されることができる時、ロボットがユーザー文に対する識別を通じて、識別したユーザー文のユーモア程度を直接に出力でき、ロボットのユーモア程度が直接に外部に出力されない時、ロボットがまず感情表現を通じて識別した結果を生き生きと表現し、それからユーモア検証装置が識別された結果に基づいてロボットに識別取得されたユーモア程度を間接的に推定し、ユーモア検証装置が識別されたユーモア程度と実際ユーモア程度の差異を比較することによって、ユーモア識別の精度を判断し、精度によりロボットのユーモア識別に対する能力を検証でき、精度が期待値に達するあるいは超える場合、ロボットのユーモア識別能力が強いことがわかり、精度が期待値に達されておらない場合、ほかのロボットの既存のユーモア識別の方法あるいは改善を経ったユーモア識別方法を採用し、精度が期待値に達するまで実験を改めて実施し、これによりロボットに強いユーモア識別能力を持たせる。
2、本発明はビッグデータの中からユーザー文とユーザーデータの関連ダイバシティファクタを取得することによって、ユーザー文のユーモア程度を識別し、ロボットのユーモア識別レベルを効果的に高め、また後続のステップを通じてロボットのユーモア識別能力を検証し、精度が期待値に達されておらない場合、訓練されたニューラルネットワークあるいはディープニューラルネットワークに基づき、実験を通じてロボットに強いユーモア識別能力を持たせることができる。
3、本発明はビッグデータ検索を通じてユーザー文のユーモア程度を計算でき、ロボットのユーモア識別レベルを効果的に高め、また後続のステップを通じてロボットのユーモア識別能力を検証し、精度が期待値に達されておらない場合、引き続きビッグデータ検索エンジン実験を通じてロボットに強いユーモア識別能力を持たせることができる。
図1は本発明実施例1のユーモア識別に基づく感情対話方法のフローチャートである。 図2は本発明実施例2のユーザー文の識別フローチャートである。 図3は本発明実施例2のスモールデータコレクションの中の各スモールデータとユーザー文との関連度計算フローチャートである。 図4は本発明実施例2のスモールデータコレクションの中の各スモールデータとユーザー文との関連ダイバシティファクタ計算フローチャートである。 図5は本発明実施例3のユーザー文の識別フローチャートである。 図6は本発明実施例3のユーザー文の属性データの取得フローチャートである。 図7は本発明実施例3の毎個の第一語句のユーモラスパラメーターの計算フローチャートである。 図8は本発明実施例5のユーモア識別に基づく感情対話ロボットシステムの構造フロー図である。 図9は本発明実施例6のユーモア程度識別モジュールの構造フロー図である。 図10は本発明実施例6の関連度計算ユニットの構造フロー図である。 図11は本発明実施例6の関連ダイバシティファクタ計算ユニットの構造フロー図である。 図12は本発明実施例7のユーモア程度識別モジュールの構造フロー図である。 図13は本発明実施例7の第二属性データ取得ユニットの構造フロー図である。 図14は本発明実施例7のユーモラスパラメーター取得ユニットの構造フロー図である。
下記に実施例と附図を交えて本発明について詳しく説明し、しかし本発明の実施方式はこれらに限らないものである。
実施例1:
ユーザーがテキストあるいは音声でユーモラス語句を入力し、当該ユーモラス語句を取得するロボットがユーモア計算を通じて感知して笑い、ロボットの笑いなどの楽しい感情が感情計算により表現されることができる。この時、当該ユーモラス語句を取得したロボットが笑ったというのは、ロボットが当該ユーモラス語句を成功に識別できることである。この過程はロボットのユーモア識別能力の検証に用いられることができる。
図1が示すように、本実施例はユーモア識別に基づく感情対話方法を提供し、その方法がロボットとユーモア検証装置を通じて実現され、ステップS101〜S108を含み、
S101、ロボットがユーザーの入力した文をユーザー文として取得する。
本実施例の中に、ロボットは知能ロボットを指し、一切の人間行為あるいは思想及びその他の生物を真似る機械を含み、また、一部分のコンピュータープログラムを含み、例えば、チャットロボットプログラムなどである。ユーザーがロボットと対話しようとする時、ユーザーがロボットにユーザー文を入力でき、これによりロボットがユーザーの入力した文を取得でき、その中に、ユーザー文がテキストおよび音声、ひいてはビデオでもよく、文が一つの語句または複数の語句を含む。
S102、ロボットがユーザー文を識別し、ユーザー文のユーモア程度を取得する。
ロボットがユーザー文を識別し、既存のユーモア識別方法を通じてユーザーの入力した文を識別でき、ユーザー文のユーモア程度を取得し、ユーモア程度が0〜1の間の数値(小数点までの精度がある)に定義でき、1に近ければ近いほど、ユーモラスになる。
ロボットがユーザー文を受信した(例えば聞く)時、ロボットがユーザーに「あなたが入力した文がユーモラスでありません」あるいは「あなたが入力した文がとてもユーモラスです」あるいは「あなたが入力した文のユーモア程度が0.8です」を出力(例えばユーザーに言う)すれば、ぎこちなくなる嫌いがあり、人間の交流習慣に合わなく、その故に本実施例のロボットが外部に出力するのはユーモア程度ではなく、ユーザー文に対する感情フィードバックであり、従ってまた感情計算を通じてロボットの識別したユーモア程度を間接的に推定する必要があり、ユーモア程度の推定が下記のステップS103〜S106で実現される。
S103、ロボットがユーザー文のユーモア程度に基づき、フィードバックされる感情程度を計算する。
ロボットにフィードバックされる感情程度がユーザー文のユーモア程度に正比例し、すなわちユーザー文がユーモラスであればあるほど、ロボットにフィードバックされる感情程度が大きくなりなり、ユーモア程度が0〜1の間の数値であるため、これらの数値に基づき、採点の方式でフィードバックされる感情程度を区分でき、例えばユーモア程度が0〜1の間の数値であれば、フィードバックされる感情程度が0〜1の間の対応する数値になることもでき、基本的な方法が直接にユーモア程度の数値をフィードバックされる感情程度の数値にすることである。
その中に、感情程度の中の感情のタイプは事前に設定でき、下記の方法を採用し取得することもできる:人々が本当のユーモラス語句を聞いた時にフィードバックする感情タイプを検出し、感情程度の中の感情のタイプにする。例えば、一万人が100個の本当のユーモラス語句に対する感情フィードバックを検出し、またその中の一番多くな感情タイプを感情程度の中の感情のタイプをし、もちろん、その他の方式でも感情程度の中の感情タイプを取得でき、ひいては、感情程度の中の感情タイプが複数の感情タイプの比例的な組み合わせであっても良い。本当のユーモラス語句は、ユーモア程度の高い語句を指す。感情程度の中の感情のタイプが事前に設定あるいは取得されておらない場合、感情程度の中の感情のタイプが自動的にハッピー感情に設定され、何故かと言うと人々がユーモラス語句を聞くと、ほとんどのリアクションが笑うことであり、笑いがハッピー感情である。下記の実施例の中には感情程度の中の感情タイプに対してハッピー感情をデフォルト感情タイプとする。
その中に、ユーモア程度と感情程度の間の対応関係が事前に設定でき、例えば感情程度=f(ユーモア程度)、fが正相関関数であり、ユーモア程度と感情程度の間の対応関係がデフォルトで同等の関係であり、何故かと言うと一般的には、ユーモア程度が高ければ高いほど、取得する感情フィードバックが大きくなり、ユーモア程度と感情程度の間の対応関係がディープ学習によっても取得でき:人々が異なるユーモア程度の語句を聞いた時にフィードバックした感情程度を検出し、そのユーモア程度とフィードバックされた感情程度をそれぞれディープ学習の入力と出力にしてディープ学習のニューラルネットワークに対し訓練を行い、それからユーモア程度をそのディープ学習のニューラルネットワークに入力しディープ学習を通じて感情程度を取得する。
S104、ロボットがフィードバックされる感情程度に基づき、感情計算で感情を表する。
感情知識ベースに基づき、フィードバックされる感情程度に対応する感情表現方式を検索でき、ロボットが動作、音声及びテキストの少なくとも一つを通じて表現でき、フィードバックされる感情程度がデフォルト感情程度に高いあるいは同等である時、ロボットが笑うべきと判断し、動作、音声及びテキストの少なくとも一つを通じてハッピー感情を表し、例えばロボットが笑顔を見せ、笑い声を出し、テキストで「笑う」に関する言葉(humor、hahaなど)を出力し、フィードバックされる感情程度が高ければ高いほど、ロボットの笑顔の幅が大きくなり、笑い声のデシベルが高くなり、テキストの中で「笑う」に関する言葉の文字数が多くなり、
フィードバックされる感情程度がデフォルト感情程度より低い時、ロボットが笑うわけにはいかないと判断し、動作、音声及びテキストの少なくとも一つを通じて厳粛の感情を表し、フィードバックされる感情程度が低ければ低いほど、厳粛の程度が大きくなりなる。
S105、ユーモア検証装置が表現された感情に対する感情識別を通じて、フィードバックされた感情程度を取得する。
ユーモア検証装置はロボットのユーザー文に対するフィードバックした感情を監視し、ユーモア検証装置はカメラ、マイク、テキスト識別モジュールなどを含み、それがカメラでロボットの顔の表情を検出でき、あるいはマイクでロボットの音を検出でき、あるいはテキスト識別モジュールでロボットの出力したテキストを検出でき、感情を監視することによって、ロボットのフィードバックした感情程度を取得し、ハッピー感情が監視されれば、カメラがロボットの顔に笑顔があることを検出し、あるいはマイクがロボットが笑い声を出したことを検出し、あるいはテキスト識別モジュールがロボットの出力したテキストの中にhumorまたはhahaという言葉があることを検出し、感情程度がデフォルト感情程度に高いあるいは同等であることがわかり、この時に感情程度が笑顔の幅、笑い声のデシベル、humorあるいはhahaの文字数の中のいずれかで確定できるし、その中の二つあるいは三つの結合でも確定でき、
ハッピー感情以外の感情が監視されれば、感情程度がデフォルト感情程度より低いことが代わり、感情程度も類似な方式により確定できる。
S106、ユーモア検証装置が感情識別の結果の中のフィードバックされた感情程度に基づき、識別取得されたユーモア程度を計算する。
感情識別の結果の中にロボットがフィードバックした感情程度が高いほど、ステップS103においてロボットが識別取得したユーモア程度が高いことがわかり、
感情識別の結果の中にロボットがフィードバックした感情程度が小さくなるほど、ステップS103においてロボットが識別取得したユーモア程度が小さくなることがわかり、
ステップS103が示すように、感情識別の結果の中でフィードバックされた感情程度が1の場合、ロボットが識別取得したユーモア程度が1であり、
感情識別の結果の中でフィードバックされた感情程度が0の場合、ロボットが識別取得したユーモア程度も0であり、
感情識別の結果の中でフィードバックされた感情程度がその他の数値の場合、計算で対応するユーモア程度が取得される。
S107、ユーモア検証装置がユーザー文の実際ユーモア程度を取得する。
ユーザー文の実際ユーモア程度はユーザーが入力でき、実際ユーモア程度はユーザーが過去の経験に基づいて取得でき、あるいはユーザーが何人かのその語句を聞いた時の反応に基づいて取得できる。
S108、ユーモア検証装置が識別されたユーモア程度とユーザー文の実際ユーモア程度の差異を比べることによって、ユーモア識別の精度を判断する。
本ステップにおいて識別取得されたユーモア程度がS106でのユーモア検証装置に識別取得されたユーモア程度であり、識別取得されたユーモア程度とユーザー文の実際ユーモア程度の差異を比べることによって、すなわち両者の階差を計算し、階差が両者の間の差の絶対値であり、階差がユーモア識別の精度に反比例し、階差が大きいほど、ユーモア識別の精度が低く、階差が小さいほど、ユーモア識別の精度が高く、ユーモア識別の精度の計算公式が:1−階差/実際ユーモア程度、例えば識別取得されたユーモア程度が7であり、実際ユーモア程度が6であり、ユーモア識別の精度が83.33%になり、期待値が80%であると仮定する場合、精度が期待値を超え、ロボットのユーモア識別能力が強いことがわかり、精度が期待値に達していない場合、その他のロボットの既存のユーモア識別方法、あるいは改善を経ったユーモア識別方法を選択し、上記ステップS101〜S107に基づき、精度が期待値に達するまで実験を繰り返し、これによりロボットに強いユーモア識別能力を備えさせる。
実施例2:
本実施例のその他のステップは実施例1と同じであり、異なる部分はステップS102がビッグデータに基づく相関性分析の方法を通じて実現されることであり、図2が示すように、具体的にはステップS1021〜S1026を含み、
S1021、ユーザー文の属性データを取得する。
ユーザー文の属性データがユーザーの属性データ、語句内容の属性データ、対話の時間属性データ、対話の空間属性データ、対話の場面属性データ及びその他の相関属性データを含む。
ロボットがユーザーと対話する過程で、ロボットの感官が複数のスモールデータを得ることができ、例えばロボットの目にカメラが取付けられ、ユーザーのビデオ画像データを得ることができ、ロボットの耳にピックアップが取付けられ、ユーザーのオーディオデータを得ることができ、その他の各種センサーがセンスデータ(例えばユーザーの体温、心拍数など)を取得し、各種端末がユーザーの入力したテキストデータ(例えばユーザー属性、言葉など)を取得し、取得した複数のスモールデータ(石)をビッグデータ(池)の中に「投げ」、これによりユーモアを識別あるいは生成し(一石が千層波を巻き起こす)、ユーモアを識別あるいは生成する過程がスモールデータとビッグデータの間に関連データマイニングを行い、これによりスモールデータあるいはビッグデータだけで識別あるいは生成できないユーモアを生成し、このユーモアがビッグデータとスモールデータに基づくロボットのユーモア識別と生成の結果である。
S1022、ユーザー文の属性データから各部分のデータを各スモールデータとして取り出し、スモールデータコレクションに保存する。
スモールデータがロボットとユーザーが対話する過程ならではの個性化データであり、一回の対話の過程で、異なる方法で複数のスモールデータを取得でき、例えばユーザー属性、対話場面、対話時間、対話場所、ロボット属性などである。
S1023、ビッグデータを取得する。
ビッグデータは大量のユーザーが長時間にわたって蓄積してきたデータであり、例えばインターネットビッグデータは無数ののインターネットユーザーが長時間にわたって蓄積してきたデータであり、したがってロボット及び対話過程にとってビッグデータが外部データであり、本実施例のロボットがサーバーからビッグデータを取得できる。
S1024、スモールデータコレクションの中の各スモールデータとユーザー文との関連度を計算する。
スモールデータコレクションの中の各スモールデータとユーザー文との関連度は、既存のビッグデータに基づいて関連性分析を行う技術により実現でき、図3の方式でも実現でき、具体的には下ステップS10241〜S10244を含み、
S10241、ユーザー文のビッグデータでの類似データの数量を統計し、第一数量とし、mで記録し、
S10242、スモールデータコレクションの各スモールデータのビッグデータでの類似データの数量を統計し、当該スモールデータの第二数量とし、nで記録し、
S10243、当該スモールデータとユーザー文を組み合わせた後に得たデータのビッグデータでの類似データの数量を統計し、当該スモールデータの第三数量とし、oで記録し、
S10244、第一数量m、当該スモールデータの第二数量n及び第三数量oに基づき、当該スモールデータとユーザー文の関連度rを取得し、その中に、前記当該スモールデータとユーザー文の関連度について、具体的な計算公式は:当該スモールデータの第三数量/((第一数量×当該スモールデータの第二数量)1/2)であり、
具体的に、当該スモールデータとユーザー文の関連度rについて、計算公式が下記の通りである:
r=o/((m×n)1/2) (1)
上記の数量統計が既存のmapreduceモデルを採用し、hadoopあるいはsparkを利用してビッグデータ向きの快速統計を行うことができる。
S1025、スモールデータコレクションの中の各スモールデータとユーザー文の関連度に基づき、スモールデータコレクションの中の各スモールデータとユーザー文の関連ダイバシティファクタを計算する。
当該ステップは図4の方式で実現し、具体的にはステップS10251〜S10252を含む:
S10251、各スモールデータとユーザー文の関連度の平均値を計算し、raで記録し、
S10252、各スモールデータとユーザー文の関連度、各スモールデータとユーザー文の関連度の平均値及びスモールデータコレクションの中のスモールデータの数に基づき、スモールデータコレクションの中の各スモールデータとユーザー文の関連ダイバシティファクタを計算し、dで記録し、
スモールデータコレクションの中のスモールデータの数をcで記録し、スモールデータコレクションの中の各スモールデータとユーザー文の関連ダイバシティファクタの計算公式が下記の通りである:
d=(r−ra)1/c (2)
S1026、スモールデータコレクションの中の各スモールデータとユーザー文の関連ダイバシティファクタをニューラルネットワークあるいはディープニューラルネットワークに入力し、ユーザー文のユーモア程度を取得する。
本実施例は事前に既知の関連ダイバシティファクタ及び対応の実際ユーモア程度のトレーニングデータを通じてニューラルネットワークあるいはディープニューラルネットワークをトレーニングし、トレーニングを経ったニューラルネットワークあるいはディープニューラルネットワークを取得し、トレーニングを経ったニューラルネットワークあるいはディープニューラルネットワークが本ステップの入力する必要があるニューラルネットワークあるいはディープニューラルネットワークであり、スモールデータコレクションの中の各スモールデータとユーザー文の関連ダイバシティファクタを入力した後、ユーザー文のユーモア程度を取得でき、実施例1のように、ユーモア程度は0〜1の間の数値(小数点までの精度がある)に定義される場合、1に近いほど、ユーモラスである。
本実施例はビッグデータからユーザー文とユーザーデータの関連ダイバシティファクタを取得することによって、ユーザー文のユーモア程度を識別し、これによりロボットのユーモアの識別能力を高める。
実施例3:
本実施例のその他のステップが実施例1と同じ、異なるところはステップS102がビッグデータ検索の方法を採用し実現することにあり、図5が示すように、具体的にはステップS1021〜S1026を含み、
S1021、ユーザー文に基づいて検索し、検索結果を取得する。
ユーザー文に基づいて検索し、検索結果を取得でき、その中に、検索結果が複数の語句を含み、検索結果の中の語句の数が検索結果の数であり、検索された語句がユーザー文に関する。
S1022、検索結果の中からユーザー文との一致度の降順によりトップm個の語句をそれぞれm個の第一語句として選別する。
その中に、mが正整数であり、ユーザー文に基づいて検索する時、より多くな検索結果を得る可能性があり、その中に一部の検索結果が合理でない可能性があり、全部のデータを処理すれば時間の無駄になり、したがって検索結果を選択してより合理的な語句を選択する必要があり、一般的に、ユーザー文との一致度の高い語句がより合理的であるため、検索結果からユーザー文との一致度の最も高いトップm個の語句を選択してそれぞれm個の第一語句とすることである。具体的には、デフォルト照合により検索結果に順序を付け、検索リストを取得し、デフォルト照合は一致度の降順でも類似度の降順というルールなどを採用でき、これにより検索リストからトップm個の語句を取得して第一語句とし、すなわちユーザー文との一致度の一番大きいトップm個の語句はユーザー文との一致度を降順で順序付け、先頭に配列されるトップm個の語句を指す。ビッグデータ検索エンジン自体が対応のデフォルト照合があり、例えば、百度(中国の検索エンジン)のビッグデータ検索エンジンは対応のデフォルト照合があり、ユーザー文を取得して百度ビッグデータ検索エンジンにより検索する時、その対応するデフォルト照合に基づいて順序付けられた検索結果リストがページに表示され、ユーザーがページで見たのは検索結果が検索エンジン自身のデフォルト照合によって順序付けられた後の結果である。
S1023、ユーザー文の属性データを取得する。
ユーザー文の属性データとは、語句の内容に関する属性であり、例えば語句内容の中の主語あるいは/及び客語である属性、また語句内容の中の場面である属性である。ユーザー文の属性データを取得するについては、ユーザー文の主語属性を例とし、図6の方式を通じて実現でき、具体的にはステップS10231〜S10233を含み、
S10231、ユーザー文に主語がなくあるいはその主語が第一人称となる時、ユーザーの登録情報あるいは対話ボックスの中の属性入力を通じてユーザー文の主語属性を取得し、
S10232、ユーザー文の主語が第二人称である時、ロボットの登録情報あるいは対話ボックスの中の属性入力を通じてユーザー文の主語属性を取得し、
S10233、ユーザー文の主語が第三人称である時、対話ボックスの中の属性入力を通じてあるいはユーザー文の主語を電子辞書または検索エンジンの入力として検索し、ユーザー文の主語属性を取得する。
属性データは、ユーザー文の主語属性を例として、例えば、ユーザー文の主語が「私」である場合、対応の属性がユーザー属性であり、ユーザーがロボットと対話する前に、まずロボットの中にユーザー登録し、ユーザー登録情報を取得し、その中にユーザーの属性などの情報が含まれ、例えば、一人の女性が登録する時、ユーザーの名前、年齢及び性別属性などの情報を得る必要があり、例えば、若い女性がその女性の登録した性別属性であり、したがって登録情報により当該女性の当該情報を取得でき、したがってユーザー文の主語属性を取得し、あるいはポップアップ対話ボックスの方式でユーザーに聞くことができ、ユーザーがダイアログボックスの中に主語属性を入力し、これによりユーザー文の主語属性を取得し、
ユーザー文に主語がない場合、主語を「私」にデフォルトし、
ユーザー文の主語が御前様あるいはあなたである場合、それに対してロボットの属性となり、ロボットの属性データが事前にロボットの中に登録されたたものであり、すなわちロボット登録情報であり、ロボットの登録情報に基づいて主語属性を取得でき、あるいは対話ボックスの中の属性入力を通じて主語属性を取得でき、
ユーザー文の主語が第三人称である場合、対話ボックスの中の属性入力を通じて主語情報を取得でき、電子辞典または検索エンジンでの検索を通じて主語属性を取得することもでき、例えば、ユーザー文の主語が「彼」であれば、主語属性が男性であり、ユーザー文の主語が「彼女」であれば、主語属性が女性である。
S1024、属性データをそれぞれ毎個の第一語句に合併し、それぞれ第一語句に対応する合併語句m個を取得する。
第一語句の数と得た合併語句の数が同じであり、例えば、第一語句がm個あり、それに対して合併語句をm個得て、すなわち第一語句を選別するときに、第一語句を更新した後、第一語句の数量が変化し、それに対して合併語句の数量も対応的に変化する。第一語句がm個あり、属性データをそれぞれ毎個の第一語句に合併し、合併語句をm個得て、毎個の合併語句に対応する第一語句が一つあり、すなわち一つの第一語句に一つの合併語句が対応し、例えば、第一語句が三個あり、それぞれA、B、Cであり、属性データがDであり、属性データをそれぞれ毎個の第一語句に合併し、すなわちDをそれぞれA、B、Cに合併し、AD、BD、CDという合併語句を3個得て、この3条の合併語句がそれぞれ第一語句に対応するものであり、すなわち合併語句ADが第一語句Aに対応し、合併語句BDが第一語句Bに対応し、合併語句CDが第一語句Cに対応する。属性データは、ユーザー文の主語属性を例として、ユーザー文の主語が「私」であるあるいはない場合、主語属性がユーザー属性である。ユーザー文の主語が「御前様」あるいは「あなた」の場合、主語属性がロボット属性である。ユーザー文の主語が「彼」であれば、主語属性が男性であり、ユーザー文の主語が「彼女」であれば、主語属性が女性である。ユーザー文の主語がどうな人でも、どんなものでも、どんなことでもよく、それに対して主語属性が対応する人の属性、対応するものの属性あるいは対応することの属性である。語句と主語が中国語でもよく、英語またはその他の言語でもよい。
属性データは、ユーザーの主語属性を例として、ユーザー分の主語の属性を取得する方法として、ユーザーの登録情報を照会することや、対話ボックスをポップアップさせることがあり、例えば、ユーザーが青年の男性を入力すれば、主語属性が青年男性となり、ほかの対話方式あるいは照会方式でもできる。ユーザー文の主語が「私」、「あなた」、「御前様」、「彼」、「彼女」、具体的な人名及び動物名を含むが、これらに限定されていない。ユーザー文に主語がない場合、デフォルトでユーザー文の主語が「私」となる。ユーザー文の主語属性を取得してそれぞれ毎個の第一語句に合併してm個の合併語句を取得した後、毎個の合併語句に基づいてそれぞれ検索し、合併語句に対応する数の検索結果を取得する。
S1025、毎個の第一語句及び毎個の第一語句に対応する合併語句にそれぞれ基づき、毎個の第一語句のユーモラスパラメーターを計算する。
合併語句が第一語句と属性データの合併により取得されるものであるため、毎個の第一語句に対してそれと対応する合併語句があり、これにより毎個の第一語句及び毎個の第一語句に対応する合併語句にそれぞれ基づき、毎個の第一語句のユーモラスパラメーターを計算して取得できる。第一語句のユーモラスパラメーターが第一語句の検索結果の数量及び第一語句に対応する合併語句の検索結果の数量の両方によって決められ、すなわち第一語句のユーモラスパラメーターが第一語句の検索結果の数量及び第一語句に対応する合併語句の検索結果の数量に関わるものである。検索結果の数量が合理レベルに対応し、第一語句の検索結果の数量が多ければ多いほど、第一語句がより合理になり、合理レベルが大きくなり、合併語句の検索結果の数量が多ければ多いほど、合併語句が合理なり、合理レベルが大きくなり、合併語句の検索結果の数量が少なければ少ないほど、合併語句が合理でなくなり、合併語句が第一語句と属性データの合併により取得されたため、合併語句が合理でなければないほど、第一語句が属性データに対し合理でなく、対応する第一語句がユーモラスであり、すなわち第一語句が合理であればあるほど、合併語句が合理でなくなり、第一語句のユーモラスパラメーターが大きくなる。
理解できるのは、第一語句のユーモラスパラメーターが第一語句の検索結果の数量が第一語句の総検索結果の数量での比重及び第一語句に対応する合併語句の検索結果の数量が合併語句の総検索結果の数量での比重で共同に決まられることができ、すなわち第一語句のユーモラスパラメーターが第一語句の検索結果の数量が第一語句の総検索結果の数量での比重及び第一語句に対応する合併語句の検索結果の数量が合併語句の総検索結果の数量での比重に関係がある。合併語句の検索結果の数量の比重が第一語句の検索結果の数量の比重に対し小さければ小さいほど、あるいは第一語句の検索結果の数量の比重が合併語句の検索結果の数量の比重に対し大きければ大きいほど、ユーモラスパラメーターが大きくなる。第一語句の総検索結果の数量が毎個の第一語句の検索結果の数量の総数であり、合併語句の総検索結果の数量がそれぞれの合併語句の検索結果の数量の総数であり、比重が大きければ大きいほど、合理レベルが大きくなる。
識別待ちの入力語句により検索を行い、検索結果の中から識別待ちの入力語句との一致度の最も高いトップm個の語句をm個の第一語句とすることによって、m個の語句が識別待ちの入力語句と最もマッチングすることと、第一語句の合理性を確保する。識別待ちの入力語句の属性データを得て、属性データをそれぞれ毎個の第一語句に合併し、m個の合併語句を得て、毎個の第一語句及び毎個の第一語句に対応する合併語句にそれぞれ基づき、毎個の第一語句のユーモラスパラメーターを計算する。
ステップS1025の実現は図7のように、具体的にはステップS10251〜S10253を含み、
S10251、毎個の第一語句にそれぞれ基づいて検索を行い、取得した検索結果の数量を第一語句の検索結果の数量とする。
第一語句の検索結果の数量が多ければ多いほど人々の認識に正相関するようになり、人々に認められるようになる。m個の第一語句を取得した後、毎個の第一語句にそれぞれ基づいて検索し、検索結果の数量を取得して第一語句の検索結果の数量とし、検索結果の数量が第一語句により検索し取得されたものでああるため、検索結果の数量が第一語句に対応し、すなわち第一語句に対応する検索結果の数量を取得し、m個の第一語句があり、m回検索し、m個の検索結果の数量を取得し、毎個の検索結果の数量が一つの第一語句に対応し、すなわちm個の第一語句があるため、毎個の第一語句に基づいて検索し、これによりm個の検索結果の数量を取得してそれぞれ第一語句の検索結果の数量とし、単一の検索結果の数量を単一の第一語句の検索結果の数量とする。例えば、A、Bという二つの第一語句があり、第一語句Aに基づいて検索し、取得した検索結果の数量が30であり、第一語句Bに基づいて検索し、取得した検索結果の数量が10であり、つまりそれぞれ行われた二回の検索の検索結果の数量がそれぞれ30と10であり、その二つの検索結果の数量をそれぞれ第一語句の検索結果の数量とし、30が第一語句Aに対応し、10が第一語句Bに対応する。検索は検索エンジンが呼び出されて自動的に行うものあるいはデフォルトビッグデータに対する検索であり、第一語句の対応する検索結果の数量の大きさから人々の第一語句に対する共感度が分かり、検索結果の数量が大きれば大きいほど人々の第一語句に対する共感度が高くなり、その第一語句がより合理になり、第一語句の合理レベルが大きくなり、すなわち第一語句の検索結果の数量が第一語句の合理性に対応し、第一語句の検索結果の数量を第一語句の合理性パラメーターとし、第一語句の検索結果の数量が大きいほど、第一語句の合理性パラメーターが大きくなる。
S10252、毎個の合併語句にそれぞれ基づいて検索を行い、取得する検索結果の数量を合併語句の検索結果の数量とする。
合併語句の検索結果の数量が少なければ少ないほど人々の識別に負相関するようになり、人々に識別されなくなる。具体的には、識別待ちの入力語句の属性データを取得し、属性データをそれぞれ毎個の第一語句に合併してm個の合併語句を取得し、それぞれの合併語句に基づいて検索し、検索結果の数量を合併語句の検索結果の数量とし、すなわち合併語句に対応する検索結果の数量を取得する。m個の合併語句があり、m回検索し、m個の検索結果の数量を取得し、毎個の検索結果の数量がそれぞれ一条の合併語句に対応し、すなわちm個の合併語句があるため、それぞれの合併語句に基づいて検索し、これによりm個の検索結果の数量を取得してそれぞれ合併語句の検索結果の数量とでき、単一の検索結果の数量を単一の合併語句の検索結果の数量とする。合併語句の対応する検索結果の数量の大きさから人々の合併語句に対する共感度が分かり、数量が少なければ少ないほど、人々がその合併語句に対する共感度が低くなり、その合併語句が合理でなくなり、合併語句の合理レベルが小さくなり、すなわち合併語句の検索結果の数量が合併語句の合理性に対応し、合併語句の検索結果の数量を合併語句の合理性パラメーターとし、合併語句の検索結果の数量が多ければ多いほど、合併語句の合理性パラメーターが大きくなる。
S10253、毎個の第一語句の検索結果の数量と毎個の第一語句に対応する合併語句の検索結果の数量との比率をそれぞれ計算し、これにより毎個の第一語句のユーモラスパラメーターを取得する。
負相関と正相関の比率の方法及び人々の識別の正相関と負相関の対立と統一を通じて、最大のユーモラスパラメーターに対応する第一語句が最も人々に認められないと同時に認められ、何故かと言うとユーモラスパラメーターが大きければ大きいほど人々に認められなくなり、しかし第一語句が人々に認められるものであり、ユーモラスであることを示する。
毎個の第一語句にそれに対応する合併語句が一つあり、例えば、二つの第一語句がそれぞれAとBであり、第一語句Aに対応する合併語句がADであり、第一語句Bに対応する合併語句がBDであり、第一語句Aの検索結果の数量と第一語句Aに対応する合併語句ADの検索結果の数量との比率を計算し、第一語句Aのユーモラスパラメーターを取得し、第一語句Bの検索結果の数量と第一語句Bに対応する合併語句BDの検索結果の数量との比率を計算し、第一語句Bのユーモラスパラメーターを取得し、これにより毎個の第一語句の検索結果の数量と毎個の第一語句に対応する合併語句の検索結果の数量との比率をそれぞれ計算することにより、毎個の第一語句のユーモラスパラメーターを取得できる。
理解できるのは、第一語句の検索結果の数量が人々の第一語句に対する共感度を代表し、すなわち第一語句の合理性であり、合併語句が対応する検索結果の数量が人々が合併語句に対する共感度を代表し、すなわち合併語句の合理性である。第一語句が対応する検索結果の数量が多ければ多いほど合理になり、合併語句が対応する検索結果の数量が少なければ少ないほど合理でなくなり、合併語句がよりユーモラスになり、ある第一語句の検索結果の数量が多ければ多いほど、それに対応する合併語句の検索結果の数量が少ないほど、その第一語句の検索結果の数量とその第一語句に対応する合併語句の検索結果の数量との比率が大きくなることを示し、その第一語句の合理性と対応する合併語句の合理性のコントラストが大きくなることを示し、本質的にその第一語句の合理性と対応する主語の合理性のコントラストが大きくなることを示し、すなわちその第一語句が合理であるものの、対応する主語の属性に一致しなく、当該第一語句がユーザーにとって最もユーモラスであり、従って、第一語句の検索結果の数量と第一語句に対応する合併語句の検索結果の数量との比率を第一語句のユーモラスパラメーターとし、すなわち第一語句の合理性パラメーターと対応する合併語句の合理性との比率をユーモラスパラメーターとし、ユーモラスパラメーターの最も大きな語句を出力語句として出力し、これにより、出力語句の合理性を確保する同時に、ロボットとの対話のユーモアのセンスを高め、すなわちロボットの知恵化とユーモア化にメリットを与える。返答の合理性を満足する同時に、ユーモアのセンスを満足する。第一語句がm個あり、対応する合併語句がm個あるため、すなわち毎個の第一語句にそれに対応する合併語句が一条あり、これにより毎個の第一語句の検索結果の数量と毎個の第一語句に対応する合併語句の検索結果の数量との比率をそれぞれ計算することにより、毎個の第一語句のユーモラスパラメーターを取得できる。
ほかに、第一語句のユーモラスパラメーターは、第一語句の検索結果の数量が第一語句の総検索結果の数量での比重と、対応する合併語句の検索結果の数量が合併語句の総検索結果の数量での比重との比率を計算することによっても取得できる。第一語句の検索結果の数量が第一語句の総検索結果の数量での比重を第一語句の合理性パラメーターとし、合併語句の検索結果の数量が合併語句の総検索結果の数量での比重を合併語句の合理性パラメーターとし、比重が大きければ大きいほど、合理になり、合理性パラメーターが大きくなり、第一語句の合理性パラメーターと合併語句の合理性パラメーターとの比率を第一語句のユーモラスパラメーターとする。
S1026、一致度の一番大きい第一語句に対応するユーモラスパラメーターと一番小さなユーモラスパラメーターとの間の階差、及び一番大きなユーモラスパラメーターと一致度の一番大きい第一語句に対応するユーモラスパラメーターの間の階差に基づき、ユーザー文のユーモア程度を取得する。
一致度の一番大きい第一語句に対応するユーモラスパラメーターを一番小さなユーモラスパラメーターと比較し、階差が大きければ大きいほど、ユーザー文のユーモア程度が大きくなり、
階差が0である場合、ユーザー文のユーモア程度が一番小さい。
あるいは一番大きなユーモラスパラメーターを一致度が一番大きな第一語句に対応するユーモラスパラメーターと比較し、
階差が0である場合、ユーザー文のユーモア程度が一番大きく、
階差が大きければ大きいほど、ユーザー文のユーモア程度が小さくなる。
一番小さなユーモラスパラメーターに対応する第一語句がユーザー文のアンユーモラス意味である。
具体的に、(一致度の一番大きい第一語句に対応するユーモラスパラメーターと一番小さなユーモラスパラメーターとの階差)と(一番大きなユーモラスパラメーターと一番小さなユーモラスパラメーターとの階差)との比率をユーザー文のユーモア程度とし、
比率が1に近ければ近いほど、ユーザー文のユーモア程度が大きくなり、
比率が0に近ければ近いほど、ユーザー文のユーモア程度が小さくなる。
本実施例に対する第一の適用実例が下記の通りである:
まず、ユーザー文を受信し、例えば、「お腹が痛くて、妊娠しているようです」である。
ユーザー文「お腹が痛くて、妊娠しているようです」をGoogle検索エンジンの入力語句として検索し、検索リストが一致度の降順でソートを行って得た結果であり、検索リストのトップ50の語句を選択して50個の第一語句とし、その50個の語句の中に入力語句のキーワードが含まれ、50個の語句でのキーワードにカラーマークをつける。
50個の第一語句をビッグデータ検索エンジンの50回の入力語句として50回検索し、50個の検索結果の数量を得る。
50個の検索結果の数量を降順でソートし、ソートした後のシーケンスのトップ9個の検索結果の数量に対応する9個の第一語句を選択し、シーケンスのトップ9個の検索結果の数量に対応する9個の第一語句及び対応する検索結果の数量が下記の通りである:
お腹が痛くて、妊娠していますか(検索結果の数量が6280000である)。
毎月月経が終わるとお腹が痛くなります(検索結果の数量が2880000である)。
お腹が痛くて、胃も痛いです(検索結果の数量が1960000である)。
更年期でお腹が痛いです(検索結果の数量が1940000である)。
お腹が痛くて、下痢をします(検索結果の数量が1380000である)。
お腹が痛くなるほど笑っています(検索結果の数量が1170000である)。
お腹が痛くて、大便がしたいです(検索結果の数量が486000である)。
お腹が痛くて、トイレに行って大便がしたいです(検索結果の数量が368000である)。
汗を掻くほどお腹が痛くて、胃腸炎ではないでしょうか(検索結果の数量が27100である)。
入力語句の主語属性を取得し、ユーザーがロボットに「お腹が痛くて、妊娠しているようです」と言うとき、ここの主語が「私」であるため、主語属性がユーザー属性である。ロボットはユーザーの登録情報を検索することによってユーザー属性を取得でき、例えば、男性である。ロボットは対話ボックスの方式でユーザーに聞くことによってユーザー属性を取得でき、例えば、ユーザーは対話ボックスに若い男性と入力すれば、主語属性が若い男性となる。また、ロボットは「目」すなわちカメラを通じてユーザー属性を識別することもでき、他の方式でもできる。取得したユーザー属性が「若い男性」であれば、入力語句の主語属性「若い男性」をそれぞれ上記9個の第一語句に合併して9個の合併語句を取得し、その9個の合併語句がそれぞれ前記9個の第一語句に一対一対応し、9個の合併語句が下記の通りである。
お腹が痛くて、妊娠していますか+若い男性。
毎月月経が終わるとお腹が痛くなります+若い男性。
お腹が痛くて、胃も痛いです+若い男性
更年期でお腹が痛いです+若い男性
お腹が痛くて、下痢をします+若い男性
お腹が痛くなるほど笑っています+若い男性
お腹が痛くて、大便がしたいです+若い男性
お腹が痛くて、トイレに行って大便がしたいです+若い男性
汗を掻くほどお腹が痛くて、胃腸炎ではないでしょうか+若い男性
前記9個の合併語句を百度ビッグデータ検索エンジンの9回の入力語句として9回検索し、9個の合併語句に対応する検索結果の数量を取得し、9個の合併語句及び合併語句に対応する検索結果の数量が下記の通りである:
お腹が痛くて、妊娠していますか+若い男性(検索結果の数量が60700である)。
毎月月経が終わるとお腹が痛くなります+若い男性(検索結果の数量が80700である)。
お腹が痛くて、胃も痛いです+若い男性(検索結果の数量が272000である)。
更年期でお腹が痛いです+若い男性(検索結果の数量が42200である)。
お腹が痛くて、下痢をします+若い男性(検索結果の数量が526000である)。
お腹が痛くなるほど笑っています+若い男性(検索結果の数量が129000である)。
お腹が痛くて、大便がしたいです+若い男性(検索結果の数量が180000である)。
お腹が痛くて、トイレに行って大便がしたいです+若い男性(検索結果の数量が137000である)。
汗を掻くほどお腹が痛くて、胃腸炎ではないでしょうか+若い男性(検索結果の数量が9630である)。
9個の第一語句に対応する検索結果の数量をそれぞれ9個の第一語句に対応する合併語句の検索結果の数量で割ると、9つの商を得て、計算結果が下記の通りである。
お腹が痛くて、妊娠していますか(検索結果の数量が6280000である)。
お腹が痛くて、妊娠していますか+若い男性(検索結果の数量が60700である)。
6280000/60700=103.46。
毎月月経が終わるとお腹が痛くなります(検索結果の数量が2880000である)。
毎月月経が終わるとお腹が痛くなります+若い男性(検索結果の数量が80700である)。
2880000/80700=35.69。
お腹が痛くて、胃も痛いです(検索結果の数量が1960000である)。
お腹が痛くて、胃も痛いです+若い男性(検索結果の数量が272000である)。
1960000/272000=7.21。
更年期でお腹が痛いです(検索結果の数量が1940000である)。
更年期でお腹が痛いです+若い男性(検索結果の数量が42200である)。
1940000/42200=45.97。
お腹が痛くて、下痢をします(検索結果の数量が1380000である)。
お腹が痛くて、下痢をします+若い男性(検索結果の数量が526000である)。
1380000/526000=1.90。
お腹が痛くなるほど笑っています(検索結果の数量が1170000である)。
お腹が痛くなるほど笑っています+若い男性(検索結果の数量が129000である)。
1170000/129000=9.07。
お腹が痛くて、大便がしたいです(検索結果の数量が486000である)。
お腹が痛くて、大便がしたいです+若い男性(検索結果の数量が180000である)。
486000/180000=2.7。
お腹が痛くて、トイレに行って大便がしたいです(検索結果の数量が368000である)。
お腹が痛くて、トイレに行って大便がしたいです+若い男性(検索結果の数量が137000である)。
368000/137000=2.69。
汗を掻くほどお腹が痛くて、胃腸炎ではないでしょうか(検索結果の数量が27100である)。
汗を掻くほどお腹が痛くて、胃腸炎ではないでしょうか+若い男性(検索結果の数量が9630である)。
27100/9630=2.81。
前記9個の第一語句の中に「お腹が痛くて、妊娠していますか」の検索結果の数量とそれに対応する合併語句「お腹が痛くて、妊娠していますか+若い男性」の検索結果の数量との比率が一番大きく、103.46である。
前記9個の第一語句の中に「お腹が痛くて、下痢をします」の検索結果の数量とそれに対応する合併語句「お腹が痛くて、下痢をします+若い男性」の検索結果の数量との比率が一番小さく、1.90である。
前記9個の第一語句の中に識別待ちの語句「お腹が痛くて、妊娠しているようです」との一致度の一番大きい第一語句「お腹が痛くて、妊娠していますか」に対応するユーモラスパラメーターが103.46である。
全部の第一語句の中に、入力語句との一致度の一番大きい第一語句に対応するユーモラスパラメーターは、必然的に入力語句に対応するユーモラスパラメーターに一番近く、従って一致度の一番大きい第一語句に対応するユーモラスパラメーターは必然によって近似的に入力語句に対応するユーモラスパラメーターとされることができる。
一番大きなユーモラスパラメーターと一致度の一番大きい第一語句に対応するユーモラスパラメーターを比較し、
階差が0であれば、ユーザー文のユーモア程度が一番高いことを示す。一番小さなユーモラスパラメーターに対応する第一語句「お腹が痛くて、下痢をします」がユーザー文のアンユーモラス意味である。
(一致度の一番大きい第一語句に対応するユーモラスパラメーターと一番小さなユーモラスパラメーターとの階差)と(一番大きなユーモラスパラメーターと一番小さなユーモラスパラメーターとの階差)との比率=1であり、ユーザー文のユーモア程度として、比率が1であれば、ユーモア程度が一番高いことを示す。
識別の結果が事実と一致し、男性が絶対に妊娠する可能性がないため、ユーモア性が非常に強い。
本実施例に対する第二の適用実例が下記の通りである:
まず、ユーザー文を受信し、例えば、「お腹が痛くて、下痢ですか」である。
ユーザー文「お腹が痛くて、下痢ですか」をGoogle検索エンジンの入力語句として検索し、検索リストを得て、検索リストが一致度の降順でソートを行って得た結果であり、検索リストのトップ50の語句を選択して50個の第一語句とし、その50個の語句の中に入力語句のキーワードが含まれ、50個の語句でのキーワードにカラーマークをつける。
50個の第一語句をビッグデータ検索エンジンの50回の入力語句として50回検索し、50個の検索結果の数量を得る。
50個の検索結果の数量を降順でソートし、ソートした後のシーケンスのトップ9個の検索結果の数量に対応する9個の第一語句を選択し、シーケンスのトップ9個の検索結果の数量に対応する9個の第一語句及び対応する検索結果の数量が下記の通りである:
お腹が痛くて、妊娠していますか(検索結果の数量が6280000である)。
毎月月経が終わるとお腹が痛くなります(検索結果の数量が2880000である)。
お腹が痛くて、胃も痛いです(検索結果の数量が1960000である)。
更年期でお腹が痛いです(検索結果の数量が1940000である)。
お腹が痛くて、下痢をします(検索結果の数量が1380000である)。
お腹が痛くなるほど笑っています(検索結果の数量が1170000である)。
お腹が痛くて、大便がしたいです(検索結果の数量が486000である)。
お腹が痛くて、トイレに行って大便がしたいです(検索結果の数量が368000である)。
汗を掻くほどお腹が痛くて、胃腸炎ではないでしょうか(検索結果の数量が27100である)。
入力語句の主語属性を取得し、ユーザーがロボットに「お腹が痛くて、下痢ですか」と言うとき、ここの主語が「私」であるため、主語属性がユーザー属性である。ロボットはユーザーの登録情報を検索することによってユーザー属性を取得でき、例えば、男性である。ロボットは対話ボックスの方式でユーザーに聞くことによってユーザー属性を取得することもでき、例えば、ユーザーは対話ボックスに若い男性と入力すれば、主語属性が若い男性となる。また、ロボットは「目」すなわちカメラを通じてユーザー属性を識別することもでき、他の方式でもできる。取得したユーザー属性が「若い男性」であれば、入力語句の主語属性「若い男性」をそれぞれ上記9個の第一語句に合併して9個の合併語句を取得し、その9個の合併語句がそれぞれ前記9個の第一語句に一々対応し、9個の合併語句が下記の通りである。
お腹が痛くて、妊娠していますか+若い男性
毎月月経が終わるとお腹が痛くなります+若い男性
お腹が痛くて、胃も痛いです+若い男性
更年期でお腹が痛いです+若い男性
お腹が痛くて、下痢をします+若い男性
お腹が痛くなるほど笑っています+若い男性
お腹が痛くて、大便がしたいです+若い男性
お腹が痛くて、トイレに行って大便がしたいです+若い男性
汗を掻くほどお腹が痛くて、胃腸炎ではないでしょうか+若い男性
前記9個の合併語句を百度ビッグデータ検索エンジンの9回の入力語句として9回検索し、9個の合併語句に対応する検索結果の数量を取得し、9個の合併語句及び合併語句に対応する検索結果の数量が下記の通りである:
お腹が痛くて、妊娠していますか+若い男性(検索結果の数量が60700である)。
毎月月経が終わるとお腹が痛くなります+若い男性(検索結果の数量が80700である)。
お腹が痛くて、胃も痛いです+若い男性(検索結果の数量が272000である)。
更年期でお腹が痛いです+若い男性(検索結果の数量が42200である)。
お腹が痛くて、下痢をします+若い男性(検索結果の数量が526000である)。
お腹が痛くなるほど笑っています+若い男性(検索結果の数量が129000である)。
お腹が痛くて、大便がしたいです+若い男性(検索結果の数量が180000である)。
お腹が痛くて、トイレに行って大便がしたいです+若い男性(検索結果の数量が137000である)。
汗を掻くほどお腹が痛くて、胃腸炎ではないでしょうか+若い男性(検索結果の数量が9630である)。
9個の第一語句に対応する検索結果の数量をそれぞれ9個の第一語句に対応する合併語句の検索結果の数量で割ると、9つの商を得て、計算結果が下記の通りである。
お腹が痛くて、妊娠していますか(検索結果の数量が6280000である)。
お腹が痛くて、妊娠していますか+若い男性(検索結果の数量が60700である)。
6280000/60700=103.46。
毎月月経が終わるとお腹が痛くなります(検索結果の数量が2880000である)。
毎月月経が終わるとお腹が痛くなります+若い男性(検索結果の数量が80700である)。
2880000/80700=35.69。
お腹が痛くて、胃も痛いです(検索結果の数量が1960000である)。
お腹が痛くて、胃も痛いです+若い男性(検索結果の数量が272000である)。
1960000/272000=7.21。
更年期でお腹が痛いです(検索結果の数量が1940000である)。
更年期でお腹が痛いです+若い男性(検索結果の数量が42200である)。
1940000/42200=45.97。
お腹が痛くて、下痢をします(検索結果の数量が1380000である)。
お腹が痛くて、下痢をします+若い男性(検索結果の数量が526000である)。
1380000/526000=1.90。
お腹が痛くなるほど笑っています(検索結果の数量が1170000である)。
お腹が痛くなるほど笑っています+若い男性(検索結果の数量が129000である)。
1170000/129000=9.07。
お腹が痛くて、大便がしたいです(検索結果の数量が486000である)。
お腹が痛くて、大便がしたいです+若い男性(検索結果の数量が180000である)。
486000/180000=2.7。
お腹が痛くて、トイレに行って大便がしたいです(検索結果の数量が368000である)。
お腹が痛くて、トイレに行って大便がしたいです+若い男性(検索結果の数量が137000である)。
368000/137000=2.69。
汗を掻くほどお腹が痛くて、胃腸炎ではないでしょうか(検索結果の数量が27100である)。
汗を掻くほどお腹が痛くて、胃腸炎ではないでしょうか+若い男性(検索結果の数量が9630である)。
27100/9630=2.81。
前記9個の第一語句の中に「お腹が痛くて、妊娠していますか」の検索結果の数量とそれに対応する合併語句「お腹が痛くて、妊娠していますか+若い男性」の検索結果の数量との比率が一番大きく、103.46である。
前記9個の第一語句の中に「お腹が痛くて、下痢をします」の検索結果の数量とそれに対応する合併語句「お腹が痛くて、下痢をします+若い男性」の検索結果の数量との比率が一番小さく、1.90である。
前記9個の第一語句の中に識別待ちの語句「お腹が痛くて、下痢ですか」との一致度の一番大きい第一語句「お腹が痛くて、下痢をします」に対応するユーモラスパラメーターが1.90である。
一番小さなユーモラスパラメーターと一致度の一番大きい第一語句「お腹が痛くて、下痢をします」に対応するユーモラスパラメーターを比較し、階差が0であり、ユーザー文「お腹が痛くて、下痢ですか」がユーモラスでないことを示す。
(一致度の一番大きい第一語句に対応するユーモラスパラメーターと一番小さなユーモラスパラメーターとの階差)と(一番大きなユーモラスパラメーターと一番小さなユーモラスパラメーターとの階差)との比率=0であり、ユーザー文のユーモア程度として、比率が0であれば、ユーモア程度が零である。
識別の結果が事実と一致し、男性のお腹が痛いなら、下痢の可能性が極めて高いから、ユーモラス性がない。
本実施例に対する第三の適用実例が下記の通りである:
まず、ユーザー文を受信し、例えば、「更年期でお腹が痛いです」である。
ユーザー文「更年期でお腹が痛いです」をGoogle検索エンジンの入力語句として検索し、検索リストが一致度の降順でソートを行って得た結果であり、検索リストのトップ50の語句を選択して50個の第一語句とし、その50個の語句の中に入力語句のキーワードが含まれ、50個の語句でのキーワードにカラーマークをつける。
50個の第一語句をビッグデータ検索エンジンの50回の入力語句として50回検索し、50個の検索結果の数量を得る。
50個の検索結果の数量を降順でソートし、ソートした後のシーケンスのトップ9個の検索結果の数量に対応する9個の第一語句を選択し、シーケンスのトップ9個の検索結果の数量に対応する9個の第一語句及び対応する検索結果の数量が下記の通りである:
お腹が痛くて、妊娠していますか(検索結果の数量が6280000である)。
毎月月経が終わるとお腹が痛くなります(検索結果の数量が2880000である)。
お腹が痛くて、胃も痛いです(検索結果の数量が1960000である)。
更年期でお腹が痛いです(検索結果の数量が1940000である)。
お腹が痛くて、下痢をします(検索結果の数量が1380000である)。
お腹が痛くなるほど笑っています(検索結果の数量が1170000である)。
お腹が痛くて、大便がしたいです(検索結果の数量が486000である)。
お腹が痛くて、トイレに行って大便がしたいです(検索結果の数量が368000である)。
汗を掻くほどお腹が痛くて、胃腸炎ではないでしょうか(検索結果の数量が27100である)。
入力語句の主語属性を取得し、ユーザーがロボットに「更年期でお腹が痛いです」と言うとき、ここの主語が「私」であるため、主語属性がユーザー属性である。ロボットはユーザーの登録情報を検索することによってユーザー属性を取得でき、例えば、男性である。ロボットは対話ボックスの方式でユーザーに聞くことによってユーザー属性を取得することもでき、例えば、ユーザーは対話ボックスに若い男性と入力すれば、主語属性が若い男性となる。また、ロボットは「目」すなわちカメラを通じてユーザー属性を識別することもでき、他の方式でもできる。取得したユーザー属性が「若い男性」であれば、入力語句の主語属性「若い男性」をそれぞれ上記9個の第一語句に合併して9個の合併語句を取得し、その9個の合併語句がそれぞれ前記9個の第一語句に一々対応し、9個の合併語句が下記の通りである。
お腹が痛くて、妊娠していますか+若い男性
毎月月経が終わるとお腹が痛くなります+若い男性
お腹が痛くて、胃も痛いです+若い男性
更年期でお腹が痛いです+若い男性
お腹が痛くて、下痢をします+若い男性
お腹が痛くなるほど笑っています+若い男性
お腹が痛くて、大便がしたいです+若い男性
お腹が痛くて、トイレに行って大便がしたいです+若い男性
汗を掻くほどお腹が痛くて、胃腸炎ではないでしょうか+若い男性
前記9個の合併語句を百度ビッグデータ検索エンジンの9回の入力語句として9回検索し、9個の合併語句に対応する検索結果の数量を取得し、9個の合併語句及び合併語句に対応する検索結果の数量が下記の通りである:
お腹が痛くて、妊娠していますか+若い男性(検索結果の数量が60700である)。
毎月月経が終わるとお腹が痛くなります+若い男性(検索結果の数量が80700である)。
お腹が痛くて、胃も痛いです+若い男性(検索結果の数量が272000である)。
更年期でお腹が痛いです+若い男性(検索結果の数量が42200である)。
お腹が痛くて、下痢をします+若い男性(検索結果の数量が526000である)。
お腹が痛くなるほど笑っています+若い男性(検索結果の数量が129000である)。
お腹が痛くて、大便がしたいです+若い男性(検索結果の数量が180000である)。
お腹が痛くて、トイレに行って大便がしたいです+若い男性(検索結果の数量が137000である)。
汗を掻くほどお腹が痛くて、胃腸炎ではないでしょうか+若い男性(検索結果の数量が9630である)。
9個の第一語句に対応する検索結果の数量をそれぞれ9個の第一語句に対応する合併語句の検索結果の数量で割ると、9つの商を得て、計算結果が下記の通りである。
お腹が痛くて、妊娠していますか(検索結果の数量が6280000である)。
お腹が痛くて、妊娠していますか+若い男性(検索結果の数量が60700である)。
6280000/60700=103.46。
毎月月経が終わるとお腹が痛くなります(検索結果の数量が2880000である)。
毎月月経が終わるとお腹が痛くなります+若い男性(検索結果の数量が80700である)。
2880000/80700=35.69。
お腹が痛くて、胃も痛いです(検索結果の数量が1960000である)。
お腹が痛くて、胃も痛いです+若い男性(検索結果の数量が272000である)。
1960000/272000=7.21。
更年期でお腹が痛いです(検索結果の数量が1940000である)。
更年期でお腹が痛いです+若い男性(検索結果の数量が42200である)。
1940000/42200=45.97。
お腹が痛くて、下痢をします(検索結果の数量が1380000である)。
お腹が痛くて、下痢をします+若い男性(検索結果の数量が526000である)。
1380000/526000=1.90。
お腹が痛くなるほど笑っています(検索結果の数量が1170000である)。
お腹が痛くなるほど笑っています+若い男性(検索結果の数量が129000である)。
1170000/129000=9.07。
お腹が痛くて、大便がしたいです(検索結果の数量が486000である)。
お腹が痛くて、大便がしたいです+若い男性(検索結果の数量が180000である)。
486000/180000=2.7。
お腹が痛くて、トイレに行って大便がしたいです(検索結果の数量が368000である)。
お腹が痛くて、トイレに行って大便がしたいです+若い男性(検索結果の数量が137000である)。
368000/137000=2.69。
汗を掻くほどお腹が痛くて、胃腸炎ではないでしょうか(検索結果の数量が27100である)。
汗を掻くほどお腹が痛くて、胃腸炎ではないでしょうか+若い男性(検索結果の数量が9630である)。
27100/9630=2.81。
前記9個の第一語句の中に「お腹が痛くて、妊娠していますか」の検索結果の数量とそれに対応する合併語句「お腹が痛くて、妊娠していますか+若い男性」の検索結果の数量との比率が一番大きく、103.46である。
前記9個の第一語句の中に「お腹が痛くて、下痢をします」の検索結果の数量とそれに対応する合併語句「お腹が痛くて、下痢をします+若い男性」の検索結果の数量との比率が一番小さく、1.90である。
前記9個の第一語句の中に識別待ちの語句「更年期でお腹が痛いです」との一致度の一番大きい第一語句「更年期でお腹が痛いです+若い男性」に対応するユーモラスパラメーターが45.97である。
一番小さなユーモラスパラメーターに対応する第一語句「お腹が痛くて、下痢をします」がユーザー文「更年期でお腹が痛いです」のアンユーモラス意味である。
(一致度の一番大きい第一語句に対応するユーモラスパラメーターと一番小さなユーモラスパラメーターとの階差)と(一番大きなユーモラスパラメーターと一番小さなユーモラスパラメーターとの階差)との比率=(45.97−1.90)/(103.46−1.90)約0.43であり、
ユーザー文のユーモア程度として、比率が1に近ければ近いほど、ユーモア程度が大きくなり、
比率が0に近ければ近いほど、ユーモア程度が小さくなり、
従って、ユーザー文が一定のユーモア性がある。
識別の結果が事実と一致し、男性にも更年期があるため、お腹が痛いことがある。しかし、若い男性の場合になると事実と一致しなく、何故かと言うと若い男性は更年期になるわけがない。従ってこの識別待ちの語句は一定のユーモア性があるものの、ユーモア性が「お腹が痛くて、妊娠していますか」より小さく、何故かと言うと男性が妊娠する可能性がなく、ユーモア性がより強い。
実施例4:
本実施例のロボットは外部にユーモア程度を出力でき、故に当該ロボットが感情表現という方式を採用しなく、実施例1との区別が直接にステップS102が識別し取得したユーモア程度をステップS108の精度判断の中に適用し、ステップS103〜S106で処理する必要がないことであり、その他が実施例1、2あるいは3と同じである。
実施例5:
図8が示すように、本実施例はユーモア識別に基づく感情対話ロボットシステムを提供し、当該システムはロボット801とユーモア検証装置802を含み、前記ロボット801はユーザー文取得モジュール8011、ユーモア程度識別モジュール8012、感情程度計算モジュール8013及び感情表現モジュール8014を含み、前記ユーモア検証装置802は感情程度取得モジュール8021、ユーモア程度計算モジュール8022、実際ユーモア程度取得モジュール8023及び精度判断モジュール8024を含み、
前記ロボット801の中の各モジュールの具体的な機能が下記の通りである:
前記ユーザー文取得モジュール8011は、ユーザーの入力語句をユーザー文として取得し、
前記ユーモア程度識別モジュール8012は、ユーザー文を識別し、ユーザー文のユーモア程度を取得し、既存のユーモア識別方式を通じてユーザーの入力した文を識別でき、
前記感情程度計算モジュール8013は、ユーザー文のユーモア程度に基づき、フィードバックされる感情程度を計算し、
前記感情表現モジュール8014は、フィードバックされる感情程度に基づき、感情計算を通じて感情を表現し、
前記ユーモア検証装置802の中の各モジュールの具体的な機能が下記の通りである:
前記感情程度取得モジュール8021は、ロボットに表現された感情を感情識別して、ロボットのフィードバックした感情程度を得て、ロボットがフィードバックされた感情程度を取得し、
前記ユーモア程度計算モジュール8022は、感情識別の結果でのロボットにフィードバックされた感情程度に基づき、ロボットに識別取得されたユーモア程度を計算する。
前記実際ユーモア程度取得モジュール8023は、ユーザー文の実際ユーモア程度を取得し、
前記精度判断モジュール8024は、ロボットに識別取得されたユーモア程度とユーザー文の実際ユーモア程度との差異を比べて、ロボットのユーモア識別の精度を判断する。
実施例6:
本実施例のその他のモジュールが実施例5と同じであるが、区別がユーモア程度識別モジュール8012の実現にあり、図9が示すように、前記ユーモア程度識別モジュール8012は第一属性データ取得ユニット80121、スモールデータコレクション取得ユニット80122、ビッグデータ取得ユニット80123、関連度計算ユニット80124、関連ダイバシティファクタ計算ユニット80125及び第一ユーモア程度取得ユニット80126を含み、各ユニットの具体的な機能が下記の通りである:
前記第一属性データ取得ユニット80121は、ユーザー文の属性データを取得し、
前記スモールデータコレクション取得ユニット80122は、ユーザー文の属性データの中から各部分のデータを各スモールデータとしてアクセスし、スモールデータコレクションに保存し、
前記ビッグデータ取得ユニット80123は、ビッグデータを取得し、
前記関連度計算ユニット80124は、スモールデータコレクションの各スモールデータとユーザー文との関連度を計算し、図10の示すように、当該関連度計算ユニット80124は第一統計サブユニット801241、第二統計サブユニット801242、第三統計サブユニット801243、関連度計算サブユニット801244を含み、
前記第一統計サブユニット801241は、ユーザー文のビッグデータでの類似データの数量を第一数量として統計し、
前記第二統計サブユニット801242は、スモールデータコレクションの中の各スモールデータのビッグデータでの類似データの数量を当該スモールデータの第二数量として統計し、
前記第三統計サブユニット801243は、当該スモールデータをユーザー文と組み合わせた後で得たデータのビッグデータでの類似データの数量を第三数量として統計し、
前記関連度計算サブユニット801244は、第一数量、当該スモールデータの第二数量及び第三数量に基づき、当該スモールデータのユーザー文との関連度を取得し、具体的な計算が実施例2を参考でき、
前記関連ダイバシティファクタ計算ユニット80125は、スモールデータコレクションの中の各スモールデータとユーザー文との関連度に基づき、スモールデータコレクションの中の各スモールデータとユーザー文との関連ダイバシティファクタを計算し、図11の示すように、当該関連ダイバシティファクタ計算ユニット80125は関連度平均値計算サブユニット801251、関連ダイバシティファクタ計算サブユニット801252を含む:
前記関連度平均値計算サブユニット801251は、各スモールデータとユーザー文との関連度の平均値を計算し、
前記関連ダイバシティファクタ計算サブユニット801252は、各スモールデータとユーザー文との関連度、各スモールデータとユーザー文との関連度の平均値及びスモールデータコレクションの中のスモールデータの数に基づき、スモールデータコレクションの中の各スモールデータとユーザー文との関連ダイバシティファクタを計算し、具体的な計算が実施例2を参考できる。
前記第一ユーモア程度取得ユニット80126は、スモールデータコレクションの中の各スモールデータとユーザー文との関連ダイバシティファクタをニューラルネットワークあるいはディープニューラルネットワークに入力し、ユーザー文のユーモア程度を取得する。
実施例7:
本実施例のその他のモジュールが実施例5と同じであるが、区別がユーモア程度識別モジュール8012の実現にあり、図12が示すように、前記ユーモア程度識別モジュール8012は検索ユニット80121、選別ユニット80122、第二属性データ取得ユニット80123、合併ユニット80124、ユーモラスパラメーター計算ユニット80125及び第二ユーモア程度取得ユニット80126を含み、各ユニットの具体的な機能が下記の通りである:
前記検索ユニット80121は、ユーザー文に基づいて検索し、検索結果を取得し、
前記選別ユニット80122は、検索結果の中からユーザー文との一致度の降順によりトップm個の語句をそれぞれm個の第一語句として選別し、その中に、mが正整数であり、
前記第二属性データ取得ユニット80123は、ユーザー文の属性データを取得し、図13の示すように、当該第二属性データ取得ユニット80123は第一属性データ取得サブユニット801231、第二属性データ取得サブユニット801232、第三属性データ取得サブユニット801233を含み、
前記第一属性データ取得サブユニット801231は、ユーザー文に主語がないあるいは主語が第一人称である時、ユーザーの登録情報あるいは対話ボックスの中の属性入力を通じてユーザー文の属性データを取得し、
前記第二属性データ取得サブユニット801232は、ユーザー文の主語が第二人称である時、ロボットの登録情報あるいは対話ボックスの中の属性入力を通じてユーザー文の属性データを取得し、
前記第三属性データ取得サブユニット801233は、ユーザー文の主語が第三人称であるとき、対話ボックスの中の属性入力によってあるいはユーザー文の主語を電子辞書または検索エンジンの入力として検索することによって、ユーザー文の属性データを取得し、
前記合併ユニット80124は、属性データをそれぞれ毎個の第一語句に合併し、第一語句にそれぞれ対応するm個の合併語句を取得し、
前記ユーモラスパラメーター計算ユニット80125は、毎個の第一語句及び毎個の第一語句に対応する合併語句にそれぞれ基づき、毎個の第一語句のユーモラスパラメーターを計算し、図14の示すように、当該ユーモラスパラメーター計算ユニット80125は第一検索結果の数量取得サブユニット801251、第一検索結果の数量取得サブユニット801252、ユーモラスパラメーター取得サブユニット801253を含み、
前記第一検索結果の数量取得サブユニット801251は、それぞれ毎個の第一語句に基づいて検索し、検索結果の数量を取得し第一語句の検索結果の数量とし、
前記第一検索結果の数量取得サブユニット801252は、それぞれの合併語句に基づいて検索し、検索結果の数量を取得し合併語句の検索結果の数量とする。
前記ユーモラスパラメーター取得サブユニット801253は、毎個の第一語句の検索結果の数量と毎個の第一語句に対応する合併語句の検索結果の数量との比率をそれぞれ計算し、これにより毎個の第一語句のユーモラスパラメーターを取得する。
前記第二ユーモア程度取得ユニット80126は一致度の一番大きい第一語句に対応するユーモラスパラメーターと一番低いユーモラスパラメーターの間の階差に基づき、ユーザー文のユーモア程度を取得する。
実施例8:
本実施例のロボットは外部にユーモア程度を出力でき、故に当該ロボットが感情表現という方式を採用しなく、実施例5との区別はユーモア程度識別モジュール8012に識別取得されたユーモア程度を直接に精度判断モジュール8024に適用することにあり、感情程度計算モジュール8013、感情表現モジュール8014、感情程度取得モジュール8021、ユーモア程度計算モジュール8022を使わなくても実現でき、その他が実施例5、6あるいは7と同じである。
ここで説明する必要があるのは、上記各実施例が提供するロボットシステムは前記各機能モジュールの区分によって例をあげて説明し、実際の応用の中で、ニーズに応じて上記機能を異なる機能モジュールに配って完成し、すなわち内部構造を異なる機能モジュールに区分し、上記の全部あるいは一部分の機能を完成する。
理解できるのは、前記各実施例のロボットシステムが使用する「第一」、「第二」などの術語が各種のユニットを説明でき、しかしこれらのユニットがこれらの術語に限定されない。これらの術語は、一番目のユニットをほかのユニットと区別するためにのみ使用される。例えば、本発明の範囲から離れない場合に、第一ユーモア程度取得ユニットを第二ユーモア程度取得ユニットと呼べ、同様に、第二ユーモア程度取得ユニットを第一ユーモア程度取得ユニットと呼べ、第一ユーモア程度取得ユニットと第二ユーモア程度取得ユニットがともにユーモア程度取得ユニットであるが、同じユーモア程度取得ユニットではなく、同様に、第一属性データ取得ユニットと第二属性データ取得ユニットが同じである。
以上に述べたのはただ本実用新型のより良い実施例で、本実用新型を限定することに使わないである。本実用新型の意義と原則のもとで行う全ての修正、同等の入れ替えと改善などは本実用新型の保護範囲に含まれる。

Claims (2)

  1. ユーモア識別に基づく感情対話方法は、ロボットとユーモア検証装置を通じて実現し、
    ロボットがユーザーの入力した文を取得し、ユーザー文とするステップ、
    ロボットがユーザー文を識別し、ユーザー文のユーモア程度を取得するステップ、
    ユーモア検証装置がユーザー文の実際ユーモア程度を取得するステップ、
    及びユーモア検証装置が識別されたユーモア程度とユーザー文の実際ユーモア程度の差異を比べることによって、ユーモア識別の精度を判断するステップを含み、
    前記方法はユーモア検証装置がユーザー文の実際ユーモア程度を取得する前に、
    ロボットがユーザー文のユーモア程度に基づき、フィードバックされる感情程度を計算するステップ、
    ロボットがフィードバックされる感情程度に基づき、感情計算で感情を表すステップ、
    ユーモア検証装置が表現された感情に対する感情識別を通じて、フィードバックされた感情程度を取得するステップ、
    及びユーモア検証装置が感情識別の結果の中のフィードバックされた感情程度に基づき、識別取得されたユーモア程度を計算するステップを含み、
    前記ロボットがユーザー文を識別し、ユーザー文のユーモア程度を取得するステップについて、具体的には、
    ユーザー文の属性データを取得するステップ、
    ユーザー文の属性データから各部分のデータを各スモールデータとして取り出し、スモールデータコレクションに保存するステップ、
    ビッグデータを取得するステップ、
    スモールデータコレクションの中の各スモールデータとユーザー文との関連度を計算するステップ、
    スモールデータコレクションの中の各スモールデータとユーザー文の関連度に基づき、スモールデータコレクションの中の各スモールデータとユーザー文の関連ダイバシティファクタを計算するステップ、
    及びスモールデータコレクションの中の各スモールデータとユーザー文の関連ダイバシティファクタをニューラルネットワークあるいはディープニューラルネットワークに入力し、ユーザー文のユーモア程度を取得するステップを含み、
    前記スモールデータコレクションの中の各スモールデータとユーザー文との関連度を計算するステップについて、具体的には、
    ユーザー文のビッグデータでの類似データの数量を統計し、第一数量とするステップ、
    スモールデータコレクションの各スモールデータのビッグデータでの類似データの数量を統計し、当該スモールデータの第二数量とするステップ、
    当該スモールデータとユーザー文が組み合わせた後に得られたデータのビッグデータでの類似データの数量を統計し、当該スモールデータの第三数量とするステップ、
    及び第一数量、当該スモールデータの第二数量及び第三数量に基づき、当該スモールデータとユーザー文の関連度を取得するステップを含み、
    前記スモールデータコレクションの中の各スモールデータとユーザー文の関連度に基づき、スモールデータコレクションの中の各スモールデータとユーザー文の関連ダイバシティファクタを計算するステップについて、具体的には、
    各スモールデータとユーザー文の関連度の平均値を計算するステップ、
    及び各スモールデータとユーザー文の関連度、各スモールデータとユーザー文の関連度の平均値及びスモールデータコレクションの中のスモールデータの数に基づき、スモールデータコレクションの中の各スモールデータとユーザー文の関連ダイバシティファクタを計算するステップを含み、
    前記ロボットがユーザー文を識別し、ユーザー文のユーモア程度を取得するステップについて、具体的には下記を含む:
    ユーザー文に基づいて検索し、検索結果を取得ステップ、
    検索結果の中からユーザー文との一致度の降順によりトップm個の語句をそれぞれm個の第一語句として選別するステップ(その中に、mが正整数である)、
    ユーザー文の属性データを取得するステップ、
    属性データを毎個の第一語句にそれぞれ合併し、第一語句にそれぞれ対応するm個の合併語句を取得するステップ、
    毎個の第一語句及び毎個の第一語句に対応する合併語句にそれぞれ基づき、毎個の第一語句のユーモラスパラメーターを計算するステップ、
    及び一致度の一番大きい第一語句に対応するユーモラスパラメーターと一番小さなユーモラスパラメーターとの間の階差、及び一番大きなユーモラスパラメーターと一致度の一番大きい第一語句に対応するユーモラスパラメーターの間の階差に基づき、ユーザー文のユーモア程度を取得するステップを含む。
  2. ユーモア識別に基づく感情対話ロボットシステムであって、前記システムはロボットとユーモア検証装置を含み、
    前記ロボットはユーザー文取得モジュールとユーモア程度識別モジュールを含み、
    前記ユーザー文取得モジュールは、ユーザーの入力語句をユーザー文として取得し、
    前記ユーモア程度識別モジュールは、ロボットがユーザー文を識別してユーザー文のユーモア程度を取得し、
    前記ユーモア検証装置は実際ユーモア程度取得モジュールと精度判断モジュールを含み、
    前記実際ユーモア程度取得モジュールは、ユーザー文の実際ユーモア程度を取得し、
    前記精度判断モジュールは、ロボットに識別取得されたユーモア程度とユーザー文の実際ユーモア程度との差異を比べて、ロボットのユーモア識別の精度を判断し、
    前記ロボットは感情程度計算モジュールと感情表現モジュールも含み、
    前記感情程度計算モジュールは、ロボットがユーザー文のユーモア程度に基づき、フィードバックされる感情程度を計算し、
    前記感情表現モジュールは、ロボットがフィードバックされる感情程度に基づいて感情計算を通じて感情を表現し、
    前記ユーモア検証装置は感情程度取得モジュールとユーモア程度計算モジュールも含み、
    前記感情程度取得モジュールは、ロボットの表現した感情に対して感情識別を行ってロボットに識別取得されたユーモア程度を計算し、
    前記ユーモア程度計算モジュールは、感情識別の結果でのロボットにフィードバックされた感情程度に基づき、ロボットに識別取得されたユーモア程度を計算する。
    前記ユーモア程度識別モジュールは、具体的には第一属性データ取得ユニット、スモールデータコレクション取得ユニット、ビッグデータ取得ユニット、関連度計算ユニット、関連ダイバシティファクタ計算ユニットと第一ユーモア程度取得ユニットを含み、
    前記第一属性データ取得ユニットは、ユーザー文の属性データを取得し、
    前記スモールデータコレクション取得ユニットは、ユーザー文の属性データの中から各部分のデータを各スモールデータとしてアクセスし、スモールデータコレクションに保存し、
    前記ビッグデータ取得ユニットは、ビッグデータを取得し、
    前記関連度計算ユニットは、スモールデータコレクションの各スモールデータとユーザー文との関連度を計算し、
    前記関連ダイバシティファクタ計算ユニットは、スモールデータコレクションの中の各スモールデータとユーザー文との関連度に基づき、スモールデータコレクションの中の各スモールデータとユーザー文との関連ダイバシティファクタを計算し、
    前記第一ユーモア程度取得ユニットは、スモールデータコレクションの中の各スモールデータとユーザー文との関連ダイバシティファクタをニューラルネットワークあるいはディープニューラルネットワークに入力し、ユーザー文のユーモア程度を取得する。
    前記関連度計算ユニットは、具体的には第一統計サブユニット、第二統計サブユニット、第三統計サブユニットと関連度計算サブユニットを含み、
    前記第一統計サブユニットは、ユーザー文のビッグデータでの類似データの数量を第一数量として統計し、
    前記第二統計サブユニットは、スモールデータコレクションの中の各スモールデータのビッグデータでの類似データの数量を当該スモールデータの第二数量として統計し、
    前記第三統計サブユニットは、当該スモールデータをユーザー文と組み合わせた後で得たデータのビッグデータでの類似データの数量を第三数量として統計し、
    前記関連度計算サブユニットは、第一数量、当該スモールデータの第二数量及び第三数量に基づき、当該スモールデータのユーザー文との関連度を取得し、
    前記関連ダイバシティファクタ計算ユニットは、具体的には関連度平均値計算サブユニットと関連ダイバシティファクタ計算サブユニットを含み、
    前記関連度平均値計算サブユニットは、各スモールデータとユーザー文との関連度の平均値を計算し、
    前記関連ダイバシティファクタ計算サブユニットは、各スモールデータとユーザー文との関連度、各スモールデータとユーザー文との関連度の平均値及びスモールデータコレクションの中のスモールデータの数に基づき、スモールデータコレクションの中の各スモールデータとユーザー文との関連ダイバシティファクタを計算し、
    前記ユーモア程度識別モジュールは、具体的には検索ユニット、選別ユニット、第二属性データ取得ユニット、合併ユニット、ユーモラスパラメーター計算ユニットと第二ユーモア程度取得ユニットを含み、
    前記検索ユニットは、ユーザー文に基づいて検索し、検索結果を取得し、
    前記選別ユニットは、検索結果の中からユーザー文との一致度の降順によりトップm個の語句をそれぞれm個の第一語句として選別し、その中に、mが正整数であり、
    前記第二属性データ取得ユニットは、ユーザー文の属性データを取得し、
    前記合併ユニットは、属性データをそれぞれ毎個の第一語句に合併し、第一語句にそれぞれ対応するm個の合併語句を取得し、
    前記ユーモラスパラメーター計算ユニットは、毎個の第一語句及び毎個の第一語句に対応する合併語句にそれぞれ基づき、毎個の第一語句のユーモラスパラメーターを計算し、
    前記第二ユーモア程度取得ユニットは一致度の一番大きい第一語句に対応するユーモラスパラメーターと一番低いユーモラスパラメーターの間の階差に基づき、ユーザー文のユーモア程度を取得する。
JP2018164941A 2017-09-04 2018-09-03 ユーモア識別に基づく感情対話方法とロボットシステム Active JP6913848B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201710783825.9A CN107564542B (zh) 2017-09-04 2017-09-04 基于幽默识别的情感交互方法和机器人系统
CN201710783825.9 2017-09-04

Publications (2)

Publication Number Publication Date
JP2019046476A JP2019046476A (ja) 2019-03-22
JP6913848B2 true JP6913848B2 (ja) 2021-08-04

Family

ID=60977924

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018164941A Active JP6913848B2 (ja) 2017-09-04 2018-09-03 ユーモア識別に基づく感情対話方法とロボットシステム

Country Status (2)

Country Link
JP (1) JP6913848B2 (ja)
CN (1) CN107564542B (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108874896B (zh) * 2018-05-22 2020-11-06 大连理工大学 一种基于神经网络和幽默特征的幽默识别方法
CN109033375B (zh) * 2018-07-27 2020-02-14 张建军 一种基于知识库生成机器人幽默性格信息的方法及系统
CN112818118B (zh) * 2021-01-22 2024-05-21 大连民族大学 基于反向翻译的中文幽默分类模型的构建方法
CN112818090B (zh) * 2021-02-24 2023-10-03 中国人民大学 一种基于谐音字的答非所问对话生成方法和系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101410601B1 (ko) * 2013-01-25 2014-06-20 포항공과대학교 산학협력단 유머 발화를 이용하는 음성 대화 시스템 및 그 방법
CN105895087B (zh) * 2016-03-24 2020-02-07 海信集团有限公司 一种语音识别方法及装置
CN105975531B (zh) * 2016-04-29 2019-07-19 华南师范大学 基于对话知识库的机器人对话控制方法和系统
CN105955949B (zh) * 2016-04-29 2018-05-29 华南师范大学 基于大数据搜索的幽默型机器人对话控制方法和系统

Also Published As

Publication number Publication date
CN107564542B (zh) 2020-08-11
JP2019046476A (ja) 2019-03-22
CN107564542A (zh) 2018-01-09

Similar Documents

Publication Publication Date Title
JP6913848B2 (ja) ユーモア識別に基づく感情対話方法とロボットシステム
CN106503192B (zh) 基于人工智能的命名实体识别方法及装置
CN108536681B (zh) 基于情感分析的智能问答方法、装置、设备及存储介质
EP3757995A1 (en) Music recommendation method and apparatus, and computing device and medium
Zhang et al. Intelligent facial emotion recognition and semantic-based topic detection for a humanoid robot
CN111708873A (zh) 智能问答方法、装置、计算机设备和存储介质
CN111125422A (zh) 一种图像分类方法、装置、电子设备及存储介质
CN110462676A (zh) 电子装置、其控制方法和非暂态计算机可读记录介质
JP6076425B1 (ja) 対話インターフェース
Parthasarathy et al. Detecting expressions with multimodal transformers
JP6366749B2 (ja) 対話インターフェース
CN110019777A (zh) 一种信息分类的方法及设备
Gil et al. Combining machine learning techniques and natural language processing to infer emotions using Spanish Twitter corpus
KR101545050B1 (ko) 정답 유형 자동 분류 방법 및 장치, 이를 이용한 질의 응답 시스템
KR20140049680A (ko) 규칙기반 다중 에이전트를 이용한 감성 분류 시스템 및 그 방법
Almagro et al. Speech gestural interpretation by applying word representations in robotics
CN110674270B (zh) 基于人工智能的幽默生成与情感交互方法及机器人系统
Miehle et al. Estimating user communication styles for spoken dialogue systems
Sheeba et al. A fuzzy logic based on sentiment classification
JP6034459B1 (ja) 対話インターフェース
Böck Affects in Groups: A review on automated affect processing and estimation in groups
Gupta et al. Novel Deep Learning Techniques to Design the Model and Predict Facial Expression, Gender, and Age Recognition
JP6080137B1 (ja) 対話インターフェース
Elbarougy et al. Continuous audiovisual emotion recognition using feature selection and lstm
Holmström et al. Effect of feature extraction when classifying emotions in speech-an applied study

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180906

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200414

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210518

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210604

R150 Certificate of patent or registration of utility model

Ref document number: 6913848

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150