JP2022088540A - ユーザ興味画像の生成方法、装置、電子機器及び記憶媒体 - Google Patents

ユーザ興味画像の生成方法、装置、電子機器及び記憶媒体 Download PDF

Info

Publication number
JP2022088540A
JP2022088540A JP2022054740A JP2022054740A JP2022088540A JP 2022088540 A JP2022088540 A JP 2022088540A JP 2022054740 A JP2022054740 A JP 2022054740A JP 2022054740 A JP2022054740 A JP 2022054740A JP 2022088540 A JP2022088540 A JP 2022088540A
Authority
JP
Japan
Prior art keywords
interest
keyword
node
label
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022054740A
Other languages
English (en)
Other versions
JP7369228B2 (ja
Inventor
チャオ ファン,
Chao Huang
グァンジュン ワン,
Guangjun Wang
グォリン カオ,
Guolin Cao
シャオロン リン,
Xiaolong Lin
ガン キャオ,
Gang Qiao
ツェンペン ツァン,
Zhenpeng Zhan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu International Technology Shenzhen Co Ltd
Original Assignee
Baidu International Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu International Technology Shenzhen Co Ltd filed Critical Baidu International Technology Shenzhen Co Ltd
Publication of JP2022088540A publication Critical patent/JP2022088540A/ja
Application granted granted Critical
Publication of JP7369228B2 publication Critical patent/JP7369228B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/3332Query translation
    • G06F16/3334Selection or weighting of terms from queries, including natural language queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/335Filtering based on additional data, e.g. user or group profiles
    • G06F16/337Profile generation, learning or modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/247Thesauruses; Synonyms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/2866Architectures; Arrangements
    • H04L67/30Profiles
    • H04L67/306User profiles

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Human Resources & Organizations (AREA)
  • Educational Administration (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

【課題】生成する際に必要な人件費を削減するユーザ興味画像の生成方法、装置、電子機器及び記憶媒体を提供する。【解決手段】ユーザの入力情報に対して情報抽出を行って、少なくとも1つのキーワードを生成し、少なくとも1つのキーワードと、それぞれナレッジグラフの各ノードに対応するラベルとをマッチングし、少なくとも1つのキーワードに対応する興味ラベルを生成し、少なくとも1つのキーワードに対応する興味ラベルを並び替え、並び替えられた後の前記少なくとも1つのキーワードに対応する興味ラベルに基づいて、ユーザ興味画像を生成する。【選択図】図1

Description

本開示は、コンピュータ技術分野に関し、自然言語処理、ナレッジグラフなどの人工知能技術分野に関し、特にユーザ興味画像の生成方法、装置、電子機器及び記憶媒体に関する。
ユーザ興味画像は実際にユーザ興味ラベルの集合であり、ユーザが興味を持つ内容を反映することができる。インターネットがビッグデータ時代に入った後、ユーザ行為は企業の製品とサービスに一連の変化と再構築をもたらし、ユーザ画像は企業がビッグデータを応用する基礎として、インターネット分野におけるページのプレゼンス、データの流れ、広告の展示、内容の推薦などの前提条件であり、ユーザ興味画像を正確に決定することはすでに多くの企業が注目する重要なポイントとなっている。
関連技術では、通常、ユーザ行為データに基づいて、人為的に作られた規則を用いてユーザ興味ラベルを生成したり、機械学習マイニングによってユーザ興味ラベルを生成したりする。しかしながら、人為的に作られた規則を用いてユーザ興味ラベルを生成するには、大量のヒューマンリソースを投入してユーザ行為データを分析し、ユーザの行為から興味ラベルまでの規則を作る必要があり、機械学習マイニングによってユーザの興味ラベルを生成するにも、大量のヒューマンリソースを投入してデータ表示を行う必要があり、これによって関連機器学習モデルをトレーニングするために大量の表記データを得て、そのため、関連技術におけるユーザ興味画像の生成方法の人件費が高すぎる。
本開示は、ユーザ興味画像の生成方法、装置、電子機器、記憶媒体及びコンピュータプログラムを提供する。
本開示の別の態様によれば、ユーザ興味画像の生成方法を提供し、ユーザの入力情報に対して情報抽出を行って、少なくとも1つのキーワードを生成するステップと、前記少なくとも1つのキーワードと、それぞれナレッジグラフの各ノードに対応するラベルとをマッチングし、前記少なくとも1つのキーワードに対応する興味ラベルを生成するステップと、前記少なくとも1つのキーワードに対応する興味ラベルを並び替え、並び替えられた後の前記少なくとも1つのキーワードに対応する興味ラベルに基づいて、前記ユーザ興味画像を生成するステップと、を含む。
本開示の別の態様によれば、ユーザ興味画像の生成装置を提供し、ユーザの入力情報に対して情報抽出を行って、少なくとも1つのキーワードを生成する抽出モジュールと、前記少なくとも1つのキーワードと、それぞれナレッジグラフの各ノードに対応するラベルとをマッチングし、前記少なくとも1つのキーワードに対応する興味ラベルを生成するマッチングモジュールと、前記少なくとも1つのキーワードに対応する興味ラベルを並び替え、並び替えられた後の前記少なくとも1つのキーワードに対応する興味ラベルに基づいて、前記ユーザ興味画像を生成する生成モジュールと、を備える。
本開示の別の態様によれば、電子機器を提供し、少なくとも1つのプロセッサと、該少なくとも1つのプロセッサと通信可能に接続されるメモリと、を備え、前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令は、前記少なくとも1つのプロセッサが上記に記載のユーザ興味画像の生成方法を実行できるように、前記少なくとも1つのプロセッサによって実行される。
本開示の別の態様によれば、コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体を提供し、前記コンピュータ命令は、コンピュータに上記に記載のユーザ興味画像の生成方法を実行させる。
本開示の別の態様によれば、コンピュータプログラムを提供し、前記コンピュータプログラムはプロセッサによって実行される場合、上記に記載のユーザ興味画像の生成方法を実現する。
なお、この部分に記載されている内容は、本開示の実施例の肝心または重要な特徴を特定することを意図しておらず、本開示の範囲を限定することも意図していないことを理解されたい。本開示の他の特徴は、以下の説明を通して容易に理解される。
図面は、本技術案をよりよく理解するために使用され、本開示を限定するものではない。
本開示の第1の実施例に係るユーザ興味画像の生成方法のフローチャートである。 本開示の第2の実施例に係るユーザ興味画像の生成方法のフローチャートである。 本開示の第3の実施例に係るユーザ興味画像の生成方法のフローチャートである。 本開示の第3の実施例に係るユーザ興味画像の生成方法の別のフローチャートである。 本開示の第4の実施例に係るユーザ興味画像の生成装置の概略構成図である。 本開示の第5の実施例に係るユーザ興味画像の生成装置の概略構成図である。 本開示の実施例のユーザ興味画像の生成方法を実現するための電子機器のブロック図である。
以下、図面と併せて本開示の例示的な実施例を説明し、理解を容易にするためにその中には本開示の実施例の様々な詳細事項を含んでおり、それらは単なる例示的なものと見なされるべきである。したがって、当業者は、本開示の範囲及び精神から逸脱することなく、ここで説明される実施例に対して様々な変更と修正を行うことができることを認識されたい。同様に、明確及び簡潔にするために、以下の説明では、周知の機能及び構造の説明を省略する。
なお、本開示の技術案では、関連するユーザ個人情報の取得、記憶、応用などは、いずれも関連法律法規の規定に合致し、公序良俗に違反しない。
関連技術では、通常ユーザ行為データに基づいて人為的に作られた規則を用いてユーザ興味ラベルを生成し、または機械学習マイニングによってユーザ興味ラベルを生成し、しかしながら、人為的に作られた規則を用いてユーザ興味ラベルを生成するには、大量のヒューマンリソースを投入してユーザ行為データを分析し、ユーザの行為から興味ラベルまでの規則を作る必要があり、機械学習マイニングによってユーザの興味ラベルを生成するにも、大量のヒューマンリソースを投入してデータ表示を行う必要があり、これによって関連機器学習モデルをトレーニングするために大量の表記データを得て、そのため、関連技術におけるユーザ興味画像の生成方法の人件費が高すぎる。
本開示は、最低の人件費でユーザ興味画像を生成するために、ユーザ興味画像の生成方法を提供し、当該ユーザ興味画像の生成方法は、まずユーザの入力情報に対して情報抽出を行って、少なくとも1つのキーワードを生成し、その後、少なくとも1つのキーワードと、それぞれナレッジグラフの各ノードに対応するラベルとをマッチングし、少なくとも1つのキーワードに対応する興味ラベルを生成してから、少なくとも1つのキーワードに対応する興味ラベル並び替え、並び替えられた後の少なくとも1つのキーワードに対応する興味ラベルに基づいて、ユーザ興味画像を生成する。興味ラベルはナレッジグラフの各ノードにそれぞれ対応するラベルによるものであるため、人為的にデータを表記したり、規則を作ったりして取得する必要がなく、ユーザの画像構造過程全体に人為的に介入する必要がなく、これによってユーザ興味画像の生成に必要な人件費を削減する。
以下、図面を参照しながら、本開示の実施例のユーザ興味画像の生成方法、装置、電子機器及びコンピュータプログラムを説明する。
まず、図1と併せて、本開示によって提供されるユーザ興味画像の生成方法に対して詳細に説明する。
図1は本開示の第1の実施例に係るユーザ興味画像の生成方法のフローチャートである。なお、本実施例によって提供されるユーザ興味画像の生成方法は、実行主体がユーザ興味画像の生成装置であり、以下、生成装置と略し、ユーザ興味画像を生成するに必要な人件費を削減するために、当該生成装置は、電子機器であってもよく、電子機器内に設置されたものであってもよい。本開示の実施例は、生成装置が電子機器内に設置される場合を例として説明する。
電子機器は、データ処理が可能な任意の静止又はモバイルコンピューティング機器、例えば、ノートパソコン、スマートフォン、ウェアラブルデバイスなどのモバイルコンピューティング機器、又はデスクトップコンピュータなどの静止のコンピューティング機器、又はサーバ、又はその他のタイプのコンピューティング機器などであってもよく、本開示はこれに対して限定しない。
図1に示すように、ユーザ興味画像の生成方法は、以下のステップ101~103を含むことができる。
ステップ101、ユーザの入力情報に対して情報抽出を行って、少なくとも1つのキーワードを生成する。
なお、ユーザの入力情報は、生成装置が存在する電子機器のヒューマンコンピューターインタラクションインターフェースを介してユーザに入力された任意の情報であってもよく、ユーザが他の電子機器のヒューマンコンピューターインタラクションインターフェースで入力された任意の情報、すなわちユーザの入力情報であってもよく、生成装置が存在する電子機器から取得する任意の情報であってもよく、生成装置が他の電子機器から取得した任意の情報であってもよく、または、生成装置が他の方式で取得した任意の情報であってもよいが、本開示はこれに対して限定しない。
なお、ユーザの入力情報は、中国語の入力情報であってもよく、日本語又は他の言語タイプの入力情報であってもよく、本開示は入力情報の言語タイプに対しては限定しない。
例示的な実施例では、生成装置は以下の方式によってユーザの入力情報に対して情報抽出を行って、少なくとも1つのキーワードを生成することができる。
まず、生成装置は先にユーザの入力情報に対して単語分割処理を行って、少なくとも1つの字句単位を得て、単語分割処理後に得られた字句単位が1つである場合に、得られた1つの字句単位を情報抽出後に生成されたキーワードとすることができる。
単語分割処理後に得られる字句単位が複数である場合、各字句単位に重みを付け、複数の字句単位における各字句単位の字句性質に基づいて、各字句単位に対して昇格または降格処理を行い、処理後の各字句単位を得ることができる。具体的には、複数の字句単位における各字句単位に対して、それぞれ字句性質、例えば、個々字句単位が一般名詞、固有名詞、助詞、動詞などであることを表記することができ、さらに、各字句単位の字句性質に基づいて、アプリオリ知識に基づいて、各字句単位に対して昇格または降格処理を行い、例えば、固有名詞に対して昇格を行い、語気語に対して降格などを行い、これによって処理後の各字句単位を得る。
字句性質に基づいて各字句単位を昇格または降格処理を行った後、各字句単位に対してネーミングエンティティ識別し、識別結果に基づいて各字句単位をさらに昇格または降格処理を行うことができ、例えば、ある字句単位が人名、地名、組織機構名、薬物または時間などの実体語である場合、当該字句単位に対して昇格処理を行うことができ、他の字句単位に対して降格処理を行い、さらに昇格または降格処理を行った後の各字句単位を得る。
さらに、人為的に作られた規則に基づいて、各字句単位の重要性を決定することができ、これによって各字句単位の重要性に基づいて、各字句単位に対して更なる昇格または降格処理を行い、処理後の各字句単位を得る。人為的に作られた規則は、統計分析とアプリオリ経験に基づいて決定された、字句単位の重要性を計算する規則方法である。
さらに、ナレッジグラフにおける属性抽出と関係抽出とを組み合わせて、各字句単位抽出の属性特徴の正確性を高めることができ、これによって各字句単位の属性特徴の正確性に基づいて、さらに各字句単位に対して昇格または降格処理を行い、さらに予め設定された重み閾値を超える字句単位を、情報抽出後に生成されるキーワードとする。
なお、上記ユーザの入力情報に対して情報抽出を行う方式は、例示にすぎず、実際の応用においては、当業者は、必要に応じて自然言語処理技術における任意の情報抽出方法を用いてユーザの入力情報に対して情報抽出を行って、少なくとも1つのキーワードを生成することができ、本開示はこれに対して限定しない。
ステップ102、少なくとも1つのキーワードと、それぞれナレッジグラフの各ノードに対応するラベルとをマッチングし、少なくとも1つのキーワードに対応する興味ラベルを生成する。
ナレッジグラフは、百科知識ベースに基づいて、情報抽出技術と知識融合技術を用いて構築するものであってもよい。少なくとも1つのキーワードに対応する興味ラベルは、すべてのキーワードに対応するすべての興味ラベルである。
ナレッジグラフの個々のノードにおける各ノードはそれぞれ1つのラベルに対応すう。本出願の実施例では、少なくとも1つのキーワードと、それぞれナレッジグラフの各ノードに対応するラベルとをマッチングし、少なくとも1つのキーワードに対応する興味ラベルを生成することができる。
なお、1つのキーワードと、それぞれナレッジグラフの各ノードに対応するラベルとをマッチングして、当該キーワードに対応する1つの興味ラベルまたは複数の興味ラベルが得られる可能性があり、当該キーワードに対応する興味ラベルが得られない可能性があり、異なるキーワードに対応する興味ラベルは同じである可能性があり、本開示の実施例では、少なくとも1つのキーワードに対応する興味ラベルは、1つである可能性があり、複数である可能性があり、本開示はこれに対して限定しない。
例えば、ユーザの入力情報に対して抽出を行い、2つのキーワード「AA」と「BB」を生成したと仮定すると、「AA」がある俳優の名前であり、「BB」がある漫画の名前であり、「AA」と、それぞれナレッジグラフの各ノードに対応するラベルとをマッチングして、「AA」に対応する2つの興味ラベル「AA」と「俳優」が得られ、「BB」と、それぞれナレッジグラフの各ノードに対応するラベルとをマッチングして、「BB」に対応する3つの興味ラベル「BB」、「熱血アニメ」及び「アニメ」が得られ、「AA」と「BB」に対応する5つの興味ラベル「AA」、「俳優」、「BB」、「熱血アニメ」及び「アニメ」を生成することができる。
ステップ103、少なくとも1つのキーワードに対応する興味ラベルを並び替え、並び替えられた後の少なくとも1つのキーワードに対応する興味ラベルに基づいて、ユーザ興味画像を生成する。
本開示の実施例では、少なくとも1つのキーワードに対応する興味ラベルを生成した後、これらの興味ラベルを並び替えることができ、さらに並び替えられた後の興味ラベルに基づいて、ユーザ興味画像を生成する。
少なくとも1つのキーワードに対応する興味ラベルを並び替える方法は、必要に応じて設定されてもよい。例えば、各興味ラベルのページアクセス数に基づいて、少なくとも1つのキーワードに対応する興味ラベルを並び替えてもよく、または、予めトレーニングして並び替えモデルを得てから、並び替えモデルを使用して各興味ラベルに対して採点し、さらに各興味ラベルに対応するスコアの高低に基づいて、少なくとも1つのキーワードに対応する興味ラベルを並び替えてもよく、または、少なくとも1つのキーワードに対応する興味ラベルを別の方法で並び替えてもよいが、本開示はこれに対して限定しない。
例えば、上記の例に続き、ユーザの入力情報に対して抽出を行い、2つのキーワード「AA」と「BB」を生成したと仮定すると、「AA」と「BB」に対応する興味ラベルは「AA」、「俳優」、「BB」、「熱血アニメ」及び「アニメ」であり、XX百科における「AA」に対応するページアクセス数が10000であり、「BB」に対応するページアクセス数が20000であり、「俳優」に対応するページアクセス数が500であり、「熱血アニメ」に対応するページアクセス数が600であり、「アニメ」に対応するページアクセス数が400であると仮定すると、並び替えられた後の興味ラベルが「BB」、「AA」、「熱血アニメ」、「俳優」「アニメ」であることを得ることができ、これによって並び替えられた後のこれらの5つの興味ラベルに基づいて、ユーザ興味画像を生成することができる。
なお、少なくとも1つのキーワードに対応する興味ラベルの数が1つである場合、直接この1つの興味ラベルに基づいてユーザ興味画像を生成すればよい。
本開示の実施例によって提供されるユーザ興味画像の生成方法は、ユーザの入力情報に対して情報抽出を行って少なくとも1つのキーワードを得た後、少なくとも1つのキーワードと、それぞれナレッジグラフの各ノードに対応するラベルとをマッチングすることにより、興味ラベルを生成すればよく、さらに並び替えられた後の興味ラベルに基づいてユーザ興味画像を生成することができ、興味ラベルがナレッジグラフの各ノードにそれぞれ対応するラベルによるものであるため、大量のデータを人為的に表記することによって機械学習マイニングモデルをトレーニングして興味ラベルを生成する必要がなく、または大量のヒューマンリソースを投入してユーザ行為データを分析し、ユーザ行為から興味ラベルまでの規則を作って興味ラベルを取得する必要がなく、ユーザ画像全体の構造プロセスに人為的な介入を必要とせず、ユーザ興味画像を生成する時に必要な人件費を削減する。また、ナレッジグラフは百科知識ベースに基づいて構造されるため、ナレッジグラフにおける各ノードに対応するラベルは百科知識ベースの更新に伴って更新することができ、これによって高信頼度の興味ラベルを得ることでユーザ興味画像を生成することができて、ユーザ興味画像の正確性を高め、本開示の実施例ではどの言語タイプのユーザの入力情報に対しても、ユーザ興味画像を迅速に生成することができ、汎用性と汎化性がよい。
本開示の実施例によって提供されるユーザ興味画像の生成方法は、まずユーザの入力情報に対して情報抽出を行って、少なくとも1つのキーワードを生成し、その後、少なくとも1つのキーワードと、それぞれナレッジグラフの各ノードに対応するラベルとをマッチングし、少なくとも1つのキーワードに対応する興味ラベルを生成してから、少なくとも1つのキーワードに対応する興味ラベル並び替え、並び替えられた後の少なくとも1つのキーワードに対応する興味ラベルに基づいて、ユーザ興味画像を生成する。それにより、ユーザ興味画像を生成するために必要な人件費を削減する。
上記分析から分かるように、本開示の実施例では、少なくとも1つのキーワードと、それぞれナレッジグラフの各ノードに対応するラベルとをマッチングし、少なくとも1つのキーワードに対応する興味ラベルを生成することができ、図2と併せて、本開示によって提供されるユーザ興味画像の生成方法では、少なくとも1つのキーワードと、それぞれナレッジグラフの各ノードに対応するラベルとをマッチングして、少なくとも1つのキーワードに対応する興味ラベルを生成するプロセスに対して更なる説明を行う。
図2は本開示の第2の実施例に係るユーザ興味画像の生成方法のフローチャートである。図2に示すように、ユーザ興味画像の生成方法は、以下のステップ201~205を含むことができる。
ステップ201、ユーザの入力情報に対して情報抽出を行って、少なくとも1つのキーワードを生成する。
上記ステップ201の具体的な実現プロセス及び原理は、上記実施例の説明を参照してもよい、ここでは説明を省略する。
ステップ202、前記キーワードに対して、前記キーワードと、それぞれナレッジグラフの各ノードに対応するラベルとをマッチングし、ナレッジグラフにおける前記キーワードにマッチングする第1のノードを決定する。
例示的な実施例では、ユーザの入力情報に対して情報抽出を行い、生成されたキーワードが1つである場合、生成された1つのキーワードと、それぞれナレッジグラフの各ノードに対応するラベルとをマッチングし、ナレッジグラフにおける当該キーワードに対応する興味ラベルを決定することができる。ユーザの入力情報に対して情報抽出を行い、生成されたキーワードが複数である場合、各キーワードに対して、キーワードと、それぞれナレッジグラフの各ノードに対応するラベルとをマッチングし、ナレッジグラフにおける各キーワードに対応する興味ラベルを決定することができ、さらに各キーワードに対応するすべての興味ラベルを生成する。本開示の実施例はユーザの入力情報に対して情報抽出を行い、生成されたキーワードが複数である例を挙げて、各キーワードに対応するすべての興味ラベルを生成するプロセスに対して説明する。
例示的な実施例では、ユーザの入力情報に対して情報抽出を行い、複数のキーワードを生成する時、各キーワードに対して、正則マッチング規則により、キーワードと、それぞれナレッジグラフの各ノードに対応するラベルとをマッチングし、ナレッジグラフにおけるキーワードにマッチングする第1のノードを決定することができる。
ナレッジグラフにおけるキーワードにマッチングする第1のノードは、対応するラベルとキーワードが完全にマッチングするノードであってもよく、対応するラベルとキーワードのマッチング度が予め設定されたマッチング度閾値より大きいノードであってもよいが、本開示はこれに対して限定しない。予め設定されたマッチング度閾値は、必要に応じて任意に設定することができ、例えば90%、80%などであり、本開示はこれに対して限定しない。
例えば、キーワードが「熱血漫画」であると仮定すると、それぞれナレッジグラフの各ノードに対応するラベルには「漫画」、「熱血漫画」、「カートゥーン」などが含まれ、ラベル「漫画」に対応するノードがノードCであり、ラベル「熱血漫画」に対応するノードがノードBであり、ラベル「カートゥーン」に対応するノードがノードDであり、ナレッジグラフにおけるキーワード「熱血漫画」と完全にマッチングするラベルが存在するノードBを、ナレッジグラフにおけるキーワード「熱血漫画」にマッチングする第1のノードとして決定することができる。
ステップ203、ナレッジグラフにおける第1のノードに対応するルートノードを取得する。
本開示の実施例では、ナレッジグラフにおける各ノードの最終親ノードを、当該ノードに対応するルートノードと呼ぶ。
例えば、ナレッジグラフにおけるノードAに対応するラベルが「BB」であり、ノードAの親ノードがノードBであり、ノードBに対応するラベルが「熱血アニメ」であり、ノードBの親ノードがノードCであり、ノードCに対応するラベルが「アニメ」であり、ノードCに親ノードが存在しなく、すなわちノードCがノードAの最終親ノードであると仮定すると、ノードCをノードAに対応するルートノードと呼ぶ。
例示的な実施例では、ナレッジグラフにおけるキーワードにマッチングする第1のノードを決定した後、ナレッジグラフにおける第1のノードに対応するルートノードを取得することができる。例えば、ナレッジグラフにおけるキーワード「BB」にマッチングする第1のノードがノードAであることを決定した後、ノードCをノードAに対応するルートノードとして決定することができる。
ステップ204、第1のノードに対応するラベル、ルートノードに対応するラベル、及び第1のノードとルートノードとの間のパスにおける個々のノードにそれぞれ対応するラベルを、前記キーワードに対応する興味ラベルとして決定する。
例えば、引き続き上記の例を参照し、キーワードにマッチングする第1のノードがノードAであり、第1のノードに対応するルートノードがノードCであると決定した後、ノードAに対応するラベル「BB」、ノードCに対応するラベル「漫画」、及びノードAとノードCとの間のパスにおけるノードBに対応するラベル「熱血漫画」を、キーワード「BB」に対応する興味ラベルとして決定することができる。
上記のプロセスから分かるように、本開示の実施例では、各キーワードに対して、ナレッジグラフにおいて当該キーワードにマッチングする第1のノードから第1のノードのルートノードまでのパスにおいて、個々のノードにそれぞれ対応するラベル(第1のノードに対応するラベル及び第1のノードに対応するルートノードに対応するラベルが含まれる)を、当該キーワードに対応する興味ラベルとして決定することができ、これによってユーザの入力情報から抽出された複数のキーワードに対応する全ての興味ラベルを決定することができる。このようにして各キーワードに対応する興味ラベルを取得することにより、最終的に取得された各キーワードに対応する興味ラベルが完全に当該キーワードにマッチングし、またはマッチング度が予め設定されたマッチング度閾値を超えるラベルだけでなく、当該キーワードにマッチングする興味ラベルの親ラベルも含み、これによって生成された各キーワードに対応する興味ラベルが豊富になり、さらに各キーワードに対応する興味ラベルに基づいて生成されたユーザ興味画像がより正確になる。
ステップ205、少なくとも1つのキーワードに対応する興味ラベルを並び替え、並び替えられた後の少なくとも1つのキーワードに対応する興味ラベルに基づいて、ユーザ興味画像を生成する。
上記ステップ205の具体的な実現プロセス及び原理は、上記実施例の説明を参照することができ、ここでは説明を省略する。
本開示の実施例のユーザ興味画像の生成方法は、ユーザの入力情報に対して情報抽出を行って、少なくとも1つのキーワードを生成した後、前記キーワードに対して、前記キーワードと、それぞれナレッジグラフの各ノードに対応するラベルとをマッチングすることができ、ナレッジグラフにおける前記キーワードにマッチングする第1のノードを決定し、ナレッジグラフにおける第1のノードに対応するルートノードを取得してから、第1のノードに対応するラベル、ルートノードに対応するラベル、及び第1のノードとルートノードとの間のパスにおける個々のノードにそれぞれ対応するラベルを、前記キーワードに対応する興味ラベルとして決定し、さらに少なくとも1つのキーワードに対応する興味ラベルを並び替え、並び替えられた後の少なくとも1つのキーワードに対応する興味ラベルに基づいて、ユーザ興味画像を生成し、それにより、ユーザ興味画像を生成する際に必要な人件費を削減する。
上記分析から分かるように、本開示の実施例では、少なくとも1つのキーワードに対応する興味ラベルを生成した後、少なくとも1つのキーワードに対応する興味ラベルを並び替え、並び替えられた後の少なくとも1つのキーワードに対応する興味ラベルに基づいて、ユーザ興味画像を生成することができる。以下、図3と併せて、本開示によって提供されるユーザ興味画像の生成方法において、少なくとも1つのキーワードに対応する興味ラベルを並び替えるプロセスに対してさらに説明する。
図3は、本開示の第3の実施例に係るユーザ興味画像の生成方法のフローチャートである。図3に示すように、ユーザ興味画像の生成方法は、以下のステップ301~305を含むことができる。
ステップ301、ユーザの入力情報に対して情報抽出を行って、少なくとも1つのキーワードを生成する。
ステップ302、少なくとも1つのキーワードと、それぞれナレッジグラフの各ノードに対応するラベルとをマッチングし、少なくとも1つのキーワードに対応する興味ラベルを生成する。
少なくとも1つのキーワードに対応する興味ラベルの数は複数である。
ステップ303、各興味ラベルに対して、並び替えモデルを使用して、興味ラベルに対応するスコアを取得する。
ステップ304、少なくとも1つのキーワードに対応する興味ラベルに対応するスコアに基づいて、少なくとも1つのキーワードに対応する興味ラベルを並び替える。
例示的な実施例では、並び替えモデルを使用して各興味ラベルに対して採点し、各興味ラベルのスコアを取得することができ、各興味ラベルのスコア、当該興味ラベルをステップ301における前記ユーザに対応する興味ラベルの確率として特徴付け、さらに各キーワードに対応する全ての興味ラベルにそれぞれ対応するスコアに基づいて、スコアの高い順から低い順に、各キーワードに対応する全ての興味ラベルを並び替える。
並び替えモデルは、LR(Logistic Regression、ロジスティック回帰)モデルであってもよく、他の二項分類モデルであってもよいが、本開示の実施例はこれに対して限定しない。
並び替えモデルを使用して各興味ラベルを取得して採点し、さらに各キーワードに対応する全ての興味ラベルにそれぞれ対応するスコアに基づいて各キーワードに対応する全ての興味ラベルを並び替えることにより、各キーワードに対応する全ての興味ラベルのより正確な並び替えを取得することができる。
例示的な実施例では、各興味ラベルに対して、並び替えモデルを使用して興味ラベルのスコアを取得するプロセスは、興味ラベルの重み及び興味ラベルに対応するキーワードの重みを取得し、ナレッジグラフにおける興味ラベルに対応するキーワードにマッチングする第2のノード及び興味ラベルが存在する第3のノードを取得し、ナレッジグラフにおける第2のノードから第3のノードまでのトポロジー長さを決定し、興味ラベルの重み、興味ラベルに対応するキーワードの重み、及び第2のノードから第3のノードまでのトポロジー長さを、並び替えモデルに入力して、興味ラベルに対応するスコアを取得することであってもよい。
本開示の実施例では、興味ラベルは、少なくとも1つのキーワードを、ナレッジグラフにおける各ノードにそれぞれ対応するラベルにマッチングして得られたものであり、各々の興味ラベルについて、1つのキーワードに対応する可能性があり、複数のキーワードに対応する可能性もある。
例えば、ユーザの入力情報に対して情報抽出を行い、生成されたキーワードが「BB」「熱血漫画」であると仮定すると、「BB」がある漫画の名前であり、キーワード「BB」をナレッジグラフにおける各ノードにそれぞれ対応するラベルにマッチングすると、キーワード「BB」に対応する興味ラベル「BB」、「熱血漫画」及び「漫画」が得られ、キーワード「熱血漫画」をナレッジグラフにおける各ノードにそれぞれ対応するラベルにマッチングすると、キーワード「熱血漫画」に対応する興味ラベル「熱血漫画」と「漫画」が得られ、すなわち、最終的にキーワード「BB」と「熱血漫画」に対応する3つの興味ラベル「BB」、「熱血漫画」及び「漫画」を生成する。本開示の実施例では、興味ラベル「BB」に対して、キーワード「BB」は興味ラベル「BB」に対応するキーワードであり、興味ラベル「熱血漫画」に対して、キーワード「BB」とキーワード「熱血漫画」は興味ラベル「熱血漫画」に対応するキーワードであり、興味ラベル「漫画」に対して、キーワード「BB」とキーワード「熱血漫画」は興味ラベル「漫画」に対応するキーワードである。
例示的な実施例では、各興味ラベルに対して、興味ラベルに対応するページアクセス数に基づいて、興味ラベルの重みを取得することができる。例えば、ページアクセス数と重みとの対応関係を予め設定することができ、これによって各興味ラベルに対して、例えば百科知識ベースなどの知識ベースにおける興味ラベルに対応するページアクセス数を検索した後、ページアクセス数、ページアクセス数と重みとの対応関係に基づいて、興味ラベルの重みを取得することができる。
例示的な実施例では、各興味ラベルに対して、TF-IDF(Term Frequency - Inverse Document Frequency、単語の出現頻度-逆文書頻度)アルゴリズムを使用して、興味ラベルに対応するキーワードの重みを取得することができる。例えば、複数のユーザの入力情報を予め取得し、複数のユーザの入力情報に対して情報抽出を行うことができて、複数のキーワードを生成し、各キーワードが全てのユーザの入力情報に出現する頻度を決定し、各ユーザの入力情報における各キーワードが当該ユーザの履歴入力情報に出現する回数を取得し、さらにステップ301においてユーザの入力情報から抽出された各キーワードに対して、当該ユーザの入力情報において当該キーワードが当該ユーザの履歴入力情報に出現する回数、及び当該キーワードが全てのユーザの入力情報内に出現する頻度に基づいて、当該キーワードの重みを決定し、これによってユーザの入力情報における抽出された各キーワードの重みを決定することができる。さらに各興味ラベルに対して、当該興味ラベルに対応するキーワードを決定した後、決定された各キーワードにそれぞれ対応する重みに基づいて、当該興味ラベルに対応するキーワードの重みを決定することができる。
上記実施例から分かるように、各興味ラベルに対して、興味ラベルに対応するキーワードは1つである可能性があり、複数である可能性もある。各興味ラベルに対して、興味ラベルに対応するキーワードが1つである場合、ナレッジグラフにおける当該キーワードにマッチングするノードを第2のノードとして決定し、当該興味ラベルが存在するノードが第3のノードであることを決定することができ、さらにナレッジグラフにおける第2のノードから第3のノードまでのトポロジー長さを決定することができる。各興味ラベルに対して、興味ラベルに対応するキーワードが複数である場合、各興味ラベルに対応する各キーワードに対して、ナレッジグラフにおける当該キーワードにマッチングするノードを第2のノードとして決定し、当該興味ラベルが存在するノードが第3のノードであることを決定することができ、さらにナレッジグラフにおける第2のノードから第3のノードまでのトポロジー長さを決定することができ、これによって複数のトポロジー長さを決定する。
例示的な実施例では、並び替えモデルを予めトレーニングすることができ、並び替えモデルの入力は興味ラベルの重み、当該興味ラベルに対応するキーワードの重みであり、ナレッジグラフにおいて当該興味ラベルに対応するキーワードにマッチングするノードから当該興味ラベルが存在するノードのトポロジー長さは、当該興味ラベルに対応するスコアとして入力され、さらに各興味ラベルに対して、当該興味ラベルの重み、当該興味ラベルに対応するキーワードの重み、及びナレッジグラフにおける当該興味ラベルに対応するキーワードにマッチングする第2のノードから当該興味ラベルが存在する第3のノードまでのトポロジー長さを決定した後、当該興味ラベルの重み、当該興味ラベルに対応するキーワードの重み、及びナレッジグラフにおける当該興味ラベルに対応するキーワードにマッチングする第2のノードから当該興味ラベルが存在する第3のノードまでのトポロジー長さを並び替えモデルに入力して、興味ラベルに対応するスコアを取得する。
なお、各興味ラベルに対して、当該興味ラベルに対応するキーワード个数が複数である場合、並び替えモデルに入力された当該興味ラベルに対応するキーワードの重みは、各キーワードにそれぞれ対応する重みの和であり、ナレッジグラフにおける当該興味ラベルに対応するキーワードにマッチングする第2のノードから当該興味ラベルが存在する第3のノードまでのトポロジー長さは、ナレッジグラフにおける、当該興味ラベルに対応する個々キーワードにマッチングする第2のノードから当該興味ラベルが存在する第3のノードまでのトポロジー長さの和である。
例えば、ナレッジグラフ内のラベル「BB」に対応するノードはノードAであると仮定すると、ラベル「熱血漫画」に対応するノードはノードBであり、ラベル「漫画」に対応するノードはノードCであり、ノードAの親ノードはノードBであり、ノードBの親ノードはノードCであり、ノードCに親ノードが存在しない。
ユーザの入力情報に対して情報抽出を行い、生成されたキーワードは「BB」「熱血漫画」であり、「BB」がある漫画の名前であり、キーワード「BB」をナレッジグラフにおける各ノードにそれぞれ対応するラベルにマッチングし、キーワード「BB」に対応する興味ラベル「BB」、「熱血漫画」及び「漫画」が得られ、キーワード「熱血漫画」をナレッジグラフにおける各ノードにそれぞれ対応するラベルにマッチングし、キーワード「熱血漫画」に対応する興味ラベル「熱血漫画」と「漫画」が得られ、すなわち、最終的にキーワード「BB」と「熱血漫画」に対応する3つの興味ラベル「BB」、「熱血漫画」及び「漫画」を生成する。興味ラベル「BB」に対応するキーワードはキーワード「BB」であり、興味ラベル「熱血漫画」に対応するキーワードはキーワード「BB」及びキーワード「熱血漫画」であり、興味ラベル「漫画」に対応するキーワードはキーワード「BB」とキーワード「熱血漫画」である。
興味ラベル「BB」に対して、興味ラベル「BB」の重み、興味ラベル「BB」に対応するキーワード「BB」の重み、及びナレッジグラフにおけるキーワード「BB」にマッチングするノードAから興味ラベル「BB」が存在するノードAまでのトポロジー長さ0を取得することができ、さらにこの3つのパラメータを並び替えモデルに入力して、興味ラベル「BB」のスコアを取得する。
興味ラベル「熱血漫画」に対して、興味ラベル「熱血漫画」の重み、興味ラベル「熱血漫画」に対応するキーワード「BB」の重み、興味ラベル「熱血漫画」に対応するキーワード「熱血漫画」の重み、ナレッジグラフにおけるキーワード「BB」にマッチングするノードAから興味ラベル「熱血漫画」が存在するノードBまでのトポロジー長さ1、ナレッジグラフにおけるキーワード「熱血漫画」にマッチングするノードBから興味ラベル「熱血漫画」が存在するノードBまでのトポロジー長さ0を取得することができ、さらに興味ラベル「熱血漫画」の重み、キーワード「BB」とキーワード「熱血漫画」の重みの和、トポロジー長さ1とトポロジー長さ0との和、この3つのパラメータを並び替えモデルに入力して、興味ラベル「熱血漫画」のスコアを取得する。
興味ラベル「漫画」に対して、興味ラベル「漫画」の重み、興味ラベル「漫画」に対応するキーワード「BB」の重み、興味ラベル「漫画」に対応するキーワード「熱血漫画」の重み、ナレッジグラフにおけるキーワード「BB」にマッチングするノードAから興味ラベル「漫画」が存在するノードCまでのトポロジー長さ2、ナレッジグラフにおけるキーワード「熱血漫画」にマッチングするノードBから興味ラベル「漫画」が存在するノードCまでのトポロジー長さ1を取得することができ、さらに興味ラベル「漫画」の重み、キーワード「BB」とキーワード「熱血漫画」の重みの和、トポロジー長さ2とトポロジー長さ1との和、この3つのパラメータを並び替えモデルに入力して、興味ラベル「漫画」のスコアを取得する。
各興味ラベルに対して、興味ラベルに対応するページアクセス数に基づいて、興味ラベルの重みを取得し、TF-IDFアルゴリズムを使用して、興味ラベルに対応するキーワードの重みを取得し、ナレッジグラフにおける興味ラベルに対応するキーワードにマッチングする第2のノードから興味ラベルが存在する第3のノードまでのトポロジー長さを取得し、さらに興味ラベルの重み、興味ラベルに対応するキーワードの重み、及び第2のノードから第3のノードまでのトポロジー長さを、並び替えモデルに入力して、興味ラベルに対応するスコアを取得することにより、各興味ラベルのスコアを正確に決定することができ、さらに生成されたユーザ興味画像の正確性を向上させる。
例示的な実施例では、ステップ303の前に、トレーニングして並び替えモデルを得られることができ、すなわちステップ303の前に、トレーニングデータを取得するステップと、初期の並び替えモデルを取得するステップと、トレーニングデータを使用して、初期の並び替えモデルをトレーニングして、トレーニングされた後の並び替えモデルを得るステップと、を含むことができる。
例示的な実施例では、複数のユーザのサンプル入力情報を取得し、各ユーザに属するポジティブサンプルの興味ラベルを手動で表記すると共に、各ユーザのために当該のユーザに属しないいくつかのラベルをネガティブサンプルの興味ラベルとして設定し、複数のユーザのサンプルを情報に入力し、複数のユーザにおける各ユーザのポジティブサンプル興味ラベル及びネガティブサンプルの興味ラベルを、トレーニングデータとすることができ、さらにトレーニングデータを使用して初期の並び替えモデルをトレーニングして、トレーニング後の並び替えモデルを得る。
初期の並び替えモデルは、LRモデルであってもよく、他の二項分類モデルであってもよいが、本開示の実施例はこれに対して限定しない。
例示的な実施例では、トレーニングデータを使用して、初期の並び替えモデルをトレーニングする時、例えば、深層学習によってトレーニングすることができ、他の機械学習方法に比較して、深層学習がビッグデータセット上でよりよく表現される。
例示的な実施例では、各ユーザのサンプル入力情報に対して、上記の実施例に記載の方法に従って、ユーザのサンプル入力情報に対して情報抽出を行って、少なくとも1つのサンプルキーワードを生成し、少なくとも1つのサンプルキーワードと、それぞれナレッジグラフの各ノードに対応するラベルとをマッチングし、少なくとも1つのサンプルキーワードに対応するサンプル興味ラベルを生成してから、各サンプル興味ラベルに対して、サンプル興味ラベルの重み、サンプル興味ラベルに対応するサンプルキーワードの重み及びナレッジグラフにおけるサンプル興味ラベルに対応するサンプルキーワードにマッチングする第2のノードからサンプル興味ラベルが存在する第3のノードまでのトポロジー長さを取得することができる。
深層学習によって初期の並び替えモデルをトレーニングする時、まずユーザaのサンプル入力情報に基づいて得られた1つのサンプル興味ラベルa1の重み、当該サンプル興味ラベルa1に対応するサンプルキーワードa1’の重み、ナレッジグラフにおける当該サンプルキーワードa1’にマッチングする第2のノードから当該サンプル興味ラベルa1が存在する第3までのノードのトポロジー長さを入力として、初期の並び替えモデルに入力して、当該サンプル興味ラベルa1のスコアを取得することができ、サンプル興味ラベルa1のスコアは、サンプル興味ラベルa1がユーザaに対応する興味ラベルの確率であることを表し、サンプル興味ラベルa1のスコア、及びトレーニングデータにおいてa1がユーザaのポジティブサンプル興味ラベルであるかネガティブサンプルの興味ラベルであるかと併せて、初期の並び替えモデルのモデルパラメータを調整し、調整後の並び替えモデルを得る。さらにユーザaのサンプル入力情報に基づいて得られた別のサンプル興味ラベルa2の重み、当該サンプル興味ラベルa2に対応するサンプルキーワードa2’の重み、ナレッジグラフにおける当該サンプルキーワードa2’にマッチングする第2のノードから当該サンプル興味ラベルa2が存在する第3のノードまでのトポロジー長さを入力として、調整後の並び替えモデルに入力し、当該サンプル興味ラベルa2のスコアを取得し、サンプル興味ラベルa2のスコアは、サンプル興味ラベルa2がユーザaに対応する興味ラベルの確率であることを表し、サンプル興味ラベルa2のスコア、及びトレーニングデータにおいてa2がユーザaのポジティブサンプル興味ラベルであるかネガティブサンプルの興味ラベルであるかと併せて、調整後の並び替えモデルのモデルパラメータに対して調整し、更なる調整後の並び替えモデルを得る。そのため、個々ユーザのサンプル入力情報に基づいて得られたサンプル興味ラベルの重み、サンプル興味ラベルに対応するサンプルキーワードの重み、ナレッジグラフにおけるサンプル興味ラベルに対応するサンプルキーワードにマッチングする第2のノードからサンプル興味ラベルが存在する第3のノードまでのトポロジー長さ、サンプル興味ラベルが対応するユーザのポジティブサンプル興味ラベルであるかネガティブサンプルの興味ラベルであるかにより、並び替えモデルによって出力されたサンプル興味ラベルのスコアの精度が予め設定された閾値を満たすまで、初期の並び替えモデルのモデルパラメータを絶えず調整して初期の並び替えモデルに対して反復トレーニングし、トレーニングが終了し、トレーニングされた並び替えモデルを得る。
ステップ305、並び替えられた後の少なくとも1つのキーワードに対応する興味ラベルに基づいて、ユーザ興味画像を生成する。
なお、並び替えられた後の少なくとも1つのキーワードに対応する興味ラベルを取得した後、必要に応じて少なくとも1つのキーワードに対応する興味ラベルに対して後処理を行ってもよく、例えばブラックリスト内の単語をフィルタリングし、興味ラベルがホットワードである場合に当該興味ラベルの並び替えを早めるなどしてもよい。
以下、図4と併せて、本開示の実施例によって提供されるユーザ興味画像の生成方法に対してさらに説明する。
図4に示すように、まずユーザの入力情報(ステップ401)を取得してから、ユーザの入力情報に対して情報抽出を行うことができ(ステップ402)、さらに少なくとも1つのキーワード(ステップ403)を生成する。さらに、例えば少なくとも1つのキーワードと、それぞれナレッジグラフの各ノードに対応するラベルとをマッチングして(ステップ404)、少なくとも1つのキーワードに対応する興味ラベルを生成する(ステップ405)。各興味ラベルに対して、当該興味ラベルの重み(図4に示されない)、当該興味ラベルに対応するキーワードの重み(図4に示されない)、ナレッジグラフにおける当該興味ラベルに対応するキーワードにマッチングするノードから当該興味ラベルが存在するノードまでのトポロジー長さ(ステップ406)を取得することができ、さらに各興味ラベルに対して、当該興味ラベルの重み、当該興味ラベルに対応するキーワードの重み、及びナレッジグラフにおける当該興味ラベルに対応するキーワードにマッチングする第2のノードから当該興味ラベルが存在する第3のノードまでのトポロジー長さを並び替えモデルに入力して、興味ラベルに対応するスコアを取得し、これによって少なくとも1つのキーワードに対応する興味ラベルに対応するスコアに基づいて、少なくとも1つのキーワードに対応する興味ラベルを並び替えて(ステップ407)ユーザ興味画像を生成することができる(ステップ408)。
上記のプロセスによれば、ユーザの入力情報に対して情報抽出を行い、少なくとも1つのキーワードを生成し、少なくとも1つのキーワードに対応する興味ラベルを生成した後、ナレッジグラフにおける興味ラベルに対応するキーワードにマッチングするノードから興味ラベルが存在するノードまでのトポロジー長さに基づいて、並び替えモデルを使用して、少なくとも1つのキーワードに対応する興味ラベルを並び替え、さらに並び替えられた後の少なくとも1つのキーワードに対応する興味ラベルに基づいて、ユーザ興味画像を生成する。
以下、図5と併せて、本開示によって提供されるユーザ興味画像の生成装置に対して説明する。
図5は本開示の第4の実施例に係るユーザ興味画像の生成装置の概略構成図である。
図5に示すように、本開示によって提供されるユーザ興味画像の生成装置500は、抽出モジュール501、マッチングモジュール502及び生成モジュール503を備える。
抽出モジュール501は、ユーザの入力情報に対して情報抽出を行って、少なくとも1つのキーワードを生成する。
マッチングモジュール502は、少なくとも1つのキーワードと、それぞれナレッジグラフの各ノードに対応するラベルとをマッチングし、少なくとも1つのキーワードに対応する興味ラベルを生成する。
生成モジュール503は、少なくとも1つのキーワードに対応する興味ラベルを並び替え、並び替えられた後の少なくとも1つのキーワードに対応する興味ラベルに基づいて、ユーザ興味画像を生成する。
なお、本実施例によって提供されるユーザ興味画像の生成装置は、上記実施例のユーザ興味画像の生成方法を実行することができる。ユーザ興味画像の生成装置は電子機器であってもよく、電子機器に設置されたものであってもよく、ユーザ興味画像を生成する時に必要な人件費を削減する。
電子機器は、データ処理が可能な任意の静止又はモバイルコンピューティング機器、例えば、ノートパソコン、スマートフォン、ウェアラブルデバイスなどのモバイルコンピューティング機器、又はデスクトップコンピュータなどの静止のコンピューティング機器、又はサーバ、又はその他のタイプのコンピューティング機器などであってもよく、本開示はこれに対して限定しない。
なお、上記ユーザ興味画像の生成方法の実施例についての説明は、本開示によって提供されるユーザ興味画像の生成方法にも適用され、ここでは説明を省略する。
本開示の実施例によって提供されるユーザ興味画像の生成装置は、まずユーザの入力情報に対して情報抽出を行って、少なくとも1つのキーワードを生成し、その後、少なくとも1つのキーワードと、それぞれナレッジグラフの各ノードに対応するラベルとをマッチングし、少なくとも1つのキーワードに対応する興味ラベルを生成してから、少なくとも1つのキーワードに対応する興味ラベル並び替え、並び替えられた後の少なくとも1つのキーワードに対応する興味ラベルに基づいて、ユーザ興味画像を生成する。それにより、ユーザ興味画像を生成するために必要な人件費を削減する。
以下、図6と併せて、本開示によって提供されるユーザ興味画像の生成装置に対して説明する。
図6は本開示の第5の実施例に係るユーザ興味画像の生成装置の概略構成図である。
図6に示すように、ユーザ興味画像の生成装置600は、具体的に抽出モジュール601、マッチングモジュール602及び生成モジュール603を備えることができる。図6における抽出モジュール601、マッチングモジュール602及び生成モジュール603は図5における抽出モジュール501、マッチングモジュール502及び生成モジュール503とは同じ機能と構造を有する。
例示的な実施例では、マッチングモジュール602は、キーワードに対して、キーワードと、それぞれナレッジグラフの各ノードに対応するラベルとをマッチングし、ナレッジグラフにおけるキーワードにマッチングする第1のノードを決定するマッチングサブモジュール6021と、ナレッジグラフにおける第1のノードに対応するルートノードを取得する第1の取得サブモジュール6022と、第1のノードに対応するラベル、ルートノードに対応するラベル、及び第1のノードとルートノードとの間のパスにおける個々のノードにそれぞれ対応するラベルを、キーワードに対応する興味ラベルとして決定する決定サブモジュール6023と、を備える。
例示的な実施例では、興味ラベルは複数であり、生成モジュール603は、各興味ラベルに対して、並び替えモデルを使用して、興味ラベルに対応するスコアを取得する第2の取得サブモジュール6031と、少なくとも1つのキーワードに対応する興味ラベルに対応するスコアに基づいて、少なくとも1つのキーワードに対応する興味ラベルを並び替える並び替えサブモジュール6032と、を備える。
例示的な実施例では、第2の取得サブモジュール6031は、興味ラベルの重み及び興味ラベルに対応するキーワードの重みを取得する第1の取得ユニットと、ナレッジグラフにおける興味ラベルに対応するキーワードにマッチングする第2のノード及び興味ラベルが存在する第3のノードを取得する第2の取得ユニットと、ナレッジグラフにおける第2のノードから第3のノードまでのトポロジー長さを決定する決定ユニットと、興味ラベルの重み、興味ラベルに対応するキーワードの重み、及び第2のノードから第3のノードまでのトポロジー長さを、並び替えモデルに入力して、興味ラベルに対応するスコアを取得する第3の取得ユニットと、を備える。
例示的な実施例では、第1の取得ユニットは、興味ラベルに対応するページアクセス数に基づいて、興味ラベルの重みを取得する第1の取得サブユニットと、単語の出現頻度-逆文書頻度TF-IDFアルゴリズムを使用して、興味ラベルに対応するキーワードの重みを取得する第2の取得サブユニットと、を備える。
例示的な実施例では、ユーザ興味画像の生成装置600は、トレーニングデータを取得する第1の取得モジュール604と、初期の並び替えモデルを取得する第2の取得モジュール605と、トレーニングデータを使用して、初期の並び替えモデルをトレーニングして、トレーニングされた後の並び替えモデルを得るトレーニングモジュール606と、をさらに備えることができる。
なお、上記ユーザ興味画像の生成方法の実施例に対する説明は、本開示によって提供されるユーザ興味画像の生成装置にも適用され、ここでは説明を省略する。
本開示の実施例によって提供されるユーザ興味画像の生成装置は、まずユーザの入力情報に対して情報抽出を行って、少なくとも1つのキーワードを生成し、その後、少なくとも1つのキーワードと、それぞれナレッジグラフの各ノードに対応するラベルとをマッチングし、少なくとも1つのキーワードに対応する興味ラベルを生成してから、少なくとも1つのキーワードに対応する興味ラベル並び替え、並び替えられた後の少なくとも1つのキーワードに対応する興味ラベルに基づいて、ユーザ興味画像を生成する。それにより、ユーザ興味画像を生成するために必要な人件費を削減する。
本開示の実施例によれば、本開示は、電子機器、読み取り可能な記憶媒体、及びコンピュータプログラムをさらに提供する。
図7は、本開示の実施例を実行するための例示的な電子機器700の概略ブロック図を示す。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレームコンピュータ、及び他の適切なコンピュータなどの様々な形態のデジタルコンピュータを表すことを目的とする。電子機器は、携帯情報端末、携帯電話、スマートフォン、ウェアラブルデバイス、及び他の同様のコンピューティングデバイスなどの様々な形態のモバイルデバイスを表すこともできる。本明細書で示される部品、それらの接続と関係、及びそれらの機能は、単なる例であり、本明細書で説明された及び/又は求められた本開示の実現を限定することを意図したものではない。
図7に示すように、電子機器700は、読み取り専用メモリ(ROM)702に記憶されているコンピュータプログラムまたは記憶部708からランダムアクセスメモリ(RAM)703にロードされたコンピュータプログラムに従って様々な適切な動作および処理を実行する計算ユニット701を備える。RAM 703には、電子機器700の動作に必要な各種のプログラムやデータも記憶されてもよい。計算ユニット701、ROM 702、およびRAM 703は、バス704を介して互いに接続されている。パス704には、入力/出力(I/O)インターフェース705も接続されている。
電子機器700の複数のコンポーネントはI/Oインターフェース708に接続され、キーボード、マウスなどの入力ユニット706、各タイプのディスプレイ、スピーカなどの出力ユニット707、磁気ディスク、光ディスクなどの記憶ユニット705、およびネットワークカード、モデム、無線通信トランシーバなどの通信ユニット709を備える。通信ユニット709は、電子機器700が、インターネットなどのコンピュータネットワークと/または各種の電信ネットワークを介して他のデバイスと情報/データを交換することを可能にする。
計算ユニット701は、処理および計算能力を有する様々な汎用と/または専用の処理コンポーネントであってもよい。計算ユニット701のいくつかの例は、中央処理装置(CPU)、グラフィック処理ユニット(GPU)、各種の専用の人工知能(AI)計算チップ、各種のマシン運転学習モデルアルゴリズムの計算ユニット、デジタル信号プロセッサ(DSP)、およびいずれかの適切なプロセッサ、コントローラ、マイクロコントローラなどを含むが、これらに限定されない。計算ユニット701は、上記に記載された各方法及び処理、例えば、ユーザ興味画像の生成方法を実行する。例えば、いくつかの実施例では、ユーザ興味画像の生成方法を、記憶ユニット708などの機械読み取り可能な媒体に有形的に含まれるコンピュータソフトウェアプログラムとして実現することができる。いくつかの実施例では、コンピュータプログラムの一部または全部はROM 702および/または通信ユニット709を介して電子機器700にロードおよび/またはインストールされてもよい。コンピュータプログラムがRAM 703にロードされ、計算ユニット701によって実行される場合、前文に記載されたユーザ興味画像の生成方法の1つまたは複数のステップが実行されてもよい。代替的に、他の実施例では、計算ユニット701はユーザ興味画像の生成方法を実行するように、他のいずれかの適切な方式(例えば、ファームウェアを介して)によって構成されてもよい。
本明細書の上記記載されたシステムと技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、システムオンチップ(SOC)、コンプレックス・プログラマブル・ロジック・デバイス(CPLD)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせで実現することができる。これらの様々な実施形態は、1つ又は複数のコンピュータプログラムで実施されることを含むことができ、当該1つ又は複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを備えるプログラム可能なシステムで実行及び/又は解釈されることができ、当該プログラマブルプロセッサは、特定用途向け又は汎用プログラマブルプロセッサであってもよく、ストレージシステム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、データ及び命令を当該ストレージシステム、当該少なくとも1つの入力装置、及び当該少なくとも1つの出力装置に伝送することができる。
本開示の方法を実行するためのプログラムコードは、1つ又は複数のプログラミング言語の任意の組み合わせで書くことができる。これらのプログラムコードは、プロセッサ又はコントローラによって実行された際に、フローチャート及び/又はブロック図に規定された機能/操作が実施されるように、汎用コンピュータ、専用コンピュータ、又は他のプログラマブルデータ処理装置のプロセッサ又はコントローラに提供されてもよい。プログラムコードは、完全に機械上で実行され、部分的に機械上で実行され、スタンドアロンソフトウェアパッケージとして、部分的に機械上で実行され、部分的にリモート機械上で実行され、又は完全にリモート機械又はサーバ上で実行されてもよい。
本開示のコンテキストでは、機械読み取り可能な媒体は、命令実行システム、装置、またはデバイスによって使用されるために、又は命令実行システム、装置、またはデバイスと組み合わせて使用するためのプログラムを含むか、又は記憶することができる有形の媒体であってもよい。機械読み取り可能な媒体は、機械読み取り可能な信号媒体または機械読み取り可能な記憶媒体であってもよい。機械読み取り可能な媒体は、電子的、磁気的、光学的、電磁気的、赤外線的、又は半導体システム、装置又はデバイス、または上記内容のいずれかの適切な組み合わせを備えることができるが、これらに限定されない。機械読み取り可能な記憶媒体のより具体的な例は、1つ又は複数のラインに基づく電気的接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能プログラマブルリードオンリーメモリ(EPROM又はフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスクリードオンリーメモリ(CD-ROM)、光学記憶装置、磁気記憶装置、または上記内容のいずれかの適切な組み合わせを含む。
ユーザとのインタラクションを提供するために、ここで説明されているシステム及び技術をコンピュータ上で実施することができ、当該コンピュータは、ユーザに情報を表示するためのディスプレイ装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウス又はトラックボール)とを有し、ユーザは、当該キーボード及び当該ポインティングデバイスによって入力をコンピュータに提供することができる。他の種類の装置も、ユーザとのインタラクションを提供することができ、例えば、ユーザによって提供されるフィードバックは、任意の形式のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、任意の形式(音響入力と、音声入力、または、触覚入力とを含む)でユーザからの入力を受信することができる。
ここで説明されたシステム及び技術は、バックエンドコンポーネントを備えるコンピューティングシステム(例えば、データサーバとする)、又はミドルウェアコンポーネントを備えるコンピューティングシステム(例えば、アプリケーションサーバー)、又はフロントエンドコンポーネントを備えるコンピューティングシステム(例えば、グラフィカルユーザインターフェース又はウェブブラウザを有するユーザコンピュータ、ユーザは、当該グラフィカルユーザインターフェース又は当該ウェブブラウザによってここで説明されたシステム及び技術の実施形態とインタラクションできる)、又はこのようなバックエンドコンポーネントと、ミドルウェアコンポーネントと、フロントエンドコンポーネントのいずれかの組み合わせを備えるコンピューティングシステムで実行することができる。いずれかの形態又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によってシステムのコンポーネントを相互に接続することができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)と、ワイドエリアネットワーク(WAN)と、インターネットと、ブロックチェーンネットワークを含む。
コンピュータシステムは、クライアントとサーバを備えることができる。クライアントとサーバは、一般に、互いに離れており、通常に通信ネットワークを介してインタラクションする。対応するコンピュータ上で実行され、互いにクライアント-サーバ関係を有するコンピュータプログラムによってクライアントとサーバとの関係が生成される。サーバはクラウドサーバであってもよい、クラウドコンピューティングサーバまたはクラウドホストとも呼ばれ、クラウドコンピューティングサービスシステムにおける1つのホスト製品であり、従来の物理ホストとVPSサービス(「Virtual Private Server」、または 「VPS」と略す)に存在する管理が難しくて業務拡張性が弱いという欠陥を解決した。サーバは分散システムのサーバであってもよいし、ブロックチェーンを組み込んだサーバであってもよい。
本開示は、コンピュータ技術分野に関し、特に自然言語処理、ナレッジグラフなどの人工知能技術分野に関する。
なお、人工知能はコンピュータに人間のある思惟過程と知能行為(学習、推理、思考、計画など)をシミュレートさせることを研究する学科であり、ハードウェアレベルの技術とソフトウェアレベルの技術ともある。人工知能ハードウェア技術は一般にセンサー、専用人工知能チップ、クラウド計算、分散記憶、ビッグデータ処理などの技術を含む。人工知能ソフトウェア技術は主にコンピュータ視覚技術、音声認識技術、自然言語処理技術及び機械学習/深層学習、ビッグデータ処理技術、ナレッジグラフ技術などのいくつかの方向を含む。
本開示の実施例の技術案に基づいて、まずユーザの入力情報に対して情報抽出を行って、少なくとも1つのキーワードを生成し、さらに前記少なくとも1つのキーワードと、それぞれナレッジグラフの各ノードに対応するラベルとをマッチングし、前記少なくとも1つのキーワードに対応する興味ラベルを生成してから、前記少なくとも1つのキーワードに対応する興味ラベルを並び替え、並び替えられた後の前記少なくとも1つのキーワードに対応する興味ラベルに基づいて、前記ユーザ興味画像を生成する。それにより、ユーザ興味画像を生成するために必要な人件費を削減する。
上記に示される様々な形態のフローを使用して、ステップを並べ替え、追加、又は削除することができることを理解されたい。例えば、本開示に記載されている各ステップは、並列に実行されてもよいし、順次実行されてもよいし、異なる順序で実行されてもよいが、本開示で開示されている技術案の所望の結果を実現することができれば、本明細書では限定されない。
当業者は、設計要件と他の要因に応じて、様々な修正、組み合わせ、サブコンビネーション、及び代替を行うことができることを理解されたい。任意の本開示の精神と原則内で行われる修正、同等の置換、及び改善などは、いずれも本開示の保護範囲内に含まれなければならない。

Claims (15)

  1. ユーザの入力情報に対して情報抽出を行って、少なくとも1つのキーワードを生成するステップと、
    前記少なくとも1つのキーワードと、それぞれナレッジグラフの各ノードに対応するラベルとをマッチングし、前記少なくとも1つのキーワードに対応する興味ラベルを生成するステップと、
    前記少なくとも1つのキーワードに対応する興味ラベルを並び替え、並び替えられた後の前記少なくとも1つのキーワードに対応する興味ラベルに基づいて、ユーザ興味画像を生成するステップと、
    を含む、ユーザ興味画像の生成方法。
  2. 前記少なくとも1つのキーワードと、それぞれナレッジグラフの各ノードに対応するラベルとをマッチングし、前記少なくとも1つのキーワードに対応する興味ラベルを生成するステップが、
    前記キーワードに対して、前記キーワードと、それぞれ前記ナレッジグラフの各ノードに対応するラベルとをマッチングして、前記ナレッジグラフにおける前記キーワードにマッチングする第1のノードを決定するステップと、
    前記ナレッジグラフにおける前記第1のノードに対応するルートノードを取得するステップと、
    前記第1のノードに対応するラベル、前記ルートノードに対応するラベル、及び前記第1のノードと前記ルートノードとの間のパスにおける各ノードにそれぞれ対応するラベルを、前記キーワードに対応する興味ラベルとして決定するステップと、
    を含む請求項1に記載の方法。
  3. 前記興味ラベルは複数であり、前記少なくとも1つのキーワードに対応する興味ラベルを並び替える前記ステップが、
    各前記興味ラベルに対して、並び替えモデルを使用して、前記興味ラベルに対応するスコアを取得するステップと、
    前記少なくとも1つのキーワードに対応する興味ラベルに対応するスコアに基づいて、前記少なくとも1つのキーワードに対応する興味ラベルを並び替えるステップと、
    を含む請求項1または2に記載の方法。
  4. 各前記興味ラベルに対して、並び替えモデルを使用して、前記興味ラベルに対応するスコアを取得するステップが、
    前記興味ラベルの重み及び前記興味ラベルに対応するキーワードの重みを取得するステップと、
    前記ナレッジグラフにおける前記興味ラベルに対応するキーワードにマッチングする第2のノード及び前記興味ラベルが存在する第3のノードを取得するステップと、
    前記ナレッジグラフにおける前記第2のノードから前記第3のノードまでのトポロジー長さを決定するステップと、
    前記興味ラベルの重み、前記興味ラベルに対応するキーワードの重み、及び前記第2のノードから前記第3のノードまでのトポロジー長さを、前記並び替えモデルに入力して、前記興味ラベルに対応するスコアを取得するステップと、
    を含む請求項3に記載の方法。
  5. 前記興味ラベルの重み及び前記興味ラベルに対応するキーワードの重みを取得するステップが、
    前記興味ラベルに対応するページアクセス数に基づいて、前記興味ラベルの重みを取得するステップと、
    単語の出現頻度-逆文書頻度TF-IDFアルゴリズムを使用して、前記興味ラベルに対応するキーワードの重みを取得するステップと、
    を含む請求項4に記載の方法。
  6. 各前記興味ラベルに対して、並び替えモデルを使用して、前記興味ラベルに対応するスコアを取得するステップ前に、
    トレーニングデータを取得するステップと、
    初期の並び替えモデルを取得するステップと、
    トレーニングデータを使用して、初期の並び替えモデルをトレーニングして、トレーニングされた後の並び替えモデルを得るステップと、
    を含む請求項3に記載の方法。
  7. ユーザの入力情報に対して情報抽出を行って、少なくとも1つのキーワードを生成する抽出モジュールと、
    前記少なくとも1つのキーワードと、それぞれナレッジグラフの各ノードに対応するラベルとをマッチングし、前記少なくとも1つのキーワードに対応する興味ラベルを生成するマッチングモジュールと、
    前記少なくとも1つのキーワードに対応する興味ラベルを並び替え、並び替えられた後の前記少なくとも1つのキーワードに対応する興味ラベルに基づいて、ユーザ興味画像を生成する生成モジュールと、
    を備える、ユーザ興味画像の生成装置。
  8. 前記マッチングモジュールが、
    前記キーワードに対して、前記キーワードと、それぞれ前記ナレッジグラフの各ノードに対応するラベルとをマッチングして、前記ナレッジグラフにおける前記キーワードにマッチングする第1のノードを決定するマッチングサブモジュールと、
    前記ナレッジグラフにおける前記第1のノードに対応するルートノードを取得する第1の取得サブモジュールと、
    前記第1のノードに対応するラベル、前記ルートノードに対応するラベル、及び前記第1のノードと前記ルートノードとの間のパスにおける各ノードにそれぞれ対応するラベルを、前記キーワードに対応する興味ラベルとして決定する決定サブモジュールと、
    を含む請求項7に記載の装置。
  9. 前記興味ラベルは複数であり、前記生成モジュールが、
    各前記興味ラベルに対して、並び替えモデルを使用して、前記興味ラベルに対応するスコアを取得する第2の取得サブモジュールと、
    前記少なくとも1つのキーワードに対応する興味ラベルに対応するスコアに基づいて、前記少なくとも1つのキーワードに対応する興味ラベルを並び替える並び替えサブモジュールと、
    を含む請求項7または8に記載の装置。
  10. 前記第2の取得サブモジュールが、
    前記興味ラベルの重み及び前記興味ラベルに対応するキーワードの重みを取得する第1の取得ユニットと、
    前記ナレッジグラフにおける前記興味ラベルに対応するキーワードにマッチングする第2のノード及び前記興味ラベルが存在する第3のノードを取得する第2の取得ユニットと、
    前記ナレッジグラフにおける前記第2のノードから前記第3のノードまでのトポロジー長さを決定する決定ユニットと、
    前記興味ラベルの重み、前記興味ラベルに対応するキーワードの重み、及び前記第2のノードから前記第3のノードまでのトポロジー長さを、前記並び替えモデルに入力して、前記興味ラベルに対応するスコアを取得する第3の取得ユニットと、
    を含む請求項9に記載の装置。
  11. 前記第1の取得ユニットが、
    前記興味ラベルに対応するページアクセス数に基づいて、前記興味ラベルの重みを取得する第1の取得サブユニットと、
    単語の出現頻度-逆文書頻度TF-IDFアルゴリズムを使用して、前記興味ラベルに対応するキーワードの重みを取得する第2の取得サブユニットと、
    を含む請求項10に記載の装置。
  12. トレーニングデータを取得する第1の取得モジュールと、
    初期の並び替えモデルを取得する第2の取得モジュールと、
    トレーニングデータを使用して、初期の並び替えモデルをトレーニングして、トレーニングされた後の並び替えモデルを得るトレーニングモジュールと、
    を備える請求項9に記載の装置。
  13. 少なくとも1つのプロセッサと、
    該少なくとも1つのプロセッサと通信可能に接続されるメモリと、
    を備え、
    前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令が、前記少なくとも1つのプロセッサが請求項1から6のいずれか一項に記載の方法を実行できるように、前記少なくとも1つのプロセッサによって実行される電子機器。
  14. コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータ命令が、コンピュータに請求項1から6のいずれか一項に記載の方法を実行させる、非一時的なコンピュータ読み取り可能な記憶媒体。
  15. プロセッサによって実行される場合に、請求項1から6のいずれか一項に記載の方法を実現するコンピュータプログラム。
JP2022054740A 2021-04-27 2022-03-30 ユーザ興味画像の生成方法、装置、電子機器及び記憶媒体 Active JP7369228B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202110460557.3 2021-04-27
CN202110460557.3A CN115248890B (zh) 2021-04-27 2021-04-27 用户兴趣画像的生成方法、装置、电子设备以及存储介质

Publications (2)

Publication Number Publication Date
JP2022088540A true JP2022088540A (ja) 2022-06-14
JP7369228B2 JP7369228B2 (ja) 2023-10-25

Family

ID=80785037

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022054740A Active JP7369228B2 (ja) 2021-04-27 2022-03-30 ユーザ興味画像の生成方法、装置、電子機器及び記憶媒体

Country Status (4)

Country Link
US (1) US20220198358A1 (ja)
EP (1) EP3992814A3 (ja)
JP (1) JP7369228B2 (ja)
CN (1) CN115248890B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116028654B (zh) * 2023-03-30 2023-06-13 中电科大数据研究院有限公司 知识节点的多模态融合更新方法
CN117875413B (zh) * 2024-03-13 2024-05-24 之江实验室 一种知识图谱本体中概念构建方法、装置、介质及设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008077512A (ja) * 2006-09-22 2008-04-03 Fuji Xerox Co Ltd 文書解析装置、および文書解析方法、並びにコンピュータ・プログラム
JP2016045552A (ja) * 2014-08-20 2016-04-04 富士通株式会社 特徴抽出プログラム、特徴抽出方法、および特徴抽出装置
US20170221007A1 (en) * 2015-06-30 2017-08-03 Linkedin Corporation Learning a ranking model using interactions of a user with a jobs list
US20200320086A1 (en) * 2018-01-08 2020-10-08 Alibaba Group Holding Limited Method and system for content recommendation

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7734641B2 (en) * 2007-05-25 2010-06-08 Peerset, Inc. Recommendation systems and methods using interest correlation
US20140040297A1 (en) * 2012-07-31 2014-02-06 Mehmet Kivanc Ozonat Keyword extraction
US20150310073A1 (en) * 2014-04-29 2015-10-29 Microsoft Corporation Finding patterns in a knowledge base to compose table answers
US10664757B2 (en) * 2015-09-16 2020-05-26 International Business Machines Corporation Cognitive operations based on empirically constructed knowledge graphs
US10169470B2 (en) * 2016-04-11 2019-01-01 Rovi Guides, Inc. Systems and methods for identifying a meaning of an ambiguous term in a natural language query
CN106530015B (zh) * 2016-12-08 2020-02-11 腾讯科技(深圳)有限公司 信息投放控制方法及装置
US10503791B2 (en) * 2017-09-04 2019-12-10 Borislav Agapiev System for creating a reasoning graph and for ranking of its nodes
CN110019837B (zh) * 2017-12-22 2021-07-16 百度在线网络技术(北京)有限公司 用户画像的生成方法及装置、计算机设备及可读介质
CN108694223B (zh) * 2018-03-26 2021-07-16 北京奇艺世纪科技有限公司 一种用户画像库的构建方法及装置
US10990602B2 (en) * 2018-06-18 2021-04-27 Wipro Limited Method and system for generating optimized response to user input
WO2021108679A1 (en) * 2019-11-27 2021-06-03 ConverSight.ai, Inc. Contextual and intent based natural language processing system and method
CN112232889A (zh) * 2020-11-06 2021-01-15 腾讯科技(深圳)有限公司 一种用户兴趣画像扩展方法、装置、设备及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008077512A (ja) * 2006-09-22 2008-04-03 Fuji Xerox Co Ltd 文書解析装置、および文書解析方法、並びにコンピュータ・プログラム
JP2016045552A (ja) * 2014-08-20 2016-04-04 富士通株式会社 特徴抽出プログラム、特徴抽出方法、および特徴抽出装置
US20170221007A1 (en) * 2015-06-30 2017-08-03 Linkedin Corporation Learning a ranking model using interactions of a user with a jobs list
US20200320086A1 (en) * 2018-01-08 2020-10-08 Alibaba Group Holding Limited Method and system for content recommendation

Also Published As

Publication number Publication date
EP3992814A3 (en) 2022-08-24
CN115248890A (zh) 2022-10-28
CN115248890B (zh) 2024-04-05
JP7369228B2 (ja) 2023-10-25
US20220198358A1 (en) 2022-06-23
EP3992814A2 (en) 2022-05-04

Similar Documents

Publication Publication Date Title
WO2021093755A1 (zh) 问题的匹配方法及装置、问题的回复方法及装置
US20210342549A1 (en) Method for training semantic analysis model, electronic device and storage medium
US11138212B2 (en) Natural language response recommendation clustering for rapid retrieval
US10891322B2 (en) Automatic conversation creator for news
US20210312139A1 (en) Method and apparatus of generating semantic feature, method and apparatus of training model, electronic device, and storage medium
JP7301922B2 (ja) 意味検索方法、装置、電子機器、記憶媒体およびコンピュータプログラム
CN107301170B (zh) 基于人工智能的切分语句的方法和装置
CN110457708B (zh) 基于人工智能的词汇挖掘方法、装置、服务器及存储介质
CN113722493B (zh) 文本分类的数据处理方法、设备、存储介质
CN113657100B (zh) 实体识别方法、装置、电子设备及存储介质
JP7369228B2 (ja) ユーザ興味画像の生成方法、装置、電子機器及び記憶媒体
CN112784589B (zh) 一种训练样本的生成方法、装置及电子设备
CN112926308B (zh) 匹配正文的方法、装置、设备、存储介质以及程序产品
US20220237376A1 (en) Method, apparatus, electronic device and storage medium for text classification
CN112560461A (zh) 新闻线索的生成方法、装置、电子设备及存储介质
JP2022031863A (ja) 単語スロットの認識方法、装置及び電子機器
CN112989797A (zh) 模型训练、文本扩展方法,装置,设备以及存储介质
JP7242797B2 (ja) 語句処理方法、機器及び記憶媒体
CN116049370A (zh) 信息查询方法和信息生成模型的训练方法、装置
JP2023017983A (ja) 情報生成モデルの訓練方法、情報生成方法、装置、電子機器、記憶媒体およびコンピュータプログラム
CN114416941A (zh) 融合知识图谱的对话知识点确定模型的生成方法及装置
CN114281990A (zh) 文档分类方法及装置、电子设备和介质
CN114925185B (zh) 交互方法、模型的训练方法、装置、设备及介质
JP2023071912A (ja) 事前トレーニングモデルのプロンプトベクトルの決定方法、装置及び電子機器
CN117688946A (zh) 基于大模型的意图识别方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231013

R150 Certificate of patent or registration of utility model

Ref document number: 7369228

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150