JP5353173B2 - 文書の具体性の決定 - Google Patents

文書の具体性の決定 Download PDF

Info

Publication number
JP5353173B2
JP5353173B2 JP2008259634A JP2008259634A JP5353173B2 JP 5353173 B2 JP5353173 B2 JP 5353173B2 JP 2008259634 A JP2008259634 A JP 2008259634A JP 2008259634 A JP2008259634 A JP 2008259634A JP 5353173 B2 JP5353173 B2 JP 5353173B2
Authority
JP
Japan
Prior art keywords
document
documents
similarity
determining
themes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008259634A
Other languages
English (en)
Other versions
JP2009093654A (ja
Inventor
マーヴィット デイヴィド
ジャイン ジャワハー
ステルギオウ ステリオス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JP2009093654A publication Critical patent/JP2009093654A/ja
Application granted granted Critical
Publication of JP5353173B2 publication Critical patent/JP5353173B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/31Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/355Class or cluster creation or modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/358Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Document Processing Apparatus (AREA)

Description

本発明はレキシグラフィカル(lexigraphical)分析に関し、より具体的には文書の具体性の決定に関する。
データのコーパス(corpus)は大量の情報を保持し、関連する情報を見つけるのは困難である。キーワード検索が情報を見つける主な方法である。しかし、場合によっては、キーワード検索は情報を見つける効果的な方法ではない。
[関連出願]
本願は、デイビッド・マービットらにより2007年10月5日に出願された米国仮出願第60/977,781号、発明の名称「文書のテーマ及び具体性の決定及び応用」、代理人管理第073338.0548号の米国特許法第119条(e)項の利益を主張するものである。
一実施形態では、文書の具体性の決定には文書のクラスタを記録する記録へのアクセスを含む。文書のテーマ数をその文書のクラスタ数により決定する。その文書の具体性をテーマ数により決定する。
実施形態では、ドメイン・オントロジ(domain ontology)の生成と問い合わせには次のものを含む:
1. ドメイン内の文書の収集実施形態では、文書はタームの集まり(collection of terms)である。文書とは、例えば新約聖書などの可読テキストである。文書は、必ずしも物語形式のテキストでなくてもよく、例えば画像コンテンツを個別かつ集合的に記述する一組のユーザ入力タグであってもよい。文書の集まりを「ドメイン・コーパス(domain corpus)」と呼ぶ。
2. ドメイン内の関心ターム(「辞書ターム」)の特定ターム(terms)の例には、ワード(「木」など)、フレーズ(「グラフ・アルゴリズム」など)、ネームド・エンティティ(named entity)(「ニューヨーク」など)が含まれる。ターム(または概念)は違った形式を取りうる。場合によっては、同じ概念を表すのに異なるワード(words)を使用する。例えば、「kidney stones」と「kidney calculi」は両方とも同じ概念、すなわち「腎臓結石」を指す。また、場合によっては、語幹から多数の派生語(inflected variants)が生じる。例えば、語幹「tree」からは「木」や「木々」などの派生語がある。実施形態によっては、同じターム(term)の複数の形態(forms)を、同じタームにマッピングしたものとして取り扱う。適切な形態の辞書タームが文書に出てくるかも知れないが、その辞書タームがどの文書にも出てこなくてもよい。
辞書タームの特定方法の例には、例えば、医学用語辞典等である人が作成した特定分野の辞書を用いる段階が含まれる。実施形態によっては、辞書タームのリストをコーパス(corpus)中のテキスト(a set of strings of text)から自動的に作成してもよい。テキストを頻度によりインデックスしても、ソートしてもよいし、ある閾値より頻度が高いテキストを選択してもよい。その他の適切な統計的方法を用いてターム(terms)を決定してもよい。実施形態によっては、「ワード(word)」は「ターム(term)」や「辞書ターム(dictionary term)」と読み替えてもよい。
3. 共起コンテキストにおける辞書タームの共起数を計算する。2つのタームは、各ターム語が同じ共起コンテキスト内に少なくとも1回出現するとき、共起(co-occur)したものとする。共起コンテキストの例としては文書や段落がある。
4. ドメイン・オントロジとなる有向重みつきグラフを作成する。その有向重みつきグラフは、ノードとして辞書タームを含み、エッジ(edges)の重みとして類似性(affinities)を含む。マトリックス、バイナリ・ディシジョン・ダイアグラム、またはバイナリ・ディシジョン・ダイアグラムの集合等の適切なデータ構造で表しうる情報を、実際的な表示として「有向重みつきグラフ」を用いて表すことができる。
5. 有向重みつきグラフを問い合わせる手順を適用する。辞書タームを入力すると、その入力した辞書タームに関係する辞書タームがその手順により出力される。例えば、この手順により、入力されたタームに対して、差分有向類似性(以下に説明する)(differential directional affinity)を有するタームがソートされたリストとして出力される。この場合、その出力には、オントロジが取り扱う領域に関して、より密接に入力されたタームに関係するタームが含まれている。
任意の適切な類似性の定義を用いることができる。実施形態によっては、次の定義を用いてもよい:
1. 基本類似性
a) タームAとタームBとの間の基本類似性を、そのタームAまたはBのいずれかを含むコンテキスト数に対する、タームA及びBを両方とも含むコンテキスト数の比として定義する。
Figure 0005353173
b) タームAとタームBとの間の基本類似性(A)を、タームAまたはBのいずれかを含むコンテキスト数の大きい方に対する、タームA及びBを両方とも含むコンテキスト数の比として定義してもよい。
Figure 0005353173
2. 有向類似性
タームAとタームBとの間の有向類似性(DAff)を、コンテキスト中にタームAが出現することを条件として、タームBが出現する条件付き確率として定義してもよい。
Figure 0005353173
すなわち、有向類似性は、タームAを含むコンテキストに対する、タームAとBを両方とも含む共起コンテキストの数である。一般的にDAff(A,B)とDAff(B,A)とは異なる。
3. 差分有向類似性
タームAとタームBとの間の差分有向類似性(DiffDAff)は、タームAとBとの間の有向類似性から、コーパスにおけるタームBの一般性(common-ness)を示すファクタを引いたものとして定義してもよい。コーパスにおけるタームBの一般性は、そのコーパス中の他のタームに対するタームBの基本類似性または有向類似性の統計値である。一実施形態では、コーパスにおけるタームBの一般性(common-ness)は、タームBの平均類似性(AA)である。その場合、差分有向類似性の定義は次のようになる:
Figure 0005353173
タームBの平均類似性(AA)すなわち平均有向類似性は次式で定義される:
Figure 0005353173
すなわち、平均類似性は共起コンテキストにおける他のタームに対するタームBの有向類似性の平均である。
図1は、文書の具体性を決定するシステム10の一実施形態を示す図である。実施形態では、システム10は文書のテーマの数から具体性を決定する。文書のテーマ数が少ないとき、その文書はより具体的である。文書のテーマ数が多いとき、その文書はより具体的でない。実施形態では、システム10は具体性分析を行う。具体性分析の例としては、要求された文書具体性(document specificity)を満たす文書の検索、文書の具体性を示すグラフィカル要素の表示、ユーザ文書によるユーザ具体性(user specificity)の決定がある。実施形態では、ワード間の類似性により決定したクラスタにより、具体性を決定する。
ある実施形態では、ワードのサブセット(subset)と辞書Dとが与えられた時に、その逆インデックスIIから有向類似性を計算することができる。ここで、インデックスIIは例えばワードwとwのエントリーI(w)とI(w)を含む。一般的に、逆インデックス(inverted index)は、ターム(term)からその位置へのマッピング、すなわちそのタームが現れる共起コンテキスト(co-occurrence contexts)へのマッピングを格納したインデックスデータ構造である。D中のワードwとwの各ペアに対して、II中のエントリーI(w)、I(w)の結合部分中の値を、I(w)中の値の数で割った値としてDA(i,j)を定義する。一般的に、DA(i,j)はDA(j,i)と必ずしも等しくはない。その結果は任意の適切な方法で格納する。例えば、行ごとに、すなわちD(1,i)を格納し、次にD(2,j)を格納し、以下同様に格納する。各行iに対して、|I(w)|を格納し、その後にwとの結合部分(conjunction)の濃度を格納する。
ある実施形態では、有向類似性を3段階で計算する。上記の実施形態では、各辞書タームには一意的な整数の識別子を付与する。逆インデックスのエントリーはその整数識別子に対応する。段階0では、Dに対応するIIのエントリーを読み出す。パラメータ(s,o)に対して、ks+oの形である要素識別子を保存する。値ks+oにより、逆インデックスII中の調べるべきエントリーのサブセットが決まる。このようにして、有向類似性を並行して計算できる。一例として、パラメータs,o(1,0)から得られる結果は、パラメータ(3,0)、(3,1)、(3,2)の計算を合わせたものから得られる結果と同じである。この段階により非常に大きな逆インデックスに対してDAテーブルを計算することができる。
段階1では、DA(i,j)のみに対して行ごとに結合を計算する。段階2では、計算された上部三角領域のUT DA配列を読み出す。下部三角領域は、上記三角領域からその転置として求められる。ある実施形態では、同じ次元の複数のDA配列をひとつの配列に結合してもよい。大きな逆インデックスIIのDA配列を、パラメータを(s,i)としてi=0..(s−1)にわたるDAの和として計算できる。有向類似性(directional affinities)を算出できるように、計算した結合(conjunctions)とともに付加的な情報を格納してもよい。ある実施形態では、IIエントリーの濃度を格納してもよい。
実施形態では、DAを行ごとに記憶し、AAエントリーの計算をDAエントリーの計算と並行して進めることができる。具体的に、DAの行をディスクから読み出しつつ加算し、最後に辞書エントリーの数で規格化することによってAAを生成する。
図示した実施形態において、システム10はクライアント20、サーバ22、及びメモリ24を含む。ユーザは、クライアント20によりサーバ22と通信して、言語のオントロジを生成する。クライアント20は、ユーザ入力をサーバ22に送信し、サーバ出力をユーザに提供(例えば、表示や印刷)する。サーバシステム24は言語のオントロジを生成するアプリケーションを管理する。メモリ24はサーバシステム24が使うデータを記憶する。
図示した実施形態において、メモリ24はページ50とレコード54とを記憶している。ページ50(すなわち文書または共起コンテキスト)はワード(word)の集まりである。ページ50の例としては、文書のページや、文書や、ブックや、ウェブページや、通信(例えば電子メールやインスタントメッセージ)その他がある。ページ50はページ識別子により識別できる。ページ50は有体のコンピュータ読み取り可能媒体に電子的に記憶されていてもよい。ページ50には任意の適切なコンテンツが含まれる。例えば、テキスト(文字、ワード、数字等)、画像(グラフィックス、写真、ビデオ等)、オーディオ(録音、コンピュータ生成サウンド等)、ソフトウェアプログラムが含まれる。ある実施形態では、一組のページ50がコーパス(corpus)に属している。コーパスは特定の主題、コミュニティ、組織、エンティティ(entity)に関連している。
レコード54はページ50を記述する。本実施形態では、レコード54は、インデックス58、逆インデックス62、オントロジ66、クラスタ67を含む。インデックス58はインデックスリストを含み、ページ50のインデックスリストはページ50のワードを示す。逆インデックス62は逆インデックスリストを含み、あるワード(または一組のワード)の逆インデックスリストはそのワード(または一組のワード)を含むページ50を示す。一実施例では、リストWはワードwを含むページ50のページ識別子を含む。リストW&Wはワードwとwを両方とも含む連言ページ(conjunction pages)50のページ識別子を含む。リストW+Wはワードwまたはwのいずれかを含む選言ページ(disjunction pages)50のページ識別子を含む。P(W)はWのページ50の数、すなわちワードwを含むページ50の数である。
一実施形態では、リスト(インデックスリスト、逆インデックスリスト等)はバイナリ・ディシジョン・ダイアグラム(BDD)として記憶される。一実施例では、集合Wのバイナリ・ディシジョン・ダイアグラムBDD(W)はワードwを有するページ50を表す。BDD(W)の充分割当カウント(satisfying assignment count)Satisf(BDD(W))によりワードwを有するページ50の数P(W)が求まる。
Figure 0005353173
したがって、
Figure 0005353173
オントロジ66は言語のワードとそのワード間の関係を表すものである。一実施形態では、オントロジ66はワード間の類似性(affinities)を表す。図示した実施例では、オントロジ66は類似性マトリックスと類似性グラフを含む。類似性マトリックスの例を図3乃至図5を参照して説明する。類似性グラフの例を、図6を参照して説明する。クラスタ67は互いに関係するワードのクラスタを記録している。クラスタは図7を参照してより詳細に説明する。
図示した実施形態では、サーバ22は類似性モジュール30、クラスタリングモジュール31、及びオントロジ機能モジュール32を含む。類似性モジュール30はワードのペアの類似性を計算し、その類似性を類似性マトリックスに記録し、及び/または類似性マトリックスをレポートする。類似性モジュール30は類似性グラフも生成できる。類似性モジュール30は図2を参照してより詳細に説明する。
実施形態では、クラスタリングモジュール31は、データセット中の関係する要素のクラスタを特定することにより、そのデータセット中のパターンを発見する。実施形態では、クラスタリングモジュール31は一組のワード(例えば、言語や一組のページ50等)のクラスタを特定できる。一般的に、クラスタのワードは互いに強く関係しているが、クラスタ外のワードとは関係していない。ワードのクラスタはその一組のワードのテーマ(すなわちトピック)を指定する。ある実施形態では、クラスタリングモジュール31は、関係するワード間の類似性によりそのクラスタを特定する。その実施形態では、クラスタのワードは互いに強く類似しているが、クラスタ外のワードとは類似していない。クラスタリングモジュール31は図7を参照してより詳細に説明する。
実施形態では、オントロジ特性モジュール32は一組のワード(例えば、ワードやそのワードを含む文書)のオントロジ特性(ontology features)を決定し、そのオントロジ特性を様々な場合に適用する。オントロジ特性はワードセットの特徴であり、言語のオントロジ空間にそのワードセットを配置するものである。オントロジ特性の例としては深さ(depth)と具体性(specificity)がある。実施形態では、深さ(depth)はワードセットのテキストとしての精巧さ(textual sophistication)を示す。深さがより大きい(深い)ワードセットは、より技術的かつ専門的であり、深さがより小さい(浅い)ワードセットは、より一般的なものである。実施形態では、ワードセットの具体性はそのワードセットのテーマの数に関係する。具体性が高いワードセットが有するテーマはより少なく、具体性が低いワードセットが有するテーマはより多い。
オントロジ特性モジュール32はオントロジ特性を任意の適切な場合に適用する。適切な場合とは、例えば、オントロジ特性による文書の検索、ソート、選択や、文書のオントロジ特性のレポートや、ユーザの文書のオントロジ特性の決定などである。オントロジ特性モジュール32は図8を参照してより詳細に説明する。
システム10の構成要素は、インターフェース、ロジック、メモリ、その他の適切な要素を含む。インターフェースは入力を受信し、出力を送信し、入力や出力を処理し、その他の適当な動作を行う。インターフェースはハードウェア及び/またはソフトウェアを含む。
ロジックは、これらの構成要素の動作を行い、例えば、入力から出力を生成する命令を実行する。ロジックはハードウェア、ソフトウェア及び/またはその他のロジックを含む。ロジックは有体媒体にエンコードされ、コンピュータにより実行された時に動作するものであってもよい。プロセッサ等のある種のロジックが構成要素の動作を管理してもよい。プロセッサの例としては、例えば、コンピュータ、マイクロプロセッサ、アプリケーションその他のロジックがある。
メモリは情報を記憶する。メモリは有体の、コンピュータ読み取り可能な、及び/またはコンピュータ実行可能な記憶媒体である。メモリの例には、コンピュータのメモリ(RAM、ROM等)、大規模記憶媒体(ハードディスク等)、リムーバブル記憶媒体(CD、DVD等)、データベースやネットワーク記憶装置(サーバ等)、その他のコンピュータ読み取り可能な媒体が含まれる。
本発明の範囲から逸脱することなく、システム10に修正、追加、または削除をすることができる。システム10の構成要素は一体であっても分かれていてもよい。さらに、システム10の動作を実行する構成要素は、これより多くても少なくてもよいし、他の構成要素であってもよい。例えば、生成器42、46の動作を1つの構成要素により行ってもよいし、類似性計算器34の動作を2つ以上の構成要素で行ってもよい。また、システム10の動作の実行は、ソフトウェア、ハードウェア、及び/またはその他のロジックを含む任意の適切なロジックを用いて行ってもよい。本明細書では、「各」とは、集合の各要素、または集合の部分集合の各要素を指す。
本発明の範囲から逸脱することなく、マトリックスの例に修正、追加、または削除をすることができる。マトリックスに含まれる値はこれより多くても少なくてもよく、他の値が含まれてもよい。また、マトリックスの値を任意の適切な順序で構成してもよい。
図2は、図1のシステム10で使用できる類似性モジュール30の一実施形態を示す図である。類似性モジュール30はワードのペアの類似性を計算し、その類似性を類似性マトリックスに記録し、及び/またはその類似性マトリックスをレポートする。類似性モジュール30は類似性グラフも生成できる。
図示した実施形態では、類似性モジュール30は類似性計算器34、オントロジ生成器38、及びワード推奨器48を含む。類似性計算器34は、ワードwの、または第1のワードwと第2のワードwを含むワードペアの任意の適切なタイプの類似性を計算する。類似性の例には基本類似性、有向類似性、平均類似性、差分類似性、その他の類似性が含まれる。
一実施形態では、ワード推奨器48は、シード・ワード(seed word)を受け取り、そのシード・ワードとの類似性が閾値より高いワードを特定する。類似性閾値は任意の適切な値であり、0.25、0.5、0.75、0.95やこれらより大きな値であってもよい。類似性閾値は予めプログラムしても、ユーザが指定してもよい。
基本類似性はワードw及び/またはwを含むページ50の量(例えば数)に基づき計算できる。連言ページ量(conjunction page amount)はワードwとwを両方とも含むページ50の量を表し、選言ページ量(disjunction page amount)はワードwまたはwのいずれか一方を含むページ50の量を表す。基本類似性は連言ページ量を選言ページ量で割って求められる。一実施例では、連言ページ数はワードwとワードwを含むページ数を示し、選言ページ数はワードwまたはワードwのいずれかを含むページ数を示す。基本類似性は連言(conjunction)ページ数を選言(disjunction)ページ数で割って求めることができる。
Figure 0005353173
図3は、基本類似性を記録した類似性マトリックス110の一例を示す図である。図示した例では、類似性マトリックス110はワードw,...,wのペアごとの類似性を記録している。類似性マトリックス110によると、ワードwとwの間の類似性は0.003であり、ワードwとwの間の類似性は0.005であり、以下同様である。
図1に戻り、類似性グループは相互に類似性が高いワードのペアを含み、この類似性グループを用いてページのコンテンツに対するワードw、w間の関係を捉える。類似性が類似性グループ閾値よりも高いことを、類似性が高いという。閾値は任意の適切な値であり、0.50、0.60、0.75、0.90、0.95より大きな値であってもよい。1つのワードは2つ以上の類似性グループに属してもよい。一実施形態では、類似性グループはBDDとして表すことができる。逆インデックス62に、BDDのポインタをそのグループの各ワードとともに格納してもよい。
有向類似性を用いてワードwに対するワードwの重要性を測ることができる。類似性計算器34は、ワードwが与えられたときのワードwの有向類似性を、ワードwとwを含むページ50の量(例えば数)から計算する。ワードwページ量は、ワードwを含むページ50の量を表す。ワードwが与えられたときのワードwの有向類似性は、連言ページ量をワードwページ量で割ったものである。例えば、ワードwページの数はワードwを含むページ50の数を示す。ワードwが与えられたときのワードwの有向類似性は、結合ページ50の数をワードwページ50の数で割ったものである。
Figure 0005353173
DAffinity(w,w)はDAffinity(w,w)と同じではない。ワードwとwの間の有向類似性DAffinity(w,w)が高いということは、ページ50がワードwを含むときにそのページ50がワードwを含む確率が高いということを示す。一例では、ページ[1 2 3 4 5 6]がワードwを含み、ページ[4 2]がワードwを含む。ワードwを含むページがワードwも含むということは、ワードwの観点からは、ワードwの重要性が高いということである。ワードwを含むページの1/3のみがワードwを含むということは、ワードwの観点からは、ワードwの重要性が低いということである。
図4は、ワードw,...wの基本類似性を記録した類似性マトリックス120の一例を示す図である。上記の例では、ワード124はAワード、ワード128はBワードである。マトリックス120の行はAワードが与えられたときのBワードの類似性を記録し、類似性マトリックス120の列はBワードが与えられたときの類似性を記録する。
図1に戻り、他のワードwに対するワードwの平均類似性を計算する。一実施形態では、平均類似性は、ワードwとその他のすべてのワードwとの間の類似性の平均である。N個のワードに対するワードwの平均類似性は次式で表される。
Figure 0005353173
図5は、平均類似性を記録した類似性マトリックス140の一例を示す図である。行142はワード1乃至ワード50,000の基本類似性を記録している。行144はワード1乃至ワード50,000の平均類似性を記録している。
図1に戻り、ワードの平均類似性はそのワードの深さを示す。平均類似性が低いワードは深いワードであると考えられ、平均類似性が高いワードは浅いワードであると考えられる。深いワードは技術的であり、具体的であり、精密であるという傾向がある。深いワードの割合が高いページ50は深いページであると考えられ、深いワードの割合が低いページ50は浅いページであると考えられる。一実施形態では、ユーザは検索するワード及び/またはページ50の深さを指定することができる。
ページ50の深いワードは関係性が高いワードのクラスタを形成する。クラスタは共通のアイデアやテーマを表す。ページ50のテーマ数はそのページ50の具体性(specificity)を示す。テーマが少ないページ50はより具体的であると考えられ、テーマが多いページ50はあまり具体的でないと考えられる。
ワードwに対するワードwの差分類似性は、ワードwとwの間の有向類似性からワードwのその他すべてのワードとの平均類似性を引いたものである。差分類似性は次式で表せる:
Figure 0005353173
差分類似性は、ページ50にワードwが出現する一般的な傾向によるバイアスを除去したものである。場合によっては、差分類似性は、ページがワードwを含むときにそのページがワードwを含む確率をより正確に示すものである。
差分類似性は様々な応用ができる。一例では、人の名前の間の差分類似性を用いて社会的ネットワークを研究できる。他の例では、言語要素間の差分類似性を用いて自然言語処理を研究できる。他の例では、製品間の差分類似性を用いてマーケティングを研究できる。
類似性計算器34は、任意の適切な方法を用いて逆インデックスリストを検索し類似性を計算する。例えば、ワードwとワードwを両方とも含むページを特定するため、類似性計算器34は、ワードwのリストWとワードwのリストWを検索して共通の要素(すなわち共通のページ識別子)を探す。
実施形態では、オントロジ生成器38は、類似性マトリックスや類似性グラフなどの、言語のオントロジ66を生成する。オントロジは、基本類似性、有向類似性、平均類似性、差分類似性その他の任意の適切な類似性から生成できる。オントロジ66は、任意の適切な方法で、言語から選択されたワードから生成できる。例えば、その言語の一般的に使用されている部分のワードや、主題領域に関係するワードを選択する。
図示した実施例では、オントロジ生成器38は類似性マトリックス生成器42と類似性グラフ生成器46を含む。類似性マトリックス生成器42は、ワード間の類似性を記録する類似性マトリックスを生成する。類似性グラフ生成器46は、ワード間の類似性を表す類似性グラフを生成する。類似性グラフでは、ノードはワードを表し、ノード間の有向エッジの重みはそのノードが表すワード間の類似性を表す。類似性グラフは任意の適切な次元数を有する。
図6は、類似性グラフ150の一例を示す図である。類似性グラフ150はノード154とリンク158を含む。ノード154はワードを表す。この例では、ノード154aはワード「バイナリ(binary)」を表している。ノード154間の有向エッジの重みは、ノード154が表すワード間の類似性を表す。例えば、重みが大きければ類似性が大きい。ノード間のリンク158は、そのノード154が表すワード間の類似性がある類似性閾値より大きいことを示している。類似性閾値は任意の適切な値であり、例えば、0.25、0.5、0.75、0.95であっても、これらより大きな値であってもよい。
図7は、図1のシステム10で使用できるクラスタリングモジュール31の一実施形態を示す図である。実施形態では、クラスタリングモジュール31は、データセット中の関係のある要素のクラスタを特定することにより、そのデータセット中のパターンを発見する。実施形態では、クラスタリングモジュール31は一組のワード(例えば、言語や一組のページ50等)のクラスタを特定できる。一般的に、クラスタのワードは互いに強く関係しているが、クラスタ外のワードとは関係していない。ワードのクラスタはその一組のワードのテーマ(すなわちトピック)を指定する。
ある実施形態では、クラスタリングモジュール31は、関係するワード間の類似性によりそのクラスタを特定する。その実施形態では、クラスタのワードは互いに強く類似しているが、クラスタ外のワードとは類似していない。一実施形態では、ワードは、かなり類似(sufficiently affine)していれば類似性が高い(highly affine)と考える。ワードは、類似性規準(例えば閾値)を満たせば十分類似している。以下に類似性規準の例を示す。
任意の適切な類似性を用いてクラスタを特定できる。実施形態では、クラスタリングモジュール31は有向類似性を用いる。あるワードの他のワードに対する有向類似性はそのワードの共起性(co-occurrence)を特徴づける。クラスタは同様の共起性を有するワードを含んでいる。実施形態では、クラスタリングモジュール31は差分類似性を用いる。 差分類似性は、ページ50にあるワードが出現する一般的な傾向によるバイアスを除去する傾向がある。
図示した実施形態では、クラスタリングモジュール31はクラスタリングエンジン210とクラスタリング分析器214とを含む。クラスタリングエンジン210は類似性によりワードのクラスタを特定し、クラスタリング分析器214は類似性によるクラスタリングを用いて様々な分析を行う。
クラスタリングエンジン210は任意の適切な方法で、類似性によるワードのクラスタを特定する。クラスタの特定方法の3つの例を説明する。一組のワードからのクラスタの構成と、ワードのクラスタへのソーティングと、ワードの類似性ベクトルの比較である。一実施形態では、クラスタリングエンジン210は一組のワードからクラスタを構成する。一例では、クラスタリングエンジン210は、類似性*Aff(w,w)を有するワード{w}の集合WからクラスタSを構成する。類似性値*Aff(w,w)はワードwのワードwに対する、有向類似性DAffinity(w,w)や差分類似性DiffAff(w,w)等の任意の適切な類似性を表す。ここで挙げる類似性値の例は規格化した値であってもよい。上記の例では、Afffor(w,w)は前方類似性を表し、Affback(w,w)は後方類似性を表す。
上記の例では、クラスタSはシード・ワードwで始まる。カレント・ワード(current word)wは、カレント・アイテレーション(current iteration)において集合Wのワードと比較される、クラスタSのワードを表す。カレント・ワードは、最初にシード・ワードwに設定される。
1回の繰り返しにおいて、カレント・ワードwはクラスタSのワードに設定される。集合Wのワードwは、カレント・ワードwとの前方類似性Afffor(w,w)に応じてソートされる。ソートされた集合Wの始めから開始して、類似性規準を満たす候補ワードwを特定する。類似性規準はカレント・ワードwとの前方類似性規準(a forward affinity with the current word wx criterion)を含む:
Figure 0005353173
及び、シード・ワードwとの後方類似性規準(a backward affinity with the seed word wq criterion):
Figure 0005353173
ここで、Thcfは候補ワードの前方閾値を表し、Thcbは後方ワードの後方閾値を表す。候補ワード{w}の順序付き集合の最初のワードをクラスタSに加える。加えたワードの数はパラメータSizeで与えられる。
閾値ThcfとThcbは、最小値と最大値の間にある任意の適切な値を有する浮動小数点パラメータである。例としては、ThcfとThcbの適切な値は実際の類似性の序列リスト(rank-ordered list)から決定される。例えば、リストの200番目の値を使用する。パラメータSizeは任意の適切な値を有する整数パラメータである。適切な値の例として、デフォルト値を1,2,3または4にしてもよい。実施形態では、上記のパラメータは繰り返しによって変化してもよい。
繰り返し回数は任意の適切なものであればよい。一例では、繰り返し回数をこの方法の開始前に指定できる。他の例では、回数をこの方法の実行中に計算できる。例えば、その回数をクラスタSの大きさの増大率から計算できる。
他の実施形態では、クラスタリングエンジン210は、一組のワードをクラスタにソーティングすることにより、クラスタを特定する。一例では、集合Wのワード{w}を、差分類似性や有向類似性などの類似性*Aff(w,w)に応じてソートする。他の例では、ワード{w}を、別のワード集合Qの各メンバーに対するワードwの類似性の累積関数(合計等)によりソートする。集合Wは任意の適切な方法で選択することができる。例えば、集合Wはクエリに最も関係するX個のワードである。Xは任意の適切な値である。例えば、10乃至100、100乃至200、または200以上の値である。
上記の例ではクラスタは最初、空である。集合Wの最初のワードwをクラスタに入れる。各繰り返しにおいて、集合Wからカレント・ワードwを選択する。*Aff(w,w)が類似性閾値Thにより与えられる類似性規準を満たせば、カレント・ワードwをクラスタに入れる。ここで、wはそのクラスタに入れられた最初のワードを表す。閾値Thの値は任意の適切なものである。例えば、最小値が0.0で最大値が1.0のとき、0.1乃至0.5の範囲にある値である。*Aff(w,w)が閾値Thを満たさないとき、カレント・ワードwは空のクラスタに入れられる。集合Wの各ワードに対して繰り返す。
集合Wのワードを処理してから、小さいクラスタを削除してもよい。例えば、ワード数がYに満たないクラスタを削除してもよい。Yは任意の適切な値であり、例えば、3乃至5、5乃至10、10乃至25、25乃至50、または50以上の範囲の値である。
クラスタ数が満足のいく範囲になければ、閾値Thを変えて上記プロセスを繰り返す。閾値Thを変えることによりクラスタに入れる規準が厳しくなったりゆるくなったりする。上記の満足のいく範囲は、任意の適切な値であるクラスタ数の最小値と最大値により決めてもよい。適切な値の例としては、最小値については1乃至5、5乃至10、または10以上の範囲の値であり、最大値については10乃至15、15乃至20、または20以上の範囲の値である。閾値Thを大きくしてクラスタ数を大きくしてもよいし、小さくしてクラスタ数を小さくしてもよい。
他の実施形態では、クラスタリングエンジン210は、ワードの類似性ベクトルを比較することによりクラスタを特定する。実施形態では、類似性マトリックスの行と列により類似性ベクトル<w,*Aff(w,w),...,*Aff(w,w),...,*Aff(w,w)>ができる。これはワードwのワードw(j=1,...,n)に対する類似性を表す。類似性値*Aff(w,w)はワードwのワードwに対する、有向類似性や差分類似性等の任意の適切な類似性を表す。
実施形態では、類似性値が同様である類似性ベクトルはクラスタを示す。説明のためだけに、類似性ベクトルを類似性空間におけるワードの類似性の座標とみなしてもよい。すなわち、各類似性値*Aff(w,w)をある次元の座標とみなす。類似性値が近い(similar)類似性ベクトルは、そのベクトルが付随するワードが類似性空間において互いに近いことを示している。すなわち、そのベクトルは、そのワードが他のワードと有する類似性関係が近いことを示し、同じクラスタに含めることが適当であることを示す。
類似性ベクトルは、適切な距離関数により、1つの類似性ベクトルが他の類似性ベクトルの近傍にあるとき、類似性ベクトルは近い。距離関数は、類似性ベクトルに対して、その大きさのベクトルの標準的なユークリッド距離として、またはその大きさのベクトルの余弦として定義することができる。距離関数は、クラスタリングエンジン210やユーザによって指定することもできる。
実施形態では、クラスタリングエンジン210はクラスタリング・アルゴリズムを用いて、互いに近い値を有する類似性ベクトルを特定する。クラスタリング・アルゴリズムの例には、ダイレクト(direct)・アルゴリズム、反復二分(repeated bisection)・アルゴリズム、集積(agglomerative)・アルゴリズム、バイアス集積(biased agglomerative)・アルゴリズムその他の適切なアルゴリズムなどがある。一例では、クラスタリングエンジン210は「CLUTO」などのクラスタリングソフトウェアを含む。
クラスタリング分析器214は、任意の適切なアプリケーションにおいて分析のために類似性クラスタリングを用いる。一実施形態では、クラスタリング分析器214は類似性クラスタリングを用いてページをカテゴリ分けする。カテゴリはクラスタ識別子またはクラスタのメンバーと関連する。一例では、ページ50のクラスタを特定し、そのページ50をそのクラスタに応じてカテゴリ分けする。他の例では、ページ50の重要なワードを選択し、そのワードを含むクラスタを見つける。ページ50を見つけたクラスタに応じてカテゴリ分けしてもよい。
一実施形態では、クラスタリング分析器214は類似性クラスタリングを用いてページ50のコーパスを分析する。コーパスは特定の主題、個人のコミュニティ、組織、その他のエンティティ(entity)に関連している。一例では、クラスタリング分析器214はコーパスのクラスタを特定し、そのクラスタからそのコーパスのコーパスキャラクタ(corpus character)を決定する。コーパスキャラクタはそのコーパスに付随するエンティティ(entity)に関連するワードを示す。ページ50は、コーパスキャラクタのクラスタを有するとき、そのエンティティに関連している。
一実施形態では、クラスタリング分析器214は類似性クラスタリングを用いて、検索クエリの曖昧性を除去し拡張する(query disambiguation and expansion)。上記の実施形態では、クラスタリング分析器214は、検索クエリの検索タームを含むクラスタを特定する。クラスタにより、与えられた検索クエリに関連する代替的なワードやカテゴリが提供される。一例では、クラスタからのワードを検索者にレポートして、次の検索クエリを支援する。他の例では、クラスタリング分析器214は、クラスタからワードを選択して、新しい検索クエリを自動的に形成する。クラスタリング分析器214はその新しいクエリを順番に、または並行して実行する。
一実施形態では、クラスタリング分析器214は類似性クラスタリングを用いてソーシャルネットワークを調査(study)する。一例では、ページ50はソーシャルネットワークに関する情報(insight)を提供する。かかるページの例としては、通信(手紙、電子メール、インスタントメッセージなど)、メモ、記事、議事録などがある。こうしたページ50は、ソーシャルネットワークを形成する人々のユーザ識別子(名前など)であるワードを含む。名前のクラスタを特定して、そのネットワークを形成する人々の間の関係を分析する。一例では、別の類似性クラスタリングを用いて、システム管理者の名前など、情報を提供しないがほとんどのページ50に現れる名前をフィルタ除去する。
実施形態では、クラスタリング分析器214は、データセットのクラスタを結合及び/または比較することにより、そのデータセットを分析する。一実施形態では、オーバーラップするデータセットのクラスタを比較する。1つのデータセットのクラスタを他のデータセットのクラスタにマッピングすると、そのデータセット間の関係についての情報(insight)が得られる。例えば、データセットは、職場のグループの文書の分析や、そのグループのソーシャルネットワークの調査(study)によるものである。ソーシャルネットワークのクラスタを文書の主題のクラスタにマッピングして、ソーシャルネットワークと主題の間の関係を分析する。
図8はオントロジ特性モジュール32の一実施形態を示す図である。オントロジ特性モジュール32は、一組のワード(例えば、ワードそのものやワードを含む文書)のオントロジ特性(ontology features)を決定し、そのオントロジ特性を様々な場合に適用する。その一組のワードには文書の基本的ターム(essential terms)が含まれているかも知れない。タームtは、それに類似したk個のタームの少なくとも1つも文書に現れる場合、基本的タームである。そうでなければ、そのタームtはその文書にとっては基本的ではない。
オントロジ特性は、ある分野においてある文書を他の文書から意味的に区別する特性(feature)軸に沿って、その文書を特徴づける数量化可能な尺度である。例えば、文書の深さは理解可能性に関してその文書を区別し、文書の具体性はフォーカスに関してその文書を区別し、文書のテーマは記載されたトピックスの範囲(addressed range of topics)に関してその文書を区別する。オントロジ特性は任意の適切な方法で定義することができる。例えば、計算言語学における独立したアルゴリズムを用いて文書の可読性(readability)または深さ(depth)を特徴づけることができる。
図示した実施形態では、オントロジ特性モジュール32は、深さエンジン230、テーマエンジン240、具体性エンジン244、オントロジ特性(OF)アプリケーションエンジン250を含む。深さエンジン230はワード(例えばワードそのものやワードを含む文書)の深さ(depth)を決定する。一般的に、深さはワードのテキスト的な精巧さ(textual sophistication)を示す。深さがより大きい(深い)ワードは、より技術的かつ専門的であり、深さがより小さい(浅い)ワードは、より一般的なものである。実施形態では、深さモジュール32は文書のワードの深さを計算し、そのワードの深さに基づきその文書の深さを計算する。実施形態では、深さエンジン230は深さ値及び/または深さランキングを文書及び/またはワードに割り当てる。より深い文書またはワードにはより高い深さ値または深さランキングが割り当てられ、より浅い文書またはワードにはより低い深さ値または深さランキングが割り当てられる。
深さエンジン230はワードの深さを任意の適切な方法で計算する。実施形態では、深さエンジン230は平均類似性によりワードの深さを計算する。上記の実施形態では、ワードの深さはそのワードの平均類似性の関数である。より深いワードはより低い平均類似性を有し、より浅いワードはより高い平均類似性を有する。具体例では、深さエンジン230はワードをその平均類似性によりランキングすることによりそのワードの深さを計算する。平均類似性が低いワードには高い深さランキングが与えられ、平均類似性が高いワードには低い深さランキングが与えられる。
実施形態では、深さエンジン230はクラスタリング分析を用いてワードの深さを計算する。上記の実施形態では、クラスタ内のワードは互いに強く類似しているが、クラスタ外のワードとはそれほど類似していない。クラスタ空間における距離を類似性により測るが、これは深さのインジケータである。実施形態では、属するクラスタ数が少ないワード、小さいクラスタに属するワード、及び/または他のクラスタから遠いクラスタに属するワードは深いものとみなされる。一方、属するクラスタ数が多いワード、大きいクラスタに属するワード、及び/または他のクラスタに近いクラスタに属するワードは浅いものとみなされる。
他の実施形態では、深さエンジン230は類似性グラフ150のリンク分析をしてワードの深さを計算する。リンク分析は、PAGERANKなどの任意の適切なリンク分析アルゴリズムで行うことができる。便宜的に、図6の類似性グラフ150を利用してワードの深さを計算することもできる。類似性グラフ150はノード154とリンク158を含む。ノード154はワードを表す。ノード154間のリンク158は、そのノード154が表すワード間の類似性が、ある類似性閾値より大きいこと、すなわちそのワードが十分類似していることを示している。
実施形態では、深さエンジン230はノード154の人気度(popularity)を計算する。人気のあるノード154は浅いワードを表し、人気のないノード154は深いワードを表す。第1のノード154から第2のノード154へのリンク136は、第1のノード154による第2のノード154への人気度投票であると考えられる。また、人気のあるノード154からの投票(vote)は人気のないノード154からの投票よりも重みが大きい。さらに、第1のノード154の第2のノード154に対する類似性はその投票に重みづけする。深さエンジン230はノード154への重みつき投票から、そのノード154の人気度を計算する。人気のないワードは深いものと考えられ、人気のあるワードは浅いものと考えられる。
深さエンジン230は文書の深さを任意の適切な方法で計算する。実施形態では、深さエンジン230は文書の少なくとも1つのワード、一部のワード、またはすべてのワードの深さにより、その文書の深さを計算する。実施形態では、ワードの深さは平均類似性で与えられ、文書の深さをその文書のワードの平均類似性から計算してもよい。例えば、文書の浅さ(shallowness)はその文書のワードの平均類似性の平均、すなわち、その文書中の各ワードの平均類似性の合計をその文書中のワードの総数で割ったものである。文書の深さは、その文書の浅さの逆数として計算できる。
実施形態では、深さは文書中の選択された一組のワードの平均的深さから計算できる。選択された一組のワードには、その文書の基本的ワードが含まれる。例えば、(深さが)トップX%のワードが含まれる。ここで、Xは10より小さくても、10乃至20でも、20乃至30でも、30乃至40でも、40乃至50でも、50乃至60でも、60乃至70で、70より大きくてもよい。選択された一組のワードには、P%の標準的な文法ワードや、Q%のストップワードが含まれない。ここで、PとQは任意の適切な値であり、10より小さくても、10乃至20でも、20乃至30でも、30乃至40でも、40乃至50でも、50乃至60でも、60乃至70で、70より大きくてもよい。
実施形態では、深さエンジン230は文書におけるワードの深さの分布により、その文書の深さを計算する。実施形態では、深い文書は、深いワードを有する割合が高い。ワードの深さ分布の一例を、図9を参照して詳しく説明する。
図9は、ワードの深さの分布例を示すグラフ240である。グラフ240はある文書中のある深さを有するワードの割合を示す。実施形態では、深さエンジン230は最大閾値Thmaxを越える深さを有するワードを破棄してもよい。実施形態では、深さエンジン230は、深さが処理閾値Thprocより高く、(もしあれば)最大閾値Thmaxより低い処理範囲にあるワードに基づき文書の深さを計算する。割合X%は処理されないワードの割合を表し、割合Y%は処理されるワードの割合を表す。割合Y%は任意の適切な値を有し、例えば、2%乃至5%、5%乃至10%、または10%以上である。実施形態では、深さエンジン230は、一定のワードから文書の深さを計算する。例えば、深さエンジン230は言語中のある頻度レベル、例えば頻度がトップのワードからZ個までのワード内にあるワードを選択する。ここでZは、例えば10,000乃至50,000、または50,000以上の範囲の値である。
図8に戻り、実施形態では、深さエンジン230は文書の類似性(affinity)によりその文書の深さを計算する。文書間の類似性はその文書間の関係を示す。実施形態では、ワードの平均類似性がそのワードの深さを示すのと同様に、文書の平均類似性はその文書の深さを示す。文書の類似性は任意の適切な方法で定義することができる。一例では、共通ワード数P(D&D)は文書DとDの両方にあるワードの数を示し、個別ワード数P(D+D)は文書DまたはDのいずれかにあるワードの数を示す。文書DとDの間の文書類似性DocAffは次式で定義できる:
Figure 0005353173
深さエンジン230は、平均ワード類似性の計算と同様に平均文書類似性を計算する。平均類似性が低い文書は深いものであると考えられ、平均類似性が高い文書は浅いものであると考えられる。
実施形態では、深さエンジン230は、文書類似性グラフのリンク分析をして文書の深さを計算する。文書類似性グラフは類似性グラフ150と同様だが、文書類似性グラフのノードはワードではなく文書を表す。深さエンジン230は第1の文書を表す第1のノードから第2の文書を表す第2のノードへのリンクを、第1の文書が与えられたときの第2の文書の文書類似性で重み付けする。出て行くリンクの重みを規格化してもよい。
実施形態では、深さグラフをユーザインターフェースに表示して文書の深さを表示する。深さレベルを選択できる深さスライダを併せて表示してもよい。実施形態では、文書がより大きな文書のセクションであるとき、深さグラフはそのセクションを示す。
実施形態では、深さエンジン230は文書深さを任意の適切な方法で計算できる。例えば、文書の類似性のヒストグラムを処理し、及び/または深さに基づき異なるワードの割合をトランケート(truncate)してからヒストグラムを処理することができる。他の方法には、Gunning−Fog法、Flesch法、またはFry法がある。
実施形態では、深さエンジン230は深さ値をある深さレベルにマッピングして、深さを較正してもよい。実施形態では、範囲Rの深さ値をレベルLにマッピングする。例えば、R={r:r<c}をレベルLにマッピングし、R={r:c<r<c}をレベルLにマッピングし、...、R={r:c<r}をレベルLにマッピングする。これらの範囲は任意の適切な深さ値を含み、同じ大きさである必要はない。レベルの数は任意の適切なものであればよく、5より少なくても、5から7であっても、7または8であっても、8から10であっても、10から20であっても、20から50であっても、50から100であっても、100より多くてもよい。
テーマエンジン240は文書のテーマ(すなわちトピックス)を決定する。実施形態では、クラスタリングモジュール31が特定した文書中のワードのクラスタから、テーマエンジン240がテーマを決定する。上記の通り、ワードのクラスタはその一組のワードのテーマ(すなわちトピック)を指定する。文書のテーマはその文書の内容に関して有用な情報を提供する。例えば、クラスタ{腎臓、肝臓、タンパク質、問題}を含む文書は、おそらく腎臓の機能低下による肝臓からのタンパク質のもれに関するものであり、インゲン豆のタンパク質成分に関するものではない。
実施形態では、テーマエンジン240はテーママップからテーマを決定する。上記の実施形態では、例えば、ターム頻度−逆文書頻度(TF−IDF)(term frequency-inverse document frequency)法など任意の適切な方法を用いて文書からキーワードを抽出する。キーワードを用いてテーママップからテーマの候補を選択する。テーマ候補を文書と比較して、そのテーマがその文書に合致するか決定する。例として、テーマ候補のヒストグラムを文書のヒストグラムと比較する。テーマ候補が文書と合致したら、そのテーマにより、その文書のテーマのタイプや数を推定する。
具体性エンジン244は文書の具体性(specificity)を計算する。実施形態では、具体性エンジン244は、具体性値及び/または具体性ランキングを文書に割り当てる。より具体的な文書にはより高い具体性値または具体性ランキングが割り当てられ、より具体的でない文書にはより低い具体性値または具体性ランキングが割り当てられる。
実施形態では、具体性エンジン240は文書のテーマの数から具体性を計算する。例として、具体的な文書のテーマは少なく、具体的でない文書のテーマは多い。 実施形態では、具体性エンジン240は文書のテーマの数と、そのテーマ間の類似性から具体性を計算する。例として、具体的な文書のテーマは、テーマ間の類似性が高くて少ない。一方、具体的でない文書のテーマは、テーマ間の類似性が低くて多い。
実施形態では、テーマの数は深さ(すなわちレベル)に依存する。例えば、深さが小さい1つのテーマは深さが大きい複数のテーマを表す。実施形態では、深さはユーザが深さスライダを用いて選択するか、予め決まっている。実施形態では、レベルはユーザが選択するか、予め決まっている。例えば、任意の適切な数のレベルを決めて、そのレベルに対して深さを計算する。例えば、レベルは、ドメインベース(例えば、エンジニアリング、医療、ニュース、スポーツ、金融などのドメイン)、専門ベース(例えば、心臓科、眼科、腎臓科などの専門)、トピックベース(例えば、高血圧、コレステロール、バイパス手術、動脈硬化などのトピックス)、詳細ベース(例えば、立ちくらみ、慢性高血圧、急性高血圧などの詳細)、解決策ベース(例えば、老人性病因、医薬、遺伝子などの解決策)、人ベース(例えば、ユーザクエリレベルなど)などがある。
オントロジ特性アプリケーションエンジン250は、(深さ、テーマ、具体性などの)オントロジ特性を用いて、任意の適切な状況でオントロジ特性分析を行う。適切な場合とは、例えば、オントロジ特性による文書の検索、ソート、推奨、選択や、文書のオントロジ特性のレポートや、ユーザの文書(または複数組みの文書)のオントロジ特性の決定などである。実施形態では、オントロジ特性アプリケーションエンジン250はオントロジ特性に関する情報を含むインデックスを使用する。一例では、オントロジ特性アプリケーションエンジン250は、深さランキングにより生成及び/または維持された文書深さ(DD)逆インデックス62を使用する。DD逆インデックス62は、DD逆インデックスリストを含む。ワードのDD逆インデックスリストは、そのワードを含む文書(またはページ50)の文書識別子をリストする。文書の文書識別子はその文書の深さを示す。例えば、文書識別子のエンコードに用いるバイナリエンコーディングは、深さを示す。場合によっては、DD逆インデックスリストは十分な深さを有する文書のみをリストしたものである。他の例では、オントロジ特性アプリケーションエンジン250は、逆インデックス62に加えてランキングテーブルと深さテーブルを利用する。深さテーブルは文書の深さを示すものである。
実施形態では、オントロジ特性アプリケーションエンジン250は、指定された文書深さや具体性の値などの指定されたオントロジ特性値を有する文書を検索する。指定地は予め決められていても、計算してもユーザが選択してもよい。実施形態では、深さスライダや具体性スライダを用いて値を選択してもよい。
実施形態では、オントロジ特性アプリケーションエンジン250は、文書をソートするソート規準としてオントロジ特性を利用する。例えば、オントロジ特性アプリケーションエンジン250は、ソート規準だけでなく、テーマに関して文書深さ及び/または具体性により文書をソートする。例として、オントロジ特性アプリケーションエンジン250は、DD逆インデックス62を検索して、文書深さによりソートされた文書を求める。例として、オントロジ特性アプリケーションエンジン250は、非DD逆インデックス62を用いて文書を検索して、深さにより文書をソートする。
実施形態では、オントロジ特性アプリケーションエンジン250は、オントロジ特性の値をクライアント20にグラフィカルに表示する。例えば、検索結果のトップX%の文書など、文書の一部または全部をグラフィカルに表示してもよい。オントロジ特性値を任意の適切な方法で表示できる。例として、数字、言葉、アイコンなどのグラフィカルインジケータにより値を示すことができる。例えば、検索結果のリスト中のアイテムや、オンラインニュースペーパーのヘッドラインや、文書アイコンなどの隣にグラフィカルインジケータを配置してもよい。例として、既存の図象(iconography)を修正して値を表示できる。例えば、テキストのサイズ、フォント、スタイル、カラーやグラフィカルインジケータにより値を示すことができる。他の例では、グラフにより値を示すことができる。オントロジ特性ヒストグラムは、文書量軸とオントロジ特性軸を含み、あるオントロジ特性値を有する文書の量を示す。例えば、文書量軸と文書深さ軸とを含む文書深さヒストグラムは、文書深さごとの文書量を示している。
実施形態では、ユーザは、オントロジ特性アプリケーションエンジン250により、特定のオントロジ特性値を有する文書の検索をすることができる。ユーザは、クエリで用いる複数のワードのそれぞれにオントロジ特性値を指定することができる。例として、ユーザは、オントロジ特性アプリケーションエンジン250により深さを選択するオプションを提供され、深さを選択して入力することができる。そのオプションは任意の適切な方法で提供することができる。例えば:(i)絶対的ターム(深さを表す数字や数字の範囲など);(ii)相対的ターム(深さに関する検索結果の一部で、例えば「最も深いX%」など);(iii)意味的ターム(「入門的」、「浅い」、「深い」、「極めて深い」、「非常に技術的」など);(iv)グラフィカルターム(スライダ、ボタン、その他のグラフィカル要素など);(v)任意の適切なタームの組み合わせ(意味的ラベルを伴うスライダなど)である。場合によっては、スライダの端は「浅い」と「深い」である。ユーザはスライダを一端または他端に向けて動かして深さを選択できる。検索結果が求まると、スライダの横に文書深さヒストグラムが表示され、スライダを文書深さの軸として使用できる。
実施形態では、オントロジ特性アプリケーションエンジン250はユーザのオントロジ特性キャラクタを計算できる。オントロジ特性キャラクタには、テーマとの関連でユーザ深さとユーザ具体性が含まれる。オントロジ特性キャラクタはそのユーザの文書のオントロジ特性を記述する。例えば、科学者は、第三者である評価者(third grader)が使う文書より深い文書を使う。オントロジ特性キャラクタはテーマに対して与えられる。例えば、遺伝学者は、詩の分野で使うものよりも深い文書を遺伝学の分野では使う。オントロジ特性キャラクタを用いてユーザの専門を決定し、その人の経歴を構成しても、ソーシャルネットワークを分析してもよい。
ユーザの通信(電子メールやインスタントメッセージなど)や、ウェブページや、検索履歴(検索クエリや選択したページなど)などの任意の適切な文書を分析してオントロジ特性キャラクタを推定する。実施形態では、オントロジ特性アプリケーションエンジン250はオントロジ特性キャラクタ(ontology feature character)を時間的に追跡して、過去のキャラクタを使って将来のキャラクタを予測できる。例として、オントロジ特性アプリケーションエンジン250では、一般的にユーザ深さ及び/または具体性は時間及び/またはある分野における活動とともに増大することを仮定してもよい。
実施形態では、オントロジ特性アプリケーションエンジン250では複数の動作を組み合わせてもよい。例えば、オントロジ特性アプリケーションエンジン250はユーザの深さをモニターし、そのユーザ深さに応じた文書を検索する。一例では、ユーザ深さをモニターし、ニュースをその深さに応じて提供する。将来のユーザ深さを予測して、予測されたユーザ深さに合ったニュースを提供する。
本発明の実施形態により以下の技術的有利性がもたらされる。一実施形態の技術的優位性は、文書のテーマ数によりその文書の具体性を決定できる点にある。文書のテーマ数が少ないとき、その文書はより具体的である。文書のテーマ数が多いとき、その文書はより具体的でない。一実施形態の他の技術的優位性は、具体性分析を行うという点である。具体性分析の例としては、要求された文書具体性(document specificity)を満たす文書の検索、文書の具体性を示すグラフィカル要素の表示、ユーザ文書によるユーザ具体性(user specificity)の決定がある。本発明の実施形態には、上記の技術的な有利性を含まないもの、一部を含むもの、すべてを含むものがある。図面、詳細な説明、及び特許請求の範囲に基づき、当業者には容易に1つ以上の技術的な優位性が明らかとなるであろう。
本開示を実施形態に関して説明したが、これらの実施形態の変形や置き換えは当業者には明らかであろう。従って、上記の実施形態の説明は本開示を限定するものではない。特許請求の範囲に記載した本開示の精神と範囲から逸脱せずに、その他の変更、置き換え、改変も可能である。
以上の実施形態について、次の付記を記載する。
(付記1) 有体媒体に記憶されたレコードにアクセスする段階であって、前記レコードは複数の文書の複数のクラスタを記録し、文書は複数のワードを含み、クラスタは前記複数のワードのうちの充分類似した複数のワードを含む段階と、
前記複数の文書の少なくとも一部のうちの各文書のテーマ数を決定(establish)する段階と、
各文書のテーマ数が少なければ前記各文書はより具体的であり、前記各文書のテーマ数が多ければ前記各文書はより具体的でないと決定することにより、前記テーマ数により前記各文書の具体性を決定する段階とを含む方法。
(付記2) 前記複数の文書の前記少なくとも一部のうちの各文書のテーマ数を決定する段階は、さらに、
前記各文書のクラスタ数を決定する段階と、
前記クラスタ数から前記各文書のテーマ数を計算する段階とを含む、付記1に記載の方法。
(付記3) 前記複数の文書の前記少なくとも一部のうちの各文書のテーマ数を決定する段階は、さらに、
テーマ数を決定する深さを特定する段階と、
特定した深さに対してテーマ数を決定する段階とを含む、付記1に記載の方法。
(付記4) 前記複数の文書の前記少なくとも一部のうちの各文書のテーマ数を決定する段階は、さらに、
前記各文書から複数のキーワードを選択する段階と、
前記キーワードに関係するテーマ候補を特定する段階と、
前記テーマ候補が前記文書と一致したとき、前記テーマ候補を前記文書のテーマと決定する段階とを含む、付記1に記載の方法。
(付記5) 文書の具体性要求を含む検索クエリを受け取り、
前記検索クエリと前記文書具体性要求とを満たす前記複数の文書のうちの文書を検索することにより、具体性分析を行う、付記1に記載の方法。
(付記6) 前記複数の文書の各文書の具体性のグラフィカル表示を行うことにより、具体性分析を行う、前記グラフィカル表示はグラフィカルインジケータとグラフィカルな修正とグラフとよりなる集合から選択した要素を含む、付記1に記載の方法。
(付記7) 検索クエリを受け取り、
前記検索クエリを満たす一組の文書を検索し、
前記一組の文書の具体性により前記一組の文書をソートすることにより、具体性分析を行う、付記1に記載の方法。
(付記8) 前記複数の文書はユーザに関連し、
前記テーマ数により前記各文書の具体性を決定する段階は、前記複数の文書からユーザのユーザ具体性を決定する段階をさらに含む、付記1に記載の方法。
(付記9) 前記複数の文書はユーザに関連し、
前記テーマ数により前記各文書の具体性を決定する段階は、前記複数の文書からユーザのユーザ具体性を決定する段階をさらに含み、
前記ユーザ具体性により前記ユーザに対して一以上の文書を選択する段階をさらに含む、付記1に記載の方法。
(付記10) 前記複数の文書はユーザに関連し、
前記テーマ数により前記各文書の具体性を決定する段階は、前記複数の文書からユーザのユーザ具体性を決定する段階をさらに含み、
前記ユーザの前記ユーザ具体性を監視する段階をさらに含む、付記1に記載の方法。
(付記11) 前記複数の文書はコーパスに関連づけられ、
前記テーマ数により前記各文書の具体性を決定する段階は、前記複数の文書からコーパスのコーパス具体性を決定する段階をさらに含む、付記1に記載の方法。
(付記12) 実行したとき、
有体媒体に記憶されたレコードにアクセスする段階であって、前記レコードは複数の文書の複数のクラスタを記録し、文書は複数のワードを含み、クラスタは前記複数のワードのうちの充分類似した複数のワードを含む段階と、
前記複数の文書の少なくとも一部のうちの各文書のテーマ数を決定(establish)する段階と、
各文書のテーマ数が少なければ前記各文書はより具体的であり、前記各文書のテーマ数が多ければ前記各文書はより具体的でないと決定することにより、前記テーマ数により前記各文書の具体性を決定する段階と
を実行するソフトウェアをエンコードしたコンピュータ読み取り可能有体媒体。
(付記13) 前記各文書のクラスタ数を決定し、
前記クラスタ数から前記各文書のテーマ数を計算することにより、
前記複数の文書の前記少なくとも一部のうちの各文書のテーマ数を決定する、付記12に記載のコンピュータ読み取り可能有体媒体。
(付記14) テーマ数を決定する深さを特定し、
特定した深さに対してテーマ数を決定することにより、
前記複数の文書の前記少なくとも一部のうちの各文書のテーマ数を決定する、付記12に記載のコンピュータ読み取り可能有体媒体。
(付記15) 前記各文書から複数のキーワードを選択し、
前記キーワードに関係するテーマ候補を特定し、
前記テーマ候補が前記文書と一致したとき、前記テーマ候補を前記文書のテーマと決定することにより、
前記複数の文書の前記少なくとも一部のうちの各文書のテーマ数を決定する、付記12に記載のコンピュータ読み取り可能有体媒体。
(付記16) 文書の具体性要求を含む検索クエリを受け取り、
前記検索クエリと前記文書具体性要求とを満たす前記複数の文書のうちの文書を検索することにより、
具体性分析を行う、付記12に記載のコンピュータ読み取り可能有体媒体。
(付記17) 前記複数の文書の各文書の具体性のグラフィカル表示を行うことにより、具体性分析を行う、前記グラフィカル表示はグラフィカルインジケータとグラフィカルな修正とグラフとよりなる集合から選択した要素を含む、付記12に記載のコンピュータ読み取り可能有体媒体。
(付記18) 検索クエリを受け取り、
前記検索クエリを満たす一組の文書を検索し、
前記一組の文書の具体性により前記一組の文書をソートすることにより、
具体性分析を行う、付記12に記載のコンピュータ読み取り可能有体媒体。
(付記19) 前記複数の文書はユーザに関連し、
前記コンピュータ読み取り可能有体媒体は、前記複数の文書からユーザのユーザ具体性を決定することにより、前記テーマ数により前記各文書の具体性を決定する、付記1に記載の方法。
(付記20) 前記複数の文書はユーザに関連し、
前記コンピュータ読み取り可能有体媒体は、さらに、
前記複数の文書からユーザのユーザ具体性を決定することにより、前記テーマ数により前記各文書の具体性を決定し、
さらに、前記ユーザ具体性により前記ユーザに対して一以上の文書を選択する、付記1に記載の方法。
(付記21) 前記複数の文書はユーザに関連し、
前記コンピュータ読み取り可能有体媒体は、さらに、
前記複数の文書からユーザのユーザ具体性を決定することにより、前記テーマ数により前記各文書の具体性を決定し、
前記ユーザの前記ユーザ具体性を監視する、
付記1に記載の方法。
(付記22) 前記複数の文書はコーパスに関連づけられ、
前記コンピュータ読み取り可能有体媒体は、さらに、
前記複数の文書からコーパスのコーパス具体性を決定することにより、前記テーマ数により前記各文書の具体性を決定する、
付記1に記載の方法。
文書の具体性を決定するシステム10の一実施形態を示す図である。 図1のシステムで利用できる類似性モジュールの一実施形態を示すブロック図である。 基本類似性を記録する類似性マトリックスの一例を示す図である。 基本類似性を記録する類似性マトリックスの一例を示す図である。 平均類似性を記録する類似性マトリックスの一例を示す図である。 類似性グラフの一例を示す図である。 図1のシステムで使用できるクラスタリングモジュールの一実施形態を示す図である。 図1のシステムで利用できるオントロジ・フィーチャ・モジュールの一実施形態を示すブロック図である。 ワードの深さの分布例を示すグラフである。
符号の説明
10 システム
20 クライアント
22 サーバ
24 メモリ
30 類似性モジュール
31 クラスタリングモジュール
32 オントロジ特性モジュール
34 類似性計算器
38 オントロジ生成器
42 類似性マトリクス生成器
46 類似性グラフ生成器
48 ワード推奨器
50 ページ
54 レコード
58 インデックス
62 逆インデックス
66 オントロジ
67 クラスタ
210 クラスタリングエンジン
214 クラスタ分析器
230 深さエンジン
240 テーマエンジン
244 具体性エンジン
250 オントロジ特性アプリケーションエンジン

Claims (12)

  1. 有体媒体に記憶されたレコードにアクセスする段階であって、前記レコードは複数の文書の複数のクラスタを記録し、文書は複数のワードを含み、クラスタは前記複数のワードのうちの充分類似した複数のワードを含む段階と、
    前記複数の文書の少なくとも一部のうちの各文書のテーマ数を決定(establish)する段階と、
    各文書のテーマ数が少なければ前記各文書はより具体的であり、前記各文書のテーマ数が多ければ前記各文書はより具体的でないと決定することにより、前記テーマ数により前記各文書の具体性を決定する段階とを含む、コンピュータが実行する方法。
  2. 前記複数の文書の前記少なくとも一部のうちの各文書のテーマ数を決定する段階は、さらに、
    前記各文書のクラスタ数を決定する段階と、
    前記クラスタ数から前記各文書のテーマ数を計算する段階とを含む、請求項1に記載の方法。
  3. 前記複数の文書の前記少なくとも一部のうちの各文書のテーマ数を決定する段階は、さらに、
    テーマ数を決定する深さを特定する段階と、
    特定した深さに対してテーマ数を決定する段階とを含む、請求項1に記載の方法。
  4. 前記複数の文書の前記少なくとも一部のうちの各文書のテーマ数を決定する段階は、さらに、
    前記各文書から複数のキーワードを選択する段階と、
    前記キーワードに関係するテーマ候補を特定する段階と、
    前記テーマ候補が前記文書と一致したとき、前記テーマ候補を前記文書のテーマと決定する段階とを含む、請求項1に記載の方法。
  5. 文書の具体性要求を含む検索クエリを受け取り、
    前記検索クエリと前記文書具体性要求とを満たす前記複数の文書のうちの文書を検索することにより、具体性分析を行う段階をさらに含む、請求項1に記載の方法。
  6. 前記複数の文書の各文書の具体性のグラフィカル表示を行うことにより、具体性分析を行う段階をさらに含み
    前記グラフィカル表示はグラフィカルインジケータとグラフィカルな修正とグラフとよりなる集合から選択した要素を含む、請求項1に記載の方法。
  7. 検索クエリを受け取り、
    前記検索クエリを満たす一組の文書を検索し、
    前記一組の文書の具体性により前記一組の文書をソートすることにより、
    具体性分析を行う段階をさらに含む、請求項1に記載の方法。
  8. 前記複数の文書はユーザに関連し、
    前記テーマ数により前記各文書の具体性を決定する段階は、前記複数の文書からユーザのユーザ具体性を決定する段階をさらに含む、請求項1に記載の方法。
  9. 前記複数の文書はユーザに関連し、
    前記テーマ数により前記各文書の具体性を決定する段階は、前記複数の文書からユーザのユーザ具体性を決定する段階をさらに含み、
    前記ユーザ具体性により前記ユーザに対して一以上の文書を選択する段階をさらに含む、請求項1に記載の方法。
  10. 前記複数の文書はユーザに関連し、
    前記テーマ数により前記各文書の具体性を決定する段階は、前記複数の文書からユーザのユーザ具体性を決定する段階をさらに含み、
    前記ユーザの前記ユーザ具体性を監視する段階をさらに含む、請求項1に記載の方法。
  11. 前記複数の文書はコーパスに関連づけられ、
    前記テーマ数により前記各文書の具体性を決定する段階は、前記複数の文書からコーパスのコーパス具体性を決定する段階をさらに含む、請求項1に記載の方法。
  12. コンピュータに、
    有体媒体に記憶されたレコードにアクセスする段階であって、前記レコードは複数の文書の複数のクラスタを記録し、文書は複数のワードを含み、クラスタは前記複数のワードのうちの充分類似した複数のワードを含む段階と、
    前記複数の文書の少なくとも一部のうちの各文書のテーマ数を決定(establish)する段階と、
    各文書のテーマ数が少なければ前記各文書はより具体的であり、前記各文書のテーマ数が多ければ前記各文書はより具体的でないと決定することにより、前記テーマ数により前記各文書の具体性を決定する段階と
    を実行させるプログラムを記憶したコンピュータ読み取り可能な記憶媒体。
JP2008259634A 2007-10-05 2008-10-06 文書の具体性の決定 Active JP5353173B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US97778107P 2007-10-05 2007-10-05
US60/977,781 2007-10-05
US12/243,099 US8543380B2 (en) 2007-10-05 2008-10-01 Determining a document specificity
US12/243,099 2008-10-01

Publications (2)

Publication Number Publication Date
JP2009093654A JP2009093654A (ja) 2009-04-30
JP5353173B2 true JP5353173B2 (ja) 2013-11-27

Family

ID=40282367

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008259634A Active JP5353173B2 (ja) 2007-10-05 2008-10-06 文書の具体性の決定

Country Status (4)

Country Link
US (1) US8543380B2 (ja)
EP (1) EP2045733A3 (ja)
JP (1) JP5353173B2 (ja)
CN (1) CN101404016A (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100031198A1 (en) * 2008-07-30 2010-02-04 Michael Zimmerman Data-Oriented User Interface for Mobile Device
US9183535B2 (en) * 2008-07-30 2015-11-10 Aro, Inc. Social network model for semantic processing
US20100174998A1 (en) * 2009-01-06 2010-07-08 Kiha Software Inc. Calendaring Location-Based Events and Associated Travel
US8131735B2 (en) * 2009-07-02 2012-03-06 Battelle Memorial Institute Rapid automatic keyword extraction for information retrieval and analysis
US9235563B2 (en) 2009-07-02 2016-01-12 Battelle Memorial Institute Systems and processes for identifying features and determining feature associations in groups of documents
US8352469B2 (en) * 2009-07-02 2013-01-08 Battelle Memorial Institute Automatic generation of stop word lists for information retrieval and analysis
US9069862B1 (en) 2010-10-14 2015-06-30 Aro, Inc. Object-based relationship search using a plurality of sub-queries
EP2423866A1 (en) * 2010-08-30 2012-02-29 ETH Zurich Method and devices for targeted distribution of data
US8429099B1 (en) 2010-10-14 2013-04-23 Aro, Inc. Dynamic gazetteers for entity recognition and fact association
US8719214B2 (en) * 2011-09-23 2014-05-06 Fujitsu Limited Combining medical binary decision diagrams for analysis optimization
US8983947B2 (en) * 2011-09-30 2015-03-17 Jive Software, Inc. Augmenting search with association information
US8782058B2 (en) * 2011-10-12 2014-07-15 Desire2Learn Incorporated Search index dictionary
CN103874994B (zh) * 2011-10-14 2017-09-08 雅虎控股公司 用于自动概括电子文档的内容的方法和装置
EP2595065B1 (en) 2011-11-15 2019-08-14 Kairos Future Group AB Categorizing data sets
US9336302B1 (en) 2012-07-20 2016-05-10 Zuci Realty Llc Insight and algorithmic clustering for automated synthesis
CN102780647A (zh) * 2012-07-21 2012-11-14 上海量明科技发展有限公司 通过即时通信工具实现思维图功能的方法、客户端及系统
CN104850311B (zh) * 2015-05-26 2018-05-01 中山大学 一种移动应用版本更新的图形化说明生成方法及系统
CN106327469B (zh) * 2015-06-29 2019-06-18 北京航空航天大学 一种语义标签引导的视频对象分割方法
US10474672B2 (en) * 2015-08-25 2019-11-12 Schlafender Hase GmbH Software & Communications Method for comparing text files with differently arranged text sections in documents
US10255270B2 (en) 2015-08-28 2019-04-09 Freedom Solutions Group, Llc Automated document analysis comprising company name recognition
US11205103B2 (en) 2016-12-09 2021-12-21 The Research Foundation for the State University Semisupervised autoencoder for sentiment analysis

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5210869A (en) * 1990-05-24 1993-05-11 International Business Machines Corporation Method and system for automated transmission of failure of delivery message in a data processing system
US6298174B1 (en) * 1996-08-12 2001-10-02 Battelle Memorial Institute Three-dimensional display of document set
US6996572B1 (en) 1997-10-08 2006-02-07 International Business Machines Corporation Method and system for filtering of information entities
US6185592B1 (en) * 1997-11-18 2001-02-06 Apple Computer, Inc. Summarizing text documents by resolving co-referentiality among actors or objects around which a story unfolds
US6446061B1 (en) * 1998-07-31 2002-09-03 International Business Machines Corporation Taxonomy generation for document collections
US6513027B1 (en) * 1999-03-16 2003-01-28 Oracle Corporation Automated category discovery for a terminological knowledge base
US6701305B1 (en) * 1999-06-09 2004-03-02 The Boeing Company Methods, apparatus and computer program products for information retrieval and document classification utilizing a multidimensional subspace
US6587848B1 (en) 2000-03-08 2003-07-01 International Business Machines Corporation Methods and apparatus for performing an affinity based similarity search
US6687696B2 (en) * 2000-07-26 2004-02-03 Recommind Inc. System and method for personalized search, information filtering, and for generating recommendations utilizing statistical latent class models
US20020026385A1 (en) * 2000-08-31 2002-02-28 Mccloskey John M. System and methods for generating an electronic purchase order for a part using a display of computer-aided design (CAD) drawing and related article and media
JP2002183117A (ja) * 2000-12-13 2002-06-28 Just Syst Corp 文書校正支援装置、文書校正支援方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
US7162526B2 (en) * 2001-01-31 2007-01-09 International Business Machines Corporation Apparatus and methods for filtering content based on accessibility to a user
US6993712B2 (en) * 2001-09-28 2006-01-31 Siebel Systems, Inc. System and method for facilitating user interaction in a browser environment
US7644102B2 (en) 2001-10-19 2010-01-05 Xerox Corporation Methods, systems, and articles of manufacture for soft hierarchical clustering of co-occurring objects
NO316480B1 (no) * 2001-11-15 2004-01-26 Forinnova As Fremgangsmåte og system for tekstuell granskning og oppdagelse
US7145692B2 (en) * 2002-02-07 2006-12-05 Hewlett-Packard Development Company, L.P. System and method for facilitating color adjustment of imaging data
US7158983B2 (en) * 2002-09-23 2007-01-02 Battelle Memorial Institute Text analysis technique
US20080177994A1 (en) * 2003-01-12 2008-07-24 Yaron Mayer System and method for improving the efficiency, comfort, and/or reliability in Operating Systems, such as for example Windows
US7610313B2 (en) * 2003-07-25 2009-10-27 Attenex Corporation System and method for performing efficient document scoring and clustering
EP1665092A4 (en) 2003-08-21 2006-11-22 Idilia Inc INTERNET SEARCH USING SEMANTIC DISAMBIGUING AND EXPANSION
US7346494B2 (en) * 2003-10-31 2008-03-18 International Business Machines Corporation Document summarization based on topicality and specificity
US7664735B2 (en) * 2004-04-30 2010-02-16 Microsoft Corporation Method and system for ranking documents of a search result to improve diversity and information richness
US7617176B2 (en) * 2004-07-13 2009-11-10 Microsoft Corporation Query-based snippet clustering for search result grouping
US7548917B2 (en) * 2005-05-06 2009-06-16 Nelson Information Systems, Inc. Database and index organization for enhanced document retrieval
JP2007122510A (ja) * 2005-10-28 2007-05-17 Toyota Central Res & Dev Lab Inc 提示装置及び提示プログラム
US7831597B2 (en) * 2005-11-18 2010-11-09 The Boeing Company Text summarization method and apparatus using a multidimensional subspace
US8037004B2 (en) * 2007-06-11 2011-10-11 Oracle International Corporation Computer-implemented methods and systems for identifying and reporting deviations from standards and policies for contracts, agreements and other business documents
US20090094209A1 (en) * 2007-10-05 2009-04-09 Fujitsu Limited Determining The Depths Of Words And Documents

Also Published As

Publication number Publication date
EP2045733A2 (en) 2009-04-08
US20090094021A1 (en) 2009-04-09
EP2045733A3 (en) 2009-07-22
US8543380B2 (en) 2013-09-24
JP2009093654A (ja) 2009-04-30
CN101404016A (zh) 2009-04-08

Similar Documents

Publication Publication Date Title
JP5353173B2 (ja) 文書の具体性の決定
JP5332477B2 (ja) ターム階層の自動生成
JP5391634B2 (ja) 文書の段落分析によるその文書のタグの選択
JP5423030B2 (ja) ワードセットに関係するワードの決定
JP5391633B2 (ja) オントロジー空間を規定するタームの推奨
JP5391632B2 (ja) ワードと文書の深さの決定
US9317593B2 (en) Modeling topics using statistical distributions
JP2009093653A (ja) ユーザ入力に応じた検索空間の絞り込み
Deveaud et al. Accurate and effective latent concept modeling for ad hoc information retrieval
US8108392B2 (en) Identifying clusters of words according to word affinities
Kaptein et al. Exploiting the category structure of Wikipedia for entity ranking
Wang et al. Answer selection and expert finding in community question answering services: A question answering promoter
Lee et al. Reducing noises for recall-oriented patent retrieval
Moradi Small-world networks for summarization of biomedical articles
EP2090992A2 (en) Determining words related to a given set of words
Jain et al. A theoretical study of text document clustering
Chen et al. USING GOOGLE'S KEYWORD RELATION IN MULTI-DOMAIN DOCUMENT CLASSIFICATION
Chen et al. Discrimination of person names based on contexts co-occurrence
EP2045736A1 (en) Identifying clusters of words according to word affinities

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130319

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130812

R150 Certificate of patent or registration of utility model

Ref document number: 5353173

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150