JP2019008395A - Comprehension support method, comprehension support device, and program - Google Patents

Comprehension support method, comprehension support device, and program Download PDF

Info

Publication number
JP2019008395A
JP2019008395A JP2017121291A JP2017121291A JP2019008395A JP 2019008395 A JP2019008395 A JP 2019008395A JP 2017121291 A JP2017121291 A JP 2017121291A JP 2017121291 A JP2017121291 A JP 2017121291A JP 2019008395 A JP2019008395 A JP 2019008395A
Authority
JP
Japan
Prior art keywords
expression
thing
information
common index
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017121291A
Other languages
Japanese (ja)
Other versions
JP6904092B2 (en
Inventor
理香 望月
Rika Mochizuki
理香 望月
宮原 伸二
Shinji Miyahara
伸二 宮原
陽子 浅野
Yoko Asano
陽子 浅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017121291A priority Critical patent/JP6904092B2/en
Publication of JP2019008395A publication Critical patent/JP2019008395A/en
Application granted granted Critical
Publication of JP6904092B2 publication Critical patent/JP6904092B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Transfer Between Computers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To support efficient comprehension of things.SOLUTION: A comprehension support method causes a computer to execute: an acquisition procedure which acquires expression information by a plurality of types of expression methods, about each of a first thing and one or more second things having relation to the first thing; a first calculation procedure which calculates an expression level of the expression information by each of the expression methods, about each of the first thing and the second things, the level quantitatively showing adequacy for corresponding explanation of the things; a second calculation procedure which calculates, for each of the expression methods, a common index for the expression level of the first thing, the index reducing influence of a trend of the expression methods on the expression level on the basis of distribution of the expression level; and a selection procedure which selects expression information used for explanation of the first thing on the basis of the common index.SELECTED DRAWING: Figure 4

Description

本発明は、理解支援方法、理解支援装置及びプログラム
に関する。
The present invention relates to an understanding support method, an understanding support device, and a program.

スマートフォンやタブレット等の個人が所有する端末の普及に伴い、画面の小さな端末上での情報検索が日常的に行われている。また、急増する訪日外国人が日本で行動する時や、日本人が海外へ旅行した際などに「これは何だろう?」と思った対象物について自身の端末で調べる機会が多い。外出先において、手持ちの端末上で情報を分かり易く提示するためには、小さな画面に表示できる情報量で、簡単に理解できる説明表現であることが望ましい。   With the spread of terminals owned by individuals such as smartphones and tablets, information retrieval on terminals with small screens is routinely performed. In addition, there are many opportunities to check on the terminal of the object that thought "What is this?" When the rapidly increasing number of foreigners who visit Japan or when the Japanese travel abroad. In order to present information in an easy-to-understand manner on a terminal at hand, it is desirable that the expression is an easily understandable explanation with an amount of information that can be displayed on a small screen.

従来、質問に対する適切な説明を生成する方法として、新聞記事等から質問文とその正解例を機械学習することで最適な解答文を生成する方法が提案されている(例えば、非特許文献1)。   Conventionally, as a method of generating an appropriate explanation for a question, a method of generating an optimal answer sentence by machine learning of a question sentence and its correct example from a newspaper article or the like has been proposed (for example, Non-Patent Document 1). .

また、テキスト以外の表現を提示することで理解を促進する方法が提案されている(例えば、非特許文献2)。   Moreover, a method for promoting understanding by presenting expressions other than text has been proposed (for example, Non-Patent Document 2).

佐々木裕,磯崎秀樹,鈴木潤,国領弘治,平尾努,賀沢秀人,前田英作,"SVMを用いた学習型質問応答システムSAIQA-II", 情報処理学会論文誌, Vol.45, No.2 pp.635-646, 2004.Hiroshi Sasaki, Hideki Amagasaki, Jun Suzuki, Koji Kuniyo, Tsutomu Hirao, Hideto Kazawa, Eisaku Maeda, "Learning Question Answering System SAIQA-II Using SVM", Transactions of Information Processing Society of Japan, Vol.45, No.2 pp.635-646, 2004. 松本圭裕,伊藤雄一,村上礼繁,北村喜文,岸野文郎,"テキストの内容理解促進を補助するための動的なマルチメディアコンテンツ生成に関する検討", 情報処理学会研究報告エンタテインメントコンピューティング2006(24(2006EC003)), pp.121-128.Akihiro Matsumoto, Yuichi Ito, Rei Murakami, Yoshifumi Kitamura, Fumiro Kishino, "Examination of Dynamic Multimedia Content Generation to Support Text Understanding Promotion", IPSJ SIG Entertainment Entertainment Computing 2006 (24 (2006EC003)), pp.121-128.

しかしながら、非特許文献1の方式では、既存の説明文に含まれる内容から最適な表現を抽出するため、文章という共通の表現方法の中での比較は行えるが、図や質疑応答以外の文章における表現方法と、どちらが分かり易いかを比較することは困難である。   However, in the method of Non-Patent Document 1, since the optimal expression is extracted from the contents included in the existing explanatory text, comparison in a common expression method called text can be performed, but in texts other than diagrams and questions and answers It is difficult to compare the representation method and which is easy to understand.

また、非特許文献2の方式では、テキストだけのコンテンツに画像や音声情報を付加して理解を促進しているが、小さな画面で提示できる情報量が限られる場合に、テキスト、画像などの複数の表現方法のうち、どの方法を優先すべきかを同じ指標で判断することは困難である。   In the method of Non-Patent Document 2, understanding is promoted by adding image or audio information to text-only content. However, when the amount of information that can be presented on a small screen is limited, a plurality of text, images, etc. It is difficult to determine which method should be prioritized using the same index.

本発明は、上記の点に鑑みてなされたものであって、事物の効率的な理解を支援することを目的とする。   The present invention has been made in view of the above points, and an object thereof is to support efficient understanding of things.

そこで上記課題を解決するため、理解支援方法は、第1の事物と、前記第1の事物に関連を有する1以上の第2の事物とのそれぞれについて、複数種類の表現方法による表現情報を取得する取得手順と、前記第1の事物及び前記各第2の事物のそれぞれの各表現方法による表現情報について、対応する事物の説明の適切さを定量的に示す表現度を算出する第1の算出手順と、前記表現方法ごとに、前記表現度の分布に基づいて当該表現方法の傾向の前記表現度への影響を低下させた共通指標を前記第1の事物の前記表現度について算出する第2の算出手順と、前記共通指標に基づいて、前記第1の事物の説明に使用する表現情報を選択する選択手順と、をコンピュータが実行する。   Therefore, in order to solve the above problem, the understanding support method obtains expression information by a plurality of types of expression methods for each of the first thing and one or more second things related to the first thing. A first calculation for calculating the degree of expression that quantitatively indicates the appropriateness of the explanation of the corresponding thing with respect to the expression information obtained by each expression method of each of the first thing and the second thing A second step of calculating, for each of the expression methods, a common indicator for the expression level of the first thing that reduces the influence of the tendency of the expression method on the expression level based on the distribution of the expression level; And a selection procedure for selecting expression information used to describe the first thing based on the common index.

事物の効率的な理解を支援することができる。   Can support efficient understanding of things.

本発明の実施の形態におけるシステムの構成例を示す図である。It is a figure which shows the structural example of the system in embodiment of this invention. 本発明の実施の形態における理解支援装置10のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of the understanding assistance apparatus 10 in embodiment of this invention. 本発明の実施の形態における理解支援装置10の機能構成例を示す図である。It is a figure which shows the function structural example of the understanding assistance apparatus 10 in embodiment of this invention. 理解支援装置10が実行する処理手順の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the process sequence which the understanding assistance apparatus 10 performs. 比較対象定義DB120の構成例を示す図である。It is a figure which shows the structural example of comparison object definition DB120. 提示ルール定義DB130の構成例を示す図である。It is a figure which shows the structural example of presentation rule definition DB130. 本実施の形態における表現方法を説明するための図である。It is a figure for demonstrating the expression method in this Embodiment. 各表現方法の表現度の分布の一例を示す図である。It is a figure which shows an example of distribution of the expression degree of each expression method. 本実施の形態における入出力の例を示す図である。It is a figure which shows the example of the input / output in this Embodiment.

以下、図面に基づいて本発明の実施の形態を説明する。図1は、本発明の実施の形態におけるシステムの構成例を示す図である。図1において、理解支援装置10は、1以上の利用者端末20とインターネット等のネットワークN1を介して接続される。利用者端末20は、無線回線等を経由して、ネットワークN1に接続されてもよい。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram illustrating a configuration example of a system according to an embodiment of the present invention. In FIG. 1, an understanding support apparatus 10 is connected to one or more user terminals 20 via a network N1 such as the Internet. The user terminal 20 may be connected to the network N1 via a wireless line or the like.

理解支援装置10は、例えば、ユーザにとってなじみのない(又はユーザが興味を持った)任意の事物("かるかん"のような商品名等の固有名詞、"うどん"のような一般名詞、"ぶりの照り焼き"のようなメニュー名、ランドマーク名や地名など)(以下、「対象事物」という。)の理解を支援するためにユーザに対して提示する情報(以下、「提示情報」という。)を生成及び出力する1以上のコンピュータである。   The understanding support device 10 is, for example, an arbitrary thing unfamiliar to the user (or an interest of the user) (a proper noun such as a product name such as “Karukan”, a general noun such as “Udon”, Information to be presented to the user (hereinafter referred to as “presentation information”) in order to support the understanding of menu names such as “Teriyaki”, landmark names, place names, etc. (hereinafter referred to as “objects”). ) To generate and output a computer.

利用者端末20は、ユーザが所有するスマートフォン、タブレット、PC、店頭や駅などの公共の場に設置された端末など、対象事物を示す情報(以下、「対象情報」という。)、及び対象事物が属するジャンル(カテゴリ)等の入力に利用される任意の機器である。対象情報の一例として、対象事物の名称や対象事物を表す用語等が挙げられる。対象情報の入力方法は、音声入力、タッチパネルによる選択、文字入力、又はキーボード入力等、任意の方法でよい。   The user terminal 20 includes information (hereinafter referred to as “target information”) indicating a target matter, such as a smartphone, tablet, PC, terminal installed in a public place such as a storefront or a station, and the target matter. Is an arbitrary device used for inputting a genre (category) to which the user belongs. As an example of the target information, there are a name of the target thing, a term representing the target thing, and the like. The input method of the target information may be any method such as voice input, selection using a touch panel, character input, or keyboard input.

図2は、本発明の実施の形態における理解支援装置10のハードウェア構成例を示す図である。図2の理解支援装置10は、それぞれバスBで相互に接続されているドライブ装置100、補助記憶装置102、メモリ装置103、CPU104、及びインタフェース装置105等を有する。   FIG. 2 is a diagram illustrating a hardware configuration example of the understanding support apparatus 10 according to the embodiment of the present invention. 2 includes a drive device 100, an auxiliary storage device 102, a memory device 103, a CPU 104, an interface device 105, and the like that are mutually connected by a bus B.

理解支援装置10での処理を実現するプログラムは、CD−ROM等の記録媒体101によって提供される。プログラムを記憶した記録媒体101がドライブ装置100にセットされると、プログラムが記録媒体101からドライブ装置100を介して補助記憶装置102にインストールされる。但し、プログラムのインストールは必ずしも記録媒体101より行う必要はなく、ネットワークを介して他のコンピュータよりダウンロードするようにしてもよい。補助記憶装置102は、インストールされたプログラムを格納すると共に、必要なファイルやデータ等を格納する。   A program for realizing processing in the understanding support apparatus 10 is provided by a recording medium 101 such as a CD-ROM. When the recording medium 101 storing the program is set in the drive device 100, the program is installed from the recording medium 101 to the auxiliary storage device 102 via the drive device 100. However, the program need not be installed from the recording medium 101 and may be downloaded from another computer via a network. The auxiliary storage device 102 stores the installed program and also stores necessary files and data.

メモリ装置103は、プログラムの起動指示があった場合に、補助記憶装置102からプログラムを読み出して格納する。CPU104は、メモリ装置103に格納されたプログラムに従って理解支援装置10に係る機能を実行する。インタフェース装置105は、ネットワークに接続するためのインタフェースとして用いられる。   The memory device 103 reads the program from the auxiliary storage device 102 and stores it when there is an instruction to start the program. The CPU 104 executes functions related to the understanding support device 10 in accordance with a program stored in the memory device 103. The interface device 105 is used as an interface for connecting to a network.

図3は、本発明の実施の形態における理解支援装置10の機能構成例を示す図である。図3において、理解支援装置10は、受信部11、条件抽出部12、表現度算出部13、共通指標算出部14、提示ルール取得部15、表示整形部16及び送信部17等を有する。これら各部は、理解支援装置10にインストールされた1以上のプログラムが、CPU104に実行させる処理により実現される。理解支援装置10は、また、比較対象定義DB120及び提示ルール定義DB130等のデータベース(記憶部)を利用する。これら各データベースは、例えば、補助記憶装置102、又は理解支援装置10にネットワークを介して接続可能な記憶装置等を用いて実現可能である。   FIG. 3 is a diagram illustrating a functional configuration example of the understanding support device 10 according to the embodiment of the present invention. In FIG. 3, the understanding support apparatus 10 includes a reception unit 11, a condition extraction unit 12, an expression level calculation unit 13, a common index calculation unit 14, a presentation rule acquisition unit 15, a display shaping unit 16, a transmission unit 17, and the like. Each of these units is realized by processing that one or more programs installed in the understanding support apparatus 10 cause the CPU 104 to execute. The understanding support apparatus 10 also uses databases (storage units) such as the comparison target definition DB 120 and the presentation rule definition DB 130. Each of these databases can be realized by using, for example, a storage device that can be connected to the auxiliary storage device 102 or the understanding support device 10 via a network.

以下、理解支援装置10が実行する処理手順について説明する。図4は、理解支援装置10が実行する処理手順の一例を説明するためのフローチャートである。   Hereinafter, a processing procedure executed by the understanding support device 10 will be described. FIG. 4 is a flowchart for explaining an example of a processing procedure executed by the understanding support device 10.

ステップS1において、受信部11は、利用者端末20に対して入力された対象事物に係る提示情報の取得要求を、利用者端末20から受信する。当該取得要求には、対象情報と、対象事物が属するジャンル(対象事物に関連を有する事物の分類)を示す情報(以下、「ジャンル名」という。)とが含まれる。   In step S <b> 1, the receiving unit 11 receives from the user terminal 20 an acquisition request for presentation information related to the target thing input to the user terminal 20. The acquisition request includes target information and information (hereinafter referred to as “genre name”) indicating a genre to which the target thing belongs (classification of a thing related to the target thing).

ジャンル名は、比較対象定義DB120に記憶されているジャンル名の中から選択される。図5は、比較対象定義DB120の構成例を示す図である。図5において、比較対象定義DB120には、予め定義されたジャンルごとに、ジャンル名及び事物情報が記憶される。   The genre name is selected from genre names stored in the comparison target definition DB 120. FIG. 5 is a diagram illustrating a configuration example of the comparison target definition DB 120. In FIG. 5, the comparison target definition DB 120 stores a genre name and thing information for each genre defined in advance.

ジャンル名は、事物のジャンル(カテゴリ)を区別するための名称である。ジャンルの粒度又は種類等は、任意に設定されてもよい。例えば、Amazon(登録商標)等のインターネット通販サイトにおける商品のカテゴリが引用されてもよい。ジャンルの粒度は、食べ物/飲み物/それ以外、のような大まかなものであってもよいし、例えば、食べ物について、米料理/魚料理/肉料理/鍋料理/和菓子/洋菓子・・・のように詳細なジャンルが設定されてもよい。   The genre name is a name for distinguishing the genre (category) of things. The granularity or type of the genre may be arbitrarily set. For example, a product category on an Internet mail order site such as Amazon (registered trademark) may be cited. The granularity of the genre may be a rough one such as food / drink / other, and for example, for food, rice dishes / fish dishes / meat dishes / hot pot dishes / Japanese sweets / Western sweets ... A detailed genre may be set.

事物情報は、各ジャンルに属する事物ごとに、当該事物を示す(識別する)情報(例えば、名称)である。図5では、事物情報の登録例として、(1)及び(2)の2通りの例が示されている。(1)は、各ジャンルに係る事物情報の取得先のウェブサイトのURL(Uniform Resource Locator)が設定される例である。(2)は、予め、各ジャンルに係る事物情報の取得先のウェブサイト等にアクセスして取得された事物情報が登録されたり、他の情報源から取得された事物情報が手入力されたりする例である。事物情報は、共通指標算出部14によって後段のステップにおいて利用される。   The matter information is information (for example, name) indicating (identifying) the matter for each matter belonging to each genre. In FIG. 5, two examples (1) and (2) are shown as examples of registration of the thing information. (1) is an example in which the URL (Uniform Resource Locator) of the website from which the object information related to each genre is acquired is set. In (2), the thing information acquired by accessing the website of the acquisition destination of the thing information related to each genre is registered in advance, or the thing information obtained from another information source is manually input. It is an example. The matter information is used by the common index calculation unit 14 in the subsequent steps.

なお、ステップS1では、例えば、比較対象定義DB120に記憶されているジャンル名の一覧が受信部11から利用者端末20に送信され、当該一覧に基づいて利用者端末20に表示されるプルダウンメニュー等を介して、いずれか一つのジャンル名が選択されてもよい。   In step S1, for example, a list of genre names stored in the comparison target definition DB 120 is transmitted from the receiving unit 11 to the user terminal 20 and displayed on the user terminal 20 based on the list. Any one of the genre names may be selected via.

続いて、条件抽出部12は、提示環境情報を取得し、当該提示環境情報を受信部11へ送信する(S2)。提示環境情報とは、提示ルール定義DB130において定義される粒度によって提示情報の出力先(例えば、利用者端末20)の環境の種別を示す情報である。   Subsequently, the condition extraction unit 12 acquires the presentation environment information and transmits the presentation environment information to the reception unit 11 (S2). The presentation environment information is information indicating the environment type of the output destination of the presentation information (for example, the user terminal 20) according to the granularity defined in the presentation rule definition DB 130.

図6は、提示ルール定義DB130の構成例を示す図である。図6に示されるように、提示ルール定義DB130には、提示情報の出力先の候補となる提示環境ごとに、提示ルール(提示情報の提示に関する規則情報)が登録されている。   FIG. 6 is a diagram illustrating a configuration example of the presentation rule definition DB 130. As shown in FIG. 6, the presentation rule (rule information regarding presentation of presentation information) is registered in the presentation rule definition DB 130 for each presentation environment that is a candidate for the output destination of presentation information.

図6では、提示環境が、「スマートフォン」、「PC」、「タブレット」、「それ以外」に分類された例が示されている。提示ルール定義DB130について更に細かな設定を行う場合には、例えば、スマートフォン、PC、タブレット等の機種や、利用者端末20に接続されているディスプレイの機種等の情報を取得して、提示可能な文字数やフォントサイズに応じてさらに細かく提示環境が分類されて提示ルールを設定することもできる。   FIG. 6 illustrates an example in which the presentation environment is classified into “smart phone”, “PC”, “tablet”, and “other than that”. When more detailed settings are made for the presentation rule definition DB 130, for example, information such as a model of a smartphone, a PC, a tablet, or a display model connected to the user terminal 20 can be acquired and presented. The presentation environment can be further classified according to the number of characters and the font size, and a presentation rule can be set.

本実施の形態では、対象情報の入力元と提示情報の出力先とが同じ利用者端末20である例について説明するが、当該入力元及び当該出力先が異なる場合には、出力先の提示環境情報が取得されればよい。なお、提示環境情報は、利用者端末20から送信される、提示情報の取得要求に含まれる情報に基づいて条件抽出部12が自動的に判別してもよいし、利用者端末20に対してユーザによって明示的に入力されてもよい。提示環境情報が、自動的に判別される場合に、提示環境情報を判別できない場合は、予め設定されるデフォルト値(例えば、「スマートフォン」等)が提示環境情報として採用されてもよい。なお、提示ルールの詳細については後述する。   In this embodiment, an example in which the input source of the target information and the output destination of the presentation information are the same user terminal 20 will be described. However, when the input source and the output destination are different, the presentation environment of the output destination Information only needs to be acquired. Note that the presentation environment information may be automatically determined by the condition extraction unit 12 based on information included in the presentation information acquisition request transmitted from the user terminal 20, or for the user terminal 20. It may be explicitly input by the user. When the presentation environment information is automatically determined and the presentation environment information cannot be determined, a preset default value (for example, “smart phone” or the like) may be adopted as the presentation environment information. Details of the presentation rule will be described later.

続いて、受信部11は、受信した対象情報及びジャンル名を表現度算出部13へ送信し(S3)、提示環境情報を提示ルール取得部15へ送信する(S4)。   Subsequently, the reception unit 11 transmits the received target information and genre name to the expression degree calculation unit 13 (S3), and transmits the presentation environment information to the presentation rule acquisition unit 15 (S4).

続いて、表現度算出部13は、当該ジャンル名に対応する事物情報の一覧を比較対象定義DB120から取得する(S5)。取得された各事物情報を、以下「比較情報」といい、各比較情報に係る事物を「比較事物」という。なお、取得された事物情報の一覧の中で対象情報と一致する事物情報は、比較情報から除外される。また、比較対象定義DB120が、図5の(1)に示されるように構成されている場合には、表現度算出部13は、このタイミングで、当該ジャンルに対応するURLに係るウェブサイトから比較情報の一覧を取得してもよい。   Subsequently, the expression level calculation unit 13 acquires a list of thing information corresponding to the genre name from the comparison target definition DB 120 (S5). Each acquired item information is hereinafter referred to as “comparison information”, and an item related to each comparison information is referred to as “comparison item”. Note that the thing information that matches the target information in the list of obtained thing information is excluded from the comparison information. If the comparison target definition DB 120 is configured as shown in (1) of FIG. 5, the expression level calculation unit 13 compares at this timing from the website related to the URL corresponding to the genre. A list of information may be acquired.

続いて、表現度算出部13は、対象事物の説明について予め定義された複数種類の表現方法のそれぞれごとに、対象事物及び各比較事物のそれぞれを表現(説明)する情報(以下、「表現情報」という。)を情報源D1から取得する(S6)。対象事物の表現情報は、提示情報に含まれるコンテンツの候補である。   Subsequently, the expression degree calculation unit 13 expresses (explains) information (hereinafter referred to as “expression information”) for each of the target thing and each comparative thing for each of a plurality of types of expression methods defined in advance for explanation of the target thing. Is obtained from the information source D1 (S6). The expression information of the target thing is a content candidate included in the presentation information.

ここで、表現方法とは、事物を説明又は表現するための方法又は形式をいい、本実施の形態では、一例として表現方法1〜表現方法3の3種類の表現方法が定義される。   Here, the expression method refers to a method or format for explaining or expressing an object. In the present embodiment, three types of expression methods 1 to 3 are defined as an example.

図7は、本実施の形態における表現方法を説明するための図である。図7に示されるように、表現方法1は、画像を用いて対象事物を説明する方法である。表現方法1では、例えば、対象事物を表現する画像と、当該画像に関連度の高い単語(以下、「タグ情報」という。)とが表現情報とされる。   FIG. 7 is a diagram for explaining a representation method in the present embodiment. As shown in FIG. 7, the expression method 1 is a method for explaining a target object using an image. In the expression method 1, for example, an image that expresses a target thing and a word that is highly related to the image (hereinafter referred to as “tag information”) are used as expression information.

表現方法2は、対象事物に類似する事物でのたとえにより(対象事物に類似する事物の例示により)対象事物を説明する方法である。表現方法2では、例えば、比較事物の中で対象事物に最も類似する比較事物の事物情報(比較情報)が表現情報とされる。   The expression method 2 is a method for explaining a target thing by an analogy with a thing similar to the target thing (by an example of a thing similar to the target thing). In the expression method 2, for example, the thing information (comparison information) of the comparison thing that is most similar to the target thing among the comparison things is used as the expression information.

表現方法3は、口コミ情報又はレビュー情報(以下、「評価情報」という。)の要約によって対象事物を説明する方法である。表現方法3では、例えば、対象事物に関する上位50件の評価情報の要約文が表現情報とされる。   The expression method 3 is a method for explaining a target thing by summarizing word-of-mouth information or review information (hereinafter referred to as “evaluation information”). In the expression method 3, for example, a summary sentence of the top 50 evaluation information related to the target thing is used as the expression information.

なお、図7では、対象事物が「かるかん」である場合について、各表現方法に対応する表現情報を利用した説明が示されている。   Note that FIG. 7 shows an explanation using expression information corresponding to each expression method when the target object is “KARUKAN”.

このように、表現方法ごとに説明に必要とされる表現情報が異なる。したがって、表現方法ごとに、対象事物及び各比較事物のそれぞれの表現情報の取得方法が異なる。当該取得方法は、例えば、表現度算出部13のアルゴリズムとして定義されてもよいし、外部ファイル等に定義されてもよい。   In this way, the expression information required for the description differs for each expression method. Therefore, the acquisition method of the expression information of the target thing and each comparison thing differs for each expression method. For example, the acquisition method may be defined as an algorithm of the expression degree calculation unit 13 or may be defined in an external file or the like.

表現方法1の場合、対象情報(例えば、「かるかん」)を検索語(キーワード)として画像をインターネット検索した際に検索結果の最上位に出力された画像と、当該画像の提供元サイトのURLをキーワード抽出ツール「http://gensen.dl.itc.u-tokyo.ac.jp/gensenweb.html」に入力することによって得られる単語のうちの上位N件の単語とが表現情報として取得されてもよい。この場合の上位N件の単語のそれぞれが、上記したタグ情報に該当する。ここで、Nの値は任意である。なお、タグ情報は、他の方法で抽出されてもよい。例えば、最上位に出力された画像の提供元サイトに含まれている文章の中から、任意の方法で抽出されてもよい。各比較事物に関する画像及びタグ情報も同様に取得されればよい。したがって、表現方法1についての情報源D1は、例えば、インターネットの検索サイトである。   In the case of the expression method 1, when the image is searched on the Internet using the target information (for example, “Karukan”) as a search word (keyword), the image output at the top of the search result and the URL of the source site of the image are displayed. The top N words of the words obtained by inputting to the keyword extraction tool “http://gensen.dl.itc.u-tokyo.ac.jp/gensenweb.html” are acquired as expression information. Also good. Each of the top N words in this case corresponds to the tag information described above. Here, the value of N is arbitrary. Note that the tag information may be extracted by other methods. For example, it may be extracted by an arbitrary method from sentences included in the source site of the image output at the highest level. The image and tag information relating to each comparative object may be acquired in the same manner. Therefore, the information source D1 for the expression method 1 is, for example, a search site on the Internet.

表現方法2の場合、「望月理香, 永徳真一郎, 茂木学, 八木貴史, 武藤伸洋, 小林透, "ライフログを活用した感性コミュニケーション実現方式の提案- 実感をともなう情報伝達効果に関する検証-", 情報処理学会論文誌, Vol.53, No.1, pp.30-38, 2012.」(以下、「参考文献1」という。)に記載された方法が用いられてもよい。この場合、入力として対象事物及び比較事物それぞれの特徴を表す多次元の数値(例えば甘さ5、人気10など)が必要であるため、例えば、対象情報の共起語及び各比較情報の共起語を共起語検索ツール「http://neoinspire.net/cooccur/」等によって抽出し、その上位20件の共起語とその共起頻度を取得し、取得した共起語と共起頻度の値を参考文献1のP33の式(1)に当てはめて、最も等価性(類似度)が高い比較事物の事物情報(比較情報)を取得する。なお、この場合、参考文献1の図4の各パラメータに共起語を当てはめ、各パラメータのベクトルに共起頻度を当てはめればよい。各比較事物に類似する事物の事物情報も、同様に対象情報及び他の比較情報の中から取得されればよい。したがって、表現方法2についての情報源D1は、例えば、共起語抽出ツールである。   In the case of expression method 2, "Rika Mochizuki, Shinichiro Nagatoku, Manabu Mogi, Takashi Yagi, Nobuhiro Muto, Toru Kobayashi," Proposal of Kansei Communication Realization Utilizing Life Log-Verification of Information Transmission Effect with Reality ", Information The method described in “Journal of Processing Society of Japan, Vol. 53, No. 1, pp. 30-38, 2012” (hereinafter referred to as “reference document 1”) may be used. In this case, since multi-dimensional numerical values (for example, sweetness 5, popularity 10, etc.) representing the features of the target thing and the comparative thing are necessary as input, for example, the co-occurrence word of the target information and the co-occurrence of each comparison information The words are extracted by the co-occurrence word search tool “http://neoinspire.net/cooccur/”, etc., the top 20 co-occurrence words and their co-occurrence frequencies are obtained, and the acquired co-occurrence words and the co-occurrence frequencies are obtained. Is applied to the equation (1) of P33 of Reference Document 1, and the thing information (comparison information) of the comparative thing with the highest equivalence (similarity) is acquired. In this case, a co-occurrence word may be applied to each parameter in FIG. 4 of Reference 1 and a co-occurrence frequency may be applied to a vector of each parameter. The thing information of the thing similar to each comparison thing should just be acquired from object information and other comparison information similarly. Therefore, the information source D1 for the expression method 2 is, for example, a co-occurrence word extraction tool.

表現方法3の場合、ショッピングサイトから対象事物に関するカスタマーレビューを引用する、等の方法によって要約の対象とする評価情報を取得する。取得した評価情報について、例えば、「田窪直人, 鈴木良弥, "自動抽出した利用者の視点によるレビュー要約", 言語処理学会第18回年次大会発表論文集, pp.295-298, 2012.」(以下、「参考文献2」という。)に記載された方法を利用して要約を生成してもよい。なお、参考文献2では、ユーザによるキーワードの選択が必要とされているが、選択候補のキーワードの中で、例えば、出現回数が最高の候補を表現度算出部13が自動的に選択して要約を生成してもよい。各比較事物に関する要約も同様に生成されればよい。したがって、表現方法3についての情報源D1は、例えば、ショッピングサイトである。   In the case of the expression method 3, evaluation information to be summarized is acquired by a method such as quoting a customer review regarding a target thing from a shopping site. For the evaluation information obtained, for example, “Naoto Takubo, Ryoya Suzuki,“ Review summary from the user's viewpoint extracted automatically ”, Proc. Of the 18th Annual Conference of the Language Processing Society, pp.295-298, 2012.” A summary may be generated using the method described in (hereinafter referred to as “Reference Document 2”). In Reference 2, the user needs to select a keyword. Among the selection candidate keywords, for example, the expression calculation unit 13 automatically selects and summarizes the candidate having the highest appearance count. May be generated. A summary for each comparison item may be generated as well. Therefore, the information source D1 for the expression method 3 is, for example, a shopping site.

続いて、表現度算出部13は、対象事物及び比較事物のそれぞれごとに取得した表現情報を用いて、対象事物及び比較事物のそれぞれごとに各表現方法の分かり易さ又は各表現方法の事物の説明としての適切さを定量的に示す指標(以下、「表現度」という。)を算出する(S7)。すなわち、或る事物に関する各表現方法の表現度は、当該事物に関して取得された表現情報が当該事物の説明としてどの程度分かりやすいのか又はどの程度適切であるのかを示す数値であり、その算出方法は表現方法ごとに異なってよい。   Subsequently, the expression degree calculation unit 13 uses the expression information acquired for each of the target thing and the comparative thing, and makes it easy to understand each expression method for each of the target thing and the comparative thing. An index (hereinafter referred to as “expression”) that quantitatively indicates appropriateness as an explanation is calculated (S7). In other words, the degree of expression of each expression method related to a certain thing is a numerical value indicating how easily the expression information acquired regarding the object is easy to understand as an explanation of the object or how appropriate the calculation method is. It may be different for each expression method.

例えば、表現方法1の場合は、タグ情報として取得した単語と、対象情報(例えば、「かるかん」)に関する辞書の説明文に含まれる単語との一致度が表現度とされてもよい。対象情報に関する辞書の説明文とは、例えば、対象情報をインターネット等において提供されている辞書で調べた場合に得られる説明文をいう。また、タグ情報として取得した単語と、当該説明文に含まれる単語との一致度とは、タグ情報の総数に対する、当該説明文に含まれるタグ情報の数の割合である。例えば、タグ情報が10個であり、このうち5個のタグ情報と一致する単語が説明文に含まれる場合、表現度は0.5となる。なお、各比較事物の表現情報についても同様に表現度が算出されればよい。   For example, in the case of the expression method 1, the degree of matching may be a degree of matching between a word acquired as tag information and a word included in an explanatory text of a dictionary related to target information (for example, “Karukan”). The explanatory text of the dictionary related to the target information refers to an explanatory text obtained when the target information is examined using a dictionary provided on the Internet or the like. The degree of coincidence between the word acquired as tag information and the word included in the explanatory text is the ratio of the number of tag information included in the explanatory text to the total number of tag information. For example, if there are 10 pieces of tag information and a word that matches 5 pieces of tag information is included in the explanatory text, the degree of expression is 0.5. It should be noted that the degree of expression may be similarly calculated for the expression information of each comparative thing.

また、表現方法2の場合は、参考文献1の方法によって算出された等価性(対象事物と最も類似している比較事物との類似度)がそのまま表現度とされてもよい。各比較事物の表現情報についても同様に表現度が算出されればよい。   In the case of the expression method 2, the equivalence (similarity with the comparative thing that is most similar to the target thing) calculated by the method of Reference 1 may be used as the degree of expression as it is. The degree of expression may be similarly calculated for the expression information of each comparative thing.

また、表現方法3の場合は、対象事物の評価情報から抽出されたキーワードのうち、作成された要約に含まれたキーワードの出現回数の合計値が表現度とされてもよい。各比較事物の表現情報についても同様に表現度が算出されればよい。   In the case of the expression method 3, among the keywords extracted from the evaluation information of the target thing, the total value of the number of appearances of the keywords included in the created summary may be used as the expression level. The degree of expression may be similarly calculated for the expression information of each comparative thing.

なお、いずれの場合であっても、表現度の値は高いほど(大きいほど)分かり易さが高くなるように算出されることとする。   In any case, it is assumed that the higher the degree of expression (the larger the value), the higher the understandability.

対象事物及び各比較事物について表現方法ごとに算出された表現度は、共通指標算出部14へ送信される。   The degree of expression calculated for each expression method for the target thing and each comparative thing is transmitted to the common index calculation unit 14.

続いて、共通指標算出部14は、表現方法ごとの表現度について、同じ基準で比較可能とするための共通指標への換算を実行する(S8)。すなわち、対象事物に関する表現方法1〜3の優劣を比較したいところ、表現方法ごとに個別の尺度である表現度を用いるのは適切ではない。そこで、各表現方法の表現度を正規化するようなイメージで尺度を揃えるために、各表現方法の表現度について共通指標が算出される。なお、共通指標は、表現方法ごとに算出される。すなわち、対象事物及び各比較事物のそれぞれについての表現方法N(N=1,2,3)の表現度に基づいて、表現方法Nの共通指標が算出される。したがって、本実施の形態では3つの共通指標が得られる。   Subsequently, the common index calculation unit 14 converts the expression level for each expression method into a common index for enabling comparison with the same standard (S8). That is, when it is desired to compare the superiority or inferiority of the expression methods 1 to 3 related to the object, it is not appropriate to use the expression level which is an individual scale for each expression method. Therefore, in order to align the scale with an image that normalizes the expression level of each expression method, a common index is calculated for the expression level of each expression method. The common index is calculated for each expression method. That is, the common index of the expression method N is calculated based on the expression degree of the expression method N (N = 1, 2, 3) for each of the target thing and each comparative thing. Therefore, three common indices are obtained in the present embodiment.

具体的には、各表現方法の共通指標は、対象事物及び比較事物のそれぞれについて当該表現方法について算出された表現度の分布に基づいて、対象事物の表現度がもつ重みの程度を示す値として算出される。すなわち、各表現方法の表現度の分布は、各表現方法傾向を表しているといえるから、当該分布に基づいて当該傾向の表現度への影響を低下させる(当該影響の一部又は全部を除去(捨象)する)ことで、表現方法ごとに異なる基準で算出された表現度を、「(ユーザによって指定された)ジャンル全体に対する相対的な分かり易さ」という共通指標に変換(換算)することができる。その結果、表現方法1〜3を同じ基準で比較することができる。   Specifically, the common index of each expression method is a value indicating the degree of weight of the expression of the target object based on the distribution of expression calculated for the expression method for each of the target object and the comparative object. Calculated. In other words, the expression distribution of each expression method can be said to represent each expression method tendency, and hence the influence on the expression of the tendency is reduced based on the distribution (a part or all of the influence is removed). By converting (converting), the degree of expression calculated based on different standards for each expression method is converted (converted) into a common index “relative ease of understanding for the entire genre (specified by the user)” Can do. As a result, the expression methods 1 to 3 can be compared on the same basis.

具体的な換算方法としては、例えば、得られた数値データをもとに母集団の分布を推定し、入力値の密度(頻出度合い)を推定する、以下の式1に示されるカーネル密度推定の式を用いて、表現方法iの対象事物及び比較事物の各表現度の分布f(x)を算出する。 As a specific conversion method, for example, the distribution of the population is estimated based on the obtained numerical data, and the density of the input value (degree of frequent occurrence) is estimated. A distribution f i (x) of each expression degree of the target thing and the comparative thing of the expression method i is calculated using the expression.

Figure 2019008395
図8に、各表現方法の表現度の分布の一例を示す。
Figure 2019008395
FIG. 8 shows an example of the expression level distribution of each expression method.

そして、相対的に頻出度合い(出現頻度)が低く、相対的に表現度が大きい場合に、共通指標が大きくなることを算出方針として、表現方法iの表現度の分布f(x)における対象事物の表現度aの共通指標を以下の式によって算出することができる。 Then, when the frequency of appearance (appearance frequency) is relatively low and the expression level is relatively high, the target in the distribution f i (x) of the expression level of the expression method i is set as a calculation policy that the common index is increased. A common index of the degree of expression a of things can be calculated by the following formula.

共通指標=a/f(a)
例えば、同じ0.9という表現度であっても、同じ表現方法における他の表現度のほとんどが0.9である場合には頻出度合いは高くなり、共通指標の値は低くなる。逆に、他の表現度が0.1ばかりである場合には頻出度合いは低くなり、共通指標の値は高くなる。
Common index = a / f i (a)
For example, even if the degree of expression is the same 0.9, when most of the other degrees of expression in the same expression method are 0.9, the frequency of occurrence is high and the value of the common index is low. On the other hand, when the other degree of expression is only 0.1, the frequency of occurrence is low and the value of the common index is high.

例えば、対象事物「かるかん」の表現方法1の表現度が0.5、表現方法2の表現度が0.9、表現方法3の表現度が0.75である場合、各表現方法に対する共通指標は以下のように算出される。   For example, when the expression level 1 of the expression “Karukan” is 0.5, the expression level 2 is 0.9, and the expression level 3 is 0.75, the common index for each expression method Is calculated as follows.

表現方法1に対する共通指標=0.5/f(0.5)
表現方法2に対する共通指標=0.9/f(0.9)
表現方法3に対する共通指標=0.75/f(0.75)
算出された各共通指標は、表示整形部16へ送信される。
Common index for expression method 1 = 0.5 / f 1 (0.5)
Common index for expression method 2 = 0.9 / f 2 (0.9)
Common index for expression method 3 = 0.75 / f 3 (0.75)
Each calculated common index is transmitted to the display shaping unit 16.

続いて、提示ルール取得部15は、ステップS4において受信部11から送信された提示環境情報に対応する提示ルール(以下、「対象提示ルール」という。)を提示ルール定義DB130から取得し、当該提示ルールを表示整形部16へ送信する(S9)。例えば、提示環境情報が「スマートフォン」であった場合、図6において「スマートフォン」に対応する「1コンテンツ以内、うち一つが画像コンテンツならば2コンテンツ以内、文字コンテンツの場合は文字サイズ18px以上で300文字以内とする」という提示ルールが取得される。   Subsequently, the presentation rule acquisition unit 15 acquires a presentation rule (hereinafter referred to as “target presentation rule”) corresponding to the presentation environment information transmitted from the reception unit 11 in step S4 from the presentation rule definition DB 130, and presents the presentation rule. The rule is transmitted to the display shaping unit 16 (S9). For example, when the presentation environment information is “smartphone”, “within 1 content corresponding to“ smartphone ”in FIG. 6, within 2 content if one of them is an image content, and 300 for text content with a character size of 18 px or more. The presentation rule “within characters” is acquired.

このように、提示ルールは、提示環境に応じて、出力する表現方法の数や条件が定義された情報である。提示ルール定義DB130の設定方法として、例えばスマートフォンのような小さい画面では提示する表現方法の数を少なくしたり、文字サイズや文字数の限度を指定したりする、などの方法が考えられる。その際に、表現方法1の共通指標の値が閾値以上の場合に画像コンテンツは必ず一つ表示する、などの条件を加えることも考えられる。   Thus, the presentation rule is information in which the number of expression methods and conditions to be output are defined according to the presentation environment. As a setting method of the presentation rule definition DB 130, for example, a method of reducing the number of presentation methods to be presented on a small screen such as a smartphone or designating a limit on the character size or the number of characters can be considered. At that time, it is conceivable to add a condition such that one image content is always displayed when the value of the common index of the expression method 1 is equal to or greater than a threshold value.

続いて、表示整形部16は、表現方法ごとの共通指標、対象事物の表現情報、及び対象提示ルールに基づいて提示情報を生成する(S10)。提示情報にコンテンツとして含める(提示情報に使用する)表現情報の選択順は、各表現情報に係る表現方法について算出された共通指標の値が大きい順番に従う。したがって、提示ルールにおいて、コンテンツの数が2以下である場合、共通指標が最低である表現方法に係る表現情報は提示情報に含まれない。   Subsequently, the display shaping unit 16 generates presentation information based on the common index for each expression method, the expression information of the target thing, and the target presentation rule (S10). The selection order of the expression information to be included as content in the presentation information (used for presentation information) follows the order in which the value of the common index calculated for the expression method related to each expression information is large. Therefore, in the presentation rule, when the number of contents is 2 or less, the presentation information related to the presentation method having the lowest common index is not included in the presentation information.

例えば、図9に示されるように対象情報「かるかん」、ジャンル名「和菓子」が入力された場合、提示環境が「スマートフォン」であれば、コンテンツのうち1つが画像コンテンツであれば2コンテンツ以内であるため、各表現方法について算出された共通指標の上位2件である表現方法1(画像で説明)の表現情報と表現方法2(たとえで説明)の表現情報とが提示情報に含めるコンテンツとして選ばれる。提示する際の各コンテンツの表示方法は、画面の任意位置とし、画像を含む場合は上部に画像、下部に文字、等の位置関係の設定をしてもよい。   For example, as shown in FIG. 9, when the target information “Karukan” and the genre name “Japanese confectionery” are input, if the presentation environment is “smartphone”, if one of the contents is an image content, the content is within two contents. Therefore, the expression information of expression method 1 (explained in image) and the expression information of expression method 2 (explained in illustration), which are the top two common indices calculated for each expression method, are selected as contents to be included in the presentation information. It is. The display method of each content at the time of presentation may be an arbitrary position on the screen. If an image is included, the positional relationship such as an image at the top and characters at the bottom may be set.

続いて、表示整形部16は、提示情報を送信部17に送信する(S11)。送信部17は、当該提示情報を利用者端末20へ送信する(S12)。その結果、利用者端末20において提示情報が表示される。   Subsequently, the display shaping unit 16 transmits the presentation information to the transmission unit 17 (S11). The transmission unit 17 transmits the presentation information to the user terminal 20 (S12). As a result, the presentation information is displayed on the user terminal 20.

以上の処理により、ユーザが入力した任意の対象情報について、異なる表現方法を共通の基準で比較できるようにし、相対的に分かりやすい表現方法での説明を提示することができる。   With the above processing, it is possible to compare different expression methods based on a common standard for arbitrary target information input by the user, and to present a description in a relatively easy-to-understand expression method.

上述したように、本実施の形態によれば、任意の事物について、相対的に分かりやすい表現方法を自動で選択できることで、事物の効率的な理解を支援することができる。同じ基準で比較できない異なる表現方法の分かり易さを共通の基準で比較できるため、小さい画面など提示できる情報量に制限がある場合にも、共通指標に基づいて優先して適切な表現方法を選ぶことができる。   As described above, according to the present embodiment, it is possible to automatically select a relatively easy-to-understand expression method for an arbitrary thing, thereby supporting efficient understanding of the thing. Easily understand different expression methods that cannot be compared with the same standard, and compare with a common standard, so even if there is a limit to the amount of information that can be presented, such as a small screen, select an appropriate expression method with priority based on a common indicator be able to.

なお、本実施の形態において、対象事物は、第1の事物の一例である。比較事物は、第2の事物の一例である。表現度算出部13は、取得部及び第1の算出部の一例である。共通指標算出部14は、第2の算出部の一例である。表示整形部16は、選択部の一例である。   In the present embodiment, the target thing is an example of the first thing. The comparative thing is an example of the second thing. The expression level calculation unit 13 is an example of an acquisition unit and a first calculation unit. The common index calculation unit 14 is an example of a second calculation unit. The display shaping unit 16 is an example of a selection unit.

以上、本発明の実施の形態について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   Although the embodiments of the present invention have been described in detail above, the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims. Deformation / change is possible.

10 理解支援装置
11 受信部
12 条件抽出部
13 表現度算出部
14 共通指標算出部
15 提示ルール取得部
16 表示整形部
17 送信部
20 利用者端末
100 ドライブ装置
101 記録媒体
102 補助記憶装置
103 メモリ装置
104 CPU
105 インタフェース装置
120 比較対象定義DB
130 提示ルール定義DB
B バス
DESCRIPTION OF SYMBOLS 10 Comprehension support apparatus 11 Receiving part 12 Condition extraction part 13 Expression degree calculation part 14 Common index calculation part 15 Presentation rule acquisition part 16 Display shaping part 17 Transmission part 20 User terminal 100 Drive apparatus 101 Recording medium 102 Auxiliary storage apparatus 103 Memory apparatus 104 CPU
105 Interface device 120 Comparison target definition DB
130 Presentation rule definition DB
B bus

Claims (6)

第1の事物と、前記第1の事物に関連を有する1以上の第2の事物とのそれぞれについて、複数種類の表現方法による表現情報を取得する取得手順と、
前記第1の事物及び前記各第2の事物のそれぞれの各表現方法による表現情報について、対応する事物の説明の適切さを定量的に示す表現度を算出する第1の算出手順と、
前記表現方法ごとに、前記表現度の分布に基づいて当該表現方法の傾向の前記表現度への影響を低下させた共通指標を前記第1の事物の前記表現度について算出する第2の算出手順と、
前記共通指標に基づいて、前記第1の事物の説明に使用する表現情報を選択する選択手順と、
をコンピュータが実行することを特徴とする理解支援方法。
An acquisition procedure for acquiring expression information by a plurality of types of expression methods for each of the first thing and one or more second things related to the first thing;
A first calculation procedure for calculating a degree of expression that quantitatively indicates the appropriateness of the explanation of the corresponding thing with respect to the expression information by each expression method of each of the first thing and the second thing;
A second calculation procedure for calculating, for each expression method, a common index for the expression degree of the first thing, in which the influence of the tendency of the expression method on the expression degree is reduced based on the distribution of the expression degree. When,
A selection procedure for selecting expression information to be used for explanation of the first thing based on the common indicator;
An understanding support method characterized in that a computer executes.
前記第2の算出手順は、前記分布において記第1の事物の表現度の出現頻度が相対的に低く、当該表現度が相対的に大きい場合に前記共通指標が大きくなるように、前記共通指標を算出する、
ことを特徴とする請求項1記載の理解支援方法。
In the second calculation procedure, the common index is increased so that the frequency of appearance of the first thing in the distribution is relatively low and the common index is large when the expression is relatively large. To calculate,
The understanding support method according to claim 1, wherein:
前記複数種類の表現方法は、画像による表現、たとえによる表現、及び事物の評価情報の要約による表現のいずれか1以上を含む、
ことを特徴とする請求項1又は2記載の理解支援方法。
The plurality of types of expression methods include one or more of an expression by an image, an expression by an analogy, and an expression by a summary of evaluation information of things.
The understanding support method according to claim 1 or 2, characterized in that:
前記選択手順は、更に、前記表現情報の出力先の種別に応じて定義された規則情報に基づいて、前記第1の事物の説明に使用する表現情報を選択する、
ことを特徴とする請求項1乃至3いずれか一項記載の理解支援方法。
The selection procedure further selects expression information to be used for explanation of the first thing based on rule information defined according to a type of output destination of the expression information.
The understanding support method according to any one of claims 1 to 3.
第1の事物と、前記第1の事物に関連を有する1以上の第2の事物とのそれぞれについて、複数種類の表現方法による表現情報を取得する取得部と、
前記第1の事物及び前記各第2の事物のそれぞれの各表現方法による表現情報について、対応する事物の説明の適切さを定量的に示す表現度を算出する第1の算出部と、
前記表現方法ごとに、前記表現度の分布に基づいて当該表現方法の傾向の前記表現度への影響を低下させた共通指標を前記第1の事物の前記表現度について算出する第2の算出部と、
前記共通指標に基づいて、前記第1の事物の説明に使用する表現情報を選択する選択部と、
を有することを特徴とする理解支援装置。
An acquisition unit that acquires expression information by a plurality of types of expression methods for each of the first thing and one or more second things related to the first thing;
A first calculation unit that calculates an expression that quantitatively indicates the appropriateness of the explanation of the corresponding thing for the expression information by each expression method of each of the first thing and the second thing;
A second calculation unit that calculates, for each expression method, a common index for which the influence of the tendency of the expression method on the expression level is reduced based on the distribution of the expression level for the expression level of the first thing. When,
A selection unit that selects expression information used to describe the first thing based on the common index;
An understanding support apparatus characterized by comprising:
請求項1乃至4いずれか一項記載の理解支援方法をコンピュータに実行させることを特徴とするプログラム。   A program for causing a computer to execute the understanding support method according to any one of claims 1 to 4.
JP2017121291A 2017-06-21 2017-06-21 Understanding support methods, understanding support devices and programs Active JP6904092B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017121291A JP6904092B2 (en) 2017-06-21 2017-06-21 Understanding support methods, understanding support devices and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017121291A JP6904092B2 (en) 2017-06-21 2017-06-21 Understanding support methods, understanding support devices and programs

Publications (2)

Publication Number Publication Date
JP2019008395A true JP2019008395A (en) 2019-01-17
JP6904092B2 JP6904092B2 (en) 2021-07-14

Family

ID=65026800

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017121291A Active JP6904092B2 (en) 2017-06-21 2017-06-21 Understanding support methods, understanding support devices and programs

Country Status (1)

Country Link
JP (1) JP6904092B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011257891A (en) * 2010-06-08 2011-12-22 Yahoo Japan Corp Search apparatus
JP2016081213A (en) * 2014-10-15 2016-05-16 株式会社日立製作所 System, method, and program for supporting visualization means selection

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011257891A (en) * 2010-06-08 2011-12-22 Yahoo Japan Corp Search apparatus
JP2016081213A (en) * 2014-10-15 2016-05-16 株式会社日立製作所 System, method, and program for supporting visualization means selection

Also Published As

Publication number Publication date
JP6904092B2 (en) 2021-07-14

Similar Documents

Publication Publication Date Title
US20240078386A1 (en) Methods and systems for language-agnostic machine learning in natural language processing using feature extraction
JP2015191655A (en) Method and apparatus for generating recommendation page
GB2531856A (en) Adaptive modification of content presented in electronic forms
US20150379610A1 (en) Recommendation information presentation device, recommendation information presentation method, and recommendation information presentation program
CN107798622B (en) Method and device for identifying user intention
US11675845B2 (en) Identifying merchant data associated with multiple data structures
US20190377741A1 (en) Ranking search result documents
CN110059172B (en) Method and device for recommending answers based on natural language understanding
JP2015203961A (en) document extraction system
US20220004885A1 (en) Computer system and contribution calculation method
US10402449B2 (en) Information processing system, information processing method, and information processing program
CN111737607B (en) Data processing method, device, electronic equipment and storage medium
US10614498B2 (en) System, method, and non-transitory computer-readable storage media for efficient storage, processing and exchange of product information
CN116127066A (en) Text clustering method, text clustering device, electronic equipment and storage medium
JP6904092B2 (en) Understanding support methods, understanding support devices and programs
TWI547888B (en) A method of recording user information and a search method and a server
US20220019582A1 (en) Information computing apparatus, information computing method, and non-transitory computer readable storage medium
JP5368900B2 (en) Information presenting apparatus, information presenting method, and program
US11106737B2 (en) Method and apparatus for providing search recommendation information
CN113779362A (en) Data searching method and device
WO2015159702A1 (en) Partial-information extraction system
CN110110199B (en) Information output method and device
CN113656443B (en) Data disassembling method and device, electronic equipment and storage medium
JP6506839B2 (en) Dissatisfied information processing device and system
CN111274383A (en) Method and device for classifying objects applied to quotation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210607

R150 Certificate of patent or registration of utility model

Ref document number: 6904092

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150