JP2010277363A - Feeling information expression server, feeling information expression system, and feeling expression method - Google Patents

Feeling information expression server, feeling information expression system, and feeling expression method Download PDF

Info

Publication number
JP2010277363A
JP2010277363A JP2009129458A JP2009129458A JP2010277363A JP 2010277363 A JP2010277363 A JP 2010277363A JP 2009129458 A JP2009129458 A JP 2009129458A JP 2009129458 A JP2009129458 A JP 2009129458A JP 2010277363 A JP2010277363 A JP 2010277363A
Authority
JP
Japan
Prior art keywords
sensory
term
client terminal
dictionary
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009129458A
Other languages
Japanese (ja)
Other versions
JP5220684B2 (en
Inventor
Yu Miyazaki
祐 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2009129458A priority Critical patent/JP5220684B2/en
Publication of JP2010277363A publication Critical patent/JP2010277363A/en
Application granted granted Critical
Publication of JP5220684B2 publication Critical patent/JP5220684B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a feeling information expression server, a feeling information expression system, and a feeling information expression method, for easily obtaining a feeling with respect to an obtained image. <P>SOLUTION: The feeling information expression method includes: a step for acquiring text data collected from a Web; a step for generating a feeling dictionary by associating a word of object indicating an object appearing in the acquired text data with a feeling term having a co-occurrence relationship with the word of object according to the degree of co-occurrence; a step for specifying an object associated with the word of object from input image data; a step for determining the feeling term having the co-occurrence relationship with the word of object corresponding to the specified object based on the generated feeling dictionary; and a step for transmitting the determined feeling term and the image data. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像に対する感覚情報の表現を実現する感覚情報表現サーバ、感覚情報表現システム、及び感覚情報表現方法に関する。   The present invention relates to a sensory information expression server, a sensory information expression system, and a sensory information expression method that realize expression of sensory information for an image.

従来、CG(Computer Graphics)などの仮想物体と、現実空間とを重ね合わせて表示する拡張現実感(Augmented Reality)の技術を利用したシステムが知られている。   2. Description of the Related Art Conventionally, systems using augmented reality technology that displays a virtual object such as CG (Computer Graphics) and a real space in an overlapping manner are known.

このような状況において、例えば特許文献1には、多数の種類の仮想物体を、現実空間の撮影画像の上に合成して合成画像として表示することができる拡張現実感システムが提案されている。   In such a situation, for example, Patent Document 1 proposes an augmented reality system that can synthesize a large number of types of virtual objects on a photographed image in real space and display it as a synthesized image.

特開2005−250950号公報JP 2005-250950 A

しかし、このような拡張現実感を利用したシステムを利用して、合成画像を取得した場合であっても、単に、現実空間に対し仮想物体を合成して合成画像を取得できるに過ぎなかった。したがって、画像を取得したユーザーは、合成された画像を実際に視認することにより、この画像に対する意図や思惑を自ら想像しなければならず、得られた画像に対する感覚を容易に得ることができなかった。   However, even when a composite image is acquired using a system that uses such augmented reality, the composite image can only be acquired by synthesizing a virtual object with the real space. Therefore, the user who acquired the image must imagine the intention and speculation for this image by actually visually recognizing the synthesized image, and cannot easily get a sense for the obtained image. It was.

そこで本発明は、得られた画像に対する感覚を容易に得ることができる感覚情報表現サーバ、感覚情報表現システム、及び感覚情報表現方法を提供することを目的とする。   Therefore, an object of the present invention is to provide a sensory information expression server, a sensory information expression system, and a sensory information expression method capable of easily obtaining a sense of an obtained image.

(1) 画像に対する感覚情報の表現を実現する感覚情報表現サーバであって、Web上から収集されたテキストデータを取得するテキストデータ取得手段と、前記テキストデータ取得手段により取得された前記テキストデータに出現する事物を表す事物単語と、前記事物単語と共起の関係にある用語であって人間が感じる感覚を表す感覚用語と、を共起度に応じて関連付けた感覚辞書を生成する感覚辞書生成手段と、クライアント端末において入力された画像データから前記事物単語に対応する対象物を特定する対象物特定手段と、前記感覚辞書生成手段により生成された前記感覚辞書に基づき、前記対象物特定手段により特定された前記対象物に対応する前記事物単語と共起の関係にある前記感覚用語を決定する感覚用語決定手段と、前記画像データと前記感覚用語決定手段により決定された前記感覚用語とを前記クライアント端末に送信する送信手段と、を備えたことを特徴とする感覚情報表現サーバ。   (1) A sensory information expression server that realizes expression of sensory information for an image, the text data acquiring unit acquiring text data collected from the Web, and the text data acquired by the text data acquiring unit A sensory dictionary that generates a sensory dictionary in which an object word representing an appearing object and a sensory term representing a sense felt by humans that are co-occurring with the object word are associated according to the degree of co-occurrence. Based on the generating means, the object specifying means for specifying the object corresponding to the thing word from the image data input at the client terminal, and the sensory dictionary generated by the sensory dictionary generating means, the object specifying Sensory term determining means for determining the sensory term in co-occurrence with the thing word corresponding to the object identified by the means; Sensory information representing the server, characterized in that the said sensory terms as determined by the image data and the sensory terms determining means comprising a transmission means for transmitting to said client terminal.

(1)の感覚情報表現サーバによれば、クライアント端末において入力された画像データから事物単語に対応する対象物が特定される。そして、特定された対象物に対応する事物単語と、共起の関係にある感覚用語が、クライアント端末において入力された画像データとともに送信される。すなわち、クライアント端末において入力された画像に対して意味合いに関連性の高い感覚用語が画像データとともにクライアント端末に送信される。その結果、得られた画像に対する感覚を当該感覚情報表現サーバを介して容易に得ることができる。   According to the sensory information expression server of (1), the object corresponding to the thing word is specified from the image data input at the client terminal. And the thing word corresponding to the specified target object and the sensory term having a co-occurrence relationship are transmitted together with the image data input at the client terminal. That is, sensory terms that are highly relevant to the image input at the client terminal are transmitted to the client terminal together with the image data. As a result, a feeling for the obtained image can be easily obtained via the sensory information expression server.

また、ユーザーが伝達しようとする画像の対象物に対して、複数の感覚用語の中から今現在ブログやニュース配信サイトなどのWeb上において流行している感覚用語が決定することができる。その結果、ユーザーが伝達しようとしている画像に対応する事物単語と意味的に関連性が強く、かつ、現在の流行に対応した感覚を容易に得ることができる。   In addition, a sensory term currently popular on the Web such as a blog or a news distribution site can be determined from a plurality of sensory terms for an object of an image to be transmitted by a user. As a result, it is possible to easily obtain a sense corresponding to the current fashion, which is strongly related to an object word corresponding to an image to be transmitted by the user and semantically strong.

また、事物単語に対して、共起度に応じて複数の感覚用語を決定することができる。その結果、例えば、ユーザーが伝達しようとする画像の対象物に対し、共起度が高い順に感覚用語を2つ決定して、その2つの感覚用語を画像データとともに送信することで、その画像に対するより強い感覚を容易に得ることができる。   In addition, a plurality of sensory terms can be determined according to the degree of co-occurrence with respect to a thing word. As a result, for example, by determining two sensory terms in descending order of co-occurrence for the object of the image to be transmitted by the user, and transmitting the two sensory terms together with the image data, A stronger sense can be easily obtained.

(2) 前記クライアント端末において入力される前記画像データは、地名に対応する対象物を備えた地図データに関し、前記地名及び、前記地名に対応し前記クライアント端末において前記感覚用語の表示を行う位置情報を格納する位置情報格納手段と、を備え、前記感覚辞書生成手段は、前記テキストデータ取得手段により取得された前記テキストデータに出現する地名と、前記地名と共起の関係にある用語であって人間が感じる感覚を表す感覚用語と、を共起度に応じて関連付けた感覚辞書を生成し、前記対象物特定手段は、前記クライアント端末において入力された前記地図データから前記地名に対応する対象物を特定し、前記感覚用語決定手段は、前記感覚辞書生成手段により生成された前記感覚辞書に基づき、前記対象物特定手段により特定された前記対象物に対応する前記地名と共起の関係にある前記感覚用語を決定し、前記送信手段は、前記地図データと前記感覚用語決定手段により決定された前記感覚用語と前記対象物特定手段により特定された前記対象物の地名に対応する位置情報とを送信することを特徴とする(1)に記載の感覚情報表現サーバ。   (2) The image data input at the client terminal relates to map data including an object corresponding to a place name, and positional information for displaying the place name and the sensory term corresponding to the place name at the client terminal. The sensory dictionary generating means is a term co-occurring with the place name appearing in the text data acquired by the text data acquiring means. A sensory dictionary in which sensory terms representing human senses are associated with each other according to a co-occurrence degree is generated, and the target object specifying unit is a target object corresponding to the place name from the map data input in the client terminal. And the sensory term determining means is configured to determine the object specifying hand based on the sensory dictionary generated by the sensory dictionary generating means. The sensory term co-occurring with the place name corresponding to the object specified by the object is determined, and the transmitting unit is configured to determine the sensory term determined by the map data and the sensory term determining unit and the target. The sensory information expression server according to (1), wherein position information corresponding to the place name of the object specified by the object specifying means is transmitted.

(2)の感覚情報表現サーバによれば、クライアント端末において入力された地名に対応する対象物を備えた地図データから、該地名に対応する対象物が特定される。そして、特定された対象物に対応する地名と共起の関係にある感覚用語、及び、特定された対象物の地名に対応する位置情報が、クライアント端末において入力された地図データとともに送信される。その結果、地名に対する感覚を、当該感覚情報表現サーバを介して容易に得ることができる。   According to the sensory information expression server of (2), the object corresponding to the place name is specified from the map data including the object corresponding to the place name input at the client terminal. Then, sensory terms co-occurring with the place name corresponding to the specified object and the position information corresponding to the place name of the specified object are transmitted together with the map data input at the client terminal. As a result, a sense for the place name can be easily obtained via the sense information expression server.

(3) 前記感覚用語は、嗅覚、触覚又は味覚に関する心的現象を表す形容詞であることを特徴とする(1)又は(2)に記載の感覚情報表現サーバ。(3)の感覚情報表現サーバによれば、視認するだけでは伝達することが特に困難な感覚である嗅覚、触覚及び味覚を容易に得ることができる。   (3) The sensory information representation server according to (1) or (2), wherein the sensory term is an adjective representing a mental phenomenon related to olfaction, touch, or taste. According to the sensory information expression server of (3), it is possible to easily obtain an olfactory sense, a tactile sensation, and a taste sense that are particularly difficult to convey only by visual recognition.

(4) クライアント端末における画像に対する感覚情報の表現を感覚情報表現サーバを介して実現する感覚情報表現システムであって、前記クライアント端末は、被写体を撮像する撮像手段と、前記撮像手段により撮像された画像データを送信する画像データ送信手段と、外部から画像データを受信する受信手段と、前記受信手段により受信した画像データを表示する表示手段と、を備え、前記感覚情報表現サーバは、Web上から収集されたテキストデータを取得するテキストデータ取得手段と、前記テキストデータ取得手段により取得された前記テキストデータに出現する事物を表す事物単語と、前記事物単語と共起の関係にある用語であって人間が感じる感覚を表す感覚用語と、を共起度に応じて関連付けた感覚辞書を生成する感覚辞書生成手段と、前記クライアント端末において入力された画像データから前記事物単語に対応する対象物を特定する対象物特定手段と、前記感覚辞書生成手段により生成された前記感覚辞書に基づき、前記対象物特定手段により特定された前記対象物に対応する前記事物単語と共起の関係にある前記感覚用語を決定する感覚用語決定手段と、前記画像データ送信手段から送信された前記画像データと前記感覚用語決定手段により決定された前記感覚用語とを前記クライアント端末に送信する送信手段と、を備え、前記受信手段は、前記送信手段から送信された前記画像データと前記感覚用語とを受信し、前記表示手段は、前記受信手段により受信した前記画像データと前記感覚用語とを表示することを特徴とする感覚情報表現システム。   (4) A sensory information expression system that realizes expression of sensory information for an image on a client terminal via a sensory information expression server, wherein the client terminal is imaged by an imaging unit that images a subject, and the imaging unit An image data transmitting means for transmitting image data; a receiving means for receiving image data from the outside; and a display means for displaying the image data received by the receiving means. A text data acquisition means for acquiring the collected text data, an event word representing an event that appears in the text data acquired by the text data acquisition means, and a term co-occurring with the event word. A sensation that generates a sensation dictionary that associates sensation terms that express human sensations with the degree of co-occurrence The object generating unit, the object specifying unit for specifying the object corresponding to the thing word from the image data input at the client terminal, and the object dictionary based on the sensory dictionary generated by the sensory dictionary generating unit. Sensory term determining means for determining the sensory term co-occurring with the thing word corresponding to the object specified by the object specifying means, the image data transmitted from the image data transmitting means, and the Transmitting means for transmitting the sensory term determined by the sensory term determining means to the client terminal, and the receiving means receives the image data and the sensory term transmitted from the transmitting means, The sensory information expression system characterized in that the display means displays the image data and the sensory terms received by the receiving means.

(4)の感覚情報表現システムによれば、クライアント端末の撮像手段により撮像された画像データから事物単語に対応する対象物が特定される。そして、特定された対象物に対応する事物単語と、共起の関係にある感覚用語が、撮像手段により撮像された画像データとともに送信される。そして、クライアント端末は、送信された画像データと決定された感覚用語とを表示手段において表示する。その結果、撮像することにより得られた画像に対する感覚を当該感覚情報表現システムにより容易に得ることができる。   According to the sensory information expression system of (4), the object corresponding to the thing word is specified from the image data imaged by the imaging means of the client terminal. Then, the sense word having a co-occurrence relationship with the thing word corresponding to the identified target object is transmitted together with the image data imaged by the imaging means. Then, the client terminal displays the transmitted image data and the determined sensory term on the display means. As a result, it is possible to easily obtain a sense for an image obtained by taking an image by the sense information expression system.

(5) 画像に対する感覚情報の表現を実現する感覚情報表現方法であって、Web上から収集されたテキストデータを取得するテキストデータ取得ステップと、前記テキストデータ取得ステップにより取得された前記テキストデータに出現する事物を表す事物単語と、前記事物単語と共起の関係にある用語であって人間が感じる感覚を表す感覚用語とを共起度に応じて関連付けた感覚辞書を生成する感覚辞書生成ステップと、クライアント端末において入力された画像データから前記事物単語に対応する対象物を特定する対象物特定ステップと、前記感覚辞書生成ステップにより生成された前記感覚辞書に基づき、前記対象物特定ステップにより特定された前記対象物に対応する前記事物単語と共起の関係にある前記感覚用語を決定する感覚用語決定ステップと、前記画像データと前記感覚用語決定ステップにより決定された前記感覚用語とをクライアント端末に送信する送信ステップと、を備えたことを特徴とする感覚情報表現方法。   (5) A sensory information expression method that realizes expression of sensory information for an image, the text data acquisition step for acquiring text data collected from the Web, and the text data acquired by the text data acquisition step. Sensory dictionary generation that generates a sensory dictionary that associates an event word representing an appearing thing with a sensory term representing a sense felt by humans that is a term co-occurring with the event word according to the degree of co-occurrence The object specifying step based on the sensory dictionary generated by the sensory dictionary generated by the sensory step generated by the step, the target object specifying the target object corresponding to the thing word from the image data input at the client terminal A sense of determining the sensory term in co-occurrence with the thing word corresponding to the object identified by And terminology determining step, sensory information representing how to a transmission step, comprising the for transmitting said sensory terms determined by the sensory terms determining step and the image data to the client terminal.

(5)の感覚情報表現方法によれば、クライアント端末において入力された画像データから事物単語に対応する対象物が特定される。そして、特定された対象物に対応する事物単語と、共起の関係にある感覚用語が、クライアント端末において入力された画像データとともに送信される。その結果、クライアント端末において入力された画像に対する感覚を当該感覚情報表現方法により容易に得ることができる。   According to the sensory information expression method of (5), the object corresponding to the thing word is specified from the image data input at the client terminal. And the thing word corresponding to the specified target object and the sensory term having a co-occurrence relationship are transmitted together with the image data input at the client terminal. As a result, it is possible to easily obtain a feeling for an image input at the client terminal by the feeling information expression method.

本発明によれば、クライアント端末に入力された画像に対する感覚をユーザーが容易に得ることができる。   According to the present invention, a user can easily obtain a feeling for an image input to a client terminal.

本実施形態の感覚情報表現方法を実現するための感覚情報表現システムの構成例を示す図である。It is a figure which shows the structural example of the sensory information expression system for implement | achieving the sensory information expression method of this embodiment. 上記実施形態の事物単語DBを示す図である。It is a figure which shows the thing word DB of the said embodiment. 上記実施形態の感覚用語DBを示す図である。It is a figure which shows sensory term DB of the said embodiment. 上記実施形態の感覚辞書DBを示す図である。It is a figure which shows sensory dictionary DB of the said embodiment. 上記実施形態の画像辞書DBを示す図である。It is a figure which shows image dictionary DB of the said embodiment. 上記感覚情報表現システムを構成するブログサーバ、感覚情報表現サーバ、クライアント端末のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the blog server which comprises the said sensory information expression system, a sensory information expression server, and a client terminal. 上記実施形態の感覚情報表現方法の処理を示すフローチャートである。It is a flowchart which shows the process of the sensory information expression method of the said embodiment. 上記実施形態における画像の表示例を示す図である。It is a figure which shows the example of a display of the image in the said embodiment. 別実施形態の感覚情報表現方法を実現するための感覚情報表現システムの構成例を示す図である。It is a figure which shows the structural example of the sensory information expression system for implement | achieving the sensory information expression method of another embodiment. 別実施形態の位置情報DBを示す図である。It is a figure which shows position information DB of another embodiment. 別実施形態の感覚情報表現方法の処理を示すフローチャートである。It is a flowchart which shows the process of the sensory information expression method of another embodiment. 別実施形態における画像の表示例を示す図である。It is a figure which shows the example of a display of the image in another embodiment.

[第1実施形態]
本発明の感覚情報表現方法は、クライアント端末から入力された画像データと感覚用語とをクライアント端末に送信して、画像データに含まれる対象物に対してユーザーが感じる感覚を容易に得ることができるものであるところ、以下では、本発明の感覚情報表現方法を実現するために好適な感覚情報表現システム1について図1〜図8を参照しながら説明する。
[First Embodiment]
According to the sensory information expression method of the present invention, image data and sensory terms input from a client terminal can be transmitted to the client terminal, and a user can easily obtain a sensory feeling for an object included in the image data. In the following, a sensory information expression system 1 suitable for realizing the sensory information expression method of the present invention will be described with reference to FIGS.

[感覚情報表現システム1の構成例]
感覚情報表現システム1は、ブログサーバ10、感覚情報表現サーバ20、クライアント端末40により構成される。
[Configuration example of sensory information expression system 1]
The sensory information expression system 1 includes a blog server 10, a sensory information expression server 20, and a client terminal 40.

ブログサーバ10は、ブログ配信手段11により構成される。感覚情報表現サーバ20は、テキストデータ取得手段21、感覚辞書生成手段22、対象物特定手段23、感覚用語決定手段24、送信手段25、事物単語データベース(DB)30、感覚用語データベース(DB)31、感覚辞書データベース(DB)32、画像辞書データベース(DB)33により構成される。クライアント端末40は、撮像手段41、画像データ送信手段42、受信手段43、表示手段44により構成される。   The blog server 10 includes blog distribution means 11. The sensory information expression server 20 includes a text data acquisition unit 21, a sensory dictionary generation unit 22, an object identification unit 23, a sensory term determination unit 24, a transmission unit 25, a thing word database (DB) 30, and a sensory term database (DB) 31. , A sensory dictionary database (DB) 32 and an image dictionary database (DB) 33. The client terminal 40 includes an imaging unit 41, an image data transmission unit 42, a reception unit 43, and a display unit 44.

ブログサーバ10は、ブログ配信手段11を介してインターネット回線を通じて、ブログの書き込み記事を配信する。ここで、ブログの書き込み記事とは、個人や複数人のグループで運営される日記形式のテキストデータにより構成された記事である。   The blog server 10 distributes blog-written articles through the Internet via the blog distribution means 11. Here, the blog post article is an article composed of diary text data operated by an individual or a group of a plurality of people.

感覚情報表現サーバ20のテキストデータ取得手段21は、インターネット回線を通じて、ブログサーバ10のブログ配信手段11から配信されたブログ記事のテキストデータを取得する。ブログ記事のテキストデータの取得は、例えば、クローラーなどと呼ばれる自動的に各サーバを巡回してコンテンツを収集するソフトウェアを実行することにより実現する。なお、テキストデータの取得は、ブログサーバ10により配信されるブログ記事には限られない。例えば、このブログサーバ10の代わりに、SNSの書き込み記事が格納されたSNSサーバにより配信されるコンテンツや、ニュース配信サイトなどのニュースサーバにより配信されるテキストデータのコンテンツであってもよい。また、テキストデータの取得は、インターネット回線を通じたものに限られない。例えば、PAN(Personal Area Network)、LAN(Local Area Network)、WAN(Wide Area Network)などのネットワーク回線を通じてテキストデータの取得を行ってもよい。   The text data acquisition unit 21 of the sensory information expression server 20 acquires the text data of the blog article distributed from the blog distribution unit 11 of the blog server 10 through the Internet line. Acquisition of text data of a blog article is realized, for example, by executing software called a crawler that automatically circulates each server and collects content. The acquisition of text data is not limited to blog articles distributed by the blog server 10. For example, instead of the blog server 10, content distributed by an SNS server storing articles written by SNS or content of text data distributed by a news server such as a news distribution site may be used. Also, the acquisition of text data is not limited to being acquired through the Internet line. For example, text data may be acquired through a network line such as a PAN (Personal Area Network), a LAN (Local Area Network), or a WAN (Wide Area Network).

感覚辞書生成手段22は、テキストデータ取得手段21により取得されたテキストデータに出現する事物を表す事物単語と、この事物単語と共起の関係にある用語であって人間が感じる感覚を表す言葉、すなわち、人体の感覚器が受けたときに経験する心的現象を表す感覚用語と、を共起度に応じて関連付けた感覚辞書DB32の生成を行う。具体的には、テキストデータ取得手段により取得したテキストを形態素解析し、品詞に分類して、事物単語DB30に格納されている事物単語と、感覚用語DB31に格納されている感覚用語とを参照し、事物単語と感覚単語とを抽出する。そして、抽出された事物単語と、感覚用語との共起ヒット情報を共起度として計算して、事物単語と感覚用語との対応付け及び、事物単語とそれに対応する各感覚用語との共起度を感覚辞書DB32に格納し、感覚辞書DB32の生成を行う。   The sensation dictionary generation means 22 is a word that represents an object that appears in the text data acquired by the text data acquisition means 21, and a term that is a co-occurrence term with the event word and represents a sensation felt by humans. That is, the sensory dictionary DB 32 is generated in which sensory terms representing a mental phenomenon experienced when a human sensory organ receives are associated according to the co-occurrence degree. Specifically, the text acquired by the text data acquisition means is subjected to morphological analysis, classified into parts of speech, and the event words stored in the event word DB 30 and the sensory terms stored in the sensory term DB 31 are referred to. Extract thing words and sense words. Then, the co-occurrence hit information between the extracted event word and the sensory term is calculated as the co-occurrence degree, and the association between the event word and the sensory term and the co-occurrence of the event word and each sensory term corresponding thereto are performed. The degree is stored in the sensory dictionary DB 32 and the sensory dictionary DB 32 is generated.

クライアント端末40の撮像手段41は、ユーザーによる画像データの入力の受け付けを行うものである。すなわち、撮像手段41は、カメラレンズやCCD(Charge Coupled Device)などの撮像素子が設けられた撮像手段としてのカメラ機能を備える。画像データ送信手段42は、撮像手段41を介して入力された画像データを感覚情報表現サーバ20に送信するものである。   The imaging means 41 of the client terminal 40 accepts input of image data by the user. That is, the imaging unit 41 has a camera function as an imaging unit provided with an imaging element such as a camera lens or a CCD (Charge Coupled Device). The image data transmission unit 42 transmits the image data input via the imaging unit 41 to the sensory information expression server 20.

感覚情報表現サーバ20の対象物特定手段23は、画像辞書DB33を参照して、クライアント端末40から撮像手段41を介して入力された画像データから、事物単語に対応する対象物の画像を特定する。   The object specifying means 23 of the sensory information expression server 20 refers to the image dictionary DB 33 and specifies the image of the object corresponding to the thing word from the image data input from the client terminal 40 via the imaging means 41. .

具体的には、まず、クライアント端末40において撮像手段41を介して入力された画像データから特徴情報を抽出する。特徴情報としては、画像の輪郭や色数などがある。このような技術は公知であり(例えば、特開2006−114053参照)、このようにすることによって、撮像手段41を介して入力された画像データ内の画像が、例えば「りんご」であることを認識できる。そして、画像辞書DB33を参照し、すでに実用化されている類似画像検索技術に基づき、特徴情報が合致する画像を特定し、撮像手段41を介して入力された画像データと特徴情報が合致する対象物の画像を特定する。その際、特徴情報が完全に一致するものがない場合には、類似度が最も大きいものを選ぶ。類似画像検索では、検索の対象となる画像から視覚的な情報を数百次元の数値列データ(画像特徴量)で示し、データ同士の似ている度合い(類似度)を、画像特徴量ベクトル間の距離、すなわち、この画像特徴量の違いとして評価する。   Specifically, first, feature information is extracted from image data input via the imaging unit 41 in the client terminal 40. The feature information includes the image outline and the number of colors. Such a technique is publicly known (for example, refer to Japanese Patent Application Laid-Open No. 2006-114053). By doing so, it is confirmed that the image in the image data input through the imaging unit 41 is, for example, “apple”. Can be recognized. Then, referring to the image dictionary DB 33, based on a similar image search technique that has already been put into practical use, an image that matches the feature information is specified, and the image data that is input via the imaging unit 41 matches the feature information. Identify the object image. At this time, if there is no feature information that completely matches, the one with the highest similarity is selected. In the similar image search, visual information from the image to be searched is indicated by numerical sequence data (image feature amount) of several hundred dimensions, and the degree of similarity (similarity) between the data is determined between the image feature amount vectors. , That is, the difference between the image feature amounts.

感覚用語決定手段24は、感覚辞書生成手段22により生成された感覚辞書DB32に基づき、対象物特定手段23により特定された対象物に対応する事物単語と共起の関係にある感覚用語の決定を行う。具体的には、感覚辞書DB32を参照して、特定された対象物に対応する事物単語に対応する複数の感覚用語のうち共起度が一番高い感覚用語を決定する。なお、この場合、事物単語に対応する複数の感覚用語のうち共起度が高い順に2つ、又はそれ以上の複数の感覚用語を決定してもよい。   The sensory term determining unit 24 determines sensory terms having a co-occurrence relationship with an object word corresponding to the object specified by the object specifying unit 23 based on the sensory dictionary DB 32 generated by the sensory dictionary generating unit 22. Do. Specifically, referring to the sensory dictionary DB 32, the sensory term having the highest co-occurrence degree is determined among a plurality of sensory terms corresponding to the thing word corresponding to the specified object. In this case, two or more sensory terms may be determined in descending order of co-occurrence among a plurality of sensory terms corresponding to the thing word.

送信手段25は、感覚用語決定手段24により決定された感覚用語と、クライアント端末40の撮像手段41を介して入力された画像データとをクライアント端末40に対し送信する。具体的には、クライアント端末40の撮像手段41を介して入力された画像データとともに、感覚用語決定手段24により決定された感覚用語をクライアント端末40に送信する。なお、この場合、クライアント端末において入力された画像データに対し、感覚用語決定手段24により決定された感覚用語に対応するデータを付加して、画像データごとクライアント端末40に送信してもよい。また、感覚用語決定手段24により複数の感覚用語が決定された場合には、決定された複数の感覚用語を画像データとともに送信してもよい。   The transmission unit 25 transmits the sensory term determined by the sensory term determination unit 24 and the image data input via the imaging unit 41 of the client terminal 40 to the client terminal 40. Specifically, the sensory term determined by the sensory term determining unit 24 is transmitted to the client terminal 40 together with the image data input via the imaging unit 41 of the client terminal 40. In this case, data corresponding to the sensory term determined by the sensory term determining means 24 may be added to the image data input at the client terminal and transmitted to the client terminal 40 together with the image data. When a plurality of sensory terms are determined by the sensory term determining means 24, the determined sensory terms may be transmitted together with image data.

クライアント端末40の受信手段43は、インターネット回線を通じて、感覚情報表現サーバ20から送信された画像データと、決定された感覚用語との受信を行う。表示手段44は、受信手段43が受信した画像データに対応する画像を、後で図7を参照して説明するクライアント端末40の表示装置1360において表示するとともに、決定された感覚用語を、表示装置1360において表示された画像とともに表示する。具体的には、クライアント端末40の表示装置1360の表示画面において、クライアント端末40の撮像手段41を介して入力された画像を表示するとともに、この表示された画像に対応する感覚用語を一緒に表示する。   The receiving means 43 of the client terminal 40 receives the image data transmitted from the sensory information expression server 20 and the determined sensory term through the Internet line. The display means 44 displays an image corresponding to the image data received by the receiving means 43 on the display device 1360 of the client terminal 40, which will be described later with reference to FIG. 7, and displays the determined sensory terms on the display device. Displayed together with the image displayed at 1360. Specifically, on the display screen of the display device 1360 of the client terminal 40, an image input via the imaging means 41 of the client terminal 40 is displayed, and sensory terms corresponding to the displayed image are displayed together. To do.

[事物単語DB]
図2を参照して、事物単語DB30について説明する。事物単語DB30は、事物単語No.毎に、事物を表す事物単語が記憶される。事物単語No.は、事物単語を一意に識別するために用いられる。事物単語は、文中で主語や目的語などとして働くモノを表す名詞により構成される単語である。
[Thing word DB]
The thing word DB 30 will be described with reference to FIG. The event word DB 30 stores the event word No. Every time, an event word representing an event is stored. Things word No. Is used to uniquely identify a thing word. A thing word is a word composed of nouns representing things that act as subjects or objects in a sentence.

[感覚用語DB]
図3を参照して、感覚用語DB31について説明する。感覚用語DB31は、感覚用語No.毎に、人間が感じる感覚を表す感覚用語が記憶される。感覚用語No.は、感覚用語を一意に識別するために用いられる。感覚用語は、人体の五感により感ずる形容詞により構成され、特に、嗅覚、触覚又は味覚など、事物の性質・状態・心情などを表し、文中で、名詞を修飾する形容詞により構成される用語である。
[Sense term DB]
With reference to FIG. 3, sensory term DB31 is demonstrated. The sensory term DB 31 is a sensory term No. Every time, sensory terms representing human senses are stored. Sensory term No. Is used to uniquely identify sensory terms. Sensory terms are composed of adjectives that are sensed by the five senses of the human body, and in particular, represent the properties, states, and emotions of things such as olfaction, touch, and taste, and are composed of adjectives that modify nouns in the sentence.

[感覚辞書DB]
図4を参照して、感覚辞書DB32について説明する。感覚辞書DB32は、事物単語毎に、この事物単語に対応する複数の感覚用語及び、この事物単語に対応する各感覚用語の共起度、が記憶される。共起度とは、事物単語に対する感覚用語の意味合いに関連性の高さを規定する情報である。例えば、この共起度は、テキストデータ取得手段21により取得されたテキストデータにおいて、事物単語に対応して出現する感覚用語の回数に応じて決定される。
[Sense Dictionary DB]
The sensory dictionary DB 32 will be described with reference to FIG. The sensory dictionary DB 32 stores, for each event word, a plurality of sensory terms corresponding to the event word and the co-occurrence degree of each sensory term corresponding to the event word. The co-occurrence degree is information that prescribes the degree of relevance to the meaning of the sense term for the thing word. For example, the degree of co-occurrence is determined according to the number of sensory terms that appear corresponding to the thing word in the text data acquired by the text data acquiring unit 21.

[画像辞書DB]
図5を参照して、画像辞書DB33について説明する。画像辞書DB33は、画像毎に、事物単語が記憶される。クライアント端末40の撮像手段41を介して入力された各画像の特徴情報と合致する特徴情報を有する画像が、画像辞書DB33の中から特定される。画像辞書DB33に記憶されている画像は、JPEG(Joint Photographic Experts Group)により記憶されているがこれに限られない。例えば、BMP、PICT、GIF(Graphics Interchange Format)(登録商標)、PNG(Portable Network graphics)の形式により記憶されていてもよい。
[Image Dictionary DB]
The image dictionary DB 33 will be described with reference to FIG. The image dictionary DB 33 stores a thing word for each image. An image having feature information that matches the feature information of each image input via the imaging means 41 of the client terminal 40 is specified from the image dictionary DB 33. The images stored in the image dictionary DB 33 are stored by JPEG (Joint Photographic Experts Group), but are not limited thereto. For example, BMP, PICT, GIF (Graphics Interchange Format) (registered trademark), and PNG (Portable Network graphics) may be stored.

[ブログサーバ10、感覚情報表現サーバ20、クライアント端末40のハードウェア構成]
図6は、感覚情報表現サーバ20のハードウェア構成を示す図である。本発明が実施される装置は標準的なものでよく、以下に構成の一例を示す。なお、詳細な説明は省略するが、ブログサーバ10、クライアント端末40も感覚情報表現サーバ20と同様のハードウェア構成を有している。
[Hardware Configuration of Blog Server 10, Sensory Information Representation Server 20, and Client Terminal 40]
FIG. 6 is a diagram illustrating a hardware configuration of the sensory information expression server 20. An apparatus in which the present invention is implemented may be a standard one, and an example of the configuration is shown below. Although not described in detail, the blog server 10 and the client terminal 40 have the same hardware configuration as the sensory information expression server 20.

感覚情報表現サーバ20は、制御部1300を構成するCPU(Central Processing Unit)1310(マルチプロセッサ構成ではCPU1320など複数のCPUが追加されてもよい)、バスライン1200、通信I/F(I/F:インターフェイス)1330、メインメモリ1340、BIOS(Basic Input Output System)1350、表示装置1360、I/Oコントローラ1370、キーボード及びマウスなどの入力装置1380、ハードディスク1390、光ディスクドライブ1400、半導体メモリ1420、並びに撮像装置1440を備える。なお、ハードディスク1390、光ディスクドライブ1400、並びに半導体メモリ1420はまとめて記憶装置1430と呼ぶ。   The sensory information expression server 20 includes a CPU (Central Processing Unit) 1310 (a plurality of CPUs such as a CPU 1320 may be added in a multiprocessor configuration), a bus line 1200, a communication I / F (I / F). : Interface) 1330, main memory 1340, BIOS (Basic Input Output System) 1350, display device 1360, I / O controller 1370, input device 1380 such as a keyboard and mouse, hard disk 1390, optical disk drive 1400, semiconductor memory 1420, and imaging A device 1440 is provided. The hard disk 1390, the optical disk drive 1400, and the semiconductor memory 1420 are collectively referred to as a storage device 1430.

制御部1300は、感覚情報表現サーバ20を統括的に制御する部分であり、ハードディスク1390(後述)に記憶された各種プログラムを適宜読み出して実行することにより、上述したハードウェアと協働し、本発明に係る各種機能を実現している。   The control unit 1300 is a part that controls the sensory information expression server 20 in an integrated manner. By appropriately reading and executing various programs stored in the hard disk 1390 (described later), the control unit 1300 cooperates with the hardware described above. Various functions according to the invention are realized.

通信I/F1330は、感覚情報表現サーバ20が、ネットワークを介してブログサーバ10、及びクライアント端末40などと情報を送受信する場合のネットワーク・アダプタである。通信I/F1330は、モデム、ケーブル・モデム及びイーサネット(登録商標)・アダプタを含んでよい。なお、感覚情報表現サーバ20の送信手段25、クライアント端末40の画像データ送信手段42、及び受信手段43は、通信I/F1330により実現される。   The communication I / F 1330 is a network adapter when the sensory information expression server 20 transmits / receives information to / from the blog server 10 and the client terminal 40 via the network. The communication I / F 1330 may include a modem, a cable modem, and an Ethernet (registered trademark) adapter. Note that the transmission means 25 of the sensory information expression server 20, the image data transmission means 42, and the reception means 43 of the client terminal 40 are realized by the communication I / F 1330.

BIOS1350は、感覚情報表現サーバ20の起動時にCPU1310が実行するブートプログラムや、感覚情報表現サーバ20のハードウェアに依存するプログラムなどを記録する。   The BIOS 1350 records a boot program executed by the CPU 1310 when the sensory information expression server 20 is started, a program depending on the hardware of the sensory information expression server 20, and the like.

表示装置1360は、ブラウン管表示装置(CRT)、液晶表示装置(LCD)などのディスプレイ装置を含む。なお、クライアント端末40の表示手段44は、液晶表示装置により形成された表示装置1360により実現される。   Display device 1360 includes a display device such as a cathode ray tube display device (CRT) or a liquid crystal display device (LCD). The display unit 44 of the client terminal 40 is realized by a display device 1360 formed by a liquid crystal display device.

I/Oコントローラ1370には、ハードディスク1390、光ディスクドライブ1400、及び半導体メモリ1420などの記憶装置1430を接続することができる。   A storage device 1430 such as a hard disk 1390, an optical disk drive 1400, and a semiconductor memory 1420 can be connected to the I / O controller 1370.

ハードディスク1390は、本ハードウェアを感覚情報表現サーバ20として機能させるための各種プログラム、本発明の機能を実行するプログラム及び前述したテーブル及びレコードを記憶する。なお、感覚情報表現サーバ20は、外部に別途設けたハードディスク(図示せず)を外部記憶装置として利用することもできる。   The hard disk 1390 stores various programs for causing the hardware to function as the sensory information expression server 20, programs for executing the functions of the invention, and the tables and records described above. The sensory information expression server 20 can also use a hard disk (not shown) separately provided as an external storage device.

光ディスクドライブ1400としては、例えば、DVD−ROMドライブ、CD−ROMドライブ、DVD−RAMドライブ、CD−RAMドライブを使用することができる。この場合は各ドライブに対応した光ディスク1410を使用する。光ディスク1410から光ディスクドライブ1400によりプログラム又はデータを読み取り、I/Oコントローラ1370を介してメインメモリ1340又はハードディスク1390に提供することもできる。   As the optical disk drive 1400, for example, a DVD-ROM drive, a CD-ROM drive, a DVD-RAM drive, or a CD-RAM drive can be used. In this case, the optical disk 1410 corresponding to each drive is used. A program or data may be read from the optical disk 1410 by the optical disk drive 1400 and provided to the main memory 1340 or the hard disk 1390 via the I / O controller 1370.

ハードディスク1390は、本ハードウェアを感覚情報表現サーバ20として機能させるための各種プログラム、本発明の機能を実行するプログラム及び前述したテーブル及びレコードを記憶する。なお、感覚情報表現サーバ20は、外部に別途設けたハードディスク(図示せず)を外部記憶装置として利用することもできる。   The hard disk 1390 stores various programs for causing the hardware to function as the sensory information expression server 20, programs for executing the functions of the invention, and the tables and records described above. The sensory information expression server 20 can also use a hard disk (not shown) separately provided as an external storage device.

撮像装置1440は、カメラレンズやCCDなどの撮像素子などを備え、ユーザーが所望する物や者、風景などを撮影し、画像データとして記憶することができる。クライアント端末40の撮像手段41は、撮像装置1440により実現される。なお、撮像装置1440は、クライアント端末40のみ有する機能であり、ブログサーバ10、及び感覚情報表現サーバ20には備えなくてもよい。   The imaging device 1440 includes an imaging element such as a camera lens and a CCD, and can photograph an object, a person, a landscape, etc. desired by the user and store it as image data. The imaging means 41 of the client terminal 40 is realized by the imaging device 1440. Note that the imaging device 1440 is a function that only the client terminal 40 has, and the blog server 10 and the sensory information expression server 20 may not be provided.

なお、本発明でいうコンピュータとは、記憶装置、制御部などを備えた端末をいい、感覚情報表現サーバ20は、記憶装置1430、制御部1300などを備えた端末により構成され、この端末は、本発明のコンピュータの概念に含まれる。   The computer in the present invention refers to a terminal including a storage device, a control unit, and the like, and the sensory information expression server 20 includes a terminal including a storage device 1430, a control unit 1300, and the like. It is included in the concept of the computer of the present invention.

感覚情報表現サーバ20の各手段は、制御部1300によってプログラムが実行されることで実現される。但し、データ記憶部は、主としてハードディスク1390に実装されるが、既に述べたように、他の記憶装置を用いてもよい。   Each means of the sensory information expression server 20 is realized by executing a program by the control unit 1300. However, although the data storage unit is mainly mounted on the hard disk 1390, other storage devices may be used as described above.

[処理フロー]
図7は、本実施形態の感覚情報表現方法を実現するための処理の流れを示すフローチャートである。
[Processing flow]
FIG. 7 is a flowchart showing a flow of processing for realizing the sensory information expression method of the present embodiment.

S1:不特定ユーザーによりブログの書き込みが行われた場合には、ブログサーバ10の制御部1300(ブログ配信手段11)は、通信I/F1330を介して、書き込まれたブログの書き込み記事を配信する。   S1: When a blog is written by an unspecified user, the control unit 1300 (blog distribution unit 11) of the blog server 10 distributes the written article of the written blog via the communication I / F 1330. .

S2:ブログサーバ10によりブログの書き込み記事の配信が行われると、感覚情報表現サーバ20の制御部1300(テキストデータ取得手段21)は、配信されたブログ記事のテキストデータを取得する。   S2: When the blog server 10 distributes the blog writing article, the control unit 1300 (text data acquisition means 21) of the sensory information expression server 20 acquires the text data of the distributed blog article.

S3:続いて、感覚情報表現サーバ20の制御部1300(感覚辞書生成手段22)は、事物単語DB30及び感覚用語DB31を参照して、事物単語と感覚用語との対応付け及び、事物単語とそれに対応する各感覚用語との共起度を感覚辞書DB32に格納し感覚辞書DB32を生成する。   S3: Subsequently, the control unit 1300 (sensory dictionary generation means 22) of the sensory information expression server 20 refers to the thing word DB 30 and the sensory term DB 31 to associate the thing word with the sensory term, The co-occurrence degree with each corresponding sensory term is stored in the sensory dictionary DB 32 to generate the sensory dictionary DB 32.

S4:次に、クライアント端末40の制御部1300(撮像手段41)は、撮像装置1440を介して対象物の撮像を行い、取得された撮像データの画像の入力を受け付ける。   S4: Next, the control unit 1300 (imaging unit 41) of the client terminal 40 images the object via the imaging device 1440 and accepts an input of an image of the acquired imaging data.

S5:続いて、クライアント端末40の制御部1300(画像データ送信手段42)は、撮像データの入力を受け付けた場合には、クライアント端末40の通信I/F1330を介して、撮像データを送信する。   S5: Subsequently, the control unit 1300 (image data transmission unit 42) of the client terminal 40 transmits the imaging data via the communication I / F 1330 of the client terminal 40 when receiving the input of the imaging data.

S6:次に、感覚情報表現サーバ20の制御部1300(対象物特定手段23)は、入力された撮像データから特徴情報を抽出し、画像辞書DB33を参照して、入力された撮像データの画像と特徴情報が合致する対象物の画像を特定する。   S6: Next, the control unit 1300 (the object specifying unit 23) of the sensory information expression server 20 extracts feature information from the input imaging data, refers to the image dictionary DB 33, and inputs an image of the input imaging data. The image of the object whose feature information matches is specified.

S7:次に、感覚情報表現サーバ20の制御部1300(感覚用語決定手段24)は、生成された感覚辞書DB32に基づき、対象物特定手段23により特定された対象物の画像に対応する事物単語と共起の関係にある感覚用語のうち、一番共起度の高い感覚用語を決定する。   S7: Next, the control unit 1300 (sensory term determining means 24) of the sensory information expression server 20 uses the thing word corresponding to the image of the object specified by the object specifying means 23 based on the generated sensory dictionary DB32. Among the sensory terms that have a co-occurrence relationship, the sensory term having the highest co-occurrence degree is determined.

S8:次に、感覚情報表現サーバ20の制御部1300(送信手段25)は、通信I/F1330により、決定された感覚用語とクライアント端末40から送信された撮像データとをクライアント端末40に送信する。   S8: Next, the control unit 1300 (transmission means 25) of the sensory information expression server 20 transmits the determined sensory term and the imaging data transmitted from the client terminal 40 to the client terminal 40 through the communication I / F 1330. .

S9:続いて、クライアント端末40の制御部1300(受信手段43)は、通信I/F1330により、感覚情報表現サーバ20から送信された撮像データと感覚用語とを受信する。   S9: Subsequently, the control unit 1300 (reception unit 43) of the client terminal 40 receives the imaging data and sensory terms transmitted from the sensory information expression server 20 through the communication I / F 1330.

S10:次に、クライアント端末40の制御部1300(表示手段44)は、送信された撮像データの画像とともに、決定された感覚用語に対応するテキストをクライアント端末40の表示装置1360に表示する。   S10: Next, the control unit 1300 (display unit 44) of the client terminal 40 displays the text corresponding to the determined sensory term on the display device 1360 of the client terminal 40 together with the transmitted image data.

[クライアント端末における表示例]
図8を参照して、クライアント端末40において撮像された撮像データの画像を、クライアント端末40としての携帯電話において表示する表示例について説明する。
[Display example on client terminal]
With reference to FIG. 8, a display example in which an image of captured image captured by the client terminal 40 is displayed on a mobile phone as the client terminal 40 will be described.

図8では、ユーザーがクライアント端末40において撮像した「りんご」の画像が、感覚情報表現サーバ20を介して、クライアント端末40の表示装置1360において表示されている。   In FIG. 8, the “apple” image captured by the user at the client terminal 40 is displayed on the display device 1360 of the client terminal 40 via the sensory information expression server 20.

ここで、ユーザーが、クライアント端末40を用いて、「りんご」の撮影を行い、「リンゴ」の撮像データを感覚情報表現サーバ20に送信すると、感覚情報表現サーバ20において感覚辞書DB32に記憶されている感覚用語のうち、この撮像データの画像「りんご」に対して一番共起度の高い感覚用語である「あまい」が決定される。   Here, when the user shoots an “apple” using the client terminal 40 and transmits imaging data of “apple” to the sensory information expression server 20, the sensory information expression server 20 stores the image data in the sensory dictionary DB 32. Among the sense terms, “sweet” which is the sense term having the highest co-occurrence with respect to the image “apple” of the imaged data is determined.

そして、この撮像データ及び決定された感覚用語がクライアント端末40に送信されることにより、ユーザーがクライアント端末40の撮像装置1440を介して撮像した画像が、クライアント端末40の表示装置1360の画像表示領域55に表示されるとともに、このユーザーが撮像した撮像データと関連性が高い感覚用語「あまい」が表示装置1360の感覚用語表示領域56に表示されている。   Then, the image data and the determined sensory term are transmitted to the client terminal 40, so that an image captured by the user via the imaging device 1440 of the client terminal 40 becomes an image display area of the display device 1360 of the client terminal 40. The sense term “Amai” that is highly relevant to the image data captured by the user is displayed in the sense term display area 56 of the display device 1360.

また、ユーザーがクライアント端末40の撮像装置を介して、新しい撮像データを送信した場合には、クライアント端末40の感覚用語表示領域56において表示されていた感覚用語をクリアし、新しい感覚用語が表示される。   When the user transmits new imaging data via the imaging device of the client terminal 40, the sensory terms displayed in the sensory term display area 56 of the client terminal 40 are cleared and new sensory terms are displayed. The

このように、ユーザーがクライアント端末40の撮像手段41から入力された画像データに含まれる対象物に対して共起度の高い、すなわち意味合いに関連性の高い感覚用語が決定される。したがって、撮像手段41を介して得られた画像に対してユーザーが感じた感覚を容易に得ることができる。   In this way, sensory terms having a high degree of co-occurrence with respect to the object included in the image data input from the imaging means 41 of the client terminal 40 by the user, that is, highly relevant to the meaning, are determined. Accordingly, it is possible to easily obtain the feeling felt by the user with respect to the image obtained via the imaging means 41.

[第2実施形態]
次に、本発明の別実施形態に係る感覚情報表現方法について、この感覚情報表現方法を実現するために好適な感覚情報表現システム1Aを用いて説明する。第2実施形態に係る感覚情報表現方法はクライアント端末の撮像手段ではなく、地図サーバ500から送信された地図データを送信する点で、第1実施形態に係る感覚情報表現方法とは異なる。
[Second Embodiment]
Next, a sensory information expression method according to another embodiment of the present invention will be described using a sensory information expression system 1A suitable for realizing this sensory information expression method. The sensory information expression method according to the second embodiment is different from the sensory information expression method according to the first embodiment in that map data transmitted from the map server 500 is transmitted instead of the imaging means of the client terminal.

[感覚情報表現システム1Aの構成例]
図9を参照して、感覚情報表現システム1Aは、ブログサーバ100、感覚情報表現サーバ200、クライアント端末400により構成される。
[Configuration example of sensory information expression system 1A]
Referring to FIG. 9, sensory information expression system 1 </ b> A includes blog server 100, sensory information expression server 200, and client terminal 400.

ブログサーバ100は、ブログ配信手段101により構成される。感覚情報表現サーバ200は、テキストデータ取得手段201、感覚辞書生成手段202、対象物特定手段203、感覚用語決定手段204、送信手段205、事物単語データベース(DB)300、感覚用語データベース(DB)301、感覚辞書データベース(DB)302、位置情報データベース(DB)303により構成される。クライアント端末400は、地図データベース(DB)401、地図データ入力手段401、地図データ送信手段402、受信手段403、表示手段404により構成される。   The blog server 100 includes blog distribution means 101. The sensory information expression server 200 includes a text data acquisition unit 201, a sensory dictionary generation unit 202, a target object specifying unit 203, a sensory term determination unit 204, a transmission unit 205, a thing word database (DB) 300, and a sensory term database (DB) 301. , Sensory dictionary database (DB) 302 and position information database (DB) 303. The client terminal 400 includes a map database (DB) 401, map data input means 401, map data transmission means 402, reception means 403, and display means 404.

ブログサーバ100は、ブログ配信手段101を介してインターネット回線を通じて、ブログの書き込み記事を配信する。   The blog server 100 distributes blog-written articles via the blog distribution means 101 through the Internet line.

感覚情報表現サーバ200のテキストデータ取得手段201は、インターネット回線を通じて、ブログサーバ100のブログ配信手段101から配信されたブログ記事のテキストデータを取得する。また、このテキストデータの取得も、インターネット回線を通じたものに限られず、PAN、LAN、WANなどのネットワーク回線を通じてテキストデータの取得を行ってもよい。   The text data acquisition unit 201 of the sensory information expression server 200 acquires the text data of the blog article distributed from the blog distribution unit 101 of the blog server 100 through the Internet line. In addition, the acquisition of the text data is not limited to that through the Internet line, and the text data may be acquired through a network line such as PAN, LAN, or WAN.

感覚辞書生成手段202は、テキストデータ取得手段201により取得されたテキストデータに出現する地名と、この地名と共起の関係にある用語であって人間が感じる感覚を表す言葉、すなわち、人体の感覚器が受けたときに経験する心的現象を表す感覚用語と、を共起度に応じて関連付けた感覚辞書DB302の生成を行う。具体的には、事物単語DB300に格納されている地名を表す標記と、感覚用語DB301に格納されている感覚用語とを参照して、テキストデータ取得手段により取得したテキストを形態素解析し、品詞に分類して、地名を表す標記と感覚単語とを抽出する。そして、抽出された地名を表す標記と、感覚用語との共起ヒット情報を共起度として計算して、標記と感覚用語との対応付け及び、標記とそれに対応する各感覚用語との共起度を感覚辞書DB302に格納し、感覚辞書DB302の生成を行う。   The sensory dictionary generation unit 202 is a term having a co-occurrence with a place name appearing in the text data acquired by the text data acquisition unit 201, and is a term representing a sense felt by humans, that is, a human body sense. A sensory dictionary DB 302 is generated that associates sensory terms representing a mental phenomenon experienced when a vessel is received according to the degree of co-occurrence. Specifically, referring to the mark representing the place name stored in the thing word DB 300 and the sensory term stored in the sensory term DB 301, the text acquired by the text data acquisition means is subjected to morphological analysis, and the part of speech is obtained. Classification is performed, and a title representing a place name and a sense word are extracted. Then, the co-occurrence hit information between the extracted title representing the place name and the sensory term is calculated as the co-occurrence degree, the association between the title and the sensory term, and the co-occurrence of the title and each sensory term corresponding thereto. The degree is stored in the sense dictionary DB 302, and the sense dictionary DB 302 is generated.

クライアント端末400の地図データ入力手段401は、クライアント端末400からの地図の閲覧要求に応じて、地図サーバ500に記憶されている地図データの中から閲覧要求があった地図に対応する地図データの入力の受け付けを行うものである。   In response to a map browsing request from the client terminal 400, the map data input means 401 of the client terminal 400 inputs map data corresponding to the map requested to be browsed from the map data stored in the map server 500. Is to accept.

クライアント端末400の地図データ送信手段402は、地図データ入力手段401を介して入力された地図データを感覚情報表現サーバ200に送信する。具体的には、複数の地点に関する位置情報及び地名を示す位置情報を有する地図コンテンツを有する地図データの送信を行う。   The map data transmission unit 402 of the client terminal 400 transmits the map data input via the map data input unit 401 to the sensory information expression server 200. Specifically, map data having map content having position information regarding a plurality of points and position information indicating place names is transmitted.

感覚情報表現サーバ200の対象物特定手段203は、位置情報DB303を参照して、クライアント端末400の地図データ入力手段401を介して入力された地図データから、地名を表す標記に対応する対象物を特定する。   The object specifying unit 203 of the sensory information expression server 200 refers to the position information DB 303 and selects the object corresponding to the mark representing the place name from the map data input via the map data input unit 401 of the client terminal 400. Identify.

具体的には、まず、クライアント端末400の地図データ入力手段401を介して入力された地図データから特徴情報を抽出する。特徴情報としては、地図データにより表される対象物である地図の輪郭などがある。このような技術は公知であり(例えば、特開2006−114053参照)、このようにすることによって、クライアント端末400の地図データ入力手段401を介して入力された地図データ内の地名に対応する標記が、例えば「ケニア」であることを認識できる。そして、位置情報DB303を参照し、すでに実用化されている類似画像検索技術に基づき、特徴情報が合致する標記を特定し、クライアント端末400により入力された地図データと特徴情報が合致する対象物の標記を特定する。その際、特徴情報が完全に一致するものがない場合には、類似度が最も大きいものを選ぶ。類似画像検索では、検索の対象となる地図データの画像から視覚的な情報を数百次元の数値列データ(画像特徴量)で示し、データ同士の似ている度合い(類似度)を、画像特徴量ベクトル間の距離、すなわち、この画像特徴量の違いとして評価する。   Specifically, first, feature information is extracted from the map data input via the map data input unit 401 of the client terminal 400. The feature information includes a contour of a map that is an object represented by the map data. Such a technique is publicly known (see, for example, Japanese Patent Application Laid-Open No. 2006-114053). By doing so, a mark corresponding to a place name in map data input via the map data input unit 401 of the client terminal 400 is used. Can be recognized as, for example, “Kenya”. Then, referring to the position information DB 303, based on a similar image search technique that has already been put into practical use, a mark that matches the feature information is specified, and the map data input by the client terminal 400 matches the target information that matches the feature information. Identify the title. At this time, if there is no feature information that completely matches, the one with the highest similarity is selected. In the similar image search, visual information is indicated by numerical sequence data (image feature amount) of several hundred dimensions from the map data image to be searched, and the degree of similarity (similarity) between the data is indicated by the image feature. The distance between the quantity vectors, that is, the difference between the image feature quantities is evaluated.

感覚用語決定手段204は、感覚辞書生成手段202により生成された感覚辞書DB302に基づき、対象物特定手段203により特定された対象物に対応する地名を表す標記と共起の関係にある感覚用語の決定を行う。具体的には、感覚辞書DB302を参照して、特定された対象物に対応する地名を表す標記に対応する複数の感覚用語のうち共起度が一番高い感覚用語を決定する。   The sensory term determining unit 204 is based on the sensory dictionary DB 302 generated by the sensory dictionary generating unit 202, and the sensory term having a co-occurrence relationship with the mark representing the place name corresponding to the object specified by the object specifying unit 203 is used. Make a decision. Specifically, with reference to the sensory dictionary DB 302, a sensory term having the highest co-occurrence degree is determined among a plurality of sensory terms corresponding to a mark representing a place name corresponding to the identified object.

送信手段205は、感覚用語決定手段204により決定された感覚用語、対象物特定手段203により特定された地名に対応する位置情報及び対象物に対応する地名を表す標記を、地図データ入力手段401を介して入力された地図データとともにクライアント端末400に送信する。具体的には、クライアント端末400において入力された地図データとともに、位置情報DB303を参照して特定された地名に対応する位置情報、及び決定された感覚用語のデータを送信する。なお、この場合、地図データに対し、位置情報DB303を参照して特定された地名に対応する位置情報、及び決定された感覚用語のデータを付加して、地図データごとクライアント端末400に送信してもよい。また、感覚用語決定手段204により複数の感覚用語が決定された場合には、決定された複数の感覚用語を地図データとともに送信してもよい。なお、この際、位置情報や感覚用語とともに対象物に対応する地名を表す標記も送信したが、後述のクライアント端末400の表示装置1360においてこの標記を表示しない場合には送信しなくてもよい。   The transmission means 205 uses the map data input means 401 to display the sensory terms determined by the sensory term determination means 204, the location information corresponding to the place name specified by the object specifying means 203, and the mark representing the place name corresponding to the object. It is transmitted to the client terminal 400 together with the map data input via the interface. Specifically, together with the map data input at the client terminal 400, the position information corresponding to the place name specified with reference to the position information DB 303 and the data of the determined sense term are transmitted. In this case, the map data is added with the position information corresponding to the place name specified with reference to the position information DB 303 and the data of the determined sense term, and transmitted to the client terminal 400 together with the map data. Also good. When a plurality of sensory terms are determined by the sensory term determining means 204, the determined sensory terms may be transmitted together with the map data. At this time, the mark indicating the place name corresponding to the object is transmitted together with the position information and the sensory term. However, if the mark is not displayed on the display device 1360 of the client terminal 400 described later, it may not be transmitted.

クライアント端末400の受信手段403は、インターネット回線を通じて、感覚情報表現サーバ200から送信された、地図データ、位置情報、及び決定された感覚用語の受信を行う。表示手段404は、受信手段403が受信した地図データに対応する地図を、後で図12を参照して説明するクライアント端末400の表示装置1360において表示するとともに、送信された感覚用語及び標記を、位置情報に基づいて表示装置1360において表示された地図とともに表示する。具体的には、クライアント端末400の表示装置1360において、地図データ入力手段401において入力された地図を表示するとともに、この表示された地図に対応する感覚用語及び標記を位置情報に基づき一緒に表示する。   The receiving means 403 of the client terminal 400 receives the map data, the position information, and the determined sensory terms transmitted from the sensory information expression server 200 through the Internet line. The display unit 404 displays a map corresponding to the map data received by the receiving unit 403 on the display device 1360 of the client terminal 400 described later with reference to FIG. Based on the position information, it is displayed together with the map displayed on the display device 1360. Specifically, on the display device 1360 of the client terminal 400, the map input by the map data input means 401 is displayed, and sensory terms and marks corresponding to the displayed map are displayed together based on the position information. .

[事物単語DB]
図2を参照して、事物単語DB300について説明する。事物単語DB300は、事物単語No.毎に、事物を表す事物単語が記憶される。事物単語No.は、事物単語を一意に識別するために用いられる。事物単語は、文中で主語や目的語などとして働くモノを表す名詞により構成される単語である。第2実施形態においては、特に地名に関する事物単語が記憶される。
[Thing word DB]
The thing word DB 300 will be described with reference to FIG. The event word DB 300 includes an event word No. Every time, an event word representing an event is stored. Things word No. Is used to uniquely identify a thing word. A thing word is a word composed of nouns representing things that act as subjects or objects in a sentence. In the second embodiment, a thing word related to the place name is stored.

[感覚用語DB]
図3を参照して、感覚用語DB301について説明する。感覚用語DB301は、感覚用語No.毎に、人間が感じる感覚を表す感覚用語が記憶される。感覚用語No.は、感覚用語を一意に識別するために用いられる。感覚用語は、人体の五感により感ずる形容詞により構成され、特に、嗅覚、触覚又は味覚など、事物の性質・状態・心情などを表し、文中で、名詞を修飾する形容詞により構成される用語である。
[Sense term DB]
With reference to FIG. 3, sensory term DB301 is demonstrated. The sensory term DB 301 is a sensory term No. Every time, sensory terms representing human senses are stored. Sensory term No. Is used to uniquely identify sensory terms. Sensory terms are composed of adjectives that are sensed by the five senses of the human body, and in particular, represent the properties, states, and emotions of things such as olfaction, touch, and taste, and are composed of adjectives that modify nouns in the sentence.

[感覚辞書DB]
図4を参照して、感覚辞書DB302について説明する。感覚辞書DB302は、地名を表す事物単語毎に、この事物単語に対応する複数の感覚用語及び、この事物単語に対応する各感覚用語の共起度、が記憶される。共起度とは、事物単語に対する感覚用語の意味合いに関連性の高さを規定する情報である。例えば、この共起度は、テキストデータ取得手段201により取得されたテキストデータにおいて、事物単語に対応して出現する感覚用語の回数に応じて決定される。
[Sense Dictionary DB]
The sensory dictionary DB 302 will be described with reference to FIG. The sensory dictionary DB 302 stores, for each event word representing a place name, a plurality of sensory terms corresponding to the event word and the co-occurrence degree of each sensory term corresponding to the event word. The co-occurrence degree is information that prescribes the degree of relevance to the meaning of the sense term for the thing word. For example, the co-occurrence degree is determined according to the number of sensory terms that appear corresponding to the thing word in the text data acquired by the text data acquiring unit 201.

[位置情報DB]
図10を参照して、位置情報DB303について説明する。位置情報DB303は、標記毎に、位置情報及び特徴情報が記憶される。位置情報は、クライアント端末400の表示装置1360において感覚用語を表示する際の座標情報である。標記は、事物単語DB300に記憶されている事物単語のうち、地図データにより表される地図上の地名に対応する単語のみが記載された情報である。地図データ入力手段401により入力された各地図の特徴情報と合致する特徴情報を有する標記が、位置情報DB303の中から特定される。なお、位置情報DB303は、ハードディスク1390、光ディスク1410、及び半導体メモリ1420などの記憶装置1430により構成される。
[Location information DB]
The position information DB 303 will be described with reference to FIG. The position information DB 303 stores position information and feature information for each mark. The position information is coordinate information when the sensory term is displayed on the display device 1360 of the client terminal 400. The title is information in which only the word corresponding to the place name on the map represented by the map data among the event words stored in the event word DB 300 is described. A mark having feature information that matches the feature information of each map input by the map data input means 401 is specified from the position information DB 303. Note that the position information DB 303 includes a storage device 1430 such as a hard disk 1390, an optical disk 1410, and a semiconductor memory 1420.

[ブログサーバ100、感覚情報表現サーバ200、クライアント端末400、地図サーバ500のハードウェア構成]
ブログサーバ100、感覚情報表現サーバ200、クライアント端末400、地図サーバ500のハードウェア構成については、第1実施形態の感覚情報表現サーバ200と同一である。
[Hardware Configuration of Blog Server 100, Sensory Information Representation Server 200, Client Terminal 400, and Map Server 500]
The hardware configuration of the blog server 100, the sensory information expression server 200, the client terminal 400, and the map server 500 is the same as that of the sensory information expression server 200 of the first embodiment.

[処理フロー]
図11は、第2実施形態の感覚情報表現方法を実現するための処理の流れを示すフローチャートである。
[Processing flow]
FIG. 11 is a flowchart showing a flow of processing for realizing the sensory information expression method of the second embodiment.

S101:不特定ユーザーによりブログの書き込みが行われた場合には、ブログサーバ100の制御部1300(ブログ配信手段101)は、通信I/F1330を介して、書き込まれたブログの書き込み記事を配信する。   S101: When a blog is written by an unspecified user, the control unit 1300 (blog distribution unit 101) of the blog server 100 distributes the written article of the written blog via the communication I / F 1330. .

S102:ブログサーバ100によりブログの書き込み記事の配信が行われると、感覚情報表現サーバ200の制御部1300(テキストデータ取得手段201)は、配信されたブログ記事のテキストデータを取得する。   S102: When the blog server 100 distributes the blog writing article, the control unit 1300 (text data acquisition unit 201) of the sensory information expression server 200 acquires the text data of the distributed blog article.

S103:続いて、感覚情報表現サーバ200の制御部1300(感覚辞書生成手段202)は、事物単語DB300及び感覚用語DB301を参照して、地名に対応する事物単語と感覚用語との対応付け及び、地名に対応する事物単語とそれに対応する各感覚用語との共起度を感覚辞書DB32に格納し感覚辞書DB32を生成する。   S103: Subsequently, the control unit 1300 (sensory dictionary generating unit 202) of the sensory information expression server 200 refers to the event word DB 300 and the sensory term DB 301, and associates the event word corresponding to the place name with the sensory term, The co-occurrence degree of the thing word corresponding to the place name and each sensory term corresponding thereto is stored in the sensory dictionary DB 32 to generate the sensory dictionary DB 32.

S104:次に、クライアント端末400の制御部1300(地図データ入力手段401)は、クライアント端末400からの地図の閲覧要求に応じて、地図サーバ500に記憶されている地図データの中から閲覧要求があった地図に対応する地図データの入力を受け付ける。   S104: Next, in response to a map browsing request from the client terminal 400, the control unit 1300 (map data input unit 401) of the client terminal 400 receives a browsing request from the map data stored in the map server 500. Accepts input of map data corresponding to the map.

S105:続いて、クライアント端末400の制御部1300(地図データ送信手段1330)は、通信I/F1330により、入力された地図データを送信する。   S105: Subsequently, the control unit 1300 (map data transmission unit 1330) of the client terminal 400 transmits the input map data through the communication I / F 1330.

S106:次に、感覚情報表現サーバ200の制御部1300(対象物特定手段203)は、クライアント端末400において入力された地図データから特徴情報を抽出し、位置情報DB303を参照して、入力された地図データの特徴情報及び地名が合致する対象物を特定する。   S106: Next, the control unit 1300 (the object specifying unit 203) of the sensory information expression server 200 extracts feature information from the map data input at the client terminal 400, and is input with reference to the position information DB 303. The target object whose feature information and place name of the map data match is specified.

S107:次に、感覚情報表現サーバ200の制御部1300(感覚用語決定手段204)は、生成された感覚辞書DB302に基づき、対象物特定手段203により特定された対象物に対応する地名を表す標記と共起の関係にある感覚用語のうち一番共起度の高い感覚用語を決定する。   S107: Next, the control unit 1300 (sensory term determining unit 204) of the sensory information expression server 200 represents a place name corresponding to the target object specified by the target object specifying unit 203 based on the generated sensory dictionary DB 302. The sensory term having the highest degree of co-occurrence is determined from the sensory terms that are co-occurring with each other.

S108:次に、感覚情報表現サーバ200の制御部1300(送信手段205)は、通信I/F1330により、決定された感覚用語及び、対象物特定手段203により特定された地名を表す標記に対応する位置情報とともに、クライアント端末400において入力された地図データをクライアント端末400に送信する。   S108: Next, the control unit 1300 (transmission unit 205) of the sensory information expression server 200 corresponds to the sensory term determined by the communication I / F 1330 and the mark representing the place name specified by the object specifying unit 203. Map data input at the client terminal 400 is transmitted to the client terminal 400 together with the position information.

S109:続いて、クライアント端末400の制御部1300(受信手段403)は、通信I/F1330により、感覚情報表現サーバ200から送信された感覚用語と地図データとを受信する。   S109: Subsequently, the control unit 1300 (receiving unit 403) of the client terminal 400 receives the sensory terms and the map data transmitted from the sensory information expression server 200 through the communication I / F 1330.

S110:次に、クライアント端末400の制御部1300(表示手段404)は、地図データの地図とともに、決定された感覚用語及び標記を位置情報に基づいてクライアント端末400の表示装置1360に表示する。   S110: Next, the control unit 1300 (display unit 404) of the client terminal 400 displays the determined sensory terms and marks together with the map of the map data on the display device 1360 of the client terminal 400 based on the position information.

[クライアント端末における表示例]
図12を参照して、第2実施形態の感覚情報表現方法について説明する。図12では、地図サーバ500から送信され、クライアント端末400において入力された地図データの地図を、クライアント端末400としての携帯電話において表示する表示例について説明する。
[Display example on client terminal]
With reference to FIG. 12, the sensory information expression method of 2nd Embodiment is demonstrated. FIG. 12 illustrates a display example in which a map of map data transmitted from the map server 500 and input at the client terminal 400 is displayed on a mobile phone as the client terminal 400.

図12では、クライアント端末400において入力された「ケニア」を含むアフリカの地図が、感覚情報表現サーバ200を介して、クライアント端末400の表示装置1360において表示されている。   In FIG. 12, a map of Africa including “Kenya” input at the client terminal 400 is displayed on the display device 1360 of the client terminal 400 via the sensory information expression server 200.

ここで、クライアント端末400において入力された「ケニア」の地図を含んだ地図データを感覚情報表現サーバ200に送信すると、感覚情報表現サーバ200において地図データの地名を表す標記「ケニア」に対応する感覚用語「あつい」、標記に対応する位置情報、及び標記「ケニア」が、入力された地図データとともにクライアント端末400に送信される。   Here, when the map data including the map of “Kenya” input at the client terminal 400 is transmitted to the sensory information expression server 200, the sensory information expression server 200 senses the sense “Kenya” corresponding to the place name of the map data. The term “hot”, position information corresponding to the title, and the title “Kenya” are transmitted to the client terminal 400 together with the input map data.

そして、感覚情報表現サーバ200から送信された地図が、クライアント端末400の表示装置1360の画像表示領域55Aに表示されるとともに、決定された感覚用語「あつい」及び標記「ケニア」が、一緒に送信された位置情報の座標情報に基づき表示装置1360の感覚用語表示領域56Aに表示されている。なお、図12に示すように、対象となる標記「ケニア」のみならず、地図データに含まれる周辺の他の標記「エチオピア」「ソマリア」「タンザニア」なども表示するようにしてもよい。   The map transmitted from the sensory information expression server 200 is displayed on the image display area 55A of the display device 1360 of the client terminal 400, and the determined sensory terms “hot” and the title “Kenya” are transmitted together. The sensory term display area 56A of the display device 1360 is displayed based on the coordinate information of the position information. As shown in FIG. 12, not only the target title “Kenya” but also other titles “Ethiopia”, “Somalia”, “Tanzania”, etc. included in the map data may be displayed.

また、クライアント端末400が新しい地図データを要求して、クライアント端末400から新しい地図データが送信された場合には、クライアント端末400の感覚用語表示領域56Aにおいて表示されていた感覚用語をクリアし、新しい感覚用語が表示される。   When the client terminal 400 requests new map data and new map data is transmitted from the client terminal 400, the sensory terms displayed in the sensory term display area 56A of the client terminal 400 are cleared and new Sensory terms are displayed.

このように、クライアント端末400からの要求に応じて地図データが入力されてから送信された地図データに含まれる地名を表す標記に対して共起度の高い、すなわち関連性の高い感覚用語が送信される。したがって、地図データに対して感じた感覚を、地図データを要求するユーザーが容易に得ることができる。   As described above, a sensory term having a high degree of co-occurrence, that is, a highly related sensory term is transmitted with respect to a title representing a place name included in the map data transmitted after the map data is input in response to a request from the client terminal 400. Is done. Therefore, the user who requests the map data can easily obtain the feeling felt for the map data.

以上、本発明の実施の形態について説明したが、本発明は本実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良などは本発明に含まれるものである。   Although the embodiment of the present invention has been described above, the present invention is not limited to the present embodiment, and modifications, improvements, and the like within the scope that can achieve the object of the present invention are included in the present invention. .

例えば、クライアント端末40の撮像装置1440を介して撮像された撮像データに対し、感覚用語を関連付けてクライアント端末40の表示手段44において、撮像された画像とともに感覚用語を表示するようにしたがこれに限られない。例えば、クライアント端末40に、コンパクトフラッシュ(登録商標)、メモリースティック(登録商標)、SDカード(登録商標)などの各種メモリーカードなどと接続できる外部メモリーI/Fを備え、この外部メモリーI/Fを介して入力された画像を、クライアント端末40の送信手段により感覚情報表現サーバに送信してもよい。   For example, sensory terms are associated with sensed terms with respect to image data captured via the imaging device 1440 of the client terminal 40 and the sensory terms are displayed together with the sensed images on the display means 44 of the client terminal 40. Not limited. For example, the client terminal 40 includes an external memory I / F that can be connected to various memory cards such as CompactFlash (registered trademark), Memory Stick (registered trademark), and SD card (registered trademark). The image input via the terminal may be transmitted to the sensory information expression server by the transmission unit of the client terminal 40.

また、感覚辞書DB32において格納されている共起度は、テキストデータ取得手段21により取得されたテキストデータにおいて、事物単語に対応して出現する感覚用語の回数に応じて決定しているがこれに限られない。すなわち、事物単語と感覚用語との対応付け及び、事物単語とそれに対応する各感覚用語との共起度は、クライアント端末40を利用するユーザーが個々人の感覚に応じて共起度を変更できるようにしてもよい。これにより、更に個々人の感覚にあった感覚用語の共起度を高くすることにより、ユーザーは自分が感じた感覚を相手ユーザに対しより明確に伝達することができるようになる。また、感覚情報表現サーバ20の送信手段は、クライアント端末40に対し感覚用語とともに画像データも送信しているがこれに限られない。例えば、感覚用語のみを送信してもよい。   The co-occurrence degree stored in the sensory dictionary DB 32 is determined according to the number of sensory terms appearing corresponding to the thing word in the text data acquired by the text data acquiring unit 21. Not limited. That is, the association between the thing word and the sensory term and the co-occurrence degree of the thing word and each sensory term corresponding thereto can be changed by the user using the client terminal 40 according to the individual sense. It may be. As a result, by further increasing the co-occurrence of sensory terms that match the senses of the individual, the user can more clearly communicate the feeling he / she felt to the other user. Further, the transmission means of the sensory information expression server 20 transmits image data together with sensory terms to the client terminal 40, but is not limited thereto. For example, only sensory terms may be transmitted.

1 感覚情報表現システム
10 ブログサーバ
11 ブログ配信手段
20 感覚情報表現サーバ
21 テキストデータ取得手段
22 感覚辞書生成手段
23 対象物特定手段
24 感覚用語決定手段
25 配信手段
30 事物単語DB
31 感覚用語DB
32 感覚辞書DB
33 画像辞書DB
40 クライアント端末
41 撮像手段
42 画像データ送信手段
43 受信手段
44 表示手段
DESCRIPTION OF SYMBOLS 1 Sensory information expression system 10 Blog server 11 Blog distribution means 20 Sensory information expression server 21 Text data acquisition means 22 Sensory dictionary generation means 23 Object identification means 24 Sensory term determination means 25 Distribution means 30 Things word DB
31 Sensory term DB
32 Sensory Dictionary DB
33 Image Dictionary DB
40 Client terminal 41 Imaging means 42 Image data transmitting means 43 Receiving means 44 Display means

Claims (5)

画像に対する感覚情報の表現を実現する感覚情報表現サーバであって、
Web上から収集されたテキストデータを取得するテキストデータ取得手段と、
前記テキストデータ取得手段により取得された前記テキストデータに出現する事物を表す事物単語と、前記事物単語と共起の関係にある用語であって人間が感じる感覚を表す感覚用語と、を共起度に応じて関連付けた感覚辞書を生成する感覚辞書生成手段と、
クライアント端末において入力された画像データから前記事物単語に対応する対象物を特定する対象物特定手段と、
前記感覚辞書生成手段により生成された前記感覚辞書に基づき、前記対象物特定手段により特定された前記対象物に対応する前記事物単語と共起の関係にある前記感覚用語を決定する感覚用語決定手段と、
前記画像データと前記感覚用語決定手段により決定された前記感覚用語とを前記クライアント端末に送信する送信手段と、
を備えたことを特徴とする感覚情報表現サーバ。
A sensory information expression server that realizes the expression of sensory information for images,
Text data acquisition means for acquiring text data collected from the web;
Co-occurrence of an event word representing an event appearing in the text data acquired by the text data acquisition means and a sensory term representing a sense felt by a human being in a co-occurrence relationship with the event word Sensory dictionary generation means for generating a sensory dictionary associated according to the degree;
An object specifying means for specifying an object corresponding to the object word from image data input at a client terminal;
Based on the sensory dictionary generated by the sensory dictionary generator, the sensory term determination for determining the sensory term co-occurring with the thing word corresponding to the object specified by the object specifying unit Means,
Transmitting means for transmitting the image data and the sensory term determined by the sensory term determining means to the client terminal;
A sensory information expression server characterized by comprising:
前記クライアント端末において入力される前記画像データは、地名に対応する対象物を備えた地図データに関し、
前記地名及び、前記地名に対応し前記クライアント端末において前記感覚用語の表示を行う位置情報を格納する位置情報格納手段と、
を備え、
前記感覚辞書生成手段は、前記テキストデータ取得手段により取得された前記テキストデータに出現する地名と、前記地名と共起の関係にある用語であって人間が感じる感覚を表す感覚用語と、を共起度に応じて関連付けた感覚辞書を生成し、
前記対象物特定手段は、前記クライアント端末において入力された前記地図データから前記地名に対応する対象物を特定し、
前記感覚用語決定手段は、前記感覚辞書生成手段により生成された前記感覚辞書に基づき、前記対象物特定手段により特定された前記対象物に対応する前記地名と共起の関係にある前記感覚用語を決定し、
前記送信手段は、前記地図データと前記感覚用語決定手段により決定された前記感覚用語と前記対象物特定手段により特定された前記対象物の地名に対応する位置情報とを送信することを特徴とする請求項1に記載の感覚情報表現サーバ。
The image data input in the client terminal relates to map data including an object corresponding to a place name,
Position information storage means for storing the place name and position information corresponding to the place name and displaying the sensory term on the client terminal;
With
The sensory dictionary generation unit is configured to share a place name appearing in the text data acquired by the text data acquisition unit and a sensory term representing a sense felt by a human being in a co-occurrence relationship with the place name. Generate a sensory dictionary associated with the degree of occurrence,
The object specifying means specifies an object corresponding to the place name from the map data input at the client terminal,
The sensory term determining unit is configured to select the sensory term having a co-occurrence relationship with the place name corresponding to the target object specified by the target object specifying unit based on the sensory dictionary generated by the sensory dictionary generating unit. Decide
The transmitting means transmits the map data, the sensory terms determined by the sensory term determining means, and position information corresponding to the place name of the object specified by the object specifying means. The sensory information expression server according to claim 1.
前記感覚用語は、嗅覚、触覚又は味覚に関する心的現象を表す形容詞であることを特徴とする請求項1又は2に記載の感覚情報表現サーバ。   The sensory information expression server according to claim 1, wherein the sensory term is an adjective representing a mental phenomenon related to olfaction, touch, or taste. クライアント端末における画像に対する感覚情報の表現を感覚情報表現サーバを介して実現する感覚情報表現システムであって、
前記クライアント端末は、
被写体を撮像する撮像手段と、
前記撮像手段により撮像された画像データを送信する画像データ送信手段と、
外部から画像データを受信する受信手段と、
前記受信手段により受信した画像データを表示する表示手段と、を備え、
前記感覚情報表現サーバは、
Web上から収集されたテキストデータを取得するテキストデータ取得手段と、
前記テキストデータ取得手段により取得された前記テキストデータに出現する事物を表す事物単語と、前記事物単語と共起の関係にある用語であって人間が感じる感覚を表す感覚用語と、を共起度に応じて関連付けた感覚辞書を生成する感覚辞書生成手段と、
前記クライアント端末において入力された画像データから前記事物単語に対応する対象物を特定する対象物特定手段と、
前記感覚辞書生成手段により生成された前記感覚辞書に基づき、前記対象物特定手段により特定された前記対象物に対応する前記事物単語と共起の関係にある前記感覚用語を決定する感覚用語決定手段と、
前記画像データ送信手段から送信された前記画像データと前記感覚用語決定手段により決定された前記感覚用語とを前記クライアント端末に送信する送信手段と、を備え、
前記受信手段は、前記送信手段から送信された前記画像データと前記感覚用語とを受信し、
前記表示手段は、前記受信手段により受信した前記画像データと前記感覚用語とを表示することを特徴とする感覚情報表現システム。
A sensory information expression system that realizes expression of sensory information for an image on a client terminal via a sensory information expression server,
The client terminal is
Imaging means for imaging a subject;
Image data transmitting means for transmitting image data imaged by the imaging means;
Receiving means for receiving image data from outside;
Display means for displaying the image data received by the receiving means,
The sensory information expression server includes:
Text data acquisition means for acquiring text data collected from the web;
Co-occurrence of an event word representing an event appearing in the text data acquired by the text data acquisition means, and a sensory term representing a sense felt by a human being in a co-occurrence relationship with the event word Sensory dictionary generation means for generating a sensory dictionary associated according to the degree;
An object specifying means for specifying an object corresponding to the object word from image data input at the client terminal;
Based on the sensory dictionary generated by the sensory dictionary generating unit, sensory term determination for determining the sensory term co-occurring with the thing word corresponding to the object identified by the object identifying unit Means,
Transmitting means for transmitting the image data transmitted from the image data transmitting means and the sensory term determined by the sensory term determining means to the client terminal,
The receiving means receives the image data and the sensory terms transmitted from the transmitting means,
The sensory information expression system characterized in that the display means displays the image data and the sensory terms received by the receiving means.
画像に対する感覚情報の表現を実現する感覚情報表現方法であって、
Web上から収集されたテキストデータを取得するテキストデータ取得ステップと、
前記テキストデータ取得ステップにより取得された前記テキストデータに出現する事物を表す事物単語と、前記事物単語と共起の関係にある用語であって人間が感じる感覚を表す感覚用語とを共起度に応じて関連付けた感覚辞書を生成する感覚辞書生成ステップと、
クライアント端末において入力された画像データから前記事物単語に対応する対象物を特定する対象物特定ステップと、
前記感覚辞書生成ステップにより生成された前記感覚辞書に基づき、前記対象物特定ステップにより特定された前記対象物に対応する前記事物単語と共起の関係にある前記感覚用語を決定する感覚用語決定ステップと、
前記画像データと前記感覚用語決定ステップにより決定された前記感覚用語とをクライアント端末に送信する送信ステップと、
を備えたことを特徴とする感覚情報表現方法。
A sensory information expression method that realizes expression of sensory information for an image,
A text data acquisition step of acquiring text data collected from the web;
A co-occurrence degree includes an event word representing an event appearing in the text data acquired by the text data acquisition step, and a sensory term representing a sense felt by a human being in a co-occurrence relationship with the event word A sensory dictionary generation step for generating a sensory dictionary associated according to
An object specifying step for specifying an object corresponding to the thing word from the image data input at the client terminal;
Based on the sensory dictionary generated in the sensory dictionary generation step, sensory term determination for determining the sensory term co-occurring with the thing word corresponding to the object specified in the object specifying step Steps,
A transmission step of transmitting the image data and the sensory term determined by the sensory term determination step to a client terminal;
Sensory information expression method characterized by comprising
JP2009129458A 2009-05-28 2009-05-28 Sensory information expression server, sensory information expression system, and emotion expression method Expired - Fee Related JP5220684B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009129458A JP5220684B2 (en) 2009-05-28 2009-05-28 Sensory information expression server, sensory information expression system, and emotion expression method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009129458A JP5220684B2 (en) 2009-05-28 2009-05-28 Sensory information expression server, sensory information expression system, and emotion expression method

Publications (2)

Publication Number Publication Date
JP2010277363A true JP2010277363A (en) 2010-12-09
JP5220684B2 JP5220684B2 (en) 2013-06-26

Family

ID=43424264

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009129458A Expired - Fee Related JP5220684B2 (en) 2009-05-28 2009-05-28 Sensory information expression server, sensory information expression system, and emotion expression method

Country Status (1)

Country Link
JP (1) JP5220684B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013117866A (en) * 2011-12-02 2013-06-13 Nippon Telegr & Teleph Corp <Ntt> Keyword place name pair extraction device, method and program
JP2014229231A (en) * 2013-05-27 2014-12-08 日本電信電話株式会社 Apparatus, method and program for extraction of field association term

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004005534A (en) * 2002-03-29 2004-01-08 Fuji Photo Film Co Ltd Image preserving method, retrieving method and system of registered image, image processing method of registered image and program for executing these methods

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004005534A (en) * 2002-03-29 2004-01-08 Fuji Photo Film Co Ltd Image preserving method, retrieving method and system of registered image, image processing method of registered image and program for executing these methods

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200700404009; 清水 浩平: '形容詞共起を用いた単語の印象推定法' 電子情報通信学会論文誌 (J89-D) 第11号 第J89-D巻, 20061101, 2483-2490ページ, 社団法人電子情報通信学会 *
JPN6012023979; 清水 浩平: '形容詞共起を用いた単語の印象推定法' 電子情報通信学会論文誌 (J89-D) 第11号 第J89-D巻, 20061101, 2483-2490ページ, 社団法人電子情報通信学会 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013117866A (en) * 2011-12-02 2013-06-13 Nippon Telegr & Teleph Corp <Ntt> Keyword place name pair extraction device, method and program
JP2014229231A (en) * 2013-05-27 2014-12-08 日本電信電話株式会社 Apparatus, method and program for extraction of field association term

Also Published As

Publication number Publication date
JP5220684B2 (en) 2013-06-26

Similar Documents

Publication Publication Date Title
EP3475840B1 (en) Facilitating use of images as search queries
JP2011070412A (en) Image retrieval device and image retrieval method
JP2008192055A (en) Content search method and content search apparatus
JP4943909B2 (en) Data processing apparatus, data processing method, and program
JP3684951B2 (en) Image search method and apparatus
Dobreski et al. Depicting historical persons and identities: A faceted approach
JP5220684B2 (en) Sensory information expression server, sensory information expression system, and emotion expression method
JP5237724B2 (en) Image search system
CN108416026A (en) Index generation method, content search method, device and equipment
JP6907701B2 (en) Information processing equipment, information processing systems, information processing methods and programs
WO2010087451A1 (en) Image display device, image display method, and image display program
JP4752628B2 (en) Drawing search system, drawing search method, and drawing search terminal
JP6276375B2 (en) Image search device, image display device, image search method, and image display method
JP6804562B2 (en) Proposal system, proposal method, server and computer program
JP3985826B2 (en) Image search method and apparatus
JP5807090B2 (en) Image search method, image search system, image search device, and program
JP2018055730A (en) Image search apparatus and image search method
JP2015179399A (en) Text creation device, text creation program and text creation method
WO2023100618A1 (en) Image file, generation device, and data processing method
JP2016026347A (en) Imaging device and control method therefor
JP5031421B2 (en) Data processing apparatus, data processing method, and program
JP5552552B2 (en) Image search system
JP2003331264A (en) Facial image collation system and facial image collation method
TWI270793B (en) Chinese information retrieval system and method based on document projection maps
KR20220158990A (en) Electronic terminal apparatus which inserts source information of the image inserted into an electronic document, and the operating method thereof

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120501

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120515

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20120528

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121113

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130306

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5220684

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees