JP2010277363A - Feeling information expression server, feeling information expression system, and feeling expression method - Google Patents
Feeling information expression server, feeling information expression system, and feeling expression method Download PDFInfo
- Publication number
- JP2010277363A JP2010277363A JP2009129458A JP2009129458A JP2010277363A JP 2010277363 A JP2010277363 A JP 2010277363A JP 2009129458 A JP2009129458 A JP 2009129458A JP 2009129458 A JP2009129458 A JP 2009129458A JP 2010277363 A JP2010277363 A JP 2010277363A
- Authority
- JP
- Japan
- Prior art keywords
- sensory
- term
- client terminal
- dictionary
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、画像に対する感覚情報の表現を実現する感覚情報表現サーバ、感覚情報表現システム、及び感覚情報表現方法に関する。 The present invention relates to a sensory information expression server, a sensory information expression system, and a sensory information expression method that realize expression of sensory information for an image.
従来、CG(Computer Graphics)などの仮想物体と、現実空間とを重ね合わせて表示する拡張現実感(Augmented Reality)の技術を利用したシステムが知られている。 2. Description of the Related Art Conventionally, systems using augmented reality technology that displays a virtual object such as CG (Computer Graphics) and a real space in an overlapping manner are known.
このような状況において、例えば特許文献1には、多数の種類の仮想物体を、現実空間の撮影画像の上に合成して合成画像として表示することができる拡張現実感システムが提案されている。
In such a situation, for example,
しかし、このような拡張現実感を利用したシステムを利用して、合成画像を取得した場合であっても、単に、現実空間に対し仮想物体を合成して合成画像を取得できるに過ぎなかった。したがって、画像を取得したユーザーは、合成された画像を実際に視認することにより、この画像に対する意図や思惑を自ら想像しなければならず、得られた画像に対する感覚を容易に得ることができなかった。 However, even when a composite image is acquired using a system that uses such augmented reality, the composite image can only be acquired by synthesizing a virtual object with the real space. Therefore, the user who acquired the image must imagine the intention and speculation for this image by actually visually recognizing the synthesized image, and cannot easily get a sense for the obtained image. It was.
そこで本発明は、得られた画像に対する感覚を容易に得ることができる感覚情報表現サーバ、感覚情報表現システム、及び感覚情報表現方法を提供することを目的とする。 Therefore, an object of the present invention is to provide a sensory information expression server, a sensory information expression system, and a sensory information expression method capable of easily obtaining a sense of an obtained image.
(1) 画像に対する感覚情報の表現を実現する感覚情報表現サーバであって、Web上から収集されたテキストデータを取得するテキストデータ取得手段と、前記テキストデータ取得手段により取得された前記テキストデータに出現する事物を表す事物単語と、前記事物単語と共起の関係にある用語であって人間が感じる感覚を表す感覚用語と、を共起度に応じて関連付けた感覚辞書を生成する感覚辞書生成手段と、クライアント端末において入力された画像データから前記事物単語に対応する対象物を特定する対象物特定手段と、前記感覚辞書生成手段により生成された前記感覚辞書に基づき、前記対象物特定手段により特定された前記対象物に対応する前記事物単語と共起の関係にある前記感覚用語を決定する感覚用語決定手段と、前記画像データと前記感覚用語決定手段により決定された前記感覚用語とを前記クライアント端末に送信する送信手段と、を備えたことを特徴とする感覚情報表現サーバ。 (1) A sensory information expression server that realizes expression of sensory information for an image, the text data acquiring unit acquiring text data collected from the Web, and the text data acquired by the text data acquiring unit A sensory dictionary that generates a sensory dictionary in which an object word representing an appearing object and a sensory term representing a sense felt by humans that are co-occurring with the object word are associated according to the degree of co-occurrence. Based on the generating means, the object specifying means for specifying the object corresponding to the thing word from the image data input at the client terminal, and the sensory dictionary generated by the sensory dictionary generating means, the object specifying Sensory term determining means for determining the sensory term in co-occurrence with the thing word corresponding to the object identified by the means; Sensory information representing the server, characterized in that the said sensory terms as determined by the image data and the sensory terms determining means comprising a transmission means for transmitting to said client terminal.
(1)の感覚情報表現サーバによれば、クライアント端末において入力された画像データから事物単語に対応する対象物が特定される。そして、特定された対象物に対応する事物単語と、共起の関係にある感覚用語が、クライアント端末において入力された画像データとともに送信される。すなわち、クライアント端末において入力された画像に対して意味合いに関連性の高い感覚用語が画像データとともにクライアント端末に送信される。その結果、得られた画像に対する感覚を当該感覚情報表現サーバを介して容易に得ることができる。 According to the sensory information expression server of (1), the object corresponding to the thing word is specified from the image data input at the client terminal. And the thing word corresponding to the specified target object and the sensory term having a co-occurrence relationship are transmitted together with the image data input at the client terminal. That is, sensory terms that are highly relevant to the image input at the client terminal are transmitted to the client terminal together with the image data. As a result, a feeling for the obtained image can be easily obtained via the sensory information expression server.
また、ユーザーが伝達しようとする画像の対象物に対して、複数の感覚用語の中から今現在ブログやニュース配信サイトなどのWeb上において流行している感覚用語が決定することができる。その結果、ユーザーが伝達しようとしている画像に対応する事物単語と意味的に関連性が強く、かつ、現在の流行に対応した感覚を容易に得ることができる。 In addition, a sensory term currently popular on the Web such as a blog or a news distribution site can be determined from a plurality of sensory terms for an object of an image to be transmitted by a user. As a result, it is possible to easily obtain a sense corresponding to the current fashion, which is strongly related to an object word corresponding to an image to be transmitted by the user and semantically strong.
また、事物単語に対して、共起度に応じて複数の感覚用語を決定することができる。その結果、例えば、ユーザーが伝達しようとする画像の対象物に対し、共起度が高い順に感覚用語を2つ決定して、その2つの感覚用語を画像データとともに送信することで、その画像に対するより強い感覚を容易に得ることができる。 In addition, a plurality of sensory terms can be determined according to the degree of co-occurrence with respect to a thing word. As a result, for example, by determining two sensory terms in descending order of co-occurrence for the object of the image to be transmitted by the user, and transmitting the two sensory terms together with the image data, A stronger sense can be easily obtained.
(2) 前記クライアント端末において入力される前記画像データは、地名に対応する対象物を備えた地図データに関し、前記地名及び、前記地名に対応し前記クライアント端末において前記感覚用語の表示を行う位置情報を格納する位置情報格納手段と、を備え、前記感覚辞書生成手段は、前記テキストデータ取得手段により取得された前記テキストデータに出現する地名と、前記地名と共起の関係にある用語であって人間が感じる感覚を表す感覚用語と、を共起度に応じて関連付けた感覚辞書を生成し、前記対象物特定手段は、前記クライアント端末において入力された前記地図データから前記地名に対応する対象物を特定し、前記感覚用語決定手段は、前記感覚辞書生成手段により生成された前記感覚辞書に基づき、前記対象物特定手段により特定された前記対象物に対応する前記地名と共起の関係にある前記感覚用語を決定し、前記送信手段は、前記地図データと前記感覚用語決定手段により決定された前記感覚用語と前記対象物特定手段により特定された前記対象物の地名に対応する位置情報とを送信することを特徴とする(1)に記載の感覚情報表現サーバ。 (2) The image data input at the client terminal relates to map data including an object corresponding to a place name, and positional information for displaying the place name and the sensory term corresponding to the place name at the client terminal. The sensory dictionary generating means is a term co-occurring with the place name appearing in the text data acquired by the text data acquiring means. A sensory dictionary in which sensory terms representing human senses are associated with each other according to a co-occurrence degree is generated, and the target object specifying unit is a target object corresponding to the place name from the map data input in the client terminal. And the sensory term determining means is configured to determine the object specifying hand based on the sensory dictionary generated by the sensory dictionary generating means. The sensory term co-occurring with the place name corresponding to the object specified by the object is determined, and the transmitting unit is configured to determine the sensory term determined by the map data and the sensory term determining unit and the target. The sensory information expression server according to (1), wherein position information corresponding to the place name of the object specified by the object specifying means is transmitted.
(2)の感覚情報表現サーバによれば、クライアント端末において入力された地名に対応する対象物を備えた地図データから、該地名に対応する対象物が特定される。そして、特定された対象物に対応する地名と共起の関係にある感覚用語、及び、特定された対象物の地名に対応する位置情報が、クライアント端末において入力された地図データとともに送信される。その結果、地名に対する感覚を、当該感覚情報表現サーバを介して容易に得ることができる。 According to the sensory information expression server of (2), the object corresponding to the place name is specified from the map data including the object corresponding to the place name input at the client terminal. Then, sensory terms co-occurring with the place name corresponding to the specified object and the position information corresponding to the place name of the specified object are transmitted together with the map data input at the client terminal. As a result, a sense for the place name can be easily obtained via the sense information expression server.
(3) 前記感覚用語は、嗅覚、触覚又は味覚に関する心的現象を表す形容詞であることを特徴とする(1)又は(2)に記載の感覚情報表現サーバ。(3)の感覚情報表現サーバによれば、視認するだけでは伝達することが特に困難な感覚である嗅覚、触覚及び味覚を容易に得ることができる。 (3) The sensory information representation server according to (1) or (2), wherein the sensory term is an adjective representing a mental phenomenon related to olfaction, touch, or taste. According to the sensory information expression server of (3), it is possible to easily obtain an olfactory sense, a tactile sensation, and a taste sense that are particularly difficult to convey only by visual recognition.
(4) クライアント端末における画像に対する感覚情報の表現を感覚情報表現サーバを介して実現する感覚情報表現システムであって、前記クライアント端末は、被写体を撮像する撮像手段と、前記撮像手段により撮像された画像データを送信する画像データ送信手段と、外部から画像データを受信する受信手段と、前記受信手段により受信した画像データを表示する表示手段と、を備え、前記感覚情報表現サーバは、Web上から収集されたテキストデータを取得するテキストデータ取得手段と、前記テキストデータ取得手段により取得された前記テキストデータに出現する事物を表す事物単語と、前記事物単語と共起の関係にある用語であって人間が感じる感覚を表す感覚用語と、を共起度に応じて関連付けた感覚辞書を生成する感覚辞書生成手段と、前記クライアント端末において入力された画像データから前記事物単語に対応する対象物を特定する対象物特定手段と、前記感覚辞書生成手段により生成された前記感覚辞書に基づき、前記対象物特定手段により特定された前記対象物に対応する前記事物単語と共起の関係にある前記感覚用語を決定する感覚用語決定手段と、前記画像データ送信手段から送信された前記画像データと前記感覚用語決定手段により決定された前記感覚用語とを前記クライアント端末に送信する送信手段と、を備え、前記受信手段は、前記送信手段から送信された前記画像データと前記感覚用語とを受信し、前記表示手段は、前記受信手段により受信した前記画像データと前記感覚用語とを表示することを特徴とする感覚情報表現システム。 (4) A sensory information expression system that realizes expression of sensory information for an image on a client terminal via a sensory information expression server, wherein the client terminal is imaged by an imaging unit that images a subject, and the imaging unit An image data transmitting means for transmitting image data; a receiving means for receiving image data from the outside; and a display means for displaying the image data received by the receiving means. A text data acquisition means for acquiring the collected text data, an event word representing an event that appears in the text data acquired by the text data acquisition means, and a term co-occurring with the event word. A sensation that generates a sensation dictionary that associates sensation terms that express human sensations with the degree of co-occurrence The object generating unit, the object specifying unit for specifying the object corresponding to the thing word from the image data input at the client terminal, and the object dictionary based on the sensory dictionary generated by the sensory dictionary generating unit. Sensory term determining means for determining the sensory term co-occurring with the thing word corresponding to the object specified by the object specifying means, the image data transmitted from the image data transmitting means, and the Transmitting means for transmitting the sensory term determined by the sensory term determining means to the client terminal, and the receiving means receives the image data and the sensory term transmitted from the transmitting means, The sensory information expression system characterized in that the display means displays the image data and the sensory terms received by the receiving means.
(4)の感覚情報表現システムによれば、クライアント端末の撮像手段により撮像された画像データから事物単語に対応する対象物が特定される。そして、特定された対象物に対応する事物単語と、共起の関係にある感覚用語が、撮像手段により撮像された画像データとともに送信される。そして、クライアント端末は、送信された画像データと決定された感覚用語とを表示手段において表示する。その結果、撮像することにより得られた画像に対する感覚を当該感覚情報表現システムにより容易に得ることができる。 According to the sensory information expression system of (4), the object corresponding to the thing word is specified from the image data imaged by the imaging means of the client terminal. Then, the sense word having a co-occurrence relationship with the thing word corresponding to the identified target object is transmitted together with the image data imaged by the imaging means. Then, the client terminal displays the transmitted image data and the determined sensory term on the display means. As a result, it is possible to easily obtain a sense for an image obtained by taking an image by the sense information expression system.
(5) 画像に対する感覚情報の表現を実現する感覚情報表現方法であって、Web上から収集されたテキストデータを取得するテキストデータ取得ステップと、前記テキストデータ取得ステップにより取得された前記テキストデータに出現する事物を表す事物単語と、前記事物単語と共起の関係にある用語であって人間が感じる感覚を表す感覚用語とを共起度に応じて関連付けた感覚辞書を生成する感覚辞書生成ステップと、クライアント端末において入力された画像データから前記事物単語に対応する対象物を特定する対象物特定ステップと、前記感覚辞書生成ステップにより生成された前記感覚辞書に基づき、前記対象物特定ステップにより特定された前記対象物に対応する前記事物単語と共起の関係にある前記感覚用語を決定する感覚用語決定ステップと、前記画像データと前記感覚用語決定ステップにより決定された前記感覚用語とをクライアント端末に送信する送信ステップと、を備えたことを特徴とする感覚情報表現方法。 (5) A sensory information expression method that realizes expression of sensory information for an image, the text data acquisition step for acquiring text data collected from the Web, and the text data acquired by the text data acquisition step. Sensory dictionary generation that generates a sensory dictionary that associates an event word representing an appearing thing with a sensory term representing a sense felt by humans that is a term co-occurring with the event word according to the degree of co-occurrence The object specifying step based on the sensory dictionary generated by the sensory dictionary generated by the sensory step generated by the step, the target object specifying the target object corresponding to the thing word from the image data input at the client terminal A sense of determining the sensory term in co-occurrence with the thing word corresponding to the object identified by And terminology determining step, sensory information representing how to a transmission step, comprising the for transmitting said sensory terms determined by the sensory terms determining step and the image data to the client terminal.
(5)の感覚情報表現方法によれば、クライアント端末において入力された画像データから事物単語に対応する対象物が特定される。そして、特定された対象物に対応する事物単語と、共起の関係にある感覚用語が、クライアント端末において入力された画像データとともに送信される。その結果、クライアント端末において入力された画像に対する感覚を当該感覚情報表現方法により容易に得ることができる。 According to the sensory information expression method of (5), the object corresponding to the thing word is specified from the image data input at the client terminal. And the thing word corresponding to the specified target object and the sensory term having a co-occurrence relationship are transmitted together with the image data input at the client terminal. As a result, it is possible to easily obtain a feeling for an image input at the client terminal by the feeling information expression method.
本発明によれば、クライアント端末に入力された画像に対する感覚をユーザーが容易に得ることができる。 According to the present invention, a user can easily obtain a feeling for an image input to a client terminal.
[第1実施形態]
本発明の感覚情報表現方法は、クライアント端末から入力された画像データと感覚用語とをクライアント端末に送信して、画像データに含まれる対象物に対してユーザーが感じる感覚を容易に得ることができるものであるところ、以下では、本発明の感覚情報表現方法を実現するために好適な感覚情報表現システム1について図1〜図8を参照しながら説明する。
[First Embodiment]
According to the sensory information expression method of the present invention, image data and sensory terms input from a client terminal can be transmitted to the client terminal, and a user can easily obtain a sensory feeling for an object included in the image data. In the following, a sensory
[感覚情報表現システム1の構成例]
感覚情報表現システム1は、ブログサーバ10、感覚情報表現サーバ20、クライアント端末40により構成される。
[Configuration example of sensory information expression system 1]
The sensory
ブログサーバ10は、ブログ配信手段11により構成される。感覚情報表現サーバ20は、テキストデータ取得手段21、感覚辞書生成手段22、対象物特定手段23、感覚用語決定手段24、送信手段25、事物単語データベース(DB)30、感覚用語データベース(DB)31、感覚辞書データベース(DB)32、画像辞書データベース(DB)33により構成される。クライアント端末40は、撮像手段41、画像データ送信手段42、受信手段43、表示手段44により構成される。
The
ブログサーバ10は、ブログ配信手段11を介してインターネット回線を通じて、ブログの書き込み記事を配信する。ここで、ブログの書き込み記事とは、個人や複数人のグループで運営される日記形式のテキストデータにより構成された記事である。
The
感覚情報表現サーバ20のテキストデータ取得手段21は、インターネット回線を通じて、ブログサーバ10のブログ配信手段11から配信されたブログ記事のテキストデータを取得する。ブログ記事のテキストデータの取得は、例えば、クローラーなどと呼ばれる自動的に各サーバを巡回してコンテンツを収集するソフトウェアを実行することにより実現する。なお、テキストデータの取得は、ブログサーバ10により配信されるブログ記事には限られない。例えば、このブログサーバ10の代わりに、SNSの書き込み記事が格納されたSNSサーバにより配信されるコンテンツや、ニュース配信サイトなどのニュースサーバにより配信されるテキストデータのコンテンツであってもよい。また、テキストデータの取得は、インターネット回線を通じたものに限られない。例えば、PAN(Personal Area Network)、LAN(Local Area Network)、WAN(Wide Area Network)などのネットワーク回線を通じてテキストデータの取得を行ってもよい。
The text
感覚辞書生成手段22は、テキストデータ取得手段21により取得されたテキストデータに出現する事物を表す事物単語と、この事物単語と共起の関係にある用語であって人間が感じる感覚を表す言葉、すなわち、人体の感覚器が受けたときに経験する心的現象を表す感覚用語と、を共起度に応じて関連付けた感覚辞書DB32の生成を行う。具体的には、テキストデータ取得手段により取得したテキストを形態素解析し、品詞に分類して、事物単語DB30に格納されている事物単語と、感覚用語DB31に格納されている感覚用語とを参照し、事物単語と感覚単語とを抽出する。そして、抽出された事物単語と、感覚用語との共起ヒット情報を共起度として計算して、事物単語と感覚用語との対応付け及び、事物単語とそれに対応する各感覚用語との共起度を感覚辞書DB32に格納し、感覚辞書DB32の生成を行う。
The sensation dictionary generation means 22 is a word that represents an object that appears in the text data acquired by the text data acquisition means 21, and a term that is a co-occurrence term with the event word and represents a sensation felt by humans. That is, the
クライアント端末40の撮像手段41は、ユーザーによる画像データの入力の受け付けを行うものである。すなわち、撮像手段41は、カメラレンズやCCD(Charge Coupled Device)などの撮像素子が設けられた撮像手段としてのカメラ機能を備える。画像データ送信手段42は、撮像手段41を介して入力された画像データを感覚情報表現サーバ20に送信するものである。
The imaging means 41 of the
感覚情報表現サーバ20の対象物特定手段23は、画像辞書DB33を参照して、クライアント端末40から撮像手段41を介して入力された画像データから、事物単語に対応する対象物の画像を特定する。
The
具体的には、まず、クライアント端末40において撮像手段41を介して入力された画像データから特徴情報を抽出する。特徴情報としては、画像の輪郭や色数などがある。このような技術は公知であり(例えば、特開2006−114053参照)、このようにすることによって、撮像手段41を介して入力された画像データ内の画像が、例えば「りんご」であることを認識できる。そして、画像辞書DB33を参照し、すでに実用化されている類似画像検索技術に基づき、特徴情報が合致する画像を特定し、撮像手段41を介して入力された画像データと特徴情報が合致する対象物の画像を特定する。その際、特徴情報が完全に一致するものがない場合には、類似度が最も大きいものを選ぶ。類似画像検索では、検索の対象となる画像から視覚的な情報を数百次元の数値列データ(画像特徴量)で示し、データ同士の似ている度合い(類似度)を、画像特徴量ベクトル間の距離、すなわち、この画像特徴量の違いとして評価する。
Specifically, first, feature information is extracted from image data input via the imaging unit 41 in the
感覚用語決定手段24は、感覚辞書生成手段22により生成された感覚辞書DB32に基づき、対象物特定手段23により特定された対象物に対応する事物単語と共起の関係にある感覚用語の決定を行う。具体的には、感覚辞書DB32を参照して、特定された対象物に対応する事物単語に対応する複数の感覚用語のうち共起度が一番高い感覚用語を決定する。なお、この場合、事物単語に対応する複数の感覚用語のうち共起度が高い順に2つ、又はそれ以上の複数の感覚用語を決定してもよい。
The sensory
送信手段25は、感覚用語決定手段24により決定された感覚用語と、クライアント端末40の撮像手段41を介して入力された画像データとをクライアント端末40に対し送信する。具体的には、クライアント端末40の撮像手段41を介して入力された画像データとともに、感覚用語決定手段24により決定された感覚用語をクライアント端末40に送信する。なお、この場合、クライアント端末において入力された画像データに対し、感覚用語決定手段24により決定された感覚用語に対応するデータを付加して、画像データごとクライアント端末40に送信してもよい。また、感覚用語決定手段24により複数の感覚用語が決定された場合には、決定された複数の感覚用語を画像データとともに送信してもよい。
The
クライアント端末40の受信手段43は、インターネット回線を通じて、感覚情報表現サーバ20から送信された画像データと、決定された感覚用語との受信を行う。表示手段44は、受信手段43が受信した画像データに対応する画像を、後で図7を参照して説明するクライアント端末40の表示装置1360において表示するとともに、決定された感覚用語を、表示装置1360において表示された画像とともに表示する。具体的には、クライアント端末40の表示装置1360の表示画面において、クライアント端末40の撮像手段41を介して入力された画像を表示するとともに、この表示された画像に対応する感覚用語を一緒に表示する。
The receiving means 43 of the
[事物単語DB]
図2を参照して、事物単語DB30について説明する。事物単語DB30は、事物単語No.毎に、事物を表す事物単語が記憶される。事物単語No.は、事物単語を一意に識別するために用いられる。事物単語は、文中で主語や目的語などとして働くモノを表す名詞により構成される単語である。
[Thing word DB]
The
[感覚用語DB]
図3を参照して、感覚用語DB31について説明する。感覚用語DB31は、感覚用語No.毎に、人間が感じる感覚を表す感覚用語が記憶される。感覚用語No.は、感覚用語を一意に識別するために用いられる。感覚用語は、人体の五感により感ずる形容詞により構成され、特に、嗅覚、触覚又は味覚など、事物の性質・状態・心情などを表し、文中で、名詞を修飾する形容詞により構成される用語である。
[Sense term DB]
With reference to FIG. 3, sensory term DB31 is demonstrated. The
[感覚辞書DB]
図4を参照して、感覚辞書DB32について説明する。感覚辞書DB32は、事物単語毎に、この事物単語に対応する複数の感覚用語及び、この事物単語に対応する各感覚用語の共起度、が記憶される。共起度とは、事物単語に対する感覚用語の意味合いに関連性の高さを規定する情報である。例えば、この共起度は、テキストデータ取得手段21により取得されたテキストデータにおいて、事物単語に対応して出現する感覚用語の回数に応じて決定される。
[Sense Dictionary DB]
The
[画像辞書DB]
図5を参照して、画像辞書DB33について説明する。画像辞書DB33は、画像毎に、事物単語が記憶される。クライアント端末40の撮像手段41を介して入力された各画像の特徴情報と合致する特徴情報を有する画像が、画像辞書DB33の中から特定される。画像辞書DB33に記憶されている画像は、JPEG(Joint Photographic Experts Group)により記憶されているがこれに限られない。例えば、BMP、PICT、GIF(Graphics Interchange Format)(登録商標)、PNG(Portable Network graphics)の形式により記憶されていてもよい。
[Image Dictionary DB]
The
[ブログサーバ10、感覚情報表現サーバ20、クライアント端末40のハードウェア構成]
図6は、感覚情報表現サーバ20のハードウェア構成を示す図である。本発明が実施される装置は標準的なものでよく、以下に構成の一例を示す。なお、詳細な説明は省略するが、ブログサーバ10、クライアント端末40も感覚情報表現サーバ20と同様のハードウェア構成を有している。
[Hardware Configuration of
FIG. 6 is a diagram illustrating a hardware configuration of the sensory
感覚情報表現サーバ20は、制御部1300を構成するCPU(Central Processing Unit)1310(マルチプロセッサ構成ではCPU1320など複数のCPUが追加されてもよい)、バスライン1200、通信I/F(I/F:インターフェイス)1330、メインメモリ1340、BIOS(Basic Input Output System)1350、表示装置1360、I/Oコントローラ1370、キーボード及びマウスなどの入力装置1380、ハードディスク1390、光ディスクドライブ1400、半導体メモリ1420、並びに撮像装置1440を備える。なお、ハードディスク1390、光ディスクドライブ1400、並びに半導体メモリ1420はまとめて記憶装置1430と呼ぶ。
The sensory
制御部1300は、感覚情報表現サーバ20を統括的に制御する部分であり、ハードディスク1390(後述)に記憶された各種プログラムを適宜読み出して実行することにより、上述したハードウェアと協働し、本発明に係る各種機能を実現している。
The
通信I/F1330は、感覚情報表現サーバ20が、ネットワークを介してブログサーバ10、及びクライアント端末40などと情報を送受信する場合のネットワーク・アダプタである。通信I/F1330は、モデム、ケーブル・モデム及びイーサネット(登録商標)・アダプタを含んでよい。なお、感覚情報表現サーバ20の送信手段25、クライアント端末40の画像データ送信手段42、及び受信手段43は、通信I/F1330により実現される。
The communication I /
BIOS1350は、感覚情報表現サーバ20の起動時にCPU1310が実行するブートプログラムや、感覚情報表現サーバ20のハードウェアに依存するプログラムなどを記録する。
The
表示装置1360は、ブラウン管表示装置(CRT)、液晶表示装置(LCD)などのディスプレイ装置を含む。なお、クライアント端末40の表示手段44は、液晶表示装置により形成された表示装置1360により実現される。
I/Oコントローラ1370には、ハードディスク1390、光ディスクドライブ1400、及び半導体メモリ1420などの記憶装置1430を接続することができる。
A
ハードディスク1390は、本ハードウェアを感覚情報表現サーバ20として機能させるための各種プログラム、本発明の機能を実行するプログラム及び前述したテーブル及びレコードを記憶する。なお、感覚情報表現サーバ20は、外部に別途設けたハードディスク(図示せず)を外部記憶装置として利用することもできる。
The
光ディスクドライブ1400としては、例えば、DVD−ROMドライブ、CD−ROMドライブ、DVD−RAMドライブ、CD−RAMドライブを使用することができる。この場合は各ドライブに対応した光ディスク1410を使用する。光ディスク1410から光ディスクドライブ1400によりプログラム又はデータを読み取り、I/Oコントローラ1370を介してメインメモリ1340又はハードディスク1390に提供することもできる。
As the
ハードディスク1390は、本ハードウェアを感覚情報表現サーバ20として機能させるための各種プログラム、本発明の機能を実行するプログラム及び前述したテーブル及びレコードを記憶する。なお、感覚情報表現サーバ20は、外部に別途設けたハードディスク(図示せず)を外部記憶装置として利用することもできる。
The
撮像装置1440は、カメラレンズやCCDなどの撮像素子などを備え、ユーザーが所望する物や者、風景などを撮影し、画像データとして記憶することができる。クライアント端末40の撮像手段41は、撮像装置1440により実現される。なお、撮像装置1440は、クライアント端末40のみ有する機能であり、ブログサーバ10、及び感覚情報表現サーバ20には備えなくてもよい。
The
なお、本発明でいうコンピュータとは、記憶装置、制御部などを備えた端末をいい、感覚情報表現サーバ20は、記憶装置1430、制御部1300などを備えた端末により構成され、この端末は、本発明のコンピュータの概念に含まれる。
The computer in the present invention refers to a terminal including a storage device, a control unit, and the like, and the sensory
感覚情報表現サーバ20の各手段は、制御部1300によってプログラムが実行されることで実現される。但し、データ記憶部は、主としてハードディスク1390に実装されるが、既に述べたように、他の記憶装置を用いてもよい。
Each means of the sensory
[処理フロー]
図7は、本実施形態の感覚情報表現方法を実現するための処理の流れを示すフローチャートである。
[Processing flow]
FIG. 7 is a flowchart showing a flow of processing for realizing the sensory information expression method of the present embodiment.
S1:不特定ユーザーによりブログの書き込みが行われた場合には、ブログサーバ10の制御部1300(ブログ配信手段11)は、通信I/F1330を介して、書き込まれたブログの書き込み記事を配信する。
S1: When a blog is written by an unspecified user, the control unit 1300 (blog distribution unit 11) of the
S2:ブログサーバ10によりブログの書き込み記事の配信が行われると、感覚情報表現サーバ20の制御部1300(テキストデータ取得手段21)は、配信されたブログ記事のテキストデータを取得する。
S2: When the
S3:続いて、感覚情報表現サーバ20の制御部1300(感覚辞書生成手段22)は、事物単語DB30及び感覚用語DB31を参照して、事物単語と感覚用語との対応付け及び、事物単語とそれに対応する各感覚用語との共起度を感覚辞書DB32に格納し感覚辞書DB32を生成する。
S3: Subsequently, the control unit 1300 (sensory dictionary generation means 22) of the sensory
S4:次に、クライアント端末40の制御部1300(撮像手段41)は、撮像装置1440を介して対象物の撮像を行い、取得された撮像データの画像の入力を受け付ける。
S4: Next, the control unit 1300 (imaging unit 41) of the
S5:続いて、クライアント端末40の制御部1300(画像データ送信手段42)は、撮像データの入力を受け付けた場合には、クライアント端末40の通信I/F1330を介して、撮像データを送信する。
S5: Subsequently, the control unit 1300 (image data transmission unit 42) of the
S6:次に、感覚情報表現サーバ20の制御部1300(対象物特定手段23)は、入力された撮像データから特徴情報を抽出し、画像辞書DB33を参照して、入力された撮像データの画像と特徴情報が合致する対象物の画像を特定する。
S6: Next, the control unit 1300 (the object specifying unit 23) of the sensory
S7:次に、感覚情報表現サーバ20の制御部1300(感覚用語決定手段24)は、生成された感覚辞書DB32に基づき、対象物特定手段23により特定された対象物の画像に対応する事物単語と共起の関係にある感覚用語のうち、一番共起度の高い感覚用語を決定する。
S7: Next, the control unit 1300 (sensory term determining means 24) of the sensory
S8:次に、感覚情報表現サーバ20の制御部1300(送信手段25)は、通信I/F1330により、決定された感覚用語とクライアント端末40から送信された撮像データとをクライアント端末40に送信する。
S8: Next, the control unit 1300 (transmission means 25) of the sensory
S9:続いて、クライアント端末40の制御部1300(受信手段43)は、通信I/F1330により、感覚情報表現サーバ20から送信された撮像データと感覚用語とを受信する。
S9: Subsequently, the control unit 1300 (reception unit 43) of the
S10:次に、クライアント端末40の制御部1300(表示手段44)は、送信された撮像データの画像とともに、決定された感覚用語に対応するテキストをクライアント端末40の表示装置1360に表示する。
S10: Next, the control unit 1300 (display unit 44) of the
[クライアント端末における表示例]
図8を参照して、クライアント端末40において撮像された撮像データの画像を、クライアント端末40としての携帯電話において表示する表示例について説明する。
[Display example on client terminal]
With reference to FIG. 8, a display example in which an image of captured image captured by the
図8では、ユーザーがクライアント端末40において撮像した「りんご」の画像が、感覚情報表現サーバ20を介して、クライアント端末40の表示装置1360において表示されている。
In FIG. 8, the “apple” image captured by the user at the
ここで、ユーザーが、クライアント端末40を用いて、「りんご」の撮影を行い、「リンゴ」の撮像データを感覚情報表現サーバ20に送信すると、感覚情報表現サーバ20において感覚辞書DB32に記憶されている感覚用語のうち、この撮像データの画像「りんご」に対して一番共起度の高い感覚用語である「あまい」が決定される。
Here, when the user shoots an “apple” using the
そして、この撮像データ及び決定された感覚用語がクライアント端末40に送信されることにより、ユーザーがクライアント端末40の撮像装置1440を介して撮像した画像が、クライアント端末40の表示装置1360の画像表示領域55に表示されるとともに、このユーザーが撮像した撮像データと関連性が高い感覚用語「あまい」が表示装置1360の感覚用語表示領域56に表示されている。
Then, the image data and the determined sensory term are transmitted to the
また、ユーザーがクライアント端末40の撮像装置を介して、新しい撮像データを送信した場合には、クライアント端末40の感覚用語表示領域56において表示されていた感覚用語をクリアし、新しい感覚用語が表示される。
When the user transmits new imaging data via the imaging device of the
このように、ユーザーがクライアント端末40の撮像手段41から入力された画像データに含まれる対象物に対して共起度の高い、すなわち意味合いに関連性の高い感覚用語が決定される。したがって、撮像手段41を介して得られた画像に対してユーザーが感じた感覚を容易に得ることができる。
In this way, sensory terms having a high degree of co-occurrence with respect to the object included in the image data input from the imaging means 41 of the
[第2実施形態]
次に、本発明の別実施形態に係る感覚情報表現方法について、この感覚情報表現方法を実現するために好適な感覚情報表現システム1Aを用いて説明する。第2実施形態に係る感覚情報表現方法はクライアント端末の撮像手段ではなく、地図サーバ500から送信された地図データを送信する点で、第1実施形態に係る感覚情報表現方法とは異なる。
[Second Embodiment]
Next, a sensory information expression method according to another embodiment of the present invention will be described using a sensory
[感覚情報表現システム1Aの構成例]
図9を参照して、感覚情報表現システム1Aは、ブログサーバ100、感覚情報表現サーバ200、クライアント端末400により構成される。
[Configuration example of sensory
Referring to FIG. 9, sensory
ブログサーバ100は、ブログ配信手段101により構成される。感覚情報表現サーバ200は、テキストデータ取得手段201、感覚辞書生成手段202、対象物特定手段203、感覚用語決定手段204、送信手段205、事物単語データベース(DB)300、感覚用語データベース(DB)301、感覚辞書データベース(DB)302、位置情報データベース(DB)303により構成される。クライアント端末400は、地図データベース(DB)401、地図データ入力手段401、地図データ送信手段402、受信手段403、表示手段404により構成される。
The
ブログサーバ100は、ブログ配信手段101を介してインターネット回線を通じて、ブログの書き込み記事を配信する。
The
感覚情報表現サーバ200のテキストデータ取得手段201は、インターネット回線を通じて、ブログサーバ100のブログ配信手段101から配信されたブログ記事のテキストデータを取得する。また、このテキストデータの取得も、インターネット回線を通じたものに限られず、PAN、LAN、WANなどのネットワーク回線を通じてテキストデータの取得を行ってもよい。
The text
感覚辞書生成手段202は、テキストデータ取得手段201により取得されたテキストデータに出現する地名と、この地名と共起の関係にある用語であって人間が感じる感覚を表す言葉、すなわち、人体の感覚器が受けたときに経験する心的現象を表す感覚用語と、を共起度に応じて関連付けた感覚辞書DB302の生成を行う。具体的には、事物単語DB300に格納されている地名を表す標記と、感覚用語DB301に格納されている感覚用語とを参照して、テキストデータ取得手段により取得したテキストを形態素解析し、品詞に分類して、地名を表す標記と感覚単語とを抽出する。そして、抽出された地名を表す標記と、感覚用語との共起ヒット情報を共起度として計算して、標記と感覚用語との対応付け及び、標記とそれに対応する各感覚用語との共起度を感覚辞書DB302に格納し、感覚辞書DB302の生成を行う。
The sensory
クライアント端末400の地図データ入力手段401は、クライアント端末400からの地図の閲覧要求に応じて、地図サーバ500に記憶されている地図データの中から閲覧要求があった地図に対応する地図データの入力の受け付けを行うものである。
In response to a map browsing request from the
クライアント端末400の地図データ送信手段402は、地図データ入力手段401を介して入力された地図データを感覚情報表現サーバ200に送信する。具体的には、複数の地点に関する位置情報及び地名を示す位置情報を有する地図コンテンツを有する地図データの送信を行う。
The map
感覚情報表現サーバ200の対象物特定手段203は、位置情報DB303を参照して、クライアント端末400の地図データ入力手段401を介して入力された地図データから、地名を表す標記に対応する対象物を特定する。
The
具体的には、まず、クライアント端末400の地図データ入力手段401を介して入力された地図データから特徴情報を抽出する。特徴情報としては、地図データにより表される対象物である地図の輪郭などがある。このような技術は公知であり(例えば、特開2006−114053参照)、このようにすることによって、クライアント端末400の地図データ入力手段401を介して入力された地図データ内の地名に対応する標記が、例えば「ケニア」であることを認識できる。そして、位置情報DB303を参照し、すでに実用化されている類似画像検索技術に基づき、特徴情報が合致する標記を特定し、クライアント端末400により入力された地図データと特徴情報が合致する対象物の標記を特定する。その際、特徴情報が完全に一致するものがない場合には、類似度が最も大きいものを選ぶ。類似画像検索では、検索の対象となる地図データの画像から視覚的な情報を数百次元の数値列データ(画像特徴量)で示し、データ同士の似ている度合い(類似度)を、画像特徴量ベクトル間の距離、すなわち、この画像特徴量の違いとして評価する。
Specifically, first, feature information is extracted from the map data input via the map
感覚用語決定手段204は、感覚辞書生成手段202により生成された感覚辞書DB302に基づき、対象物特定手段203により特定された対象物に対応する地名を表す標記と共起の関係にある感覚用語の決定を行う。具体的には、感覚辞書DB302を参照して、特定された対象物に対応する地名を表す標記に対応する複数の感覚用語のうち共起度が一番高い感覚用語を決定する。
The sensory
送信手段205は、感覚用語決定手段204により決定された感覚用語、対象物特定手段203により特定された地名に対応する位置情報及び対象物に対応する地名を表す標記を、地図データ入力手段401を介して入力された地図データとともにクライアント端末400に送信する。具体的には、クライアント端末400において入力された地図データとともに、位置情報DB303を参照して特定された地名に対応する位置情報、及び決定された感覚用語のデータを送信する。なお、この場合、地図データに対し、位置情報DB303を参照して特定された地名に対応する位置情報、及び決定された感覚用語のデータを付加して、地図データごとクライアント端末400に送信してもよい。また、感覚用語決定手段204により複数の感覚用語が決定された場合には、決定された複数の感覚用語を地図データとともに送信してもよい。なお、この際、位置情報や感覚用語とともに対象物に対応する地名を表す標記も送信したが、後述のクライアント端末400の表示装置1360においてこの標記を表示しない場合には送信しなくてもよい。
The transmission means 205 uses the map data input means 401 to display the sensory terms determined by the sensory term determination means 204, the location information corresponding to the place name specified by the object specifying means 203, and the mark representing the place name corresponding to the object. It is transmitted to the
クライアント端末400の受信手段403は、インターネット回線を通じて、感覚情報表現サーバ200から送信された、地図データ、位置情報、及び決定された感覚用語の受信を行う。表示手段404は、受信手段403が受信した地図データに対応する地図を、後で図12を参照して説明するクライアント端末400の表示装置1360において表示するとともに、送信された感覚用語及び標記を、位置情報に基づいて表示装置1360において表示された地図とともに表示する。具体的には、クライアント端末400の表示装置1360において、地図データ入力手段401において入力された地図を表示するとともに、この表示された地図に対応する感覚用語及び標記を位置情報に基づき一緒に表示する。
The receiving means 403 of the
[事物単語DB]
図2を参照して、事物単語DB300について説明する。事物単語DB300は、事物単語No.毎に、事物を表す事物単語が記憶される。事物単語No.は、事物単語を一意に識別するために用いられる。事物単語は、文中で主語や目的語などとして働くモノを表す名詞により構成される単語である。第2実施形態においては、特に地名に関する事物単語が記憶される。
[Thing word DB]
The
[感覚用語DB]
図3を参照して、感覚用語DB301について説明する。感覚用語DB301は、感覚用語No.毎に、人間が感じる感覚を表す感覚用語が記憶される。感覚用語No.は、感覚用語を一意に識別するために用いられる。感覚用語は、人体の五感により感ずる形容詞により構成され、特に、嗅覚、触覚又は味覚など、事物の性質・状態・心情などを表し、文中で、名詞を修飾する形容詞により構成される用語である。
[Sense term DB]
With reference to FIG. 3, sensory term DB301 is demonstrated. The
[感覚辞書DB]
図4を参照して、感覚辞書DB302について説明する。感覚辞書DB302は、地名を表す事物単語毎に、この事物単語に対応する複数の感覚用語及び、この事物単語に対応する各感覚用語の共起度、が記憶される。共起度とは、事物単語に対する感覚用語の意味合いに関連性の高さを規定する情報である。例えば、この共起度は、テキストデータ取得手段201により取得されたテキストデータにおいて、事物単語に対応して出現する感覚用語の回数に応じて決定される。
[Sense Dictionary DB]
The
[位置情報DB]
図10を参照して、位置情報DB303について説明する。位置情報DB303は、標記毎に、位置情報及び特徴情報が記憶される。位置情報は、クライアント端末400の表示装置1360において感覚用語を表示する際の座標情報である。標記は、事物単語DB300に記憶されている事物単語のうち、地図データにより表される地図上の地名に対応する単語のみが記載された情報である。地図データ入力手段401により入力された各地図の特徴情報と合致する特徴情報を有する標記が、位置情報DB303の中から特定される。なお、位置情報DB303は、ハードディスク1390、光ディスク1410、及び半導体メモリ1420などの記憶装置1430により構成される。
[Location information DB]
The
[ブログサーバ100、感覚情報表現サーバ200、クライアント端末400、地図サーバ500のハードウェア構成]
ブログサーバ100、感覚情報表現サーバ200、クライアント端末400、地図サーバ500のハードウェア構成については、第1実施形態の感覚情報表現サーバ200と同一である。
[Hardware Configuration of
The hardware configuration of the
[処理フロー]
図11は、第2実施形態の感覚情報表現方法を実現するための処理の流れを示すフローチャートである。
[Processing flow]
FIG. 11 is a flowchart showing a flow of processing for realizing the sensory information expression method of the second embodiment.
S101:不特定ユーザーによりブログの書き込みが行われた場合には、ブログサーバ100の制御部1300(ブログ配信手段101)は、通信I/F1330を介して、書き込まれたブログの書き込み記事を配信する。
S101: When a blog is written by an unspecified user, the control unit 1300 (blog distribution unit 101) of the
S102:ブログサーバ100によりブログの書き込み記事の配信が行われると、感覚情報表現サーバ200の制御部1300(テキストデータ取得手段201)は、配信されたブログ記事のテキストデータを取得する。
S102: When the
S103:続いて、感覚情報表現サーバ200の制御部1300(感覚辞書生成手段202)は、事物単語DB300及び感覚用語DB301を参照して、地名に対応する事物単語と感覚用語との対応付け及び、地名に対応する事物単語とそれに対応する各感覚用語との共起度を感覚辞書DB32に格納し感覚辞書DB32を生成する。
S103: Subsequently, the control unit 1300 (sensory dictionary generating unit 202) of the sensory
S104:次に、クライアント端末400の制御部1300(地図データ入力手段401)は、クライアント端末400からの地図の閲覧要求に応じて、地図サーバ500に記憶されている地図データの中から閲覧要求があった地図に対応する地図データの入力を受け付ける。
S104: Next, in response to a map browsing request from the
S105:続いて、クライアント端末400の制御部1300(地図データ送信手段1330)は、通信I/F1330により、入力された地図データを送信する。
S105: Subsequently, the control unit 1300 (map data transmission unit 1330) of the
S106:次に、感覚情報表現サーバ200の制御部1300(対象物特定手段203)は、クライアント端末400において入力された地図データから特徴情報を抽出し、位置情報DB303を参照して、入力された地図データの特徴情報及び地名が合致する対象物を特定する。
S106: Next, the control unit 1300 (the object specifying unit 203) of the sensory
S107:次に、感覚情報表現サーバ200の制御部1300(感覚用語決定手段204)は、生成された感覚辞書DB302に基づき、対象物特定手段203により特定された対象物に対応する地名を表す標記と共起の関係にある感覚用語のうち一番共起度の高い感覚用語を決定する。
S107: Next, the control unit 1300 (sensory term determining unit 204) of the sensory
S108:次に、感覚情報表現サーバ200の制御部1300(送信手段205)は、通信I/F1330により、決定された感覚用語及び、対象物特定手段203により特定された地名を表す標記に対応する位置情報とともに、クライアント端末400において入力された地図データをクライアント端末400に送信する。
S108: Next, the control unit 1300 (transmission unit 205) of the sensory
S109:続いて、クライアント端末400の制御部1300(受信手段403)は、通信I/F1330により、感覚情報表現サーバ200から送信された感覚用語と地図データとを受信する。
S109: Subsequently, the control unit 1300 (receiving unit 403) of the
S110:次に、クライアント端末400の制御部1300(表示手段404)は、地図データの地図とともに、決定された感覚用語及び標記を位置情報に基づいてクライアント端末400の表示装置1360に表示する。
S110: Next, the control unit 1300 (display unit 404) of the
[クライアント端末における表示例]
図12を参照して、第2実施形態の感覚情報表現方法について説明する。図12では、地図サーバ500から送信され、クライアント端末400において入力された地図データの地図を、クライアント端末400としての携帯電話において表示する表示例について説明する。
[Display example on client terminal]
With reference to FIG. 12, the sensory information expression method of 2nd Embodiment is demonstrated. FIG. 12 illustrates a display example in which a map of map data transmitted from the
図12では、クライアント端末400において入力された「ケニア」を含むアフリカの地図が、感覚情報表現サーバ200を介して、クライアント端末400の表示装置1360において表示されている。
In FIG. 12, a map of Africa including “Kenya” input at the
ここで、クライアント端末400において入力された「ケニア」の地図を含んだ地図データを感覚情報表現サーバ200に送信すると、感覚情報表現サーバ200において地図データの地名を表す標記「ケニア」に対応する感覚用語「あつい」、標記に対応する位置情報、及び標記「ケニア」が、入力された地図データとともにクライアント端末400に送信される。
Here, when the map data including the map of “Kenya” input at the
そして、感覚情報表現サーバ200から送信された地図が、クライアント端末400の表示装置1360の画像表示領域55Aに表示されるとともに、決定された感覚用語「あつい」及び標記「ケニア」が、一緒に送信された位置情報の座標情報に基づき表示装置1360の感覚用語表示領域56Aに表示されている。なお、図12に示すように、対象となる標記「ケニア」のみならず、地図データに含まれる周辺の他の標記「エチオピア」「ソマリア」「タンザニア」なども表示するようにしてもよい。
The map transmitted from the sensory
また、クライアント端末400が新しい地図データを要求して、クライアント端末400から新しい地図データが送信された場合には、クライアント端末400の感覚用語表示領域56Aにおいて表示されていた感覚用語をクリアし、新しい感覚用語が表示される。
When the
このように、クライアント端末400からの要求に応じて地図データが入力されてから送信された地図データに含まれる地名を表す標記に対して共起度の高い、すなわち関連性の高い感覚用語が送信される。したがって、地図データに対して感じた感覚を、地図データを要求するユーザーが容易に得ることができる。
As described above, a sensory term having a high degree of co-occurrence, that is, a highly related sensory term is transmitted with respect to a title representing a place name included in the map data transmitted after the map data is input in response to a request from the
以上、本発明の実施の形態について説明したが、本発明は本実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良などは本発明に含まれるものである。 Although the embodiment of the present invention has been described above, the present invention is not limited to the present embodiment, and modifications, improvements, and the like within the scope that can achieve the object of the present invention are included in the present invention. .
例えば、クライアント端末40の撮像装置1440を介して撮像された撮像データに対し、感覚用語を関連付けてクライアント端末40の表示手段44において、撮像された画像とともに感覚用語を表示するようにしたがこれに限られない。例えば、クライアント端末40に、コンパクトフラッシュ(登録商標)、メモリースティック(登録商標)、SDカード(登録商標)などの各種メモリーカードなどと接続できる外部メモリーI/Fを備え、この外部メモリーI/Fを介して入力された画像を、クライアント端末40の送信手段により感覚情報表現サーバに送信してもよい。
For example, sensory terms are associated with sensed terms with respect to image data captured via the
また、感覚辞書DB32において格納されている共起度は、テキストデータ取得手段21により取得されたテキストデータにおいて、事物単語に対応して出現する感覚用語の回数に応じて決定しているがこれに限られない。すなわち、事物単語と感覚用語との対応付け及び、事物単語とそれに対応する各感覚用語との共起度は、クライアント端末40を利用するユーザーが個々人の感覚に応じて共起度を変更できるようにしてもよい。これにより、更に個々人の感覚にあった感覚用語の共起度を高くすることにより、ユーザーは自分が感じた感覚を相手ユーザに対しより明確に伝達することができるようになる。また、感覚情報表現サーバ20の送信手段は、クライアント端末40に対し感覚用語とともに画像データも送信しているがこれに限られない。例えば、感覚用語のみを送信してもよい。
The co-occurrence degree stored in the
1 感覚情報表現システム
10 ブログサーバ
11 ブログ配信手段
20 感覚情報表現サーバ
21 テキストデータ取得手段
22 感覚辞書生成手段
23 対象物特定手段
24 感覚用語決定手段
25 配信手段
30 事物単語DB
31 感覚用語DB
32 感覚辞書DB
33 画像辞書DB
40 クライアント端末
41 撮像手段
42 画像データ送信手段
43 受信手段
44 表示手段
DESCRIPTION OF
31 Sensory term DB
32 Sensory Dictionary DB
33 Image Dictionary DB
40 Client terminal 41 Imaging means 42 Image data transmitting means 43 Receiving means 44 Display means
Claims (5)
Web上から収集されたテキストデータを取得するテキストデータ取得手段と、
前記テキストデータ取得手段により取得された前記テキストデータに出現する事物を表す事物単語と、前記事物単語と共起の関係にある用語であって人間が感じる感覚を表す感覚用語と、を共起度に応じて関連付けた感覚辞書を生成する感覚辞書生成手段と、
クライアント端末において入力された画像データから前記事物単語に対応する対象物を特定する対象物特定手段と、
前記感覚辞書生成手段により生成された前記感覚辞書に基づき、前記対象物特定手段により特定された前記対象物に対応する前記事物単語と共起の関係にある前記感覚用語を決定する感覚用語決定手段と、
前記画像データと前記感覚用語決定手段により決定された前記感覚用語とを前記クライアント端末に送信する送信手段と、
を備えたことを特徴とする感覚情報表現サーバ。 A sensory information expression server that realizes the expression of sensory information for images,
Text data acquisition means for acquiring text data collected from the web;
Co-occurrence of an event word representing an event appearing in the text data acquired by the text data acquisition means and a sensory term representing a sense felt by a human being in a co-occurrence relationship with the event word Sensory dictionary generation means for generating a sensory dictionary associated according to the degree;
An object specifying means for specifying an object corresponding to the object word from image data input at a client terminal;
Based on the sensory dictionary generated by the sensory dictionary generator, the sensory term determination for determining the sensory term co-occurring with the thing word corresponding to the object specified by the object specifying unit Means,
Transmitting means for transmitting the image data and the sensory term determined by the sensory term determining means to the client terminal;
A sensory information expression server characterized by comprising:
前記地名及び、前記地名に対応し前記クライアント端末において前記感覚用語の表示を行う位置情報を格納する位置情報格納手段と、
を備え、
前記感覚辞書生成手段は、前記テキストデータ取得手段により取得された前記テキストデータに出現する地名と、前記地名と共起の関係にある用語であって人間が感じる感覚を表す感覚用語と、を共起度に応じて関連付けた感覚辞書を生成し、
前記対象物特定手段は、前記クライアント端末において入力された前記地図データから前記地名に対応する対象物を特定し、
前記感覚用語決定手段は、前記感覚辞書生成手段により生成された前記感覚辞書に基づき、前記対象物特定手段により特定された前記対象物に対応する前記地名と共起の関係にある前記感覚用語を決定し、
前記送信手段は、前記地図データと前記感覚用語決定手段により決定された前記感覚用語と前記対象物特定手段により特定された前記対象物の地名に対応する位置情報とを送信することを特徴とする請求項1に記載の感覚情報表現サーバ。 The image data input in the client terminal relates to map data including an object corresponding to a place name,
Position information storage means for storing the place name and position information corresponding to the place name and displaying the sensory term on the client terminal;
With
The sensory dictionary generation unit is configured to share a place name appearing in the text data acquired by the text data acquisition unit and a sensory term representing a sense felt by a human being in a co-occurrence relationship with the place name. Generate a sensory dictionary associated with the degree of occurrence,
The object specifying means specifies an object corresponding to the place name from the map data input at the client terminal,
The sensory term determining unit is configured to select the sensory term having a co-occurrence relationship with the place name corresponding to the target object specified by the target object specifying unit based on the sensory dictionary generated by the sensory dictionary generating unit. Decide
The transmitting means transmits the map data, the sensory terms determined by the sensory term determining means, and position information corresponding to the place name of the object specified by the object specifying means. The sensory information expression server according to claim 1.
前記クライアント端末は、
被写体を撮像する撮像手段と、
前記撮像手段により撮像された画像データを送信する画像データ送信手段と、
外部から画像データを受信する受信手段と、
前記受信手段により受信した画像データを表示する表示手段と、を備え、
前記感覚情報表現サーバは、
Web上から収集されたテキストデータを取得するテキストデータ取得手段と、
前記テキストデータ取得手段により取得された前記テキストデータに出現する事物を表す事物単語と、前記事物単語と共起の関係にある用語であって人間が感じる感覚を表す感覚用語と、を共起度に応じて関連付けた感覚辞書を生成する感覚辞書生成手段と、
前記クライアント端末において入力された画像データから前記事物単語に対応する対象物を特定する対象物特定手段と、
前記感覚辞書生成手段により生成された前記感覚辞書に基づき、前記対象物特定手段により特定された前記対象物に対応する前記事物単語と共起の関係にある前記感覚用語を決定する感覚用語決定手段と、
前記画像データ送信手段から送信された前記画像データと前記感覚用語決定手段により決定された前記感覚用語とを前記クライアント端末に送信する送信手段と、を備え、
前記受信手段は、前記送信手段から送信された前記画像データと前記感覚用語とを受信し、
前記表示手段は、前記受信手段により受信した前記画像データと前記感覚用語とを表示することを特徴とする感覚情報表現システム。 A sensory information expression system that realizes expression of sensory information for an image on a client terminal via a sensory information expression server,
The client terminal is
Imaging means for imaging a subject;
Image data transmitting means for transmitting image data imaged by the imaging means;
Receiving means for receiving image data from outside;
Display means for displaying the image data received by the receiving means,
The sensory information expression server includes:
Text data acquisition means for acquiring text data collected from the web;
Co-occurrence of an event word representing an event appearing in the text data acquired by the text data acquisition means, and a sensory term representing a sense felt by a human being in a co-occurrence relationship with the event word Sensory dictionary generation means for generating a sensory dictionary associated according to the degree;
An object specifying means for specifying an object corresponding to the object word from image data input at the client terminal;
Based on the sensory dictionary generated by the sensory dictionary generating unit, sensory term determination for determining the sensory term co-occurring with the thing word corresponding to the object identified by the object identifying unit Means,
Transmitting means for transmitting the image data transmitted from the image data transmitting means and the sensory term determined by the sensory term determining means to the client terminal,
The receiving means receives the image data and the sensory terms transmitted from the transmitting means,
The sensory information expression system characterized in that the display means displays the image data and the sensory terms received by the receiving means.
Web上から収集されたテキストデータを取得するテキストデータ取得ステップと、
前記テキストデータ取得ステップにより取得された前記テキストデータに出現する事物を表す事物単語と、前記事物単語と共起の関係にある用語であって人間が感じる感覚を表す感覚用語とを共起度に応じて関連付けた感覚辞書を生成する感覚辞書生成ステップと、
クライアント端末において入力された画像データから前記事物単語に対応する対象物を特定する対象物特定ステップと、
前記感覚辞書生成ステップにより生成された前記感覚辞書に基づき、前記対象物特定ステップにより特定された前記対象物に対応する前記事物単語と共起の関係にある前記感覚用語を決定する感覚用語決定ステップと、
前記画像データと前記感覚用語決定ステップにより決定された前記感覚用語とをクライアント端末に送信する送信ステップと、
を備えたことを特徴とする感覚情報表現方法。 A sensory information expression method that realizes expression of sensory information for an image,
A text data acquisition step of acquiring text data collected from the web;
A co-occurrence degree includes an event word representing an event appearing in the text data acquired by the text data acquisition step, and a sensory term representing a sense felt by a human being in a co-occurrence relationship with the event word A sensory dictionary generation step for generating a sensory dictionary associated according to
An object specifying step for specifying an object corresponding to the thing word from the image data input at the client terminal;
Based on the sensory dictionary generated in the sensory dictionary generation step, sensory term determination for determining the sensory term co-occurring with the thing word corresponding to the object specified in the object specifying step Steps,
A transmission step of transmitting the image data and the sensory term determined by the sensory term determination step to a client terminal;
Sensory information expression method characterized by comprising
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009129458A JP5220684B2 (en) | 2009-05-28 | 2009-05-28 | Sensory information expression server, sensory information expression system, and emotion expression method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009129458A JP5220684B2 (en) | 2009-05-28 | 2009-05-28 | Sensory information expression server, sensory information expression system, and emotion expression method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010277363A true JP2010277363A (en) | 2010-12-09 |
JP5220684B2 JP5220684B2 (en) | 2013-06-26 |
Family
ID=43424264
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009129458A Expired - Fee Related JP5220684B2 (en) | 2009-05-28 | 2009-05-28 | Sensory information expression server, sensory information expression system, and emotion expression method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5220684B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013117866A (en) * | 2011-12-02 | 2013-06-13 | Nippon Telegr & Teleph Corp <Ntt> | Keyword place name pair extraction device, method and program |
JP2014229231A (en) * | 2013-05-27 | 2014-12-08 | 日本電信電話株式会社 | Apparatus, method and program for extraction of field association term |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004005534A (en) * | 2002-03-29 | 2004-01-08 | Fuji Photo Film Co Ltd | Image preserving method, retrieving method and system of registered image, image processing method of registered image and program for executing these methods |
-
2009
- 2009-05-28 JP JP2009129458A patent/JP5220684B2/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004005534A (en) * | 2002-03-29 | 2004-01-08 | Fuji Photo Film Co Ltd | Image preserving method, retrieving method and system of registered image, image processing method of registered image and program for executing these methods |
Non-Patent Citations (2)
Title |
---|
CSNG200700404009; 清水 浩平: '形容詞共起を用いた単語の印象推定法' 電子情報通信学会論文誌 (J89-D) 第11号 第J89-D巻, 20061101, 2483-2490ページ, 社団法人電子情報通信学会 * |
JPN6012023979; 清水 浩平: '形容詞共起を用いた単語の印象推定法' 電子情報通信学会論文誌 (J89-D) 第11号 第J89-D巻, 20061101, 2483-2490ページ, 社団法人電子情報通信学会 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013117866A (en) * | 2011-12-02 | 2013-06-13 | Nippon Telegr & Teleph Corp <Ntt> | Keyword place name pair extraction device, method and program |
JP2014229231A (en) * | 2013-05-27 | 2014-12-08 | 日本電信電話株式会社 | Apparatus, method and program for extraction of field association term |
Also Published As
Publication number | Publication date |
---|---|
JP5220684B2 (en) | 2013-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3475840B1 (en) | Facilitating use of images as search queries | |
JP2011070412A (en) | Image retrieval device and image retrieval method | |
JP2008192055A (en) | Content search method and content search apparatus | |
JP4943909B2 (en) | Data processing apparatus, data processing method, and program | |
JP3684951B2 (en) | Image search method and apparatus | |
Dobreski et al. | Depicting historical persons and identities: A faceted approach | |
JP5220684B2 (en) | Sensory information expression server, sensory information expression system, and emotion expression method | |
JP5237724B2 (en) | Image search system | |
CN108416026A (en) | Index generation method, content search method, device and equipment | |
JP6907701B2 (en) | Information processing equipment, information processing systems, information processing methods and programs | |
WO2010087451A1 (en) | Image display device, image display method, and image display program | |
JP4752628B2 (en) | Drawing search system, drawing search method, and drawing search terminal | |
JP6276375B2 (en) | Image search device, image display device, image search method, and image display method | |
JP6804562B2 (en) | Proposal system, proposal method, server and computer program | |
JP3985826B2 (en) | Image search method and apparatus | |
JP5807090B2 (en) | Image search method, image search system, image search device, and program | |
JP2018055730A (en) | Image search apparatus and image search method | |
JP2015179399A (en) | Text creation device, text creation program and text creation method | |
WO2023100618A1 (en) | Image file, generation device, and data processing method | |
JP2016026347A (en) | Imaging device and control method therefor | |
JP5031421B2 (en) | Data processing apparatus, data processing method, and program | |
JP5552552B2 (en) | Image search system | |
JP2003331264A (en) | Facial image collation system and facial image collation method | |
TWI270793B (en) | Chinese information retrieval system and method based on document projection maps | |
KR20220158990A (en) | Electronic terminal apparatus which inserts source information of the image inserted into an electronic document, and the operating method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20120312 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120501 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120515 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20120528 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120717 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121113 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130110 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130306 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160315 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5220684 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |