JP5876396B2 - Information collection program, information collection method, and information processing apparatus - Google Patents

Information collection program, information collection method, and information processing apparatus Download PDF

Info

Publication number
JP5876396B2
JP5876396B2 JP2012220452A JP2012220452A JP5876396B2 JP 5876396 B2 JP5876396 B2 JP 5876396B2 JP 2012220452 A JP2012220452 A JP 2012220452A JP 2012220452 A JP2012220452 A JP 2012220452A JP 5876396 B2 JP5876396 B2 JP 5876396B2
Authority
JP
Japan
Prior art keywords
unit
selection
category
input
video information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012220452A
Other languages
Japanese (ja)
Other versions
JP2014074942A (en
Inventor
勝 真田
勝 真田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2012220452A priority Critical patent/JP5876396B2/en
Publication of JP2014074942A publication Critical patent/JP2014074942A/en
Application granted granted Critical
Publication of JP5876396B2 publication Critical patent/JP5876396B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、情報収集プログラム、情報収集方法および情報処理装置に関する。   The present invention relates to an information collection program, an information collection method, and an information processing apparatus.

Webサイト上で展開されるブログやネットワークを介して配信される配信小説など、言葉で構成されたコンテンツ(以下、適宜「ことばのコンテンツ」と記載する)の内容の充実化や、「ことばのコンテンツ」の解釈を手助けすること等を目的として、言葉をビジュアル化することが行われている。   Enrichment of content composed of words (hereinafter referred to as “language content” where appropriate), such as blogs developed on websites and distribution novels distributed via networks, and “language content” The words are visualized for the purpose of helping to interpret "."

近年では、ユーザがインターネット等で検索した「ことばのコンテンツ」を映像化する技術も知られている。例えば、ユーザの意図、望みあるいは期待を正確に反映させて、映像化を実行する映像コンテンツ生成装置が知られている。具体的には、映像コンテンツ生成装置は、客観的、主観的、属性等のカテゴリで文字情報を解釈して映像化した映像情報と、「ことばのコンテンツ」に含まれる文字情報とを用いて、ユーザが入力した「ことばのコンテンツ」をユーザが指定するカテゴリで解釈して映像化する。   In recent years, a technique for visualizing “language content” searched by the user on the Internet or the like is also known. For example, there is known a video content generation apparatus that performs visualization by accurately reflecting a user's intention, desire or expectation. Specifically, the video content generation device uses video information obtained by interpreting character information in a category such as objective, subjective, and attribute, and using the character information included in the “language content”. The “word content” input by the user is interpreted in the category specified by the user and converted into a video.

特開2009−230254号公報JP 2009-230254 A

しかしながら、文字情報に対応付ける映像情報を収集することが難しいという問題がある。   However, there is a problem that it is difficult to collect video information associated with character information.

例えば、従来技術の映像コンテンツ生成装置では、文字情報を客観的、主観的、属性等のカテゴリで解釈した映像情報を用いる。このうち、主観的に解釈する映像情報は、ユーザ個々によって主観が異なるので、一律に生成や収集することが難しい。また、一律に生成や収集できたとしても、映像コンテンツ生成装置を使用するユーザの主観とは異なることがあり、その場合には、映像化された「ことばのコンテンツ」も当該ユーザには適さないこともある。   For example, a video content generation device of the prior art uses video information obtained by interpreting character information in categories such as objective, subjective, and attribute. Among these, video information to be interpreted subjectively has different subjectivity depending on each user, and it is difficult to uniformly generate and collect the video information. Even if they can be generated and collected uniformly, they may be different from the subjectivity of the user who uses the video content generation device. In that case, the visualized “word content” is not suitable for the user. Sometimes.

開示の技術は、上記に鑑みてなされたものであって、文字情報に対応付ける映像情報を容易に収集することができる情報収集プログラム、情報収集方法および情報処理装置を提供することを目的とする。   The disclosed technique has been made in view of the above, and an object thereof is to provide an information collection program, an information collection method, and an information processing apparatus that can easily collect video information associated with character information.

本願の開示する情報収集プログラム、情報収集方法および情報処理装置は、一つの態様において、文字の入力を受け付ける受付ステップと、前記受付ステップによって受け付けられた文字が特徴を表す単語として含まれる、静止画像あるいは動画像である映像情報を検索する検索ステップと、前記受付ステップによって受け付けられた文字と、前記検索ステップによって検索された映像情報とを対応付けて記憶部に格納する格納ステップとをコンピュータに実行させる。   In one aspect, an information collection program, an information collection method, and an information processing apparatus disclosed in the present application include a reception step that receives input of characters, and a still image that includes characters received by the reception step as words representing features. Alternatively, the computer executes a search step for searching for video information that is a moving image, and a storage step for associating the characters received by the reception step with the video information searched by the search step and storing them in a storage unit. Let

本願の開示する情報収集プログラム、情報収集方法および情報処理装の一つの態様によれば、文字情報を主観的に解釈した映像情報を容易に収集することができるという効果を奏する。   According to one aspect of the information collection program, the information collection method, and the information processing device disclosed in the present application, it is possible to easily collect video information obtained by subjectively interpreting character information.

図1は、第1の実施形態に係るシステムの全体構成例を示す図である。FIG. 1 is a diagram illustrating an example of the overall configuration of a system according to the first embodiment. 図2は、第1の実施形態に係る情報処理装置の機能構成を示す機能ブロック図である。FIG. 2 is a functional block diagram illustrating a functional configuration of the information processing apparatus according to the first embodiment. 図3は、言葉DBに記憶される情報の例を示す図である。FIG. 3 is a diagram illustrating an example of information stored in the word DB. 図4は、映像DBに記憶される情報の例を示す図である。FIG. 4 is a diagram illustrating an example of information stored in the video DB. 図5は、処理の流れを示すシーケンス図である。FIG. 5 is a sequence diagram showing the flow of processing. 図6は、検索サイトを用いた例を説明する図である。FIG. 6 is a diagram illustrating an example using a search site. 図7は、ツイッター(登録商標)を用いた例を説明する図である。FIG. 7 is a diagram illustrating an example using Twitter (registered trademark). 図8は、情報収集プログラムを実行するコンピュータを示す図である。FIG. 8 is a diagram illustrating a computer that executes an information collection program.

以下に、本願の開示する情報収集プログラム、情報収集方法および情報処理装置の実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。   Hereinafter, embodiments of an information collection program, an information collection method, and an information processing apparatus disclosed in the present application will be described in detail with reference to the drawings. In addition, this invention is not limited by this embodiment.

[第1の実施形態]
(全体構成)
図1は、第1の実施形態に係るシステムの全体構成例を示す図である。図1に示す情報処理装置10は、「ことばのコンテンツ」を映像化する映像コンテンツ生成装置の一例である。なお、情報処理装置10は、映像コンテンツ生成装置ではなく、映像コンテンツ生成装置に情報を提供する装置であってもよい。
[First Embodiment]
(overall structure)
FIG. 1 is a diagram illustrating an example of the overall configuration of a system according to the first embodiment. The information processing apparatus 10 illustrated in FIG. 1 is an example of a video content generation apparatus that visualizes “language content”. Note that the information processing apparatus 10 may be an apparatus that provides information to the video content generation apparatus instead of the video content generation apparatus.

この情報処理装置10は、客観的、主観的、属性等のカテゴリで文字情報を解釈して映像化した映像情報と、「ことばのコンテンツ」に含まれる文字とを用いて、ユーザが入力した「ことばのコンテンツ」をユーザが指定するカテゴリで解釈して映像化する。   The information processing apparatus 10 uses the video information obtained by interpreting the character information in the categories of objective, subjective, attribute, and the like, and the characters included in the “word content” to input “ “Word content” is interpreted in a category specified by the user and converted into a video.

具体的には、情報処理装置10は、文字を異なるカテゴリで解釈して解釈情報と当該文字とを対応付けた情報と、解釈情報と映像情報とを対応付けた情報とを予め記憶する。そして、情報処理装置10は、「ことばのコンテンツ」の入力を受け付け、入力されたコンテンツをいずれのカテゴリで解釈するかを例えばユーザから受け付ける。   Specifically, the information processing apparatus 10 stores in advance information that interprets characters in different categories and associates interpretation information with the characters, and information that associates interpretation information and video information. Then, the information processing apparatus 10 accepts input of “language content” and accepts, for example, a user from which category the input content is interpreted.

続いて、情報処理装置10は、受け付けたことばのコンテンツに含まれる各文字について、選択されたカテゴリにしたがって、解釈情報を取得する。そして、情報処理装置10は、取得された解釈情報に対応する映像情報を抽出する。その後、情報処理装置10は、ことばのコンテンツ内の各文字について抽出した映像情報から、映像コンテンツを生成して出力する。このようにして、情報処理装置10は、ユーザの意図、望みあるいは期待を正確に反映させて、ことばのコンテンツを映像化する。   Subsequently, the information processing apparatus 10 acquires interpretation information according to the selected category for each character included in the received content. Then, the information processing apparatus 10 extracts video information corresponding to the acquired interpretation information. Thereafter, the information processing apparatus 10 generates and outputs video content from the video information extracted for each character in the word content. In this way, the information processing apparatus 10 visualizes the content of the word while accurately reflecting the user's intention, desire or expectation.

このような状態において、情報処理装置10は、文字の入力を受け付け、受け付けた文字が特徴を表す単語として含まれる、静止画像あるいは動画像である映像情報を検索する。そして、情報処理装置10は、受け付けた文字を識別する識別子と、検索された映像情報とを対応付けて所定の記憶部に格納する。   In such a state, the information processing apparatus 10 receives input of characters, and searches for video information that is a still image or a moving image that includes the received characters as words representing features. Then, the information processing apparatus 10 associates the identifier for identifying the received character with the searched video information and stores the associated information in a predetermined storage unit.

このように、情報処理装置10は、画像検索などの従来技術を用いてユーザが入力した文字を特徴の一部として有する画像を検索し、検索した画像と入力された文字とを対応付けることができるので、文字情報に対応付ける映像情報を容易に収集することができる。また、例えば、情報処理装置10は、検索された画像の中からユーザに主観的に画像を選択させることもできる。こうすることで、情報処理装置10は、ある画像を主観的に表す文字(ことば)と簡単に対応付けることができる。   As described above, the information processing apparatus 10 can search for an image having a character input by the user as a part of a feature using a conventional technique such as image search, and can associate the searched image with the input character. Therefore, video information associated with character information can be easily collected. For example, the information processing apparatus 10 can cause the user to subjectively select an image from the searched images. By doing so, the information processing apparatus 10 can easily associate a character (word) that subjectively represents a certain image.

(機能構成)
図2は、第1の実施形態に係る情報処理装置の機能構成を示す機能ブロック図である。なお、図2では、ことばのコンテンツを映像化する機能については省略する。この機能については、特開2009−230254号公報などに開示されている処理部を用いることができる。
(Functional configuration)
FIG. 2 is a functional block diagram illustrating a functional configuration of the information processing apparatus according to the first embodiment. In FIG. 2, the function of visualizing the word content is omitted. For this function, a processing unit disclosed in JP2009-230254A or the like can be used.

図2に示すように、情報処理装置10は、通信制御部11、入力部12、表示部13、記憶部14、制御部15を有する。通信制御部11は、他の装置との通信を制御する処理部であり、例えば、ネットワークインタフェースカードなどである。例えば、通信制御部11は、情報処理装置が映像コンテンツ生成装置の外部装置である場合に、映像コンテンツ生成装置に対して、各種データを送信する。また、通信制御部11は、インターネット等の外部ネットワークに接続して、データの送受信を実行する。   As illustrated in FIG. 2, the information processing apparatus 10 includes a communication control unit 11, an input unit 12, a display unit 13, a storage unit 14, and a control unit 15. The communication control unit 11 is a processing unit that controls communication with other devices, and is, for example, a network interface card. For example, the communication control unit 11 transmits various data to the video content generation device when the information processing device is an external device of the video content generation device. Further, the communication control unit 11 is connected to an external network such as the Internet and executes data transmission / reception.

入力部12は、マウスやキーボードなどの入力装置である。この入力部12は、表示部13に表示される検索ワード入力エリア等に対する、文字等の入力を受け付ける。また、入力部12は、表示部13内の画像表示エリアに表示される複数の画像に対して画像選択を受け付ける。   The input unit 12 is an input device such as a mouse or a keyboard. The input unit 12 accepts input of characters or the like to a search word input area or the like displayed on the display unit 13. Further, the input unit 12 receives image selection for a plurality of images displayed in the image display area in the display unit 13.

表示部13は、ディスプレイやタッチパネルなどの表示装置である。この表示部13は、後述する制御部15の各処理部から出力された情報を表示出力する。また、表示部13は、表示する領域を検索ワード入力エリアと画像表示エリアとに分類して、情報を表示する。例えば、検索ワード入力エリアは、ユーザに検索ワード等を入力させる領域であり、画像表示エリアは、制御部15の各処理部から出力される画像を表示する領域である。   The display unit 13 is a display device such as a display or a touch panel. The display unit 13 displays and outputs information output from each processing unit of the control unit 15 described later. The display unit 13 displays information by classifying the display area into a search word input area and an image display area. For example, the search word input area is an area for allowing a user to input a search word or the like, and the image display area is an area for displaying an image output from each processing unit of the control unit 15.

記憶部14は、言葉DB14aと映像DB14bとを記憶する記憶部であり、例えば、ハードウェアやメモリなどの記憶装置である。また、記憶部14は、制御部15が実行するプログラムやデータ等を記憶する。ここで記憶される言葉DB14aと映像DB14bとを用いて、ことばのコンテンツが映像化される。   The storage unit 14 is a storage unit that stores the word DB 14a and the video DB 14b, and is, for example, a storage device such as hardware or memory. The storage unit 14 stores programs executed by the control unit 15 and data. The word content is visualized using the word DB 14a and the video DB 14b stored here.

言葉DB14aは、文字を異なるカテゴリで解釈して解釈情報を記憶するデータベースである。図3は、言葉DBに記憶される情報の例を示す図である。図3に示すように、言葉DB14aは、「解釈カテゴリ、文字、ことばID、ビジュアル部品ID(解釈情報)」を対応付けて記憶する。   The word DB 14a is a database that stores interpretation information by interpreting characters in different categories. FIG. 3 is a diagram illustrating an example of information stored in the word DB. As shown in FIG. 3, the word DB 14 a stores “interpretation category, character, word ID, visual part ID (interpretation information)” in association with each other.

ここで記憶される「解釈カテゴリ」には、文字を解釈するカテゴリが設定される。「文字」には、解釈対象の文字情報が設定される。「ことばID」には、文字を識別する識別情報が設定される。「ビジュアル部品ID(解釈情報)」には、ことばを解釈カテゴリで解釈し、その解釈によって特定される映像情報が設定される。   In the “interpretation category” stored here, a category for interpreting characters is set. In the “character”, character information to be interpreted is set. In the “language ID”, identification information for identifying a character is set. In the “visual part ID (interpretation information)”, the video information specified by the interpretation of the words in the interpretation category is set.

図3の場合、ことばID「WA1」の文字「猫」を客観的に解釈した場合のビジュアル部品IDが「VA1」と「VA2」であることを示す。また、VA1やVA2に対応付けられる画像の例としては、白地に茶や黒緑の短毛猫など、一般的な猫の画像が挙げられる。   In the case of FIG. 3, the visual component IDs “VA1” and “VA2” when the character “cat” of the word ID “WA1” is objectively interpreted are shown. Examples of images associated with VA1 and VA2 include general cat images such as brown or black-green short-haired cats on a white background.

また、ことばID「WA1」の文字「猫」を主観的に解釈した場合のビジュアル部品IDが「VB1」と「VB2」であることを示す。また、VB1に対応付けられる画像の例としては、白くて小さい猫などが挙げられる。また、VB2に対応付けられる画像の例としては、ユーザ好みのペルシャなどの猫が挙げられる。   Further, the visual component IDs “VB1” and “VB2” when the character “cat” of the word ID “WA1” is subjectively interpreted are indicated. An example of an image associated with VB1 is a white and small cat. Moreover, as an example of the image matched with VB2, cats, such as a user's favorite Persian, are mentioned.

また、ことばID「WA1」の文字「猫」を属性で解釈した場合のビジュアル部品IDが「VC1」と「VC2」であることを示す。VC1やVC2に対応付けられる画像の例としては、「ことばのコンテンツ」すなわち文書コンテンツとして入力された小説の時代背景にあわせた猫などの画像が挙げられる。   Further, the visual part IDs when the character “cat” of the word ID “WA1” is interpreted as an attribute are “VC1” and “VC2”. Examples of images associated with VC1 and VC2 include “word content”, that is, images of cats or the like that match the historical background of novels input as document content.

映像DB14bは、解釈情報と映像情報とを対応付けた情報を記憶する。図4は、映像DB14に記憶される情報の例を示す図である。図4に示すように、映像DB14bは、「ことばID、ビジュアル部品ID、映像情報」を対応付けて記憶する。   The video DB 14b stores information in which interpretation information and video information are associated with each other. FIG. 4 is a diagram illustrating an example of information stored in the video DB 14. As shown in FIG. 4, the video DB 14 b stores “language ID, visual component ID, video information” in association with each other.

ここで記憶される「ことばID」は、図3に示した「ことばID」に対応し、「ビジュアル部品ID」は、図3に示した「ビジュアル部品ID(解釈情報)」に対応する。「映像情報」は、記憶部14等に保存される画像情報が設定される。つまり、図3に示した「ことばID」と「ビジュアル部品ID(解釈情報)」とによって、映像情報を一意に特定することができる。なお、図4に示したビジュアル部品ID「VA1」が、例えば白地に茶の猫の画像であり、ビジュアル部品ID「VB1」が、白くて小さい猫の画像などである。   The “word ID” stored here corresponds to the “word ID” shown in FIG. 3, and the “visual part ID” corresponds to the “visual part ID (interpretation information)” shown in FIG. In the “video information”, image information stored in the storage unit 14 or the like is set. That is, the video information can be uniquely specified by the “word ID” and the “visual part ID (interpretation information)” shown in FIG. The visual part ID “VA1” illustrated in FIG. 4 is, for example, an image of a brown cat on a white background, and the visual part ID “VB1” is an image of a white and small cat.

制御部15は、テキスト編集部16、変換部17、画像検索部18、画像取得部19、格納制御部20を有する。この制御部15は、例えばCPU(Central Processing Unit)などのプロセッサであり、各処理部は、プロセッサが実行する処理部である。   The control unit 15 includes a text editing unit 16, a conversion unit 17, an image search unit 18, an image acquisition unit 19, and a storage control unit 20. The control unit 15 is a processor such as a CPU (Central Processing Unit), for example, and each processing unit is a processing unit executed by the processor.

テキスト編集部16は、入力部12を介して受け付けられた文字やことばなどを編集する処理部である。具体的には、テキスト編集部16は、文字等を受け付けて、表示部13の検索ワード入力エリアに表示する。また、テキスト編集部16は、検索ワード入力エリアに入力された文字を変換部17に出力し、変換部17によって漢字等に変換された場合に、変換後の文字を検索ワード入力エリアに表示する。   The text editing unit 16 is a processing unit that edits characters and words received via the input unit 12. Specifically, the text editing unit 16 receives characters and displays them in the search word input area of the display unit 13. In addition, the text editing unit 16 outputs the characters input in the search word input area to the conversion unit 17, and displays the converted characters in the search word input area when the conversion unit 17 converts the characters into kanji or the like. .

変換部17は、テキスト編集部16から出力された文字等を所定の形式に変換する処理部である。具体的には、変換部17は、ユーザ等から変換形式の指定を受け付ける。そして、変換部17は、テキスト編集部16から出力された文字を、指定された変換形式にしたがって変換する。例えば、変換部17は、表示部13の検索ワード入力エリアに入力された「いぬ」を「犬」に変換する。このように変換された「犬」は、テキスト編集部16等によって表示部13の検索ワード入力エリアに表示される。   The conversion unit 17 is a processing unit that converts characters and the like output from the text editing unit 16 into a predetermined format. Specifically, the conversion unit 17 receives a conversion format designation from the user or the like. Then, the conversion unit 17 converts the characters output from the text editing unit 16 according to the specified conversion format. For example, the conversion unit 17 converts “dog” input to the search word input area of the display unit 13 into “dog”. The “dog” thus converted is displayed in the search word input area of the display unit 13 by the text editing unit 16 or the like.

画像検索部18は、受け付けられた文字が特徴を表す単語として含まれる複数の画像等を検索する処理部である。例えば、画像検索部18は、変換部17から変換後の文字を取得し、インターネットで使用できる検索サイト等を利用して、当該文字を検索キーとして画像検索を実行する。そして、画像検索部18は、検索された各画像を表示部13の画像表示エリアに表示させる。   The image search unit 18 is a processing unit that searches for a plurality of images or the like in which the received characters are included as words representing features. For example, the image search unit 18 acquires the converted character from the conversion unit 17 and executes an image search using the character as a search key using a search site that can be used on the Internet. Then, the image search unit 18 displays each searched image in the image display area of the display unit 13.

画像取得部19は、画像検索部18によって検索された複数の画像の中から選択された画像を取得する。例えば、画像取得部19は、表示部13の画像表示エリアに表示される複数の画像の中から、ユーザの選択を受け付ける。そして、画像取得部19は、選択された画像を保存先のサーバ等からダウンロードして、格納制御部20に通知する。また、画像取得部19は、ダウンロードした画像を記憶部14等に一時的に記憶させてもよい。   The image acquisition unit 19 acquires an image selected from a plurality of images searched by the image search unit 18. For example, the image acquisition unit 19 receives a user's selection from a plurality of images displayed in the image display area of the display unit 13. Then, the image acquisition unit 19 downloads the selected image from a storage destination server or the like, and notifies the storage control unit 20 of it. The image acquisition unit 19 may temporarily store the downloaded image in the storage unit 14 or the like.

また、画像取得部19は、表示部13の画像表示エリアに表示される画像から1つの画像を自動で選択することもできる。例えば、画像取得部19は、一般的な検索サイトを用いて入力文字をキーとして画像検索を行った場合に、最も検索回数が多い画像や最初に検索される画像を選択してもよい。また、画像取得部19は、動画の場合には、最も登場回数が多いまたは登場時間が長い動画を選択してもよい。   The image acquisition unit 19 can also automatically select one image from the images displayed in the image display area of the display unit 13. For example, when an image search is performed using an input character as a key using a general search site, the image acquisition unit 19 may select an image with the largest number of searches or an image to be searched first. Further, in the case of a moving image, the image acquisition unit 19 may select a moving image having the largest number of appearances or a long appearance time.

格納制御部20は、テキスト編集部16によって受け付けられた文字と、画像取得部19によって取得された動画像とを対応付けて所定の記憶部に格納する処理部である。例えば、格納制御部20は、取得された画像に一意なビジュアル部品IDを付与するとともに、入力文字に一意なことばIDを付与する。そして、格納制御部20は、付与したことばIDと、付与したビジュアル部品IDと、取得された画像とを対応付けて、映像DB14bに格納する。さらに、格納制御部20は、言葉DB14aの解釈カテゴリ「主観」のエントリとして、入力文字と、付与したことばIDと、付与したビジュアル部品IDとを対応付けて格納する。   The storage control unit 20 is a processing unit that stores the character received by the text editing unit 16 and the moving image acquired by the image acquisition unit 19 in association with each other in a predetermined storage unit. For example, the storage control unit 20 assigns a unique visual part ID to the acquired image and assigns a unique word ID to the input character. Then, the storage control unit 20 stores the assigned word ID, the assigned visual component ID, and the acquired image in the video DB 14b in association with each other. Furthermore, the storage control unit 20 stores the input character, the assigned word ID, and the assigned visual component ID in association with each other as an entry of the interpretation category “subjectivity” of the word DB 14a.

このとき、格納制御部20は、入力文字が既に言葉DB14aに格納されている場合には、既に付与されていることばIDと、取得された画像と、付与したビジュアル部品IDとを対応付けて映像DB14bに格納する。同様に、格納制御部20は、既に付与されていることばIDに対応付けて、付与したビジュアル部品IDを言葉DB14aに格納する。   At this time, if the input character is already stored in the word DB 14a, the storage control unit 20 associates the already assigned word ID, the acquired image, and the assigned visual component ID with the video. Store in the DB 14b. Similarly, the storage control unit 20 stores the assigned visual part ID in the word DB 14a in association with the already assigned word ID.

また、入力文字を検索キーワードとして検索した画像から所望の画像をユーザに選択させたとする。この場合、ユーザに主観的に画像を選択させたことから、格納制御部20は、当該画像および入力文字の対応付けを、言葉DB14aの解釈カテゴリ「主観」のエントリとして格納するようにしてもよい。   Further, it is assumed that a user selects a desired image from images searched using an input character as a search keyword. In this case, since the user subjectively selected the image, the storage control unit 20 may store the association between the image and the input character as an entry of the interpretation category “subjective” in the word DB 14a. .

また、入力文字を検索キーワードとして検索した画像から自動的に画像を選択したとする。この場合、ユーザに主観には関係なく、客観的に画像を選択したことから、格納制御部20は、当該画像および入力文字の対応付けを、言葉DB14aの解釈カテゴリ「客観」のエントリとして格納するようにしてもよい。   Further, it is assumed that an image is automatically selected from images searched using an input character as a search keyword. In this case, since the user has objectively selected the image regardless of subjectivity, the storage control unit 20 stores the association between the image and the input character as an entry of the interpretation category “objective” in the word DB 14a. You may do it.

また、入力文字を検索キーワードとして検索した画像から自動的に画像を選択した際に、小説や図鑑などの画像を選択したとする。この場合、ユーザに主観には関係なく、また、小説などに登場する画像を選択したことから、格納制御部20は、当該画像および入力文字の対応付けを、言葉DB14aの解釈カテゴリ「属性」のエントリとして格納するようにしてもよい。   Further, it is assumed that an image such as a novel or a picture book is selected when an image is automatically selected from images searched using an input character as a search keyword. In this case, since the user has selected an image that appears in a novel or the like regardless of subjectivity, the storage control unit 20 associates the image with the input character in the interpretation category “attribute” of the word DB 14a. It may be stored as an entry.

このように、格納制御部20は、画像が選択されたときの状況に応じて、選択された画像と入力文字との対応付けの格納先を動的に変更することができる。したがって、格納制御部20は、言葉DB14aのどのエントリを増やしたいかによって選択方法を変更すればよく、言葉DB14aのエントリを容易に収集することができる。   As described above, the storage control unit 20 can dynamically change the storage destination of the correspondence between the selected image and the input character according to the situation when the image is selected. Therefore, the storage control unit 20 may change the selection method depending on which entry in the word DB 14a is to be increased, and can easily collect entries in the word DB 14a.

(処理の流れ)
図5は、処理の流れを示すシーケンス図である。図5に示すように、テキスト編集部16は、表示部13の検索ワード入力エリアにおいて文字の入力を受け付ける(S101)。続いて、テキスト編集部16は、受け付けた文字を表示部13の検索ワード入力エリアに表示させる(S102)。そして、テキスト編集部16は、受け付けた文字を変換部17に出力する(S103とS104)。
(Process flow)
FIG. 5 is a sequence diagram showing the flow of processing. As shown in FIG. 5, the text editing unit 16 accepts input of characters in the search word input area of the display unit 13 (S101). Subsequently, the text editing unit 16 displays the received characters in the search word input area of the display unit 13 (S102). Then, the text editing unit 16 outputs the received character to the conversion unit 17 (S103 and S104).

続いて、変換部17は、ユーザ等によって指定される変換形式にしたがって、テキスト編集部16から受け付けた文字を変換する(S105)。そして、変換部17は、変換した文字である変換文字を、テキスト編集部16と画像検索部18とに出力する(S106〜S108)。そして、テキスト編集部16は、変換部17から受け付けた変換文字を、表示部13の検索ワード入力エリアに表示させる(S109)。   Subsequently, the conversion unit 17 converts the characters received from the text editing unit 16 according to the conversion format specified by the user or the like (S105). And the conversion part 17 outputs the converted character which is the converted character to the text edit part 16 and the image search part 18 (S106-S108). Then, the text editing unit 16 displays the converted character received from the conversion unit 17 in the search word input area of the display unit 13 (S109).

一方で、画像検索部18は、変換部17から変換文字を受け付け(S110)、受け付けた変換文字を検索キーワードとして検索サイトや検索ツールを用いて画像を検索する(S111)。そして、画像検索部18は、検索された各画像を表示部13の画像表示エリアに表示させる(S112とS113)。   On the other hand, the image search unit 18 receives a converted character from the conversion unit 17 (S110), and searches for an image using a search site or a search tool using the received converted character as a search keyword (S111). Then, the image search unit 18 displays each searched image in the image display area of the display unit 13 (S112 and S113).

続いて、画像取得部19は、表示部13の画像表示エリアに表示された画像の中から画像の選択を受け付け(S114)、受け付けた画像の情報を格納制御部20に出力する(S115とS116)。このとき、画像取得部19は、変換文字を表示部13等から取得して、格納制御部20に出力する。   Subsequently, the image acquisition unit 19 accepts image selection from the images displayed in the image display area of the display unit 13 (S114), and outputs information about the accepted image to the storage control unit 20 (S115 and S116). ). At this time, the image acquisition unit 19 acquires the converted characters from the display unit 13 and the like and outputs them to the storage control unit 20.

そして、格納制御部20は、変換文字に対してことばIDの検索と付与を実行し、ことばIDの付与が完了したことを画像取得部19に出力する(S117とS118)。具体的には、格納制御部20は、言葉DB14aから変換文字を検索する。そして、格納制御部20は、言葉DB14aに変換文字が検索された場合、つまり、入力された文字が既に言葉DB14aに格納されている場合、検索された文字に対応付けられていることばIDを変換文字に付与する。一方、格納制御部20は、言葉DB14aに変換文字が検索されなかった場合、つまり、入力された文字が言葉DB14aに格納されていない場合、一意なことばIDを変換文字に付与する。   Then, the storage control unit 20 searches and assigns the word ID to the converted character, and outputs that the word ID assignment is completed to the image acquisition unit 19 (S117 and S118). Specifically, the storage control unit 20 searches for a converted character from the word DB 14a. And when the conversion character is searched in the word DB 14a, that is, when the inputted character is already stored in the word DB 14a, the storage control unit 20 converts the word ID associated with the searched character. Append to character. On the other hand, when the conversion character is not searched in the word DB 14a, that is, when the input character is not stored in the word DB 14a, the storage control unit 20 assigns a unique word ID to the conversion character.

ことばIDの付与が完了したことを通知された画像取得部19は、S114で選択された画像をダウンロードし(S119)、ダウンロードが完了すると、ダウンロードした画像を格納制御部20に出力する(S120)。なお、画像取得部19は、S114で選択された時点でダウンロードしてもよい。ただし、画像取得部19は、ことばIDの付与が完了したことの通知を受けてからダウンロードすることで、処理が途中で終了した場合に、不要な画像が記憶部14に残ることを防止できる。この結果、記憶部14の容量の浪費を抑制することができる。   The image acquisition unit 19 notified that the assignment of the word ID is completed downloads the image selected in S114 (S119), and when the download is completed, outputs the downloaded image to the storage control unit 20 (S120). . Note that the image acquisition unit 19 may download at the time point selected in S114. However, the image acquisition unit 19 can prevent the unnecessary image from remaining in the storage unit 14 when the processing is completed midway by downloading after receiving the notification that the assignment of the word ID is completed. As a result, waste of the capacity of the storage unit 14 can be suppressed.

その後、格納制御部20は、画像取得部19から通知された画像にビジュアル部品IDを付与する(S121)。そして、格納制御部20は、ことばIDとビジュアル部品IDと画像とを対応付けて映像DB14bに格納し、入力文字とことばIDとビジュアル部品IDとを対応付けて言葉DB14aに格納する(S122)。   Thereafter, the storage control unit 20 assigns a visual component ID to the image notified from the image acquisition unit 19 (S121). Then, the storage control unit 20 stores the word ID, the visual part ID, and the image in association with each other in the video DB 14b, and associates the input character, the word ID, and the visual part ID in the word DB 14a (S122).

(具体例1)
次に、検索サイトを用いた具体例を説明する。図6は、検索サイトを用いた例を説明する図である。図6に示すように、表示部13には、検索ワード入力エリア13aと、画像表示エリア13bとが設けられる。
(Specific example 1)
Next, a specific example using a search site will be described. FIG. 6 is a diagram illustrating an example using a search site. As shown in FIG. 6, the display unit 13 includes a search word input area 13a and an image display area 13b.

検索ワード入力エリア13aは、ユーザがことばコンテンツや画像等を検索する際に、文書の入力を受け付ける領域である。ユーザは、所望のコンテンツが画像を検索するために、当該コンテンツ等の検索ワードや文書を検索ワード入力エリア13aに入力して、該当するコンテンツ等をインターネット等から検索する。   The search word input area 13a is an area for accepting input of a document when a user searches for a word content or an image. In order to search for an image of desired content, the user inputs a search word or document such as the content into the search word input area 13a and searches the corresponding content from the Internet or the like.

このような状態において、テキスト編集部16は、入力部12を介して、表示部13の検索ワード入力エリア13aへの入力として「いぬ」を受け付ける。ここで、図6において「いぬ」にアンダーラインがあるのは、入力文字が未確定の状態を示している。アンダーラインがない状態は、入力文字が確定したことを示す。   In such a state, the text editing unit 16 accepts “Inu” as an input to the search word input area 13 a of the display unit 13 via the input unit 12. Here, in FIG. 6, “Inu” has an underline indicates that the input character has not yet been determined. When there is no underline, the input character is confirmed.

続いて、変換部17は、指定されている漢字変換に基づいて、ユーザの操作等によって入力文字「いぬ」を「犬」に変換して、入力を確定する。その後、画像検索部18は、変換された入力文字「犬」を検索キーワードとして検索サイトで画像検索を実行する。   Subsequently, the conversion unit 17 converts the input character “Inu” into “Dog” by a user operation or the like based on the designated Kanji conversion, and confirms the input. Thereafter, the image search unit 18 performs an image search at the search site using the converted input character “dog” as a search keyword.

この結果、図6に示すように、画像検索部18は、「白い小さな犬」の画像と、「黒い大きな犬」の画像と、「寝ている茶色の犬」の画像とを特定して表示部13の画像表示エリア13bに表示する。   As a result, as shown in FIG. 6, the image search unit 18 specifies and displays an image of “white little dog”, an image of “black big dog”, and an image of “sleeping brown dog”. The image is displayed in the image display area 13b of the unit 13.

このように各画像を表示させた状態で、画像取得部19は、「白い小さな犬」の画像の選択をユーザから受け付ける。すると、画像取得部19は、「白い小さな犬」の画像をダウンロードし、格納制御部20は、入力文字「犬」にことばID「WA2」を付与する。その後、格納制御部20は、「白い小さな犬」の画像のビジュアル部品ID「VB3」を付与する。   In a state where each image is displayed in this manner, the image acquisition unit 19 receives a selection of an image of “white little dog” from the user. Then, the image acquisition unit 19 downloads an image of “white little dog”, and the storage control unit 20 assigns the word ID “WA2” to the input character “dog”. Thereafter, the storage control unit 20 assigns the visual part ID “VB3” of the image of “white little dog”.

そして、格納制御部20は、入力文字「犬」とビジュアル部品ID「VB3」とことばID「WA2」とを対応付けて言葉DB14aに格納し、ことばID「WA2」とビジュアル部品ID「VB3」と「白い小さな犬」の画像とを対応付けて映像DB14bに格納する。   Then, the storage control unit 20 stores the input character “dog”, the visual part ID “VB3”, and the word ID “WA2” in association with each other in the word DB 14a, and the word ID “WA2” and the visual part ID “VB3”. The image of the “white little dog” is stored in the video DB 14 b in association with each other.

(具体例2)
次に、投稿情報の一例としてツイッター(登録商標)のツイートを用いた具体例を説明する。図7は、ツイッター(登録商標)を用いた例を説明する図である。図7に示すように、表示部13の構成は図6と同様である。
(Specific example 2)
Next, a specific example using Twitter (registered trademark) tweets as an example of post information will be described. FIG. 7 is a diagram illustrating an example using Twitter (registered trademark). As shown in FIG. 7, the configuration of the display unit 13 is the same as that of FIG.

このような状態において、テキスト編集部16は、入力部12を介して、表示部13の検索ワード入力エリア13aへの入力としてハッシュタグ「#inu」を受け付ける。続いて、変換部17は、入力されたハッシュタグ「#inu」で入力を確定する。その後、画像検索部18は、変換されたハッシュタグ「#inu」を検索キーワードとしてツイートを検索する。   In such a state, the text editing unit 16 receives the hash tag “#inu” as an input to the search word input area 13 a of the display unit 13 via the input unit 12. Subsequently, the conversion unit 17 confirms the input with the input hash tag “#inu”. Thereafter, the image search unit 18 searches for tweets using the converted hash tag “#inu” as a search keyword.

この結果、図7に示すように、画像検索部18は、画像Aが添付されたツイート「ccc ふむふむ #inu」の画像を表示部13の画像表示エリア13bに表示する。続いて、画像取得部19は、画像Aの選択をユーザから受け付ける。すると、画像取得部19は、画像Aをダウンロードし、格納制御部20は、入力文字であるハッシュタグ「#inu」にことばID「WA2」を付与する。その後、格納制御部20は、画像Aのビジュアル部品ID「VB3」を付与する。   As a result, as shown in FIG. 7, the image search unit 18 displays an image of the tweet “ccc fumfum #inu” attached with the image A in the image display area 13 b of the display unit 13. Subsequently, the image acquisition unit 19 receives selection of the image A from the user. Then, the image acquisition unit 19 downloads the image A, and the storage control unit 20 assigns the word ID “WA2” to the hash tag “#inu” that is the input character. Thereafter, the storage control unit 20 assigns the visual part ID “VB3” of the image A.

そして、格納制御部20は、ハッシュタグ「#inu」とビジュアル部品ID「VB3」とことばID「WA2」とを対応付けて言葉DB14aに格納し、ことばID「WA2」とビジュアル部品ID「VB3」と画像Aとを対応付けて映像DB14bに格納する。   The storage control unit 20 stores the hash tag “#inu”, the visual part ID “VB3”, and the word ID “WA2” in association with each other in the word DB 14a, and the word ID “WA2” and the visual part ID “VB3”. And the image A are associated with each other and stored in the video DB 14b.

なお、ハッシュタグ「#inu」を検索キーワードとしてツイートを検索した場合に、画像が添付された複数のツイートが検索された場合には、画像取得部19は、図6の具体例1と同様に、いずれかの画像を選択させてもよい。   When searching for a tweet using the hash tag “#inu” as a search keyword, if a plurality of tweets with an image attached are searched, the image acquisition unit 19 is the same as in the first specific example of FIG. Any image may be selected.

(効果)
情報処理装置10は、文字(ことば)の入力を受け付けて、受け付けた文字をキーワードとして画像を検索する。そして、情報処理装置10は、検索された画像の中からユーザの主観で選択された画像や所定の条件で客観的に選択した画像と、入力文字とを対応付けることができる。
(effect)
The information processing apparatus 10 receives input of characters (words) and searches for images using the received characters as keywords. Then, the information processing apparatus 10 can associate an input character with an image selected by the user's subjectivity from the searched images or an image selected objectively under a predetermined condition.

つまり、情報処理装置10は、ことばのコンテンツを映像化する際に使用されるデータベースなど登録可能なように、文字と画像との対応付けを自動で変換および加工することができる。このように、情報処理装置10は、文字情報を主観的に解釈した映像情報を容易に収集することができる。   In other words, the information processing apparatus 10 can automatically convert and process the correspondence between characters and images so that the database used when the content of the word is visualized can be registered. In this manner, the information processing apparatus 10 can easily collect video information obtained by subjectively interpreting character information.

[第2の実施形態]
さて、これまで本発明の実施形態について説明したが、本発明は上述した実施形態以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下に異なる実施形態を説明する。
[Second Embodiment]
Although the embodiments of the present invention have been described so far, the present invention may be implemented in various different forms other than the above-described embodiments. Therefore, different embodiments will be described below.

(映像情報)
上記実施形態では、情報処理装置10が、文字(ことば)を検索キーワードとして画像を検索する例を説明したが、これに限定されるものではない。例えば、情報処理装置10は、文字(ことば)に対応する映像情報として、画像の他にも、例えば動画像、1つ以上の静止画像の組、1つ以上の動画像を文字とを検索してユーザに表示させてもよい。このような場合、情報処理装置10は、入力文字と、ユーザに選択された動画像などの映像情報とを対応付けて記憶部に格納する。なお、動画像については代表的な画像をユーザに表示させることもできる。
(Video information)
In the above-described embodiment, an example in which the information processing apparatus 10 searches for an image using a character (word) as a search keyword has been described, but the present invention is not limited to this. For example, the information processing apparatus 10 searches, for example, a moving image, a set of one or more still images, and one or more moving images as characters as video information corresponding to characters (words). May be displayed to the user. In such a case, the information processing apparatus 10 stores the input character in association with video information such as a moving image selected by the user in the storage unit. Note that a representative image can be displayed to the user for the moving image.

(システム構成等)
図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示された構成要素と同一であることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
(System configuration etc.)
Each component of each illustrated device is functionally conceptual, and does not necessarily need to be the same as the physically illustrated component. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured.

また、本実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともできる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。   In addition, among the processes described in the present embodiment, all or a part of the processes described as being automatically performed can be manually performed. Further, all or any part of each processing function performed in each device may be realized by a CPU and a program analyzed and executed by the CPU, or may be realized as hardware by wired logic.

(プログラム)
また、上記実施形態に係る情報処理装置が実行する処理をコンピュータが実行可能な言語で記述した情報収集プログラムを作成することもできる。この場合、コンピュータが情報収集プログラムを実行することにより、上記実施形態と同様の効果を得ることができる。さらに、かかる情報収集プログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録された情報収集プログラムをコンピュータに読み込ませて実行することにより上記実施形態と同様の処理を実現してもよい。以下に、図2等に示した情報処理装置と同様の機能を実現する情報収集プログラムを実行するコンピュータの一例を説明する。
(program)
It is also possible to create an information collection program in which processing executed by the information processing apparatus according to the above embodiment is described in a language that can be executed by a computer. In this case, when the computer executes the information collection program, the same effect as in the above embodiment can be obtained. Further, the same processing as in the above embodiment may be realized by recording the information collection program on a computer-readable recording medium, and reading and executing the information collection program recorded on the recording medium. Good. Hereinafter, an example of a computer that executes an information collection program that realizes the same function as the information processing apparatus illustrated in FIG. 2 will be described.

図8は、情報収集プログラムを実行するコンピュータを示す図である。図8に示すように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。   FIG. 8 is a diagram illustrating a computer that executes an information collection program. As illustrated in FIG. 8, the computer 1000 includes, for example, a memory 1010, a CPU 1020, a hard disk drive interface 1030, a disk drive interface 1040, a serial port interface 1050, a video adapter 1060, and a network interface 1070. These units are connected by a bus 1080.

メモリ1010は、ROM(Read Only Memory)1011およびRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1031に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1041に接続される。ディスクドライブ1041には、例えば、磁気ディスクや光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1051およびキーボード1052が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1061が接続される。   The memory 1010 includes a ROM (Read Only Memory) 1011 and a RAM 1012. The ROM 1011 stores a boot program such as BIOS (Basic Input Output System). The hard disk drive interface 1030 is connected to the hard disk drive 1031. The disk drive interface 1040 is connected to the disk drive 1041. For example, a removable storage medium such as a magnetic disk or an optical disk is inserted into the disk drive 1041. For example, a mouse 1051 and a keyboard 1052 are connected to the serial port interface 1050. For example, a display 1061 is connected to the video adapter 1060.

ここで、図8に示すように、ハードディスクドライブ1031は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。上記実施形態で説明した各DBは、例えばハードディスクドライブ1031やメモリ1010に記憶される。   Here, as shown in FIG. 8, the hard disk drive 1031 stores, for example, an OS 1091, an application program 1092, a program module 1093, and program data 1094. Each DB described in the above embodiment is stored in the hard disk drive 1031 or the memory 1010, for example.

また、情報収集プログラムは、例えば、コンピュータ1000によって実行される指令が記述されたプログラムモジュールとして、例えばハードディスクドライブ1031に記憶される。具体的には、上記実施形態で説明したテキスト編集部16と同様の情報処理を実行するテキスト編集手順と、変換部17と同様の情報処理を実行する変換手順と、画像検索部18と同様の情報処理を実行する画像検索手順と、画像取得部19と同様の情報処理を実行する画像取得手順と、格納制御部20と同様の情報処理を実行する格納制御手順とが記述されたプログラムモジュールが、ハードディスクドライブ1031に記憶される。   The information collection program is stored in, for example, the hard disk drive 1031 as a program module in which a command executed by the computer 1000 is described. Specifically, a text editing procedure for executing the same information processing as the text editing unit 16 described in the above embodiment, a conversion procedure for executing the same information processing as the converting unit 17, and the same as the image searching unit 18 There is a program module in which an image search procedure for executing information processing, an image acquisition procedure for executing information processing similar to that of the image acquisition unit 19, and a storage control procedure for executing information processing similar to that of the storage control unit 20 are described. And stored in the hard disk drive 1031.

また、情報収集プログラムによる情報処理に用いられるデータは、プログラムデータとして、例えば、ハードディスクドライブ1031に記憶される。そして、CPU1020が、ハードディスクドライブ1031に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した各手順を実行する。   Data used for information processing by the information collection program is stored as program data, for example, in the hard disk drive 1031. Then, the CPU 1020 reads the program module 1093 and the program data 1094 stored in the hard disk drive 1031 to the RAM 1012 as necessary, and executes the above-described procedures.

なお、情報収集プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1031に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1041等を介してCPU1020によって読み出されてもよい。あるいは、情報収集プログラムに係るプログラムモジュールやプログラムデータは、LAN(Local Area Network)やWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。   Note that the program module 1093 and the program data 1094 related to the information collection program are not limited to being stored in the hard disk drive 1031, but are stored in a removable storage medium and read by the CPU 1020 via the disk drive 1041 or the like. May be issued. Alternatively, a program module and program data related to the information collection program are stored in another computer connected via a network such as a LAN (Local Area Network) or a WAN (Wide Area Network), and the CPU 1020 via the network interface 1070. May be read.

10 情報処理装置
11 通信制御部
12 入力部
13 表示部
14 記憶部
14a 言葉DB
14b 映像DB
15 制御部
16 テキスト編集部
17 変換部
18 画像検索部
19 画像取得部
20 格納制御部
1000 コンピュータ
1010 メモリ
1011 ROM
1012 RAM
1020 CPU
1030 ハードディスクドライブインタフェース
1031 ハードディスクドライブ
1040 ディスクドライブインタフェース
1041 ディスクドライブ
1050 シリアルポートインタフェース
1051 マウス
1052 キーボード
1060 ビデオアダプタ
1061 ディスプレイ
1070 ネットワークインタフェース
1080 バス
1091 OS
1092 アプリケーションプログラム
1093 プログラムモジュール
1094 プログラムデータ
DESCRIPTION OF SYMBOLS 10 Information processing apparatus 11 Communication control part 12 Input part 13 Display part 14 Memory | storage part 14a Word DB
14b Video DB
DESCRIPTION OF SYMBOLS 15 Control part 16 Text editing part 17 Conversion part 18 Image search part 19 Image acquisition part 20 Storage control part 1000 Computer 1010 Memory 1011 ROM
1012 RAM
1020 CPU
1030 Hard disk drive interface 1031 Hard disk drive 1040 Disk drive interface 1041 Disk drive 1050 Serial port interface 1051 Mouse 1052 Keyboard 1060 Video adapter 1061 Display 1070 Network interface 1080 Bus 1091 OS
1092 Application program 1093 Program module 1094 Program data

Claims (4)

文字の入力を受け付ける受付ステップと、
前記入力された文字を客観的に解釈するか、主観的に解釈するかのカテゴリの選択入力を受け付けるカテゴリ選択ステップと
前記受付ステップによって受け付けられた文字が特徴を表す単語として含まれる、静止画像あるいは動画像である映像情報を検索する検索ステップとをコンピュータに実行させ
前記カテゴリ選択ステップで客観的に解釈する旨の選択入力を受け付けた場合、
前記カテゴリ選択ステップによって選択されたカテゴリと、前記受付ステップによって受け付けられた文字と、前記検索ステップによって検索された映像情報とを対応付けて記憶部に格納する格納ステップをコンピュータに実行させ
前記カテゴリ選択ステップで主観的に解釈する旨の選択入力を受け付けた場合、
前記検索ステップによって検索された複数の前記映像情報をユーザに表示し、前記ユーザから少なくとも1つの前記映像情報の選択を受け付ける選択ステップと、
前記カテゴリ選択ステップによって選択されたカテゴリと、前記受付ステップによって受け付けられた文字と、前記選択ステップによって選択された映像情報とを対応付けて前記記憶部に格納する格納ステップと
をコンピュータに実行させることを特徴とする情報収集プログラム。
A reception step for accepting character input;
A category selection step of accepting a selection input of a category of whether to interpret the input characters objectively or subjectively ;
The characters received by the receiving step is included as a word representing a feature, to execute the steps of: retrieving video information is still picture or moving picture in a computer,
When a selection input for objective interpretation in the category selection step is received,
Causing the computer to execute a storing step in which the category selected in the category selecting step, the character received in the receiving step, and the video information searched in the searching step are associated with each other and stored in the storage unit;
When receiving a selection input for subjective interpretation in the category selection step,
A selection step of displaying a plurality of the video information searched by the search step to a user and receiving selection of at least one of the video information from the user;
Causing the computer to execute a storage step of storing the category selected in the category selection step, the character received in the reception step, and the video information selected in the selection step in the storage unit in association with each other. An information gathering program characterized by
前記受付ステップは、前記文字としてハッシュタグを受け付け、
前記検索ステップは、前記受付ステップによって受け付けられたハッシュタグを検索キーとして、前記映像情報が添付された投稿情報を検索し、
前記格納ステップは、前記カテゴリ選択ステップによって選択されたカテゴリと、前記ハッシュタグと、前記検索ステップによって検索された投稿情報に添付される前記映像情報とを対応付けて前記記憶部に格納することを特徴とする請求項1に記載の情報収集プログラム。
The accepting step accepts a hash tag as the character,
The search step searches for post information to which the video information is attached, using the hash tag received by the reception step as a search key,
The storage step stores the category selected in the category selection step, the hash tag, and the video information attached to the posted information searched in the search step in association with each other in the storage unit. The information collection program according to claim 1, wherein
情報処理装置で実行される情報収集方法であって、
文字の入力を受け付ける受付工程と、
前記入力された文字を客観的に解釈するか、主観的に解釈するかのカテゴリの選択入力を受け付けるカテゴリ選択工程と
前記受付工程によって受け付けられた文字が特徴を表す単語として含まれる、静止画像あるいは動画像である映像情報を検索する検索工程と、
前記カテゴリ選択工程で客観的に解釈する旨の選択入力を受け付けた場合、
前記カテゴリ選択工程によって選択されたカテゴリと、前記受付工程によって受け付けられた文字と、前記検索工程によって検索された映像情報とを対応付けて記憶部に格納する格納制御工程と
前記カテゴリ選択工程で主観的に解釈する旨の選択入力を受け付けた場合、
前記検索工程によって検索された複数の前記映像情報をユーザに表示し、前記ユーザから少なくとも1つの前記映像情報の選択を受け付ける選択工程と、
前記カテゴリ選択工程によって選択されたカテゴリと、前記受付工程によって受け付けられた文字と、前記選択工程によって選択された映像情報とを対応付けて前記記憶部に格納工程と
を含んだことを特徴とする情報収集方法。
An information collection method executed by an information processing apparatus,
A reception process for receiving input of characters;
A category selection step of accepting a selection input of a category of whether to interpret the input characters objectively or subjectively ;
A search step for searching video information that is a still image or a moving image, in which the characters received by the reception step are included as words representing features;
When a selection input for objective interpretation in the category selection process is received,
A storage control step of associating the category selected by the category selection step, the character received by the reception step, and the video information searched by the search step in a storage unit;
When accepting a selection input for subjective interpretation in the category selection step,
A selection step of displaying a plurality of the video information searched by the search step to a user and receiving selection of at least one of the video information from the user;
A storage step in which the category selected in the category selection step, the characters received in the reception step, and the video information selected in the selection step are associated with each other. Information collection method.
文字の入力を受け付け、前記入力された文字を客観的に解釈するか、主観的に解釈するかのカテゴリの選択入力を受け付ける受付部と、
前記受付部によって受け付けられた文字が特徴を表す単語として含まれる、静止画像あるいは動画像である映像情報を検索する検索部と、
前記受付部で客観的に解釈する旨の選択入力を受け付けた場合、
前記受付部によって選択されたカテゴリと、前記受付部によって受け付けられた文字と、前記検索部によって検索された映像情報とを対応付けて記憶部に格納する格納制御部と
前記受付部で主観的に解釈する旨の選択入力を受け付けた場合、
前記検索部によって検索された複数の前記映像情報をユーザに表示し、前記ユーザから少なくとも1つの前記映像情報の選択を受け付ける選択部とを有し、
前記格納制御部は、前記受付部によって選択されたカテゴリと、前記受付部によって受け付けられた文字と、前記選択部によって選択された映像情報とを対応付けて前記記憶部に格納する
ことを特徴とする情報処理装置。
An accepting unit that accepts input of characters and accepts selection input of a category of whether to interpret the input characters objectively or subjectively ;
A search unit that searches video information that is a still image or a moving image, in which the character received by the reception unit is included as a word representing a feature;
When a selection input for objective interpretation is received by the reception unit,
A storage control unit that stores the category selected by the reception unit, the characters received by the reception unit, and the video information searched by the search unit in a storage unit in association with each other ;
When receiving a selection input for subjective interpretation in the reception unit,
A plurality of the video information searched by the search unit is displayed to a user, and the selection unit receives selection of at least one video information from the user,
The storage control unit stores the category selected by the reception unit, the characters received by the reception unit, and the video information selected by the selection unit in the storage unit in association with each other. Information processing apparatus.
JP2012220452A 2012-10-02 2012-10-02 Information collection program, information collection method, and information processing apparatus Expired - Fee Related JP5876396B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012220452A JP5876396B2 (en) 2012-10-02 2012-10-02 Information collection program, information collection method, and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012220452A JP5876396B2 (en) 2012-10-02 2012-10-02 Information collection program, information collection method, and information processing apparatus

Publications (2)

Publication Number Publication Date
JP2014074942A JP2014074942A (en) 2014-04-24
JP5876396B2 true JP5876396B2 (en) 2016-03-02

Family

ID=50749077

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012220452A Expired - Fee Related JP5876396B2 (en) 2012-10-02 2012-10-02 Information collection program, information collection method, and information processing apparatus

Country Status (1)

Country Link
JP (1) JP5876396B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160053413A (en) * 2014-11-04 2016-05-13 네이버 주식회사 Apparatus and method for providing information corresponding contents input into conversation windows
JP6100849B2 (en) * 2015-08-24 2017-03-22 ヤフー株式会社 GENERATION DEVICE, GENERATION METHOD, GENERATION PROGRAM, TERMINAL DEVICE, AND DISPLAY PROGRAM
KR20180064735A (en) * 2016-12-06 2018-06-15 홍유리 System and method for servicing space
JP6960539B2 (en) * 2018-08-17 2021-11-05 株式会社ウフル SNS image trend analysis system, SNS image trend analysis method, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006004062A (en) * 2004-06-16 2006-01-05 Canon Inc Image database creation device and image search method
JP5029030B2 (en) * 2007-01-22 2012-09-19 富士通株式会社 Information grant program, information grant device, and information grant method
JP5656456B2 (en) * 2010-05-28 2015-01-21 富士通テン株式会社 In-vehicle display device and display method

Also Published As

Publication number Publication date
JP2014074942A (en) 2014-04-24

Similar Documents

Publication Publication Date Title
WO2018072071A1 (en) Knowledge map building system and method
JP6428795B2 (en) Model generation method, word weighting method, model generation device, word weighting device, device, computer program, and computer storage medium
TW201118620A (en) Systems and methods for providing advanced search result page content
JP2020135891A (en) Methods, apparatus, devices and media for providing search suggestions
WO2014093072A1 (en) Methods and systems for managing spreadsheet models
US9542474B2 (en) Forensic system, forensic method, and forensic program
US11086600B2 (en) Back-end application code stub generation from a front-end application wireframe
JP5876396B2 (en) Information collection program, information collection method, and information processing apparatus
CN110188207B (en) Knowledge graph construction method and device, readable storage medium and electronic equipment
US9990444B2 (en) Apparatus and method for supporting visualization of connection relationship
JP6898542B2 (en) Information processing device, its control method, and program
JP7255585B2 (en) Information processing device, information processing method, and program
US20130159327A1 (en) Apparatus and method for visualizing data
JPWO2015016133A1 (en) Information management apparatus and information management method
JP2014074943A (en) Character impartation program, character impartation method and information processor
CN115774797A (en) Video content retrieval method, device, equipment and computer readable storage medium
JP2013145508A (en) Graph pattern matching system and graph pattern representative origin extraction method
JP5893541B2 (en) Character addition program, character addition method, and information processing apparatus
JP2009230483A (en) Information retrieving method, program and device
JP6496078B2 (en) Analysis support device, analysis support method, and analysis support program
US8943074B2 (en) Generating and displaying an image tour in response to a user search query
JP5652519B2 (en) Information retrieval method, program and apparatus
JP2010271989A (en) Content retrieval method, content retrieval system, and content retrieval program
CN117540730B (en) Text labeling method and device, computer equipment and storage medium
JP2008046850A (en) Document type determination device, and document type determination program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150204

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20151001

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20151005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160121

R150 Certificate of patent or registration of utility model

Ref document number: 5876396

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees