JP2014074941A - Character addition program, character addition method and information processor - Google Patents

Character addition program, character addition method and information processor Download PDF

Info

Publication number
JP2014074941A
JP2014074941A JP2012220451A JP2012220451A JP2014074941A JP 2014074941 A JP2014074941 A JP 2014074941A JP 2012220451 A JP2012220451 A JP 2012220451A JP 2012220451 A JP2012220451 A JP 2012220451A JP 2014074941 A JP2014074941 A JP 2014074941A
Authority
JP
Japan
Prior art keywords
character
characters
video information
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012220451A
Other languages
Japanese (ja)
Other versions
JP5893541B2 (en
Inventor
Masaru Sanada
勝 真田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2012220451A priority Critical patent/JP5893541B2/en
Publication of JP2014074941A publication Critical patent/JP2014074941A/en
Application granted granted Critical
Publication of JP5893541B2 publication Critical patent/JP5893541B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To fulfill contents of a document prepared by a user.SOLUTION: An information processor receives, for example, a character input from a user in an input area. Then, the information processor selects video information to be associated with the received character from a storage part for storing video information being a still image or a moving image by associating the video information with at least one character that characterizes contents of the video information. Then, the information processor adds a character to be associated with the selected video information to the received character in an input area.

Description

本発明は、文字追加プログラム、文字追加方法および情報処理装置に関する。   The present invention relates to a character addition program, a character addition method, and an information processing apparatus.

Webサイト上で展開されるブログやネットワークを介して配信される配信小説など、言葉で構成されたコンテンツ(以下、適宜「ことばのコンテンツ」と記載する)の内容の充実化や、「ことばのコンテンツ」の解釈を手助けすること等を目的として、言葉をビジュアル化することが行われている。   Enrichment of content composed of words (hereinafter referred to as “language content” where appropriate), such as blogs developed on websites and distribution novels distributed via networks, and “language content” The words are visualized for the purpose of helping to interpret "."

近年では、ユーザがインターネット等で検索した「ことばのコンテンツ」を映像化する技術も知られている。例えば、ユーザの意図、望みあるいは期待を正確に反映させて、映像化を実行する映像コンテンツ生成装置が知られている。具体的には、映像コンテンツ生成装置は、客観的、主観的、属性等のカテゴリで文字情報を解釈して映像化した映像情報と、「ことばのコンテンツ」に含まれる文字情報とを用いて、ユーザが入力した「ことばのコンテンツ」をユーザが指定するカテゴリで解釈して映像化する。   In recent years, a technique for visualizing “language content” searched by the user on the Internet or the like is also known. For example, there is known a video content generation apparatus that performs visualization by accurately reflecting a user's intention, desire or expectation. Specifically, the video content generation device uses video information obtained by interpreting character information in a category such as objective, subjective, and attribute, and using the character information included in the “language content”. The “word content” input by the user is interpreted in the category specified by the user and converted into a video.

特開2009−230254号公報JP 2009-230254 A

しかしながら、映像化対象の「ことばのコンテンツ」をインターネット等でユーザが検索する場合に、ユーザが自分の思い描くことばを選択して文書を作成しながら検索するので、検索文書が充実しないと所望のコンテンツを検索するのが難しいという問題がある。   However, when a user searches for “word content” to be visualized on the Internet or the like, the user selects a word that he envisions and searches while creating a document. There is a problem that it is difficult to search.

例えば、所望のコンテンツを検索するまでに、多くのことばを検索ツールに入力したり、検索ツールに入力する検索文書の作成を繰り返したりすることが多く、時間も手間もかかることが多い。   For example, many words are often input to a search tool or a search document to be input to the search tool is repeatedly created until a desired content is searched, which often takes time and effort.

開示の技術は、上記に鑑みてなされたものであって、ユーザが作成する文書の内容を充実させることができる文字追加プログラム、文字追加方法および情報処理装置を提供することを目的とする。   The disclosed technology has been made in view of the above, and an object thereof is to provide a character addition program, a character addition method, and an information processing apparatus capable of enhancing the contents of a document created by a user.

本願の開示する文字追加プログラム、文字追加方法および情報処理装置は、一つの態様において、入力領域において文字の入力を受け付ける受付ステップと、静止画像あるいは動画像である映像情報と当該映像情報の内容を特徴付ける少なくとも1つの文字とを対応付けて記憶する記憶部から、前記受付ステップによって受け付けられた文字に対応付けられる映像情報を選択する選択ステップと、前記選択ステップによって選択された映像情報に対応付けられる文字のうち、前記受付ステップによって受け付けられた文字以外の文字を、前記入力領域に、前記受け付けられた文字に続けて追加する追加ステップと、をコンピュータに実行させる。   In one aspect, a character addition program, a character addition method, and an information processing device disclosed in the present application include a reception step of receiving input of characters in an input area, video information that is a still image or a moving image, and contents of the video information. A selection step of selecting video information associated with the character received by the reception step from a storage unit that stores at least one character to be characterized in association with the character, and the video information selected by the selection step The computer is caused to execute an adding step of adding characters other than the characters accepted by the accepting step to the input area after the accepted characters.

本願の開示する文字追加プログラム、文字追加方法および情報処理装置の一つの態様によれば、ユーザが作成する文書の内容を充実させることができるという効果を奏する。   According to one aspect of the character addition program, the character addition method, and the information processing apparatus disclosed in the present application, there is an effect that the content of the document created by the user can be enhanced.

図1は、第1の実施形態に係るシステムの全体構成例を示す図である。FIG. 1 is a diagram illustrating an example of the overall configuration of a system according to the first embodiment. 図2は、第1の実施形態に係る情報処理装置の機能構成を示す機能ブロック図である。FIG. 2 is a functional block diagram illustrating a functional configuration of the information processing apparatus according to the first embodiment. 図3は、言葉DBに記憶される情報の例を示す図である。FIG. 3 is a diagram illustrating an example of information stored in the word DB. 図4は、映像DBに記憶される情報の例を示す図である。FIG. 4 is a diagram illustrating an example of information stored in the video DB. 図5は、処理の流れを示すシーケンス図である。FIG. 5 is a sequence diagram showing the flow of processing. 図6は、具体例を説明する図である。FIG. 6 is a diagram illustrating a specific example. 図7は、文字追加プログラムを実行するコンピュータを示す図である。FIG. 7 is a diagram illustrating a computer that executes a character addition program.

以下に、本願の開示する文字追加プログラム、文字追加方法および情報処理装置の実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。   Hereinafter, embodiments of a character addition program, a character addition method, and an information processing device disclosed in the present application will be described in detail with reference to the drawings. In addition, this invention is not limited by this embodiment.

[第1の実施形態]
(全体構成)
図1は、第1の実施形態に係るシステムの全体構成例を示す図である。図1に示す情報処理装置10は、「ことばのコンテンツ」を映像化する映像コンテンツ生成装置の一例である。なお、情報処理装置10は、映像コンテンツ生成装置ではなく、映像コンテンツ生成装置に情報を提供する装置であってもよい。
[First Embodiment]
(overall structure)
FIG. 1 is a diagram illustrating an example of the overall configuration of a system according to the first embodiment. The information processing apparatus 10 illustrated in FIG. 1 is an example of a video content generation apparatus that visualizes “language content”. Note that the information processing apparatus 10 may be an apparatus that provides information to the video content generation apparatus instead of the video content generation apparatus.

この情報処理装置10は、客観的、主観的、属性等のカテゴリで文字情報を解釈して映像化した映像情報と、「ことばのコンテンツ」に含まれる文字とを用いて、ユーザが入力した「ことばのコンテンツ」をユーザが指定するカテゴリで解釈して映像化する。   The information processing apparatus 10 uses the video information obtained by interpreting the character information in the categories of objective, subjective, attribute, and the like, and the characters included in the “word content” to input “ “Word content” is interpreted in a category specified by the user and converted into a video.

具体的には、情報処理装置10は、文字を異なるカテゴリで解釈して解釈情報と当該文字とを対応付けた情報と、解釈情報と映像情報とを対応付けた情報とを予め記憶する。そして、情報処理装置10は、「ことばのコンテンツ」の入力を受け付け、入力されたコンテンツをいずれのカテゴリで解釈するかを例えばユーザから受け付ける。   Specifically, the information processing apparatus 10 stores in advance information that interprets characters in different categories and associates interpretation information with the characters, and information that associates interpretation information and video information. Then, the information processing apparatus 10 accepts input of “language content” and accepts, for example, a user from which category the input content is interpreted.

続いて、情報処理装置10は、受け付けたことばのコンテンツに含まれる各文字について、選択されたカテゴリにしたがって、解釈情報を取得する。そして、情報処理装置10は、取得された解釈情報に対応する映像情報を抽出する。その後、情報処理装置10は、ことばのコンテンツ内の各文字について抽出した映像情報から、映像コンテンツを生成して出力する。このようにして、情報処理装置10は、ユーザの意図、望みあるいは期待を正確に反映させて、ことばのコンテンツを映像化する。   Subsequently, the information processing apparatus 10 acquires interpretation information according to the selected category for each character included in the received content. Then, the information processing apparatus 10 extracts video information corresponding to the acquired interpretation information. Thereafter, the information processing apparatus 10 generates and outputs video content from the video information extracted for each character in the word content. In this way, the information processing apparatus 10 visualizes the content of the word while accurately reflecting the user's intention, desire or expectation.

このような状態において、情報処理装置10は、入力領域において、例えばユーザから文字入力を受け付けると、静止画像あるいは動画像である映像情報と当該映像情報の内容を特徴付ける少なくとも1つの文字とを対応付けて記憶する記憶部から、受け付けた文字に対応付けられる映像情報を選択する。そして、情報処理装置10は、選択された映像情報に対応付けられる文字を、入力領域に、受け付けた文字に追加する。   In such a state, when the information processing apparatus 10 receives character input from the user, for example, in the input area, the information processing apparatus 10 associates video information that is a still image or a moving image with at least one character that characterizes the content of the video information. The video information associated with the received character is selected from the storage unit. Then, the information processing apparatus 10 adds a character associated with the selected video information to the received character in the input area.

このように、情報処理装置10は、ユーザが文章を作成する場合に、入力された文字(ことば)に相応しい画像等を選択させることで、ユーザがことばで思い描いていたイメージに適したことばを自動的に追加することができる。この結果、少ないことばの入力でも、ユーザが作成する文章を充実させることができる。   In this way, when the user creates a sentence, the information processing apparatus 10 automatically selects words suitable for the image envisioned by the user by selecting an image suitable for the input character (word). Can be added. As a result, the text created by the user can be enriched with a small number of input words.

(機能構成)
図2は、第1の実施形態に係る情報処理装置の機能構成を示す機能ブロック図である。なお、図2では、ことばのコンテンツを映像化する機能については省略する。この機能については、特開2009−230254号公報などに開示されている処理部を用いることができる。
(Functional configuration)
FIG. 2 is a functional block diagram illustrating a functional configuration of the information processing apparatus according to the first embodiment. In FIG. 2, the function of visualizing the word content is omitted. For this function, a processing unit disclosed in JP2009-230254A or the like can be used.

図2に示すように、情報処理装置10は、通信制御部11、入力部12、表示部13、記憶部14、制御部15を有する。通信制御部11は、他の装置との通信を制御する処理部であり、例えば、ネットワークインタフェースカードなどである。例えば、通信制御部11は、情報処理装置10が映像コンテンツ生成装置の外部装置である場合に、映像コンテンツ生成装置に対して、各種データを送信する。   As illustrated in FIG. 2, the information processing apparatus 10 includes a communication control unit 11, an input unit 12, a display unit 13, a storage unit 14, and a control unit 15. The communication control unit 11 is a processing unit that controls communication with other devices, and is, for example, a network interface card. For example, the communication control unit 11 transmits various data to the video content generation device when the information processing device 10 is an external device of the video content generation device.

入力部12は、マウスやキーボードなどの入力装置である。この入力部12は、表示部13に表示される検索ワード入力エリア等に対する、文字等の入力を受け付ける。また、入力部12は、表示部13内の画像表示エリアに表示される複数の画像に対して画像選択を受け付ける。   The input unit 12 is an input device such as a mouse or a keyboard. The input unit 12 accepts input of characters or the like to a search word input area or the like displayed on the display unit 13. Further, the input unit 12 receives image selection for a plurality of images displayed in the image display area in the display unit 13.

表示部13は、ディスプレイやタッチパネルなどの表示装置である。この表示部13は、後述する制御部15の各処理部から出力された情報を表示出力する。また、表示部13は、表示する領域を検索ワード入力エリアと画像表示エリアとに分類して、情報を表示する。例えば、検索ワード入力エリアは、ユーザに検索ワード等を入力させる領域であり、画像表示エリアは、制御部15の各処理部から出力される画像を表示する領域である。   The display unit 13 is a display device such as a display or a touch panel. The display unit 13 displays and outputs information output from each processing unit of the control unit 15 described later. The display unit 13 displays information by classifying the display area into a search word input area and an image display area. For example, the search word input area is an area for allowing a user to input a search word or the like, and the image display area is an area for displaying an image output from each processing unit of the control unit 15.

記憶部14は、言葉DB14aと映像DB14bとを記憶する記憶部であり、例えば、ハードウェアやメモリなどの記憶装置である。また、記憶部14は、制御部15が実行するプログラムやデータ等を記憶する。ここで記憶される言葉DB14aと映像DB14bとを用いて、ことばのコンテンツが映像化される。   The storage unit 14 is a storage unit that stores the word DB 14a and the video DB 14b, and is, for example, a storage device such as hardware or memory. The storage unit 14 stores programs executed by the control unit 15 and data. The word content is visualized using the word DB 14a and the video DB 14b stored here.

言葉DB14aは、文字を異なるカテゴリで解釈して解釈情報を記憶するデータベースである。図3は、言葉DBに記憶される情報の例を示す図である。図3に示すように、言葉DB14aは、「解釈カテゴリ、文字、ことばID、ビジュアル部品ID(解釈情報)」を対応付けて記憶する。   The word DB 14a is a database that stores interpretation information by interpreting characters in different categories. FIG. 3 is a diagram illustrating an example of information stored in the word DB. As shown in FIG. 3, the word DB 14 a stores “interpretation category, character, word ID, visual part ID (interpretation information)” in association with each other.

ここで記憶される「解釈カテゴリ」には、文字を解釈するカテゴリが設定される。「文字」には、解釈対象の文字情報が設定される。「ことばID」には、文字を識別する識別情報が設定される。「ビジュアル部品ID(解釈情報)」には、ことばを解釈カテゴリで解釈し、その解釈によって特定される映像情報が設定される。   In the “interpretation category” stored here, a category for interpreting characters is set. In the “character”, character information to be interpreted is set. In the “language ID”, identification information for identifying a character is set. In the “visual part ID (interpretation information)”, the video information specified by the interpretation of the words in the interpretation category is set.

図3の場合、ことばID「WA1」の文字「犬」を客観的に解釈した場合のビジュアル部品IDが「VA1」と「VA2」であることを示す。また、VA1やVA2に対応付けられる画像の例としては、白地に茶や黒緑の短毛犬など、一般的な犬の画像が挙げられる。   In the case of FIG. 3, the visual component IDs when the character “dog” of the word ID “WA1” is objectively interpreted are “VA1” and “VA2”. Moreover, as an example of the image matched with VA1 and VA2, the image of a general dog, such as a brown or black-green short-haired dog, is mentioned on a white background.

また、ことばID「WA1」の文字「犬」を主観的に解釈した場合のビジュアル部品IDが「VB1」と「VB2」であることを示す。また、ビジュアル部品IDが「VB1」には、ことばID「WA2」の文字「白」も対応付けられている。さらに、ビジュアル部品IDが「VB1」には、ことばID「WA3」の文字「小さい」も対応付けられている。これらのことから、VB1に対応付けられる画像の例としては、白くて小さい犬の画像などが挙げられる。また、VB2に対応付けられる画像の例としては、ユーザ好みの柴犬やシベリアンハスキーなどの犬の画像が挙げられる。   Further, the visual component IDs “VB1” and “VB2” when the character “dog” of the word ID “WA1” is subjectively interpreted are indicated. The visual part ID “VB1” is also associated with the character “white” having the word ID “WA2”. Further, the visual component ID “VB1” is also associated with the word “small” with the word ID “WA3”. From these, examples of images associated with VB1 include white and small dog images. Examples of images associated with VB2 include images of dogs such as shiba inu and siberian husky that the user likes.

また、ことばID「WA1」の文字「犬」を属性で解釈した場合のビジュアル部品IDが「VC1」と「VC2」であることを示す。VC1やVC2に対応付けられる画像の例としては、「ことばのコンテンツ」すなわち文書コンテンツとして入力された小説の時代背景にあわせた犬などの画像が挙げられる。   Further, the visual part IDs when the character “dog” of the word ID “WA1” is interpreted as an attribute are “VC1” and “VC2”. Examples of images associated with VC1 and VC2 include “word content”, that is, images of dogs or the like that match the historical background of novels input as document content.

映像DB14bは、解釈情報と映像情報とを対応付けた情報を記憶する。図4は、映像DBに記憶される情報の例を示す図である。図4に示すように、映像DB14bは、「ことばID、ビジュアル部品ID、映像情報」を対応付けて記憶する。   The video DB 14b stores information in which interpretation information and video information are associated with each other. FIG. 4 is a diagram illustrating an example of information stored in the video DB. As shown in FIG. 4, the video DB 14 b stores “language ID, visual component ID, video information” in association with each other.

ここで記憶される「ことばID」は、図3に示した「ことばID」に対応し、「ビジュアル部品ID」は、図3に示した「ビジュアル部品ID(解釈情報)」に対応する。「映像情報」は、記憶部14等に保存される画像情報が設定される。つまり、図3に示した「ことばID」と「ビジュアル部品ID(解釈情報)」とによって、映像情報を一意に特定することができる。なお、図4に示したビジュアル部品ID「VA1」が、例えば白地に茶の犬の画像などであり、ビジュアル部品ID「VB1」が、白くて小さい犬の画像などである。   The “word ID” stored here corresponds to the “word ID” shown in FIG. 3, and the “visual part ID” corresponds to the “visual part ID (interpretation information)” shown in FIG. In the “video information”, image information stored in the storage unit 14 or the like is set. That is, the video information can be uniquely specified by the “word ID” and the “visual part ID (interpretation information)” shown in FIG. The visual component ID “VA1” shown in FIG. 4 is, for example, a brown dog image on a white background, and the visual component ID “VB1” is a white, small dog image.

制御部15は、テキスト編集部16、変換部17、画像特定部18、画像選択部19、文字追加部20を有する。この制御部15は、例えばCPU(Central Processing Unit)などのプロセッサであり、各処理部は、プロセッサが実行する処理部である。   The control unit 15 includes a text editing unit 16, a conversion unit 17, an image specification unit 18, an image selection unit 19, and a character addition unit 20. The control unit 15 is a processor such as a CPU (Central Processing Unit), for example, and each processing unit is a processing unit executed by the processor.

テキスト編集部16は、入力部12を介して受け付けられた文字やことばなどを編集する処理部である。具体的には、テキスト編集部16は、文字等を受け付けて、表示部13の検索ワード入力エリアに表示する。また、テキスト編集部16は、検索ワード入力エリアに入力された文字を変換部17に出力し、変換部17によって漢字等に変換された場合に、変換後の文字を検索ワード入力エリアに表示する。   The text editing unit 16 is a processing unit that edits characters and words received via the input unit 12. Specifically, the text editing unit 16 receives characters and displays them in the search word input area of the display unit 13. In addition, the text editing unit 16 outputs the characters input in the search word input area to the conversion unit 17, and displays the converted characters in the search word input area when the conversion unit 17 converts the characters into kanji or the like. .

例えば、テキスト編集部16は、ユーザが所望のコンテンツや画像等を検索する際、検索キーとして入力される文書を受け付ける。このとき、テキスト編集部16は、文書の作成にあたって入力された文字ごとに、当該文字を取得して変換部17に出力する。   For example, the text editing unit 16 accepts a document that is input as a search key when the user searches for a desired content or image. At this time, the text editing unit 16 acquires and outputs the character to the conversion unit 17 for each character input in creating the document.

変換部17は、テキスト編集部16から出力された文字等を所定の形式に変換する処理部である。具体的には、変換部17は、ユーザ等から変換形式の指定を受け付ける。そして、変換部17は、テキスト編集部16から出力された文字を、指定された変換形式にしたがって変換する。例えば、変換部17は、表示部13の検索ワード入力エリアに入力された「いぬ」を「犬」に変換する。このように変換された「犬」は、テキスト編集部16等によって表示部13の検索ワード入力エリアに表示される。   The conversion unit 17 is a processing unit that converts characters and the like output from the text editing unit 16 into a predetermined format. Specifically, the conversion unit 17 receives a conversion format designation from the user or the like. Then, the conversion unit 17 converts the characters output from the text editing unit 16 according to the specified conversion format. For example, the conversion unit 17 converts “dog” input to the search word input area of the display unit 13 into “dog”. The “dog” thus converted is displayed in the search word input area of the display unit 13 by the text editing unit 16 or the like.

画像特定部18は、映像情報と当該映像情報の内容を特徴付ける少なくとも1つの文字とを対応付けて記憶する言葉DB14aおよび映像DB14bから、受け付けた文字に対応付けられる複数の映像情報を特定する処理部である。   The image specifying unit 18 specifies a plurality of pieces of video information associated with received characters from the word DB 14a and the video DB 14b that store video information and at least one character characterizing the content of the video information in association with each other. It is.

例えば、画像特定部18は、表示部13の検索ワード入力エリアに表示される文字を取得し、当該文字に対応付けられることばIDを言葉DB14aから特定する。そして、画像特定部18は、特定したことばIDに対応付けられるビジュアル部品IDを映像DB14bから特定する。その後、画像特定部18は、特定したビジュアル部品IDに対応付けられる映像情報を映像DB14bから特定し、特定した映像情報を表示部13の画像表示エリアに表示させる。   For example, the image specifying unit 18 acquires a character displayed in the search word input area of the display unit 13, and specifies a word ID associated with the character from the word DB 14a. Then, the image specifying unit 18 specifies the visual component ID associated with the specified word ID from the video DB 14b. Thereafter, the image specifying unit 18 specifies video information associated with the specified visual component ID from the video DB 14 b and displays the specified video information in the image display area of the display unit 13.

なお、画像特定部18は、入力文字に対応する画像を特定する場合に、言葉DB14aの「主観」に対応する画像の中から特定してもよい。このようにすることで、ユーザの主観に適した画像を選択することができる。   In addition, when specifying the image corresponding to the input character, the image specifying unit 18 may specify the image corresponding to “subjectivity” in the word DB 14a. By doing in this way, the image suitable for the user's subjectivity can be selected.

一例を挙げると、画像特定部18は、ことばIDとして「WA1」を特定した場合、「WA1」に対応付けられる「画像A1、画像A2、画像B1、画像B2、画像C1、画像C2」の各画像を表示部13の画像表示エリアに表示させる。   For example, when “WA1” is specified as the word ID, the image specifying unit 18 selects “image A1, image A2, image B1, image B2, image C1, image C2” associated with “WA1”. The image is displayed in the image display area of the display unit 13.

画像選択部19は、画像特定部18が特定した画像から1つの画像を選択する処理部である。例えば、画像選択部19は、表示部13の画像表示エリアに表示される「画像A1、画像A2、画像B1、画像B2、画像C1、画像C2」の中から、ユーザの選択を受け付ける。そして、画像選択部19は、ユーザに選択された画像B1などを文字追加部20に出力する。   The image selecting unit 19 is a processing unit that selects one image from the images specified by the image specifying unit 18. For example, the image selection unit 19 accepts a user's selection from “image A1, image A2, image B1, image B2, image C1, image C2” displayed in the image display area of the display unit 13. Then, the image selection unit 19 outputs the image B1 selected by the user to the character addition unit 20.

また、画像選択部19は、表示部13の画像表示エリアされる画像から1つの画像を自動で選択することもできる。例えば、画像選択部19は、「犬」に対応する画像を特定する場合、表示部13の画像表示エリアされる各画像について、「犬」の画像が表示されている割合を算出する。一例を挙げると、画像選択部19は、画像Aの全画像のうち「犬」の画像が45%であるなどと算出する。なお、割合を算出する方法は、公知の様々な技術も用いることができる。そして、画像選択部19は、表示部13の画像表示エリアに表示される各画像のうち、割合が最も多い画像を選択することもできる。このように、画像選択部19は、ユーザがイメージする文書に対応した画像を自動で選択することもできる。   The image selection unit 19 can also automatically select one image from the images displayed in the image display area of the display unit 13. For example, when specifying an image corresponding to “dog”, the image selection unit 19 calculates a ratio of displaying the image of “dog” for each image displayed in the image display area of the display unit 13. For example, the image selection unit 19 calculates that 45% of the images of “dogs” are included in all the images of the image A. Note that various known techniques can be used as a method of calculating the ratio. And the image selection part 19 can also select an image with the largest ratio among each image displayed on the image display area of the display part 13. FIG. As described above, the image selection unit 19 can also automatically select an image corresponding to a document imaged by the user.

文字追加部20は、画像特定部18が特定した複数の映像情報の中から、画像選択部19によって選択された映像情報に対応付けられる文字を、受け付けられた文字に追加する処理部である。   The character adding unit 20 is a processing unit that adds a character associated with the video information selected by the image selecting unit 19 from the plurality of video information specified by the image specifying unit 18 to the received character.

上記例で説明すると、文字追加部20は、画像選択部19から、選択された画像として画像B1を受け付ける。そして、文字追加部20は、受け付けた画像B1に対応付けられるビジュアル部品ID「VB1」を映像DB14bから特定する。続いて、文字追加部20は、ビジュアル部品ID「VB1」に対応付けられる文字として、ことばIDが「WA1」の「犬」と、ことばIDが「WA2」の「白」と、ことばIDが「WA3」の「小さい」とを言葉DB14aから特定する。   In the above example, the character adding unit 20 receives the image B1 from the image selecting unit 19 as the selected image. Then, the character adding unit 20 specifies the visual component ID “VB1” associated with the received image B1 from the video DB 14b. Subsequently, the character adding unit 20 sets “dog” with the word ID “WA1”, “white” with the word ID “WA2”, and the word ID “WA2” as the characters associated with the visual part ID “VB1”. The word “WA3” is identified as “small” from the word DB 14a.

その後、文字追加部20は、入力文字が「犬」であることから、特定した文字のうち「犬」を除く文字「白」と「小さい」とを抽出し、抽出した文字を入力文字「犬」に続くように追加する。具体的には、文字追加部20は、表示部13の検索ワード入力エリアにおいて入力済みの「犬」に続けて、抽出した「白」と「小さい」を検索ワード入力エリアに追加する。   Thereafter, since the input character is “dog”, the character adding unit 20 extracts the characters “white” and “small” excluding “dog” from the specified characters, and inputs the extracted characters to the input character “dog”. To follow. Specifically, the character adding unit 20 adds the extracted “white” and “small” to the search word input area following the “dog” already input in the search word input area of the display unit 13.

(処理の流れ)
図5は、処理の流れを示すシーケンス図である。図5に示すように、テキスト編集部16は、表示部13の検索ワード入力エリアにおいて文字の入力を受け付ける(S101)。続いて、テキスト編集部16は、受け付けた文字を表示部13の検索ワード入力エリアに表示させる(S102)。そして、テキスト編集部16は、受け付けた文字を変換部17に出力する(S103とS104)。
(Process flow)
FIG. 5 is a sequence diagram showing the flow of processing. As shown in FIG. 5, the text editing unit 16 accepts input of characters in the search word input area of the display unit 13 (S101). Subsequently, the text editing unit 16 displays the received characters in the search word input area of the display unit 13 (S102). Then, the text editing unit 16 outputs the received character to the conversion unit 17 (S103 and S104).

続いて、変換部17は、ユーザ等によって指定される変換形式にしたがって、テキスト編集部16から受け付けた文字を変換する(S105)。そして、変換部17は、変換した文字である変換文字を、テキスト編集部16と画像特定部18とに出力する(S106〜S108)。そして、テキスト編集部16は、変換部17から受け付けた変換文字を、表示部13の検索ワード入力エリアに表示させる(S109)。   Subsequently, the conversion unit 17 converts the characters received from the text editing unit 16 according to the conversion format specified by the user or the like (S105). And the conversion part 17 outputs the converted character which is the converted character to the text edit part 16 and the image specific | specification part 18 (S106-S108). Then, the text editing unit 16 displays the converted character received from the conversion unit 17 in the search word input area of the display unit 13 (S109).

一方で、画像特定部18は、変換部17から変換文字を受け付け(S110)、受け付けた変換文字に対応する画像を特定する(S111)。具体的には、画像特定部18は、受け付けた変換文字に対応することばIDを言葉DB14aから特定し、特定したことばIDに対応する映像情報を映像DB14bから特定する。そして、画像特定部18は、特定した各画像を表示部13の画像表示エリアに表示させる(S112とS113)。   On the other hand, the image specifying unit 18 receives a converted character from the converting unit 17 (S110), and specifies an image corresponding to the received converted character (S111). Specifically, the image specifying unit 18 specifies the word ID corresponding to the received converted character from the word DB 14a, and specifies the video information corresponding to the specified word ID from the video DB 14b. Then, the image specifying unit 18 displays each specified image in the image display area of the display unit 13 (S112 and S113).

その後、画像選択部19は、画像特定部18が表示部13の画像表示エリアに表示させた画像の中から画像の選択を受け付け(S114)、受け付けた画像の情報を文字追加部20に出力する(S115)。   Thereafter, the image selection unit 19 receives image selection from the images displayed in the image display area of the display unit 13 by the image specification unit 18 (S114), and outputs information about the received image to the character addition unit 20. (S115).

そして、文字追加部20は、画像選択部19から受け付けた画像、すなわち、ユーザによって選択された画像に対応付けられる追加対象の文字を、言葉DB14aおよび映像DB14bから特定する(S116)。その後、文字追加部20は、表示部13の検索ワード入力エリアにおいて入力済みの文字に続けて、特定した文字を検索ワード入力エリアに追加する(S117とS118)。   Then, the character adding unit 20 specifies the character to be added associated with the image received from the image selecting unit 19, that is, the image selected by the user, from the word DB 14a and the video DB 14b (S116). Thereafter, the character adding unit 20 adds the specified character to the search word input area following the characters already input in the search word input area of the display unit 13 (S117 and S118).

(具体例)
次に、文字を追加する具体例を説明する。図6は、具体例を説明する図である。図6に示すように、表示部13には、検索ワード入力エリア13aと、画像表示エリア13bとが設けられる。
(Concrete example)
Next, a specific example of adding characters will be described. FIG. 6 is a diagram illustrating a specific example. As shown in FIG. 6, the display unit 13 includes a search word input area 13a and an image display area 13b.

検索ワード入力エリア13aは、ユーザがことばコンテンツや画像等を検索する際に、文書の入力を受け付ける領域である。ユーザは、所望のコンテンツが画像を検索するために、当該コンテンツ等の検索ワードや文書を検索ワード入力エリア13aに入力して、該当するコンテンツ等をインターネット等から検索する。   The search word input area 13a is an area for accepting input of a document when a user searches for a word content or an image. In order to search for an image of desired content, the user inputs a search word or document such as the content into the search word input area 13a and searches the corresponding content from the Internet or the like.

このような状態において、テキスト編集部16は、入力部12を介して、表示部13の検索ワード入力エリア13aへの入力として「いぬが」を受け付ける。ここで、図6において「いぬが」にアンダーラインがあるのは、入力文字が未確定の状態を示している。アンダーラインがない状態は、入力文字が確定したことを示す。   In such a state, the text editing unit 16 accepts “INUGA” as an input to the search word input area 13 a of the display unit 13 via the input unit 12. Here, in FIG. 6, “Inuga” has an underline indicates that the input character has not yet been determined. When there is no underline, the input character is confirmed.

続いて、変換部17は、指定されている漢字変換に基づいて、ユーザの操作等によって入力文字「いぬが」を「犬が」に変換して、入力を確定する。その後、画像特定部18は、形態素解析等により入力文字を単語に分解し、「犬」を抽出する。そして、画像特定部18は、予め記憶する画像の中からことば「犬」が付随する画像として、「白い小さな犬」の画像と、「黒い大きな犬」の画像と、「寝ている茶色の犬」の画像とを特定して表示部13の画像表示エリア13bに表示する。   Subsequently, based on the designated kanji conversion, the conversion unit 17 converts the input character “Inuga” into “Dog” by the user's operation or the like, and confirms the input. Thereafter, the image specifying unit 18 decomposes the input characters into words by morphological analysis or the like, and extracts “dog”. Then, the image specifying unit 18 includes an image of “white small dog”, an image of “black big dog”, and a “sleeping brown dog” as an image accompanied by the word “dog” among the images stored in advance. Is displayed in the image display area 13 b of the display unit 13.

ここで、「白い小さな犬」の画像には「犬、白、小さい」の各ことばが付随しており、「黒い大きな犬」の画像には「犬、黒、大きい」の各ことばが付随しており、「寝ている茶色の犬」の画像には、「犬、茶色、寝る」の各ことばが付随している。   Here, the words “dog, white, small” are attached to the image of “white little dog”, and the words “dog, black, big” are attached to the image of “black big dog”. The words “dog brown, sleeping” are accompanied by the words “dog, brown, sleep”.

このように各画像を表示させた状態で、画像選択部19は、「白い小さな犬」の画像の選択をユーザから受け付ける。すると、文字追加部20は、選択された「白い小さな犬」の画像に付随することば「犬、白、小さい」を特定する。そして、文字追加部20は、特定した「犬、白、小さい」のうち、入力文字の「犬」を除いた「白、小さい」を抽出する。その後、文字追加部20は、表示部13の検索ワード入力エリア13aに入力される「犬」に続けて、「白」、「小さい」を追加する。   In a state where each image is displayed in this manner, the image selection unit 19 receives the selection of the “white little dog” image from the user. Then, the character adding unit 20 specifies the word “dog, white, small” attached to the selected “white little dog” image. Then, the character adding unit 20 extracts “white, small” from the specified “dog, white, small” excluding the input character “dog”. Thereafter, the character adding unit 20 adds “white” and “small” after “dog” input to the search word input area 13 a of the display unit 13.

(効果)
このように、第1の実施形態の情報処理装置10は、ユーザが画像等を検索するために文書を入力する際の文字に注目し、入力文字が確定するたびに、当該文字を画像の特徴として含む画像をユーザに表示する。そして、情報処理装置10は、複数の画像からユーザに主観によって選択された画像に付随する文字すなわちことばを、入力文字に追加することができる。
(effect)
As described above, the information processing apparatus 10 according to the first embodiment pays attention to a character when the user inputs a document in order to search for an image or the like. The image included as is displayed to the user. And the information processing apparatus 10 can add the character accompanying the image selected by the user subjectively from the several image, ie, a word, to an input character.

したがって、情報処理装置10は、ユーザが所望のコンテンツを検索するまでに、多くのことばを検索ツールに入力する際に、ユーザが作成する文書の内容を充実させることができる。また、情報処理装置10は、ユーザの主観をことばで表現することができるので、ユーザが意図する文書作成を補助することができる。   Therefore, the information processing apparatus 10 can enrich the content of the document created by the user when inputting many words into the search tool before the user searches for the desired content. In addition, since the information processing apparatus 10 can express the user's subjectivity in words, it can assist in creating a document intended by the user.

[第2の実施形態]
さて、これまで本発明の実施形態について説明したが、本発明は上述した実施形態以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下に異なる実施形態を説明する。
[Second Embodiment]
Although the embodiments of the present invention have been described so far, the present invention may be implemented in various different forms other than the above-described embodiments. Therefore, different embodiments will be described below.

(映像情報)
上記実施形態では、文字(ことば)に画像が対応付けられており、当該画像を表示してユーザに選択させる例を説明したが、これに限定されるものではない。例えば、映像情報として、画像の他にも、例えば動画像、1つ以上の静止画像の組、1つ以上の動画像を文字と対応付けてもよい。このような場合、情報処理装置10は、入力文字が付随された動画像、1以上の静止画像の組、1以上の動画像を特定してユーザに表示させる。なお、動画像については代表的な画像をユーザに表示させることもできる。
(Video information)
In the above embodiment, an example has been described in which an image is associated with a character (word), and the image is displayed and selected by the user. However, the present invention is not limited to this. For example, as video information, in addition to an image, for example, a moving image, a set of one or more still images, and one or more moving images may be associated with characters. In such a case, the information processing apparatus 10 identifies a moving image accompanied by an input character, a set of one or more still images, and one or more moving images and displays them to the user. Note that a representative image can be displayed to the user for the moving image.

(システム構成等)
図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示された構成要素と同一であることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
(System configuration etc.)
Each component of each illustrated device is functionally conceptual, and does not necessarily need to be the same as the physically illustrated component. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured.

また、本実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともできる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。   In addition, among the processes described in the present embodiment, all or a part of the processes described as being automatically performed can be manually performed. Further, all or any part of each processing function performed in each device may be realized by a CPU and a program analyzed and executed by the CPU, or may be realized as hardware by wired logic.

(プログラム)
また、上記実施形態に係る情報処理装置が実行する処理をコンピュータが実行可能な言語で記述した文字追加プログラムを作成することもできる。この場合、コンピュータが文字追加プログラムを実行することにより、上記実施形態と同様の効果を得ることができる。さらに、かかる文字追加プログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録された文字追加プログラムをコンピュータに読み込ませて実行することにより上記実施形態と同様の処理を実現してもよい。以下に、図2等に示した情報処理装置と同様の機能を実現する文字追加プログラムを実行するコンピュータの一例を説明する。
(program)
It is also possible to create a character addition program in which processing executed by the information processing apparatus according to the embodiment is described in a language that can be executed by a computer. In this case, when the computer executes the character addition program, the same effect as in the above embodiment can be obtained. Further, the character addition program may be recorded on a computer-readable recording medium, and the character addition program recorded on the recording medium may be read and executed by the computer to execute the same processing as in the above embodiment. Good. An example of a computer that executes a character addition program that realizes the same function as the information processing apparatus shown in FIG. 2 will be described below.

図7は、文字追加プログラムを実行するコンピュータを示す図である。図7に示すように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。   FIG. 7 is a diagram illustrating a computer that executes a character addition program. As illustrated in FIG. 7, the computer 1000 includes, for example, a memory 1010, a CPU 1020, a hard disk drive interface 1030, a disk drive interface 1040, a serial port interface 1050, a video adapter 1060, and a network interface 1070. These units are connected by a bus 1080.

メモリ1010は、ROM(Read Only Memory)1011およびRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1031に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1041に接続される。ディスクドライブ1041には、例えば、磁気ディスクや光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1051およびキーボード1052が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1061が接続される。   The memory 1010 includes a ROM (Read Only Memory) 1011 and a RAM 1012. The ROM 1011 stores a boot program such as BIOS (Basic Input Output System). The hard disk drive interface 1030 is connected to the hard disk drive 1031. The disk drive interface 1040 is connected to the disk drive 1041. For example, a removable storage medium such as a magnetic disk or an optical disk is inserted into the disk drive 1041. For example, a mouse 1051 and a keyboard 1052 are connected to the serial port interface 1050. For example, a display 1061 is connected to the video adapter 1060.

ここで、図7に示すように、ハードディスクドライブ1031は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。上記実施形態で説明した各DBは、例えばハードディスクドライブ1031やメモリ1010に記憶される。   Here, as shown in FIG. 7, the hard disk drive 1031 stores, for example, an OS 1091, an application program 1092, a program module 1093, and program data 1094. Each DB described in the above embodiment is stored in the hard disk drive 1031 or the memory 1010, for example.

また、文字追加プログラムは、例えば、コンピュータ1000によって実行される指令が記述されたプログラムモジュールとして、例えばハードディスクドライブ1031に記憶される。具体的には、上記実施形態で説明したテキスト編集部16と同様の情報処理を実行するテキスト編集手順と、変換部17と同様の情報処理を実行する変換手順と、画像特定部18と同様の情報処理を実行する画像特定手順と、画像選択部19と同様の情報処理を実行する画像選択手順と、文字追加部20と同様の情報処理を実行する文字追加手順とが記述されたプログラムモジュールが、ハードディスクドライブ1031に記憶される。   The character addition program is stored in, for example, the hard disk drive 1031 as a program module in which a command to be executed by the computer 1000 is described. Specifically, the text editing procedure for executing the same information processing as that of the text editing unit 16 described in the above embodiment, the conversion procedure for executing the same information processing as that of the converting unit 17, and the same as the image specifying unit 18 are performed. There is a program module in which an image specifying procedure for executing information processing, an image selection procedure for executing information processing similar to that of the image selecting unit 19, and a character adding procedure for executing information processing similar to that of the character adding unit 20 are described. And stored in the hard disk drive 1031.

また、文字追加プログラムによる情報処理に用いられるデータは、プログラムデータとして、例えば、ハードディスクドライブ1031に記憶される。そして、CPU1020が、ハードディスクドライブ1031に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した各手順を実行する。   Data used for information processing by the character addition program is stored as program data, for example, in the hard disk drive 1031. Then, the CPU 1020 reads the program module 1093 and the program data 1094 stored in the hard disk drive 1031 to the RAM 1012 as necessary, and executes the above-described procedures.

なお、文字追加プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1031に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1041等を介してCPU1020によって読み出されてもよい。あるいは、文字追加プログラムに係るプログラムモジュールやプログラムデータは、LAN(Local Area Network)やWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。   The program module 1093 and the program data 1094 related to the character addition program are not limited to being stored in the hard disk drive 1031. For example, the program module 1093 and the program data 1094 are stored in a removable storage medium and read by the CPU 1020 via the disk drive 1041 or the like. May be issued. Alternatively, the program module and program data relating to the character addition program are stored in another computer connected via a network such as a LAN (Local Area Network) or a WAN (Wide Area Network), and the CPU 1020 is connected via the network interface 1070. May be read.

10 情報処理装置
11 通信制御部
12 入力部
13 表示部
14 記憶部
14a 言葉DB
14b 映像DB
15 制御部
16 テキスト編集部
17 変換部
18 画像特定部
19 画像選択部
20 文字追加部
1000 コンピュータ
1010 メモリ
1011 ROM
1012 RAM
1020 CPU
1030 ハードディスクドライブインタフェース
1031 ハードディスクドライブ
1040 ディスクドライブインタフェース
1041 ディスクドライブ
1050 シリアルポートインタフェース
1051 マウス
1052 キーボード
1060 ビデオアダプタ
1061 ディスプレイ
1070 ネットワークインタフェース
1080 バス
1091 OS
1092 アプリケーションプログラム
1093 プログラムモジュール
1094 プログラムデータ
DESCRIPTION OF SYMBOLS 10 Information processing apparatus 11 Communication control part 12 Input part 13 Display part 14 Memory | storage part 14a Word DB
14b Video DB
DESCRIPTION OF SYMBOLS 15 Control part 16 Text editing part 17 Conversion part 18 Image specification part 19 Image selection part 20 Character addition part 1000 Computer 1010 Memory 1011 ROM
1012 RAM
1020 CPU
1030 Hard disk drive interface 1031 Hard disk drive 1040 Disk drive interface 1041 Disk drive 1050 Serial port interface 1051 Mouse 1052 Keyboard 1060 Video adapter 1061 Display 1070 Network interface 1080 Bus 1091 OS
1092 Application program 1093 Program module 1094 Program data

Claims (5)

入力領域において文字の入力を受け付ける受付ステップと、
静止画像あるいは動画像である映像情報と当該映像情報の内容を特徴付ける少なくとも1つの文字とを対応付けて記憶する記憶部から、前記受付ステップによって受け付けられた文字に対応付けられる映像情報を選択する選択ステップと、
前記選択ステップによって選択された映像情報に対応付けられる文字のうち、前記受付ステップによって受け付けられた文字以外の文字を、前記入力領域に、前記受け付けられた文字に続けて追加する追加ステップと、
をコンピュータに実行させることを特徴とする文字追加プログラム。
A reception step for receiving input of characters in the input area;
Selection for selecting video information associated with the character accepted by the accepting step from a storage unit that associates and stores video information that is a still image or a moving image and at least one character that characterizes the content of the video information Steps,
An adding step of adding characters other than the characters received by the receiving step among the characters associated with the video information selected by the selecting step to the input area following the received characters;
A character addition program that causes a computer to execute.
前記受付ステップは、文書の作成にあたって前記入力領域に入力される文字を受け付け、
前記選択ステップは、前記記憶部に格納される映像情報の中から前記文書のイメージと一致する映像情報を選択することを特徴とする請求項1に記載の文字追加プログラム。
The accepting step accepts characters input in the input area in creating a document,
The character addition program according to claim 1, wherein the selection step selects video information that matches an image of the document from video information stored in the storage unit.
前記選択ステップは、前記文字に対応付けられる映像情報をユーザに表示し、前記文書のイメージと一致する映像情報の選択を前記ユーザから受け付けることを特徴とする請求項2に記載の文字追加プログラム。   The character addition program according to claim 2, wherein the selection step displays video information associated with the character to the user and accepts selection of video information that matches the image of the document from the user. 情報処理装置で実行される文字追加方法であって、
入力領域において文字の入力を受け付ける受付工程と、
静止画像あるいは動画像である映像情報と当該映像情報の内容を特徴付ける少なくとも1つの文字とを対応付けて記憶する記憶部から、前記受付工程によって受け付けた文字に対応付けられる映像情報を選択する選択工程と、
前記選択工程によって選択された映像情報に対応付けられる文字のうち、前記受付工程によって受け付けられた文字以外の文字を、前記入力領域に、前記受け付けられた文字に続けて追加する追加工程と、
を含んだことを特徴とする文字追加方法。
A character addition method executed by an information processing apparatus,
A reception process for receiving input of characters in the input area;
A selection step of selecting video information associated with the character received in the reception step from a storage unit that stores video information that is a still image or a moving image and at least one character that characterizes the content of the video information in association with each other. When,
Of the characters associated with the video information selected by the selection step, an addition step of adding characters other than the characters accepted by the acceptance step to the input area following the accepted characters;
Character addition method characterized by including.
入力領域において文字の入力を受け付ける受付部と、
静止画像あるいは動画像である映像情報と当該映像情報の内容を特徴付ける少なくとも1つの文字とを対応付けて記憶する記憶部から、前記受付部によって受け付けた文字に対応付けられる映像情報を選択する選択部と、
前記選択部によって選択された映像情報に対応付けられる文字のうち、前記受付部によって受け付けられた文字以外の文字を、前記入力領域に、前記受け付けられた文字に続けて追加する追加部と、
を有することを特徴とする情報処理装置。
A reception unit for receiving input of characters in the input area;
A selection unit that selects video information associated with the character received by the reception unit from a storage unit that stores video information that is a still image or a moving image and at least one character that characterizes the content of the video information. When,
Of the characters associated with the video information selected by the selection unit, an addition unit that adds characters other than the characters received by the reception unit to the input area following the received characters;
An information processing apparatus comprising:
JP2012220451A 2012-10-02 2012-10-02 Character addition program, character addition method, and information processing apparatus Expired - Fee Related JP5893541B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012220451A JP5893541B2 (en) 2012-10-02 2012-10-02 Character addition program, character addition method, and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012220451A JP5893541B2 (en) 2012-10-02 2012-10-02 Character addition program, character addition method, and information processing apparatus

Publications (2)

Publication Number Publication Date
JP2014074941A true JP2014074941A (en) 2014-04-24
JP5893541B2 JP5893541B2 (en) 2016-03-23

Family

ID=50749076

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012220451A Expired - Fee Related JP5893541B2 (en) 2012-10-02 2012-10-02 Character addition program, character addition method, and information processing apparatus

Country Status (1)

Country Link
JP (1) JP5893541B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005115721A (en) * 2003-10-09 2005-04-28 Nippon Telegr & Teleph Corp <Ntt> Method, device and program for searching for image
JP2009135715A (en) * 2007-11-29 2009-06-18 Sharp Corp Content activation portable terminal device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005115721A (en) * 2003-10-09 2005-04-28 Nippon Telegr & Teleph Corp <Ntt> Method, device and program for searching for image
JP2009135715A (en) * 2007-11-29 2009-06-18 Sharp Corp Content activation portable terminal device

Also Published As

Publication number Publication date
JP5893541B2 (en) 2016-03-23

Similar Documents

Publication Publication Date Title
WO2020029689A1 (en) Data processing model construction method and device, server and client
US9747556B2 (en) Automated customized web portal template generation systems and methods
US9053180B2 (en) Identifying common data objects representing solutions to a problem in different disciplines
WO2018072071A1 (en) Knowledge map building system and method
WO2020237872A1 (en) Method and apparatus for testing accuracy of semantic analysis model, storage medium, and device
JP2018509664A (en) Model generation method, word weighting method, apparatus, device, and computer storage medium
US9542474B2 (en) Forensic system, forensic method, and forensic program
JP2019032704A (en) Table data structuring system and table data structuring method
JP5876396B2 (en) Information collection program, information collection method, and information processing apparatus
JP6898542B2 (en) Information processing device, its control method, and program
US20110202826A1 (en) Document creation support apparatus and document creation supporting method that create document data by quoting data from other document data, and storage medium
JP2009199302A (en) Program, device, and method for analyzing document
KR20170008357A (en) System for Translating Using Crowd Sourcing, Server and Method for Web toon Language Automatic Translating
JP2010272075A (en) Emotional information extraction device, emotion retrieval device, method thereof, and program
JP5876397B2 (en) Character assigning program, character assigning method, and information processing apparatus
JP5112027B2 (en) Document group presentation device and document group presentation program
JP5893541B2 (en) Character addition program, character addition method, and information processing apparatus
JP2016162357A (en) Analysis device and program of user&#39;s emotion to product
US7240050B2 (en) Methods and apparatus for generating automated graphics using stored graphics examples
WO2018150453A1 (en) Data analyzer and data analysis method
US9990444B2 (en) Apparatus and method for supporting visualization of connection relationship
CN106557564A (en) A kind of object data analysis method and device
KR20090088522A (en) Method and system for searching prior arts
JP6496078B2 (en) Analysis support device, analysis support method, and analysis support program
US8943074B2 (en) Generating and displaying an image tour in response to a user search query

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150204

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20151001

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20151005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160223

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160224

R150 Certificate of patent or registration of utility model

Ref document number: 5893541

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees