JP7077585B2 - Information processing systems, information processing equipment and programs - Google Patents

Information processing systems, information processing equipment and programs Download PDF

Info

Publication number
JP7077585B2
JP7077585B2 JP2017220118A JP2017220118A JP7077585B2 JP 7077585 B2 JP7077585 B2 JP 7077585B2 JP 2017220118 A JP2017220118 A JP 2017220118A JP 2017220118 A JP2017220118 A JP 2017220118A JP 7077585 B2 JP7077585 B2 JP 7077585B2
Authority
JP
Japan
Prior art keywords
information
image
fragment data
search
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017220118A
Other languages
Japanese (ja)
Other versions
JP2019091290A (en
Inventor
一行 扇
友史 高木
英俊 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2017220118A priority Critical patent/JP7077585B2/en
Publication of JP2019091290A publication Critical patent/JP2019091290A/en
Application granted granted Critical
Publication of JP7077585B2 publication Critical patent/JP7077585B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、情報処理システム、情報処理装置およびプログラムに関する。 The present invention relates to an information processing system, an information processing device and a program.

様々な場面で映像や音声等の様々な電子データが収集され、データベースに蓄積することが行われている。例えば、下記特許文献1には、動画像データを構成する1以上のシーンの各々に対応した検索情報を利用して、所望の画像を検索するための動画像検索装置が開示されている。同文献に示される先行技術において、動画像データには検索情報が対応付けられており、検索情報は、シーンを空間的に分割することにより得られる複数の空間分割ブロックを単位とする要約情報を含む。空間分割ブロック単位の要約情報は、空間分割ブロック内の動画像データに基づいて算出される画像特性を示した数値情報であり、かつシーン内での相対値で与えられる。動画像検索装置は、検索情報を読出して管理するための情報管理手段と外部から与えられる第1の検索要求に応答して、情報管理手段から検索情報に含まれる空間分割ブロック単位の要約情報を受け取り空間分割ブロック単位の要約情報を用いて第1の検索要求に合致するシーンを検索するための第1のシーン検索手段を含む。 Various electronic data such as video and audio are collected and stored in a database in various situations. For example, Patent Document 1 below discloses a moving image search device for searching a desired image by using search information corresponding to each of one or more scenes constituting moving image data. In the prior art shown in the same document, search information is associated with moving image data, and the search information is summary information in units of a plurality of spatially divided blocks obtained by spatially dividing the scene. include. The summary information for each spatial division block is numerical information indicating image characteristics calculated based on the moving image data in the spatial division block, and is given as a relative value in the scene. The moving image search device responds to an information management means for reading and managing the search information and a first search request given from the outside, and the information management means obtains summary information in units of spatial division blocks included in the search information. It includes a first scene search means for searching a scene that matches the first search request by using the summary information of the receiving space division block unit.

特許第4027662号公報Japanese Patent No. 4027662

ところで、物事に対する新たな発想は、断片的な情報の組み合わせから生まれることが多い。また、そのような断片的な情報に、意図的に選択された検索キーによる検索結果以外の情報が含まれることにより、固定観念的な着想にとらわれない発想を促すことが期待される。しかし、従来のデータ検索の方式では、蓄積されたデータから断片的な情報の組み合わせを抽出したり、意図的に選択された検索キーに該当しない情報を含む検索結果を提示したりすることはできない。 By the way, new ideas for things often come from a combination of fragmentary information. In addition, it is expected that such fragmentary information includes information other than the search results by the intentionally selected search key, thereby encouraging ideas that are not bound by stereotyped ideas. However, with the conventional data search method, it is not possible to extract a combination of fragmentary information from the accumulated data or present search results containing information that does not correspond to the intentionally selected search key. ..

本発明は、取得される情報に基づいてかかる情報に関連する断片的な情報を検索して提示するシステムを提供することを目的とする。 It is an object of the present invention to provide a system for searching and presenting fragmentary information related to such information based on the acquired information.

請求項1に係る本発明は、
少なくとも画像および音声が含まれる情報を解析して抽出された特徴情報に基づき当該情報を分解して得られた断片データを格納したデータベースと、
少なくとも画像および音声を含む情報を、特定の条件に従って継続的に取得する情報取得手段と、
前記情報取得手段により継続的に取得される情報を順次解析して特徴情報を抽出する特徴情報抽出手段と、
前記特徴情報抽出手段により抽出された前記特徴情報を順次検索キーに加えて前記データベースを検索する検索手段と、
前記検索手段による検索結果を出力する出力手段と、
を備えることを特徴とする、情報処理システムである。
請求項2に係る本発明は、
前記出力手段は、前記検索手段による検索結果として得られた断片データを加工し、当該断片データおよび当該断片データの特徴情報に応じて予め定められた態様で当該断片データに基づく情報画像を生成し、表示装置に表示させることを特徴とする、請求項1に記載の情報処理システムである。
請求項3に係る本発明は、
前記出力手段は、前記検索手段による検索が行われるたびに検索結果の断片データに基づく前記情報画像を生成し、生成した当該情報画像を、既に表示されている情報画像と共に順次表示させることを特徴とする請求項2に記載の情報処理システムである。
請求項4に係る本発明は、
前記出力手段は、前記表示装置の画面上に起点位置を設定し、新規に前記情報画像を表示する際に、新規の当該情報画像を当該起点位置に表示し、既に表示されている情報画像を現在位置よりも当該起点位置から遠い位置に移動させることを特徴とする請求項3に記載の情報処理システムである。
請求項5に係る本発明は、
前記表示装置に表示された前記情報画像の選択を受け付ける受け付け手段をさらに備え、
前記出力手段は、選択された前記情報画像に対応する前記断片データの加工前の断片データによる出力を行うことを特徴とする請求項2に記載の情報処理システムである。
請求項6に係る本発明は、
前記検索手段は、選択された前記情報画像に対応する前記断片データに関連付けられた断片データを検索し、得られた断片データによる出力をさらに行うことを特徴とする請求項5に記載の情報処理システムである。
請求項7に係る本発明は、
前記検索手段は、後に抽出された前記特徴情報ほど大きい重みを与えて検索キーとして用いることを特徴とする、請求項1に記載の情報処理システムである。
請求項8に係る本発明は、
前記検索手段は、抽出された前記特徴情報が予め定められた開始条件を満足する場合に、当該特徴情報を検索キーとして前記データベースの検索を開始することを特徴とする、請求項1に記載の情報処理システムである。
請求項9に係る本発明は、
前記検索手段は、前記特徴情報として、場所を特定する情報、時間を特定する情報、人を特定する情報のうち少なくとも二つが抽出されたことを前記開始条件として、前記データベースの検索を開始することを特徴とする、請求項8に記載の情報処理システムである。
請求項10に係る本発明は、
前記特徴情報抽出手段により抽出された前記特徴情報に基づいて前記情報取得手段により取得された情報を分解して断片データを生成し、生成した当該断片データを前記データベースに格納するデータ処理手段をさらに備えることを特徴とする、請求項1に記載の情報処理システムである。
請求項11に係る本発明は、
前記データ処理手段は、一の情報を分解して生成した複数の前記断片データを互いに関連付けて前記データベースに格納することを特徴とする、請求項10に記載の情報処理システムである。
請求項12に係る本発明は、
前記特徴情報抽出手段は、前記特徴情報として、取得された情報に関連付けられる人物を特定する情報を抽出し、
前記データ処理手段は、前記特徴情報として抽出された人物ごとに前記断片データを分類して前記データベースに格納することを特徴とする、請求項11に記載の情報処理システムである。
請求項13に係る本発明は、
少なくとも画像および音声が含まれる情報を解析して抽出された特徴情報に基づき当該情報を分解して得られた断片データを格納したデータベースから、少なくとも画像および音声が含まれる情報を特定の条件に従って継続的に取得すると共に当該情報を順次解析して特徴情報を抽出し、抽出した当該特徴情報を順次検索キーに加えて検索して得られた断片データを順次取得する取得手段と、
取得した前記断片データの特徴情報に基づいて当該断片データを加工して、当該特徴情報に関連する部分を表す情報画像を生成する画像生成手段と、
前記画像生成手段により生成された前記情報画像を、前記断片データおよび当該断片データの特徴情報に応じて予め定められた態様で表示する表示手段と、
を備えることを特徴とする、情報処理装置である。
請求項14に係る本発明は、
前記表示手段は、前記取得手段により検索結果の前記断片データが取得されるたびに、当該断片データに基づいて前記画像生成手段により生成された前記情報画像を、既に表示されている情報画像と共に順次表示することを特徴とする、請求項13に記載の情報処理装置である。
請求項15に係る本発明は、
前記表示手段は、画面上に起点位置を設定し、新規に前記情報画像を表示する際に、新規の当該情報画像を当該起点位置に表示し、既に表示されている情報画像を現在位置よりも当該起点位置から遠い位置に移動させることを特徴とする、請求項14に記載の情報処理装置である。
請求項16に係る本発明は、
前記表示手段は、複数の検索キーに合致して検出された前記断片データに関して、合致した検索キーの数に応じて前記情報画像の表示サイズを制御することを特徴とする、請求項13に記載の情報処理装置である。
請求項17に係る本発明は、
前記表示手段は、前記情報画像の表示サイズに応じて、当該情報画像に表示される前記断片データの部分の表示倍率を制御することを特徴とする、請求項16に記載の情報処理装置である。
請求項18に係る本発明は、
前記表示手段は、特定の人物との関連を示す情報を検索キーとして検出された前記断片データに基づく前記情報画像の表示に関して、人物ごとに特定された特定表示を行うことを特徴とする、請求項13に記載の情報処理装置である。
請求項19に係る本発明は、
表示された前記情報画像の選択を受け付ける受け付け手段をさらに備え、
前記表示手段は、選択された前記情報画像に対応する前記断片データに基づいて、当該断片データに基づくコンテンツ表示を行うことを特徴とする、請求項13に記載の情報処理装置である。
請求項20に係る本発明は、
前記取得手段は、選択された前記情報画像に対応する前記断片データに関連する断片データを取得し、
前記表示手段は、取得された前記関連する断片データに基づくコンテンツ表示を行うことを特徴とする、請求項19に記載の情報処理装置である。
請求項21に係る本発明は、
コンピュータを、
少なくとも画像および音声が含まれる情報を解析して抽出された特徴情報に基づき当該情報を分解して得られた断片データを格納したデータベースから、少なくとも画像および音声が含まれる情報を特定の条件に従って継続的に取得すると共に当該情報を順次解析して特徴情報を抽出し、抽出した当該特徴情報を順次検索キーに加えて検索して得られた断片データを順次取得する取得手段と、
取得した前記断片データの特徴情報に基づいて当該断片データを加工して、当該特徴情報に関連する部分を表す情報画像を生成する画像生成手段と、
前記画像生成手段により生成された前記情報画像を、前記断片データおよび当該断片データの特徴情報に応じて予め定められた態様で表示装置に表示させる表示制御手段として、
機能させることを特徴とする、プログラムである。
The present invention according to claim 1 is
A database that stores fragmentary data obtained by decomposing the information based on the feature information extracted by analyzing at least the information including images and sounds.
An information acquisition means that continuously acquires information including at least images and sounds according to specific conditions .
A feature information extraction means that sequentially analyzes information continuously acquired by the information acquisition means to extract feature information, and a feature information extraction means.
A search means for searching the database by sequentially adding the feature information extracted by the feature information extraction means to the search key,
An output means for outputting the search result by the search means and
It is an information processing system characterized by being equipped with.
The present invention according to claim 2 is
The output means processes the fragment data obtained as a search result by the search means, and generates an information image based on the fragment data in a predetermined manner according to the fragment data and the feature information of the fragment data. The information processing system according to claim 1, wherein the information processing system is displayed on a display device.
The present invention according to claim 3 is
The output means is characterized in that each time a search is performed by the search means, the information image based on the fragment data of the search result is generated, and the generated information image is sequentially displayed together with the already displayed information image. The information processing system according to claim 2.
The present invention according to claim 4
The output means sets a starting point position on the screen of the display device, and when newly displaying the information image, the new information image is displayed at the starting point position, and the already displayed information image is displayed. The information processing system according to claim 3, wherein the information processing system is moved to a position farther from the starting point position than the current position.
The present invention according to claim 5 is
Further provided with a receiving means for accepting the selection of the information image displayed on the display device.
The information processing system according to claim 2, wherein the output means outputs the fragment data corresponding to the selected information image by the fragment data before processing.
The present invention according to claim 6 is
The information processing according to claim 5, wherein the search means searches for fragment data associated with the fragment data corresponding to the selected information image, and further outputs the obtained fragment data. It is a system.
The present invention according to claim 7 is
The information processing system according to claim 1 , wherein the search means is used as a search key by giving a larger weight to the feature information extracted later.
The present invention according to claim 8 is
The first aspect of claim 1 , wherein the search means starts searching the database using the feature information as a search key when the extracted feature information satisfies a predetermined start condition. It is an information processing system.
The present invention according to claim 9 is
The search means starts the search of the database on the condition that at least two of the information specifying the place, the information specifying the time, and the information specifying the person are extracted as the feature information. The information processing system according to claim 8 , wherein the information processing system is characterized by the above.
The present invention according to claim 10
Further, a data processing means for decomposing the information acquired by the information acquisition means based on the feature information extracted by the feature information extraction means to generate fragment data and storing the generated fragment data in the database. The information processing system according to claim 1, wherein the information processing system is provided.
The present invention according to claim 11
The information processing system according to claim 10 , wherein the data processing means is characterized in that a plurality of the fragment data generated by decomposing one piece of information are associated with each other and stored in the database.
The present invention according to claim 12
The feature information extracting means extracts, as the feature information, information that identifies a person associated with the acquired information.
The information processing system according to claim 11 , wherein the data processing means classifies the fragment data for each person extracted as the feature information and stores the fragment data in the database.
The present invention according to claim 13 is
At least the information including image and sound is continued according to specific conditions from the database storing the fragment data obtained by decomposing the information based on the feature information extracted by analyzing the information including at least image and sound. The acquisition means for sequentially acquiring the fragment data obtained by sequentially analyzing the information and extracting the feature information , adding the extracted feature information to the search key in sequence , and searching.
An image generation means that processes the fragment data based on the acquired feature information of the fragment data to generate an information image representing a portion related to the feature information.
A display means for displaying the information image generated by the image generation means in a predetermined manner according to the fragment data and the feature information of the fragment data .
It is an information processing apparatus characterized by being provided with.
The present invention according to claim 14
Each time the fragment data of the search result is acquired by the acquisition means, the display means sequentially displays the information image generated by the image generation means based on the fragment data together with the already displayed information image. The information processing apparatus according to claim 13 , wherein the information processing apparatus is displayed.
The present invention according to claim 15
The display means sets a starting point position on the screen, and when newly displaying the information image, the new information image is displayed at the starting point position, and the already displayed information image is displayed at a position higher than the current position. The information processing apparatus according to claim 14 , wherein the information processing apparatus is moved to a position far from the starting point position.
The present invention according to claim 16
13. The display means according to claim 13 , wherein the display means controls the display size of the information image according to the number of matched search keys for the fragment data detected by matching a plurality of search keys. Information processing device.
The present invention according to claim 17 is
The information processing apparatus according to claim 16 , wherein the display means controls the display magnification of a portion of the fragment data displayed on the information image according to the display size of the information image. ..
The present invention according to claim 18 is
The display means is characterized in that it performs a specific display specified for each person with respect to the display of the information image based on the fragment data detected by using the information indicating the relationship with the specific person as a search key. Item 13 is the information processing apparatus.
The present invention according to claim 19
Further provided with a receiving means for accepting the selection of the displayed information image,
The information processing apparatus according to claim 13 , wherein the display means displays contents based on the fragment data based on the fragment data corresponding to the selected information image.
The present invention according to claim 20
The acquisition means acquires fragment data related to the fragment data corresponding to the selected information image, and obtains the fragment data.
The information processing apparatus according to claim 19 , wherein the display means displays contents based on the acquired related fragment data.
The present invention according to claim 21
Computer,
At least the information including image and sound is continued according to specific conditions from the database storing the fragment data obtained by decomposing the information based on the feature information extracted by analyzing the information including at least image and sound. The acquisition means for sequentially acquiring the fragment data obtained by sequentially analyzing the information and extracting the feature information , adding the extracted feature information to the search key in sequence , and searching.
An image generation means that processes the fragment data based on the acquired feature information of the fragment data to generate an information image representing a portion related to the feature information.
As a display control means for displaying the information image generated by the image generation means on a display device in a predetermined manner according to the fragment data and the feature information of the fragment data .
It is a program characterized by making it function.

請求項1の発明によれば、ユーザが意図した検索キーを用いて検索を行う構成と比較して、継続的に取得される情報に基づいて、リアルタイムで、ユーザが意図しない情報を含む検索キーによる検索を行うことができる。
請求項2の発明によれば、検索結果を単に出力する構成と比較して、検索に寄与した情報をユーザに認識させることができる。
請求項3の発明によれば、検索を行うたびに以前の検索結果を新たな検索結果に置き換える構成と比較して、継続的に行われた検索の結果を俯瞰的に参照することができる。
請求項4の発明によれば、検索を行うたびに以前の検索結果を新たな検索結果に置き換える構成と比較して、継続的に行われた検索の結果を時系列に沿って把握することが容易である。
請求項5の発明によれば、検索結果を単に出力する構成と比較して、ユーザにより選択された検索結果の情報に特定して情報の詳細を確認することができる。
請求項6の発明によれば、検索結果を単に出力する構成と比較して、ユーザが着目した検索結果に関連する情報を取得することができる。
請求項7の発明によれば、ユーザが意図した検索キーを用いて検索を行う構成と比較して、時間の経過と共に追加される情報のうち、新しい情報を重視して関連情報を検索することができる。
請求項8の発明によれば、単に取得された情報から得られる情報を検索キーとして検索を行う構成と比較して、検索条件に絞り込みをかけることができる。
請求項9の発明によれば、単に取得された情報から得られる情報を検索キーとして検索を行う構成と比較して、検索条件に関して場所、時間および人のいずれかによる絞り込みをかけることができる。
請求項10の発明によれば、単に検索のみを行う構成と比較して、検索キーを得るために取得した情報をデータベースに蓄積し、後の検索において検索される情報に含むことができる。
請求項11の発明によれば、単に取得した情報をそのままデータベースに蓄積する構成や、分解してデータベースに蓄積する構成と比較して、取得した情報を分解して検索対象となる個々のデータに関して余計な情報を除くと共に、検索において取得した情報から得られる特徴情報だけでは辿り得ない情報に対して同じ元情報から分解されたという関連に基づいて辿ることが可能となるため、検索制度の向上を図ることができる。
請求項12の発明によれば、単に取得した情報をそのままデータベースに蓄積する構成や、分解してデータベースに蓄積する構成と比較して、検索結果の情報に関連する人物を識別することができる。
請求項13の発明によれば、ユーザが意図した検索キーを用いて検索を行う構成と比較して、取得された情報に関連する情報を、ユーザが意図しない情報を含む検索キーにより検索することができると共に、検索に寄与した情報をユーザに認識させることができる。
請求項14の発明によれば、検索を行うたびに以前の検索結果を新たな検索結果に置き換える構成と比較して、継続的に行われた検索の結果を俯瞰的に参照することができる。
請求項15の発明によれば、検索を行うたびに以前の検索結果を新たな検索結果に置き換える構成と比較して、継続的に行われた検索の結果を時系列に沿って把握することが容易である。
請求項16の発明によれば、検索結果を単に出力する構成と比較して、複数の検索キーに対する一致度を直感的に把握することができる。
請求項17の発明によれば、検索結果を単に出力する構成と比較して、検索結果である情報における特徴部分の認識を容易にすることができる。
請求項18の発明によれば、単に取得した情報をそのままデータベースに蓄積する構成や、分解してデータベースに蓄積する構成と比較して、検索結果の情報に関連する人物を識別することができる。
請求項19の発明によれば、検索結果を単に出力する構成と比較して、ユーザにより選択された検索結果の情報に特定して情報の詳細を確認することができる。
請求項20の発明によれば、検索結果を単に出力する構成と比較して、ユーザが着目した検索結果に関連する情報を取得することができる。
請求項21の発明によれば、ユーザが意図した検索キーを用いて検索を行う構成と比較して、本発明のプログラムをインストールしたコンピュータにおいて、取得された情報に関連する情報を、ユーザが意図しない情報を含む検索キーにより検索することができると共に、検索に寄与した情報をユーザに認識させることができる。
According to the first aspect of the present invention, a search key including information not intended by the user is included in real time based on continuously acquired information as compared with a configuration in which a search is performed using the search key intended by the user. You can search by .
According to the second aspect of the present invention, the user can be made to recognize the information contributing to the search as compared with the configuration in which the search result is simply output.
According to the third aspect of the present invention, the result of the continuously performed search can be referred to from a bird's-eye view as compared with the configuration in which the previous search result is replaced with the new search result each time the search is performed.
According to the invention of claim 4, it is possible to grasp the results of continuously performed searches in chronological order by comparing with a configuration in which the previous search results are replaced with new search results each time a search is performed. It's easy.
According to the fifth aspect of the present invention, the details of the information can be confirmed by specifying the information of the search result selected by the user as compared with the configuration in which the search result is simply output.
According to the sixth aspect of the present invention, it is possible to acquire information related to the search result of interest by the user as compared with a configuration in which the search result is simply output.
According to the invention of claim 7 , as compared with the configuration in which the search is performed using the search key intended by the user, among the information added with the passage of time, the new information is emphasized and the related information is searched. Can be done.
According to the eighth aspect of the present invention, the search conditions can be narrowed down as compared with the configuration in which the search is performed using the information obtained from the acquired information as the search key.
According to the invention of claim 9 , it is possible to narrow down the search conditions by any of place, time and person, as compared with the configuration in which the information obtained from the acquired information is used as the search key for the search.
According to the tenth aspect of the present invention, as compared with the configuration in which only the search is performed, the information acquired for obtaining the search key can be stored in the database and included in the information to be searched in a later search.
According to the invention of claim 11 , the acquired information is decomposed and the individual data to be searched is compared with the configuration in which the acquired information is simply stored in the database as it is or the configuration in which the acquired information is decomposed and stored in the database. Improvement of the search system because it is possible to remove unnecessary information and trace information that cannot be traced only by the feature information obtained from the information acquired in the search based on the relation that the same original information is decomposed. Can be planned.
According to the invention of claim 12 , a person related to the information of the search result can be identified by comparing with a configuration in which the acquired information is simply stored in the database as it is or a configuration in which the acquired information is decomposed and stored in the database.
According to the thirteenth aspect of the present invention, the information related to the acquired information is searched by the search key including the information not intended by the user, as compared with the configuration in which the search is performed by using the search key intended by the user. At the same time, it is possible to make the user recognize the information that contributed to the search.
According to the invention of claim 14 , it is possible to refer to the result of the continuously performed search from a bird's-eye view as compared with the configuration in which the previous search result is replaced with the new search result each time the search is performed.
According to the invention of claim 15 , it is possible to grasp the results of continuously performed searches in chronological order as compared with a configuration in which the previous search results are replaced with new search results each time a search is performed. It's easy.
According to the invention of claim 16 , it is possible to intuitively grasp the degree of matching for a plurality of search keys as compared with the configuration in which the search result is simply output.
According to the invention of claim 17 , it is possible to facilitate the recognition of the feature portion in the information which is the search result, as compared with the configuration which simply outputs the search result.
According to the invention of claim 18 , a person related to the information of the search result can be identified by comparing with a configuration in which the acquired information is simply stored in the database as it is or a configuration in which the acquired information is decomposed and stored in the database.
According to the invention of claim 19 , the details of the information can be confirmed by specifying the information of the search result selected by the user as compared with the configuration in which the search result is simply output.
According to the invention of claim 20 , it is possible to acquire the information related to the search result of interest by the user as compared with the configuration of simply outputting the search result.
According to the invention of claim 21 , the user intends to obtain information related to the acquired information in the computer in which the program of the present invention is installed, as compared with the configuration in which the search is performed using the search key intended by the user. It is possible to search by a search key that includes information that does not exist, and to make the user recognize the information that contributed to the search.

本実施形態による情報処理システムの全体構成を示す図である。It is a figure which shows the whole structure of the information processing system by this embodiment. サーバの機能構成を示す図である。It is a figure which shows the functional structure of a server. パーソナルコンピュータ(PC)の機能構成を示す図である。It is a figure which shows the functional structure of a personal computer (PC). サーバとして用いられるコンピュータおよびパーソナルコンピュータ(PC)のハードウェア構成例を示す図である。It is a figure which shows the hardware configuration example of the computer and the personal computer (PC) used as a server. パーソナルコンピュータ(PC)の表示部の表示画面であって、関連情報画像が表示される関連情報画像表示画面の構成例を示す図である。It is a display screen of the display part of the personal computer (PC), and is the figure which shows the configuration example of the related information image display screen which displays the related information image. パーソナルコンピュータ(PC)の表示制御部による関連情報画像表示画面の制御例を示す図であり、図6(A)は起点画像のみが表示された状態を示す図、図6(B)は起点画像の位置に関連情報画像が表示された状態を示す図、図6(C)は関連情報画像が起点画像から離れた状態を示す図、図6(D)は起点画像の位置に次の関連情報画像が追加表示された状態を示す図、図6(E)は次の関連情報画像が起点画像から離れた状態を示す図、図6(F)は関連情報画像I-30が追加表示され、さらに起点画像SPから離れた状態を示す図である。It is a figure which shows the control example of the related information image display screen by the display control part of a personal computer (PC), FIG. 6A is a figure which shows the state which only the origin image is displayed, and FIG. 6B is the origin image. FIG. 6C is a diagram showing a state in which the related information image is displayed at the position of, FIG. 6C is a diagram showing a state in which the related information image is separated from the starting point image, and FIG. 6D is the following related information at the position of the starting point image. A diagram showing a state in which an image is additionally displayed, FIG. 6 (E) is a diagram showing a state in which the next related information image is separated from the starting image, and FIG. 6 (F) is a diagram showing a state in which the related information image I-30 is additionally displayed. It is a figure which shows the state further away from the origin image SP. 関連情報画像の表示内容の例を示す図である。It is a figure which shows the example of the display content of the related information image. 関連情報画像に対する操作による画面の表示の切り替えの例を示す図である。It is a figure which shows the example of switching the display of a screen by an operation with respect to a related information image. 関連情報画像に対する操作による画面の表示の切り替えの他の例を示す図である。Related information It is a figure which shows another example of switching the display of a screen by an operation with respect to an image. 関連断片データに基づく情報画像の表示例を示す図であり、図10(A)は図9に示した表示態様とは異なる第1の表示態様を示し、図10(B)は第2の表示態様を示す図である。10 (A) is a diagram showing a display example of an information image based on related fragment data, FIG. 10 (A) shows a first display mode different from the display mode shown in FIG. 9, and FIG. 10 (B) shows a second display mode. It is a figure which shows the aspect. 関連情報画像表示画面において操作メニューの表示が行われた様子を示す図である。It is a figure which shows the state that the operation menu was displayed on the related information image display screen. 本実施形態の情報処理システムの適用例を示す図である。It is a figure which shows the application example of the information processing system of this embodiment.

以下、添付図面を参照して、本発明の実施の形態について詳細に説明する。
<システム構成>
図1は、本実施形態による情報処理システムの全体構成を示す図である。情報処理システム100は、情報収集手段としてのカメラ111と、マイクロフォン112と、センサ113とを備える。また、情報処理システム100は、情報管理手段としてのサーバ120と、情報出力手段としてのパーソナル・コンピュータ(PC)130および表示装置140を備える。
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
<System configuration>
FIG. 1 is a diagram showing an overall configuration of an information processing system according to the present embodiment. The information processing system 100 includes a camera 111 as information collecting means, a microphone 112, and a sensor 113. Further, the information processing system 100 includes a server 120 as an information management means, a personal computer (PC) 130 as an information output means, and a display device 140.

カメラ111は、情報としての画像を取得する撮像装置である。カメラ111により取得された画像は、デジタル・データとしてサーバ120へ送られる。カメラ111により取得される画像は、動画および静止画の両方を含む。動画フォーマットによる動画データの他、一定時間ごとに撮影された時系列の静止画データの集合を取得する構成としても良い。カメラ111により取得された画像は、デジタル・データとしてサーバ120へ送られる。カメラ111としては、撮像対象や使用環境に応じて種々の構成のものを用いて良い。例えば、可搬型のカメラ(ハンディ・カメラ)であっても良いし、固定カメラであっても良い。また、周囲の広い空間の画像を取得する広角カメラや全周カメラ、特定の対象物や場所を様々な角度で撮影する複数のカメラ群等を用いても良い。さらに、取得される画像のデータ形式に着目すれば、デジタル画像として画像を取得するデジタル・カメラであっても良いし、アナログ画像として画像を取得するアナログ・カメラであっても良い。アナログ・カメラの場合、アナログ画像として取得された画像は、デジタル・データに変換して出力される。情報処理システム100における具体的なカメラ111の構成は、動画の収集が行われる環境や場面、使用可能な機器の制約等に応じて特定される。したがって、特定の環境や場面において、動画および静止画の一方のみが取得される場合もある。 The camera 111 is an image pickup device that acquires an image as information. The image acquired by the camera 111 is sent to the server 120 as digital data. The image acquired by the camera 111 includes both moving images and still images. In addition to the moving image data in the moving image format, a set of time-series still image data taken at regular time intervals may be acquired. The image acquired by the camera 111 is sent to the server 120 as digital data. As the camera 111, those having various configurations may be used depending on the image pickup target and the usage environment. For example, it may be a portable camera (handy camera) or a fixed camera. Further, a wide-angle camera or an all-around camera that acquires an image of a wide surrounding space, a group of a plurality of cameras that capture a specific object or place at various angles, or the like may be used. Further, paying attention to the data format of the acquired image, it may be a digital camera that acquires an image as a digital image, or an analog camera that acquires an image as an analog image. In the case of an analog camera, the image acquired as an analog image is converted into digital data and output. The specific configuration of the camera 111 in the information processing system 100 is specified according to the environment and scene in which the moving image is collected, the restrictions on the devices that can be used, and the like. Therefore, in a specific environment or scene, only one of a moving image and a still image may be acquired.

マイクロフォン112は、情報としての音(音響情報)を収録する録音装置である。マイクロフォン112としては、収録しようとする場所や音響情報の種類等に応じて種々の特性や構成を有するものを用いて良い。例えば、特定の人物の音声や特定の対象物の作動音を収録する場合は、音声や作動音の音域に合わせた音域特性を有し、指向性の高いマイクロフォン112が用いられる。また、会議の参加者の音声や環境音を収録する場合は、無指向性や指向性の低いマイクロフォン112が用いられる。マイクロフォン112により収録された音響情報は、デジタル・データとしてサーバ120へ送られる。また、マイクロフォン112自体の構成としては、固定マイクや集音マイク、個人が装着するピン・マイク、強い指向性を持つマイクロフォン・アレイ等、様々な構成を取り得る。情報処理システム100における具体的なマイクロフォン112の構成は、収録が行われる環境や場面、使用可能な機器の制約等に応じて特定される。 The microphone 112 is a recording device that records sound (acoustic information) as information. As the microphone 112, a microphone having various characteristics and configurations may be used depending on the place to be recorded, the type of acoustic information, and the like. For example, when recording the voice of a specific person or the operating sound of a specific object, a microphone 112 having a range characteristic matching the range of the voice or the operating sound and having high directivity is used. Further, when recording the voices and environmental sounds of the participants of the conference, the microphone 112 having low directivity or low directivity is used. The acoustic information recorded by the microphone 112 is sent to the server 120 as digital data. Further, as the configuration of the microphone 112 itself, various configurations such as a fixed microphone, a sound collecting microphone, a pin microphone worn by an individual, a microphone array having strong directivity, and the like can be adopted. The specific configuration of the microphone 112 in the information processing system 100 is specified according to the environment and scene in which recording is performed, restrictions on usable devices, and the like.

センサ113は、対象物や環境から様々な情報を物理量として検出する検出装置である。センサ113としては、検出しようとする情報の種類に応じて様々な種類のものを用いて良い。例えば、温度センサ、湿度センサ、照度センサ、速度センサ、振動センサ等が単体で、あるいは組み合わせて用いられる。そして、これらのセンサ113により、室温や部屋の明るさ等の環境情報、血圧や脈拍等の生体情報、対象物の位置や動作状態を特定する情報等の様々な情報が取得される。情報処理システム100における具体的なセンサ113の構成は、情報を取得しようとする対象や取得しようとする情報の種類に応じて特定される。センサ113により取得された情報は、デジタル・データとしてサーバ120へ送られる。 The sensor 113 is a detection device that detects various information as physical quantities from an object or the environment. As the sensor 113, various types may be used depending on the type of information to be detected. For example, a temperature sensor, a humidity sensor, an illuminance sensor, a speed sensor, a vibration sensor and the like are used alone or in combination. Then, various information such as environmental information such as room temperature and room brightness, biological information such as blood pressure and pulse, and information for specifying the position and operating state of the object are acquired by these sensors 113. The specific configuration of the sensor 113 in the information processing system 100 is specified according to the target for which information is to be acquired and the type of information to be acquired. The information acquired by the sensor 113 is sent to the server 120 as digital data.

なお、図1に示したカメラ111、マイクロフォン112およびセンサ113は、情報収集手段の一例に過ぎない。本実施形態では、情報を収集する場面や収集しようとする情報の種類等に応じて、カメラ111、マイクロフォン112およびセンサ113の全てを用いたり、いずれか一つまたは二つの手段を用いたりして、情報が収集される。また、カメラ111、マイクロフォン112およびセンサ113は、特定の条件にしたがって、継続的に情報を取得する。特定の条件とは、情報の取得を開始する条件および終了する条件である。具体的には、開始指示や終了指示の入力、時間的条件等が設定される。指示の入力を条件とする場合、カメラ111、マイクロフォン112およびセンサ113は、開始指示を受け付けて、情報を取得する動作(撮影や音声の収録等)を開始し、終了指示を受け付けて、情報を取得する動作を終了する。時間的条件に基づく場合、カメラ111、マイクロフォン112およびセンサ113は、予め定められた開始時刻になったならば、情報を取得する動作を開始し、予め定められた終了時刻になったならば、情報を取得する動作を終了する。また、情報を取得する動作を開始してから予め定められた時間を経過した時点で動作を終了するようにしても良い。 The camera 111, the microphone 112, and the sensor 113 shown in FIG. 1 are merely examples of information collecting means. In the present embodiment, all of the camera 111, the microphone 112, and the sensor 113 may be used, or any one or two means may be used, depending on the scene in which the information is collected, the type of information to be collected, and the like. , Information is collected. Further, the camera 111, the microphone 112 and the sensor 113 continuously acquire information according to specific conditions. The specific conditions are the conditions for starting and ending the acquisition of information. Specifically, input of start instruction and end instruction, time condition and the like are set. When inputting an instruction is a condition, the camera 111, the microphone 112, and the sensor 113 receive the start instruction, start the operation of acquiring information (shooting, recording voice, etc.), receive the end instruction, and output the information. End the acquisition operation. Based on time conditions, the camera 111, microphone 112, and sensor 113 start the operation of acquiring information when the predetermined start time is reached, and when the predetermined end time is reached, the camera 111, the microphone 112, and the sensor 113 start the operation of acquiring information. Ends the operation to acquire information. Further, the operation may be ended when a predetermined time has elapsed from the start of the operation for acquiring information.

サーバ120は、情報収集手段であるカメラ111、マイクロフォン112およびセンサ113により取得された情報(以下、取得情報)を管理する装置であると共に、蓄積された情報を検索して出力する情報処理装置である。サーバ120は、取得情報を解析して特徴情報を抽出し、抽出した特徴情報に基づいて取得情報を分解して断片データを生成する。そして、サーバ120は、生成した断片データをデータベースに格納し、特徴情報に基づいて管理する。また、サーバ120は、取得情報から抽出される特徴情報を検索キーとして、データベースに蓄積されている断片データを検索し、検索結果として得られた断片データを出力する。サーバ120は、カメラ111、マイクロフォン112およびセンサ113による情報の取得が継続的に行われている場合、これに伴って、取得情報の解析、断片データの蓄積、断片データの検索および出力等の処理を継続的に行うようにしても良い。なお、図1には、一つのサーバ120が示されているが、サーバ120は、単体のサーバマシンに限定されず、ネットワーク上に設けられた複数のサーバマシンに分散させてサーバ120の機能を実現しても良い(いわゆるクラウド環境等)。サーバ120の各機能、特徴情報および断片データの詳細については後述する。 The server 120 is a device that manages information acquired by the camera 111, the microphone 112, and the sensor 113 that are information collecting means (hereinafter referred to as acquired information), and is an information processing device that searches for and outputs the accumulated information. be. The server 120 analyzes the acquired information, extracts the feature information, decomposes the acquired information based on the extracted feature information, and generates fragment data. Then, the server 120 stores the generated fragment data in the database and manages it based on the feature information. Further, the server 120 searches the fragment data stored in the database using the feature information extracted from the acquired information as a search key, and outputs the fragment data obtained as the search result. When the server 120 continuously acquires information by the camera 111, the microphone 112, and the sensor 113, the server 120 performs processing such as analysis of acquired information, accumulation of fragment data, search and output of fragment data, and the like. May be done continuously. Although one server 120 is shown in FIG. 1, the server 120 is not limited to a single server machine, and the functions of the server 120 are distributed to a plurality of server machines provided on the network. It may be realized (so-called cloud environment, etc.). Details of each function, feature information, and fragment data of the server 120 will be described later.

PC130は、サーバ120において検索された断片データに基づく画像を表示すると共に、表示された画像に対する操作を受け付ける情報処理装置である。PC130は、サーバ120から断片データおよび断片データの特徴情報を取得する。そして、PC130は、取得した特徴情報に基づいて特定される態様で断片データに基づく情報画像を生成し、表示部(ディスプレイ)に表示させる。また、PC130は、表示部に表示された情報画像に対する操作を受け付ける。そして、PC130は、受け付けた操作の内容を表示部の表示に反映させたり、受け付けた操作に応じてサーバ120に要求を行ったりする。PC130としては、例えば、デスクトップ型やノートブック型のパーソナル・コンピュータの他、タブレット型情報端末やスマートフォン等の携帯情報端末を用いても良い。 The PC 130 is an information processing device that displays an image based on the fragment data searched by the server 120 and accepts an operation on the displayed image. The PC 130 acquires the fragment data and the feature information of the fragment data from the server 120. Then, the PC 130 generates an information image based on the fragment data in a mode specified based on the acquired feature information, and displays the information image on the display unit (display). Further, the PC 130 accepts an operation on the information image displayed on the display unit. Then, the PC 130 reflects the content of the received operation on the display of the display unit, and makes a request to the server 120 according to the received operation. As the PC 130, for example, in addition to a desktop type or notebook type personal computer, a tablet type information terminal or a mobile information terminal such as a smartphone may be used.

表示装置140は、サーバ120において検索された断片データに基づく画像を表示する出力装置である。表示装置140は、サーバ120から断片データおよび断片データの特徴情報を取得し、取得した特徴情報に基づいて特定される態様で断片データに基づく情報画像を生成し、表示する。表示装置140としては、例えば、液晶ディスプレイ等の種々のディスプレイ装置の他、スクリーンに画像を表示するプロジェクタ等を用いても良い。また、表示装置140にユーザの操作を受け付ける手段を設け、受け付けた操作の内容を表示に反映させたり、受け付けた操作に応じてサーバ120に要求を行ったりするように構成しても良い。例えば、操作手段として表示画面と一体のタッチ・パネルを設け、表示された情報画像にタッチして表示を変更させる等の直感的な操作を受け付けるようにしても良い。 The display device 140 is an output device that displays an image based on the fragment data searched by the server 120. The display device 140 acquires fragment data and feature information of fragment data from the server 120, and generates and displays an information image based on the fragment data in a mode specified based on the acquired feature information. As the display device 140, for example, in addition to various display devices such as a liquid crystal display, a projector or the like that displays an image on a screen may be used. Further, the display device 140 may be provided with a means for accepting the user's operation, and the contents of the accepted operation may be reflected in the display, or a request may be made to the server 120 in response to the accepted operation. For example, a touch panel integrated with the display screen may be provided as an operation means to accept intuitive operations such as touching the displayed information image to change the display.

なお、図1に示したPC130および表示装置140は、情報出力手段の一例に過ぎない。本実施形態では、サーバ120により検索された断片データによる情報を利用しようとする場面や設備等に応じて、様々な態様の情報出力手段を構成して良い。例えば、ユーザごとにPC130や表示装置140を用意し、各ユーザが自身の装置に表示される情報画像を閲覧するように構成しても良いし、一つのPC130や表示装置140を用意し、複数のユーザが一つの表示画面を閲覧するように構成しても良い。複数のユーザが一つの表示画面を閲覧する構成では、操作手段をタッチ・パネルとして、各ユーザが画面に直接タッチして操作するようにしても良いし、ユーザごとに用意された操作手段としての入力デバイスを用いて各ユーザが画面に触れずに操作するようにしても良い。 The PC 130 and the display device 140 shown in FIG. 1 are merely examples of information output means. In the present embodiment, various forms of information output means may be configured depending on the situation, equipment, and the like in which the information based on the fragment data searched by the server 120 is to be used. For example, a PC 130 or a display device 140 may be prepared for each user, and each user may be configured to view an information image displayed on his / her own device, or one PC 130 or a display device 140 may be prepared and a plurality of them. The user may be configured to view one display screen. In a configuration in which a plurality of users browse one display screen, the operation means may be used as a touch panel so that each user can directly touch the screen for operation, or as an operation means prepared for each user. Each user may operate using an input device without touching the screen.

図1に示すシステム構成において、カメラ111、マイクロフォン112およびセンサ113とサーバ120、サーバ120とPC130および表示装置140は、それぞれネットワークを介して接続されている。ネットワークは、各装置の間のデータ通信に用いられる通信ネットワークであれば特に限定されず、例えばLAN(Local Area Network)、WAN(Wide Area Network)、インターネット等として良い。データ通信に用いられる通信回線は、有線か無線かを問わず、これらを併用しても良い。また、ゲートウェイ装置やルータ等の中継装置を用い、複数のネットワークや通信回線を介して各装置を接続するように構成しても良い。一例としては、カメラ111、マイクロフォン112およびセンサ113とサーバ120とをインターネットにより接続し、サーバ120とPC130および表示装置140とをLANにより接続する構成が考えられる。 In the system configuration shown in FIG. 1, the camera 111, the microphone 112, the sensor 113 and the server 120, the server 120 and the PC 130, and the display device 140 are connected via a network, respectively. The network is not particularly limited as long as it is a communication network used for data communication between each device, and may be, for example, a LAN (Local Area Network), a WAN (Wide Area Network), the Internet, or the like. The communication line used for data communication may be a combination of these, regardless of whether it is wired or wireless. Further, a relay device such as a gateway device or a router may be used to connect each device via a plurality of networks or communication lines. As an example, a configuration is conceivable in which the camera 111, the microphone 112, the sensor 113, and the server 120 are connected by the Internet, and the server 120, the PC 130, and the display device 140 are connected by a LAN.

<サーバの機能構成>
図2は、サーバ120の機能構成を示す図である。サーバ120は、データ取得部121と、解析部122と、データ処理部123と、データベース124とを備える。また、サーバ120は、検索部125と、データ加工部126と、送受信部127とを備える。
<Server function configuration>
FIG. 2 is a diagram showing a functional configuration of the server 120. The server 120 includes a data acquisition unit 121, an analysis unit 122, a data processing unit 123, and a database 124. Further, the server 120 includes a search unit 125, a data processing unit 126, and a transmission / reception unit 127.

データ取得部121は、図1に示したカメラ111、マイクロフォン112およびセンサ113から送られた各種情報のデータを受け付ける情報取得手段である。データ取得部121が取得する情報には、少なくとも画像および音声が含まれる。カメラ111、マイクロフォン112およびセンサ113による情報の取得が継続的に行われる場合、データ取得部121も、カメラ111、マイクロフォン112およびセンサ113から送られるデータを継続的に受信する。また、上記の例では、継続的に情報を取得するために、カメラ111、マイクロフォン112およびセンサ113が特定の条件にしたがって動作することとした。これに対し、カメラ111、マイクロフォン112およびセンサ113は常時、情報を取得してデータをサーバ120へ送信し続け、データ取得部121が、特定の条件にしたがって継続的に情報を受け付けるように構成しても良い。 The data acquisition unit 121 is an information acquisition unit that receives data of various information sent from the camera 111, the microphone 112, and the sensor 113 shown in FIG. The information acquired by the data acquisition unit 121 includes at least images and sounds. When the information is continuously acquired by the camera 111, the microphone 112, and the sensor 113, the data acquisition unit 121 also continuously receives the data sent from the camera 111, the microphone 112, and the sensor 113. Further, in the above example, the camera 111, the microphone 112, and the sensor 113 are operated according to specific conditions in order to continuously acquire information. On the other hand, the camera 111, the microphone 112, and the sensor 113 are configured to constantly acquire information and continuously transmit the data to the server 120, and the data acquisition unit 121 continuously receives the information according to a specific condition. May be.

解析部122は、情報取得部121により受け付けられた取得情報を解析して特徴情報を抽出する特徴情報抽出手段である。特徴情報とは、取得情報のコンテンツ自体やその一部を特徴づける情報である。特徴情報としては、取得情報の内容から得られる情報や取得情報に関連して得られる情報が用いられる。解析部122は、データ取得部121により情報の取得が継続的に行われる場合、継続的に取得される取得情報を順次解析して特徴情報を抽出する。 The analysis unit 122 is a feature information extraction unit that analyzes the acquired information received by the information acquisition unit 121 and extracts the feature information. The feature information is information that characterizes the content itself or a part of the acquired information. As the feature information, information obtained from the contents of the acquired information and information obtained in relation to the acquired information are used. When the data acquisition unit 121 continuously acquires the information, the analysis unit 122 sequentially analyzes the continuously acquired acquisition information and extracts the feature information.

特徴情報としての、取得情報の内容から得られる情報は、取得情報の種類に応じて異なる。画像や音響情報など様々な形態の情報が取得情報として取得されるので、取得情報の内容から得られる特徴情報も、イメージを特定する情報、音を特定する情報、概念を特定するキーワード等、様々な形態の情報が抽出される。例えば、取得情報が画像であれば、被写体(人物、対象物)、画面内における被写体の場所、画面内に写った文字(テキスト情報)等を特徴情報として抽出し得る。これらの情報は、画像解析処理により得られる。さらに、画像が動画である場合、動画を再生した場合の時間的位置(例えば、動画の最初から再生して何分経過した時点で画面に現れる被写体か等)を特徴情報としても良い。 The information obtained from the content of the acquired information as the characteristic information differs depending on the type of the acquired information. Since various forms of information such as images and acoustic information are acquired as acquired information, the characteristic information obtained from the contents of the acquired information is also various, such as information that identifies an image, information that identifies a sound, and keywords that specify a concept. Information in various forms is extracted. For example, if the acquired information is an image, the subject (person, object), the location of the subject on the screen, the characters (text information) reflected on the screen, and the like can be extracted as feature information. This information is obtained by image analysis processing. Further, when the image is a moving image, the temporal position when the moving image is played back (for example, how many minutes have passed after the moving image is played back, the subject appears on the screen, etc.) may be used as the feature information.

また、取得情報が音響情報であれば、音響特性(大きさ、高さ、音色(波形))、音源の位置や方向、これらの変化、音声か否か等を特徴情報として抽出し得る。これらの情報は、音響解析処理により得られる。さらに、音響情報が音声である場合、音声解析を行って得られる発話内容、発話者の情報を特徴情報としても良い。 Further, if the acquired information is acoustic information, acoustic characteristics (magnitude, height, timbre (waveform)), position and direction of a sound source, changes in these, whether or not the sound is sound, and the like can be extracted as characteristic information. This information is obtained by acoustic analysis processing. Further, when the acoustic information is voice, the utterance content and the speaker information obtained by voice analysis may be used as characteristic information.

また、取得情報が各種のセンサによって取得された情報(センサ・データ)である場合、取得した値(センサ値)、センサ値が含まれる範囲(予め定められた範囲に入っているか否か)、センサ値の変化の様子等を特徴情報として抽出し得る。 When the acquired information is information (sensor data) acquired by various sensors, the acquired value (sensor value), the range including the sensor value (whether or not it is within a predetermined range), The state of change in the sensor value can be extracted as feature information.

特徴情報としての、取得情報に関連して得られる情報は、例えば、取得情報であるデータの属性やコンテンツの属性、付加情報、その他のメタ情報である。具体的には、取得情報が取得された時間を特定する情報、取得情報が取得された場所を特定する情報、取得情報を取得するのに用いられた機器を特定する情報、取得情報である画像の撮影者や音響情報の録音技術者を特定する情報、取得情報の管理者や取得情報のコンテンツに関わる権限を有する者の情報、取得情報に付与されたタイトルやテーマの情報等を特徴情報として抽出し得る。 The information obtained in relation to the acquired information as the feature information is, for example, data attributes that are acquired information, content attributes, additional information, and other meta information. Specifically, the information that identifies the time when the acquired information was acquired, the information that identifies the place where the acquired information was acquired, the information that identifies the device used to acquire the acquired information, and the image that is the acquired information. Information that identifies the photographer and recording engineer of acoustic information, information on the manager of the acquired information and the person who has the authority to relate to the content of the acquired information, information on the title and theme given to the acquired information, etc. as feature information. Can be extracted.

なお、上記の各情報は特徴情報の例に過ぎず、特徴情報として用い得る情報は上記の各情報に限定しない。実際のシステムにおいては、具体的なシステム構成や運用条件等に基づき、上記の情報の一部を特徴情報として用いても良いし、上記の情報以外の情報を特徴情報として抽出して用いても良い。特徴情報を抽出するためのアルゴリズムは、特に限定しない。取得情報から抽出される特徴情報および特徴情報を抽出するためのアルゴリズムは、システム構成や運用条件の変更等に応じて追加、変更し得る。 The above information is merely an example of the feature information, and the information that can be used as the feature information is not limited to the above information. In an actual system, a part of the above information may be used as feature information based on a specific system configuration, operating conditions, etc., or information other than the above information may be extracted and used as feature information. good. The algorithm for extracting the feature information is not particularly limited. The feature information extracted from the acquired information and the algorithm for extracting the feature information can be added or changed according to changes in the system configuration and operating conditions.

データ処理部123は、解析部122により抽出された特徴情報に基づいて取得情報を処理するデータ処理手段である。データ処理部123は、特徴情報に基づいて取得情報を分解し、断片データを生成する。一つの取得情報からは、通常、複数の断片データが生成される。断片データとは、取得情報のコンテンツを分解して得られる、一または複数の特徴情報に示される特徴を含む部分コンテンツのデータである。部分コンテンツは、取得情報のコンテンツの種類や属性等に応じて種々の条件および手法で抽出される。具体例を挙げると、取得情報が画像であれば、例えば、被写体として特定された人物や対象物ごとに、それらの被写体が写っている一定領域の画像を部分コンテンツとして切り出しても良い。さらに、画像が動画である場合、例えば、同じ被写体や同じ場所が写っている場面を集めて部分コンテンツとしても良い。また、取得情報が音響情報であれば、収録された音のうち、同一音源から発せられた音や同一話者の発話音声等を集めて部分コンテンツとしても良い。また、音が発せられた時間や音の特性、その変化パターン等に基づいて部分コンテンツを切り出しても良い。取得情報がセンサ・データであれば、データが取得された時間、センサ値の範囲、センサ値の変化パターン等に基づいて部分コンテンツを切り出しても良い。このようにして取得情報から抽出された部分コンテンツごとのデータが断片データである。 The data processing unit 123 is a data processing unit that processes acquired information based on the feature information extracted by the analysis unit 122. The data processing unit 123 decomposes the acquired information based on the feature information and generates fragment data. Usually, a plurality of fragment data are generated from one acquired information. The fragment data is data of partial content including features shown in one or a plurality of feature information obtained by decomposing the content of the acquired information. The partial content is extracted by various conditions and methods according to the type and attribute of the content of the acquired information. To give a specific example, if the acquired information is an image, for example, for each person or object specified as a subject, an image in a certain area in which the subject is captured may be cut out as partial content. Further, when the image is a moving image, for example, scenes in which the same subject or the same place is shown may be collected and used as partial contents. Further, if the acquired information is acoustic information, among the recorded sounds, sounds emitted from the same sound source, uttered voices of the same speaker, and the like may be collected and used as partial contents. Further, the partial content may be cut out based on the time when the sound is emitted, the characteristics of the sound, the change pattern thereof, and the like. If the acquired information is sensor data, partial content may be cut out based on the time when the data was acquired, the range of the sensor value, the change pattern of the sensor value, and the like. The data for each partial content extracted from the acquired information in this way is fragment data.

取得情報から部分コンテンツを抽出する条件や手法は、特に限定しない。一つの特徴情報に示される特徴を有する部分を部分コンテンツとして抽出しても良いし、複数の特徴情報に示される特徴を併せ持つ部分を部分コンテンツとして抽出しても良い。また、取得情報から部分コンテンツを抽出する条件や手法は、抽出される部分コンテンツごとに独立していても良い。したがって、一つの取得情報から抽出された複数の部分コンテンツにおいて、コンテンツやデータの一部が重複しても良い。また、取得情報から部分コンテンツを抽出する条件として用いられる特徴情報は、解析部122により取得情報から抽出された情報の他、ユーザにより手動で入力しても良い。 The conditions and methods for extracting partial content from the acquired information are not particularly limited. A part having a feature shown in one feature information may be extracted as a partial content, or a part having a feature shown in a plurality of feature information may be extracted as a partial content. Further, the conditions and methods for extracting the partial content from the acquired information may be independent for each of the extracted partial contents. Therefore, a part of the content or data may be duplicated in a plurality of partial contents extracted from one acquired information. Further, the feature information used as a condition for extracting the partial content from the acquired information may be manually input by the user in addition to the information extracted from the acquired information by the analysis unit 122.

データ処理部123は、取得情報を分解して生成した断片データと、断片データを生成するために部分コンテンツを抽出するのに用いた特徴情報とを対応付けて、データベース124に格納する。このようにすれば、特徴情報を指定してデータベース124を検索することにより、指定された特徴情報に対応する断片データを特定することが可能となる。また、データ処理部123は、一つの取得情報から生成した複数の断片データを互いに関連付けてデータベース124に格納する。このようにすれば、データベース124において一つの断片データを特定すると、断片データ間の関連付けを辿ることにより、その断片データと同じ取得情報から生成された他の断片データを特定することが可能となる。また、データ処理部123は、特徴情報として取得情報に関連付けられる人物を特定する情報を用いて断片データを生成した場合、その特徴情報により特定される人物ごとに断片データを分類してデータベース124に格納する。このようにすれば、分類された個々の人物に関連付けられた種々の場面や種々の状況で取得された取得情報に基づく断片データを、その人物に紐づけて管理することができる。取得情報に関連付けられる人物とは、特徴情報として抽出され得る態様で取得情報に関係する人物である。例えば、画像の被写体や音響情報の発話者や生体情報の取得対象者としての人物、画像の撮影者や音響情報の録音技術者としての人物、取得情報の管理者や取得情報のコンテンツに関わる権限を有する者としての人物等である。 The data processing unit 123 stores the fragment data generated by decomposing the acquired information and the feature information used for extracting the partial contents to generate the fragment data in the database 124 in association with each other. By doing so, it is possible to specify the fragment data corresponding to the designated feature information by searching the database 124 by designating the feature information. Further, the data processing unit 123 stores a plurality of fragment data generated from one acquired information in the database 124 in association with each other. In this way, when one piece of data is specified in the database 124, it is possible to specify another piece of data generated from the same acquired information as the piece of data by tracing the association between the pieces of data. .. Further, when the data processing unit 123 generates fragment data using information for identifying a person associated with the acquired information as feature information, the data processing unit 123 classifies the fragment data for each person specified by the feature information and stores the fragment data in the database 124. Store. In this way, fragment data based on acquired information acquired in various situations and situations associated with each classified individual person can be managed in association with that person. The person associated with the acquired information is a person related to the acquired information in a manner that can be extracted as characteristic information. For example, the subject of the image, the speaker of the acoustic information, the person who is the target person for acquiring the biological information, the photographer of the image, the person who is the recording engineer of the acoustic information, the manager of the acquired information, and the authority related to the content of the acquired information. It is a person or the like as a person who has.

データベース124は、データ処理部123により生成された断片データを記憶する記憶手段である。データベース124は、データ処理部123により生成された断片データを、特徴情報や他の断片データと対応付け、特徴情報として用いられた人物ごとに分類して保持する。データベース124は、サーバ120の構成の一部であるが、図2に示すように、ネットワーク上に設けられたデータベース・サーバ(いわゆるクラウドサーバ等)により実現しても良い。 The database 124 is a storage means for storing fragment data generated by the data processing unit 123. The database 124 associates the fragment data generated by the data processing unit 123 with the feature information and other fragment data, and classifies and holds each person used as the feature information. The database 124 is a part of the configuration of the server 120, but as shown in FIG. 2, it may be realized by a database server (so-called cloud server or the like) provided on the network.

検索部125は、解析部122により抽出された特徴情報を検索キーとしてデータベース124に蓄積された断片データの検索を行う検索手段である。検索部125は、解析部122において抽出された特徴情報を取得する。そして、検索部125は、取得した特徴情報が予め定められた開始条件を満足すると、取得した特徴情報を検索キーとしてデータベース124の検索を開始する。特徴情報としてイメージを特定する情報、音を特定する情報、キーワード等の様々な形態の情報が抽出されるため、検索部125は、これらの多様な情報を検索キーとして組み合わせて検索を行う。 The search unit 125 is a search means for searching fragment data stored in the database 124 using the feature information extracted by the analysis unit 122 as a search key. The search unit 125 acquires the feature information extracted by the analysis unit 122. Then, when the acquired feature information satisfies a predetermined start condition, the search unit 125 starts searching the database 124 using the acquired feature information as a search key. Since various forms of information such as image-specific information, sound-specific information, and keywords are extracted as feature information, the search unit 125 performs a search by combining these various information as a search key.

開始条件は、本実施形態による情報の収集および検索が行われる場面や状況に応じて設定し得る。例えば、特定の種類の特徴情報が抽出されたことを開始条件としても良い。一例として、特徴情報として場所を特定する情報、時間を特定する情報、人を特定する情報のうち、いずれか二つあるいは三つの情報が抽出されたことを開始条件としても良い。このようにすれば、検索が開始されると、最初から場所、時間、関連人物等が検索キーに含まれる検索が行われることとなり、特定の場面や状況に関連する断片データを検索する場合に効率が良い。また、予め定められた数の特徴情報が抽出されたことを開始条件としても良い。このようにすれば、最初から検索対象が複数の検索キー(特徴情報)に該当する断片データに絞り込まれた状態で検索が行われることとなる。 The start condition can be set according to the situation or situation in which the information is collected and searched by the present embodiment. For example, the starting condition may be that a specific type of feature information has been extracted. As an example, the starting condition may be that any two or three pieces of information that specifies a place, information that specifies a time, and information that identifies a person are extracted as characteristic information. In this way, when the search is started, the search will be performed with the location, time, related person, etc. included in the search key from the beginning, and when searching for fragment data related to a specific scene or situation, Efficient. Further, the starting condition may be that a predetermined number of feature information has been extracted. By doing so, the search is performed in a state where the search target is narrowed down to the fragment data corresponding to the plurality of search keys (feature information) from the beginning.

検索部125は、カメラ111、マイクロフォン112およびセンサ113とデータ取得部121とにより継続的に情報の取得が行われる場合、解析部122により抽出された特徴情報を順次検索キーに加えて、データベースの検索を繰り返し実行する。これにより、カメラ111、マイクロフォン112およびセンサ113による情報の取得が継続的に行われるのに伴って、リアルタイムに、検索部125による取得情報に関連する断片データの検索が行われることとなる。また、新たに抽出された特徴情報による検索キーを、それ以前に用いられた検索キーに加えて検索を行うことにより、それまでの検索履歴を反映した検索(いわば、文脈に即した検索)を行うこととなる。そして、単に新たに抽出された特徴情報にのみ該当する断片データではなく、それ以前に検索キーとして用いられた特徴情報にも該当する断片データが得られることとなる。言い換えれば、直近に取得された取得情報にのみ関連する断片データではなく、それ以前に取得された取得情報にも関連する断片データが得られることとなる。ここで、新たに抽出された特徴情報を順次検索キーに加える場合、後に抽出された特徴情報ほど大きい重みを与えて検索キーとして用いても良い。これにより、直近に取得された情報に対してより強く関連する断片データが得られることとなる。 When the information is continuously acquired by the camera 111, the microphone 112, the sensor 113, and the data acquisition unit 121, the search unit 125 sequentially adds the feature information extracted by the analysis unit 122 to the search key to create a database. Repeat the search. As a result, as the information is continuously acquired by the camera 111, the microphone 112, and the sensor 113, the search unit 125 searches for the fragment data related to the acquired information in real time. In addition, by adding the search key based on the newly extracted feature information to the search key used before that, a search that reflects the search history up to that point (so to speak, a search that matches the context) can be performed. Will be done. Then, not only the fragment data corresponding only to the newly extracted feature information but also the fragment data corresponding to the feature information previously used as the search key can be obtained. In other words, not only the fragment data related only to the recently acquired acquired information but also the fragment data related to the acquired information acquired before that can be obtained. Here, when the newly extracted feature information is sequentially added to the search key, the feature information extracted later may be given a larger weight and used as the search key. As a result, fragment data that is more strongly related to the most recently acquired information can be obtained.

また、検索部125は、後述する検索指示に応じて、特定の断片データに基づき、この特定の断片データに関連する他の断片データを検索する。この場合、検索部125による検索の手法は、検索指示に応じて異なる場合がある。一例としては、検索部125は、データ処理部123により断片データが生成された際に付された関連情報を用い、特定の断片データと同じ取得情報から生成された他の断片データを特定して検索する。また、他の例としては、検索部125は、特定の断片データが該当する特徴情報を検索キーとして用いて検索を行い、他の断片データを得る。 Further, the search unit 125 searches for other fragment data related to the specific fragment data based on the specific fragment data according to the search instruction described later. In this case, the search method by the search unit 125 may differ depending on the search instruction. As an example, the search unit 125 uses the related information attached when the fragment data is generated by the data processing unit 123, and identifies other fragment data generated from the same acquired information as the specific fragment data. Search for. Further, as another example, the search unit 125 performs a search using the feature information corresponding to the specific fragment data as a search key, and obtains other fragment data.

データ加工部126は、検索部125の検索により得られた断片データを、この断片データの特徴情報に基づいて加工する処理手段である。データ加工部126は、断片データに基づく関連情報画像(情報画像)を生成するために必要な情報を付加する。関連情報画像とは、断片データによる部分コンテンツを表示する画像である。部分コンテンツは、その部分コンテンツが切り出された元の取得情報のコンテンツの一部を構成するものであり、具体的には静止画、動画、音響情報、センサ・データ等である。したがって、部分コンテンツの種類によっては、関連情報画像として表示される画像を生成したり、付加的に表示される情報を付加したりする必要がある。また、部分コンテンツの種類や特徴情報の種類に応じて、特別な表示態様で関連情報画像を表示する場合がある。例えば、部分コンテンツが動画である場合、動画をそのまま表示するのではなく、動画の一場面を切り取った見本画像(サムネイル)を表示する場合がある。また、部分コンテンツが音響情報である場合、そのまま表示することはできないので、音響情報であることを示す画像やテキストを表示する場合がある。また、部分コンテンツがセンサ・データである場合、センサ値やその変化をグラフやテキストで表現して表示する場合がある。そこで、データ加工部126は、そのような表示を行うために必要なデータの加工を行う。 The data processing unit 126 is a processing means for processing the fragment data obtained by the search of the search unit 125 based on the feature information of the fragment data. The data processing unit 126 adds information necessary for generating a related information image (information image) based on the fragment data. The related information image is an image that displays partial content based on fragment data. The partial content constitutes a part of the content of the original acquired information from which the partial content is cut out, and specifically, is a still image, a moving image, acoustic information, sensor data, or the like. Therefore, depending on the type of partial content, it is necessary to generate an image to be displayed as a related information image or to add information to be additionally displayed. Further, depending on the type of partial content and the type of feature information, a related information image may be displayed in a special display mode. For example, when the partial content is a moving image, a sample image (thumbnail) obtained by cutting out a scene of the moving image may be displayed instead of displaying the moving image as it is. Further, when the partial content is acoustic information, it cannot be displayed as it is, so an image or text indicating that it is acoustic information may be displayed. Further, when the partial content is sensor data, the sensor value and its change may be expressed and displayed in a graph or text. Therefore, the data processing unit 126 processes the data necessary for performing such a display.

送受信部127は、情報出力手段である外部装置(図1に示した構成例では、PC130および表示装置140)に対してデータ交換を行うための通信手段である。具体的には、送受信部127は、データ加工部126により加工された断片データをPC130や表示装置140へ送信する。また、送受信部127は、PC130や表示装置140から検索指示を受け付ける。検索指示については後述する。 The transmission / reception unit 127 is a communication means for exchanging data with an external device (PC 130 and display device 140 in the configuration example shown in FIG. 1) which is an information output means. Specifically, the transmission / reception unit 127 transmits the fragment data processed by the data processing unit 126 to the PC 130 and the display device 140. Further, the transmission / reception unit 127 receives a search instruction from the PC 130 or the display device 140. The search instructions will be described later.

<端末装置の機能構成>
図3は、PC130の機能構成を示す図である。図1に示した構成例では、サーバ120による検索結果を出力する情報出力手段として、PC130および表示装置140を備える構成としたが、ここでは、情報出力手段である外部装置の例として、PC130について機能を説明する。PC130は、送受信部131と、表示制御部132と、表示部133と、操作部134と、操作受け付け部135とを備える。
<Functional configuration of terminal device>
FIG. 3 is a diagram showing a functional configuration of the PC 130. In the configuration example shown in FIG. 1, the PC 130 and the display device 140 are provided as the information output means for outputting the search result by the server 120, but here, the PC 130 is used as an example of the external device which is the information output means. Explain the function. The PC 130 includes a transmission / reception unit 131, a display control unit 132, a display unit 133, an operation unit 134, and an operation reception unit 135.

送受信部131は、サーバ120に対してデータ交換を行うための通信手段である。具体的には、送受信部131は、サーバ120から断片データを受信する。また、送受信部131は、断片データに基づく関連情報画像に対する操作にしたがって、サーバ120に対して検索指示を送信する。 The transmission / reception unit 131 is a communication means for exchanging data with the server 120. Specifically, the transmission / reception unit 131 receives fragment data from the server 120. Further, the transmission / reception unit 131 transmits a search instruction to the server 120 according to an operation on the related information image based on the fragment data.

表示制御部132は、サーバ120から取得した断片データに基づく関連情報画像を生成する画像生成手段であり、生成した関連情報画像を表示部133に表示させる表示制御手段である。表示制御部132は、サーバ120から断片データおよび特徴情報を取得し、取得した断片データに基づく関連情報画像を生成する。そして、表示制御部132は、表示部133における関連情報画像の表示を制御する。関連情報画像とは、断片データによる部分コンテンツの情報をPC130のユーザに提示する画像である。関連情報画像により提示される部分コンテンツの情報は、部分コンテンツの種類や内容に応じて設定し得る。例えば、部分コンテンツが静止画や文書ファイル(テキストデータを含む)である場合、部分コンテンツ自体を表示する場合の画像(以下、コンテンツ画像)の一部を切り出して関連情報画像としても良い。また、部分コンテンツが動画である場合、動画の一場面を切り取った見本画像(サムネイル)および動画の再生を開始させる再生ボタンの画像を関連情報画像としても良い。また、部分コンテンツが音響情報である場合、音響情報であることを表す画像や音響情報の再生を開始させる再生ボタンの画像を関連情報画像としても良い。さらに、部分コンテンツが発話音声である場合は、音響情報であることを表す画像や音響情報の再生を開始させる再生ボタンの画像に加えて、音声解析により得られた発話内容の一部を示すテキストの画像を関連情報画像としても良い。 The display control unit 132 is an image generation means for generating a related information image based on the fragment data acquired from the server 120, and is a display control means for displaying the generated related information image on the display unit 133. The display control unit 132 acquires fragment data and feature information from the server 120, and generates a related information image based on the acquired fragment data. Then, the display control unit 132 controls the display of the related information image on the display unit 133. The related information image is an image that presents the information of the partial content by the fragment data to the user of the PC 130. Related information The information of the partial content presented by the image can be set according to the type and content of the partial content. For example, when the partial content is a still image or a document file (including text data), a part of the image (hereinafter referred to as a content image) for displaying the partial content itself may be cut out and used as a related information image. Further, when the partial content is a moving image, a sample image (thumbnail) obtained by cutting out a scene of the moving image and an image of a play button for starting the reproduction of the moving image may be used as a related information image. Further, when the partial content is acoustic information, an image indicating that the partial content is acoustic information or an image of a play button for starting reproduction of the acoustic information may be used as a related information image. Further, when the partial content is an utterance voice, in addition to an image indicating that it is acoustic information and an image of a play button for starting playback of the acoustic information, a text indicating a part of the utterance content obtained by voice analysis. The image of may be used as a related information image.

表示制御部132は、サーバ120から断片データを受信するたびに、取得した断片データに基づいて生成した関連情報画像を、表示部133に、既に表示されている関連情報画像と共に順次表示する。また、表示制御部132は、関連情報画像の形状、色、表示サイズ、表示部133の画面における関連情報画像の表示位置や移動、表示態様の切り替え等の制御を行う。また、表示制御部132は、関連情報画像を表示した後に受け付ける指示に応じて、コンテンツ画像の表示を制御する。コンテンツ画像は、いわば、サーバ120のデータ加工部126による加工が行われる前の断片データに基づく画像である。表示制御部132による関連情報画像およびコンテンツ画像に関する表示制御の詳細については後述する。 Each time the display control unit 132 receives the fragment data from the server 120, the display control unit 132 sequentially displays the related information image generated based on the acquired fragment data on the display unit 133 together with the related information image already displayed. Further, the display control unit 132 controls the shape, color, display size of the related information image, the display position and movement of the related information image on the screen of the display unit 133, switching of the display mode, and the like. Further, the display control unit 132 controls the display of the content image according to the instruction received after displaying the related information image. The content image is, so to speak, an image based on fragment data before being processed by the data processing unit 126 of the server 120. The details of the display control regarding the related information image and the content image by the display control unit 132 will be described later.

表示部133は、表示制御部132により生成された関連情報画像やコンテンツ画像を表示する表示手段である。表示部133は、表示制御部132の制御にしたがって、関連情報画像に関して、断片データの特徴情報に基づく表示を行う。また、表示部133は、表示制御部132の制御にしたがって、関連情報画像への操作により指定された部分コンテンツのコンテンツ画像の表示(コンテンツ表示)を行う。 The display unit 133 is a display means for displaying the related information image or the content image generated by the display control unit 132. The display unit 133 displays the related information image based on the feature information of the fragment data under the control of the display control unit 132. Further, the display unit 133 displays (content display) the content image of the partial content designated by the operation on the related information image under the control of the display control unit 132.

操作部134は、ユーザが表示部133に表示された関連情報画像に対する操作を行うためのデバイスである。操作部134としては、例えば、マウス等のポインティング・デバイスやタッチ・パネル等が用いられる。操作部134として表示部133の表示画面と一体に設けられたタッチ・パネルを用いれば、表示画面に表示された関連情報画像に直接タッチするような直感的な動作で関連情報画像に対する操作を行うことができる。 The operation unit 134 is a device for the user to perform an operation on the related information image displayed on the display unit 133. As the operation unit 134, for example, a pointing device such as a mouse, a touch panel, or the like is used. If a touch panel provided integrally with the display screen of the display unit 133 is used as the operation unit 134, the related information image can be operated with an intuitive operation such as directly touching the related information image displayed on the display screen. be able to.

操作受け付け部135は、操作部134を用いて行われた関連情報画像に対する操作を受け付ける受け付け手段である。操作受け付け部135は、関連情報画像が表示された表示部133の表示画面上で操作部134を用いて行われた操作による関連情報画像の選択を受け付ける。また、選択した関連情報画像に対して操作部134を用いて行われた種々の操作を受け付ける。 The operation receiving unit 135 is a receiving means for receiving an operation on a related information image performed by using the operation unit 134. The operation receiving unit 135 accepts the selection of the related information image by the operation performed by using the operation unit 134 on the display screen of the display unit 133 on which the related information image is displayed. It also accepts various operations performed using the operation unit 134 on the selected related information image.

なお、ここではPC130の機能構成を説明したが、表示装置140もほぼ同様の構成として良い。具体的には、表示装置140は、サーバ120から断片データを受信する受信部(送受信部131)と、関連情報画像およびコンテンツ画像の表示制御を行う表示制御部(表示制御部132)と、関連情報画像およびコンテンツ画像を表示する表示部(表示部133)とを備える。関連情報画像に対する操作は、表示装置140に接続された外部装置としての入力デバイス(操作部134)を用いて行っても良い。この場合、入力デバイスの接続手段が操作受け付け部135に相当する。また、入力デバイスとして表示部の表示画面と一体に設けられたタッチ・パネルを用いる場合は、操作部134に対応する機能も表示装置140に設けられた構成となる。 Although the functional configuration of the PC 130 has been described here, the display device 140 may have almost the same configuration. Specifically, the display device 140 is associated with a receiving unit (transmission / reception unit 131) that receives fragment data from the server 120, and a display control unit (display control unit 132) that controls the display of related information images and content images. A display unit (display unit 133) for displaying an information image and a content image is provided. The operation on the related information image may be performed using an input device (operation unit 134) as an external device connected to the display device 140. In this case, the connection means of the input device corresponds to the operation receiving unit 135. Further, when a touch panel provided integrally with the display screen of the display unit is used as the input device, the function corresponding to the operation unit 134 is also provided in the display device 140.

<コンピュータのハードウェア構成>
図4は、サーバ120として用いられるコンピュータおよびPC130のハードウェア構成例を示す図である。図4に示すコンピュータ200は、演算手段であるCPU(Central Processing Unit)201と、記憶手段である主記憶装置(メイン・メモリ)202および外部記憶装置203を備える。CPU201は、外部記憶装置203に格納されたプログラムを主記憶装置202に読み込んで実行する。主記憶装置202としては、例えばRAM(Random Access Memory)が用いられる。外部記憶装置203としては、例えば磁気ディスク装置やSSD(Solid State Drive)等が用いられる。また、コンピュータ200は、表示装置(ディスプレイ)210に表示出力を行うための表示機構204と、コンピュータ200のユーザによる入力操作が行われる入力デバイス205とを備える。入力デバイス205としては、例えばキーボードやマウス等が用いられる。また、コンピュータ200は、ネットワークに接続するためのネットワーク・インターフェイス206を備える。なお、図4に示すコンピュータ200の構成は一例に過ぎず、本実施形態で用いられるコンピュータは図4の構成例に限定されるものではない。例えば、記憶装置としてフラッシュ・メモリ等の不揮発性メモリやROM(Read Only Memory)を備える構成としても良い。
<Computer hardware configuration>
FIG. 4 is a diagram showing a hardware configuration example of a computer and a PC 130 used as a server 120. The computer 200 shown in FIG. 4 includes a CPU (Central Processing Unit) 201 which is a calculation means, a main storage device (main memory) 202 which is a storage means, and an external storage device 203. The CPU 201 reads the program stored in the external storage device 203 into the main storage device 202 and executes it. As the main storage device 202, for example, a RAM (Random Access Memory) is used. As the external storage device 203, for example, a magnetic disk device, an SSD (Solid State Drive), or the like is used. Further, the computer 200 includes a display mechanism 204 for displaying and outputting to the display device (display) 210, and an input device 205 for performing an input operation by the user of the computer 200. As the input device 205, for example, a keyboard, a mouse, or the like is used. The computer 200 also includes a network interface 206 for connecting to a network. The configuration of the computer 200 shown in FIG. 4 is only an example, and the computer used in the present embodiment is not limited to the configuration example of FIG. For example, the storage device may be configured to include a non-volatile memory such as a flash memory or a ROM (Read Only Memory).

図2に示したサーバ120が図4に示すコンピュータにより実現される場合、データ取得部121および送受信部127は、例えば、ネットワーク・インターフェイス206により実現される。解析部122、データ処理部123、検索部125およびデータ加工部126の各機能は、例えば、CPU201がプログラムを実行することにより実現される。データベース124は、例えば、主記憶装置202や外部記憶装置203により実現される。データベース124としてネットワーク上のデータベース・サーバ等が用いられる場合は、例えば、ネットワーク・インターフェイス206を介してサーバ120とデータベース124とが接続される。 When the server 120 shown in FIG. 2 is realized by the computer shown in FIG. 4, the data acquisition unit 121 and the transmission / reception unit 127 are realized by, for example, the network interface 206. Each function of the analysis unit 122, the data processing unit 123, the search unit 125, and the data processing unit 126 is realized, for example, by the CPU 201 executing a program. The database 124 is realized by, for example, a main storage device 202 or an external storage device 203. When a database server or the like on the network is used as the database 124, for example, the server 120 and the database 124 are connected via the network interface 206.

図3に示したPC130が図4に示すコンピュータにより実現される場合、送受信部131は、例えば、ネットワーク・インターフェイス206により実現される。表示制御部132は、例えば、プログラム制御されたCPU201と表示機構204とにより実現される。表示部133は、例えば、表示装置210により実現される。操作部134は、例えば、入力デバイス205により実現される。操作受け付け部135は、例えば、プログラム制御されたCPU201により実現される。 When the PC 130 shown in FIG. 3 is realized by the computer shown in FIG. 4, the transmission / reception unit 131 is realized by, for example, the network interface 206. The display control unit 132 is realized by, for example, a program-controlled CPU 201 and a display mechanism 204. The display unit 133 is realized by, for example, the display device 210. The operation unit 134 is realized by, for example, the input device 205. The operation receiving unit 135 is realized by, for example, a program-controlled CPU 201.

特に図示しないが、情報出力手段として表示装置140が用いられる場合、表示装置140は、表示部と共に、表示制御を行うためのプロセッサおよび表示機構、サーバ120からデータを受信するためのネットワーク・インターフェイスを備える。画面上の関連情報画像等を操作するために外部の入力デバイスを用いる構成では、表示装置140は、入力デバイスを接続するためのインターフェイスを備える。また、表示装置140自身が、タッチ・パネル等の入力デバイスを備える構成であっても良い。 Although not particularly shown, when the display device 140 is used as the information output means, the display device 140, together with the display unit, includes a processor and a display mechanism for performing display control, and a network interface for receiving data from the server 120. Be prepared. In a configuration in which an external input device is used to operate a related information image or the like on the screen, the display device 140 includes an interface for connecting the input device. Further, the display device 140 itself may be configured to include an input device such as a touch panel.

<関連情報画像の表示制御>
図5は、PC130の表示部133の表示画面であって、関連情報画像が表示される画面(以下、関連情報画像表示画面)の構成例を示す図である。図5に示す例では、関連情報画像表示画面に、一つの起点画像SPと、4つの関連情報画像I-10~I-40が表示されている。起点画像SPは、関連情報画像I-10~I-40が表示される際の起点となる位置を示す画像である。また、起点画像SPは、関連情報画像表示画面の表示を操作するための操作子として用いられる。関連情報画像I-10は、部分コンテンツが文書ファイルである場合の関連情報画像の例である。関連情報画像I-20は、部分コンテンツが動画である場合の関連情報画像の例である。関連情報画像I-30は、部分コンテンツが音響情報である場合の関連情報画像の例である。関連情報画像I-40は、部分コンテンツが静止画である場合の関連情報画像の例である。なお、関連情報画像表示画面に表示される関連情報画像の数の上限は、関連情報画像表示画面のサイズ(広さ)と関連情報画像のサイズ(大きさ)とに基づいて定まるものであり、図5に示す4つに限定されない。関連情報画像が追加表示されていき、関連情報画像表示画面に表示し得る数の上限に達したならば、次の関連情報画像が表示されるたびに、最も古い関連情報画像から順に消去していくように制御しても良い。
<Display control of related information image>
FIG. 5 is a diagram showing a configuration example of a screen for displaying a related information image (hereinafter referred to as a related information image display screen), which is a display screen of the display unit 133 of the PC 130. In the example shown in FIG. 5, one starting point image SP and four related information images I-10 to I-40 are displayed on the related information image display screen. The starting point image SP is an image showing a position serving as a starting point when the related information images I-10 to I-40 are displayed. Further, the starting image SP is used as an operator for operating the display of the related information image display screen. The related information image I-10 is an example of the related information image when the partial content is a document file. The related information image I-20 is an example of the related information image when the partial content is a moving image. The related information image I-30 is an example of the related information image when the partial content is acoustic information. The related information image I-40 is an example of the related information image when the partial content is a still image. The upper limit of the number of related information images displayed on the related information image display screen is determined based on the size (width) of the related information image display screen and the size (size) of the related information image. It is not limited to the four shown in FIG. When the related information image is additionally displayed and the upper limit of the number that can be displayed on the related information image display screen is reached, each time the next related information image is displayed, the oldest related information image is deleted in order. You may control it as you go.

図6は、PC130の表示制御部132による関連情報画像表示画面の制御例を示す図である。図6(A)は起点画像SPのみが表示された状態を示す図、図6(B)は起点画像SPの位置に関連情報画像I-10が表示された状態を示す図、図6(C)は関連情報画像I-10が起点画像SPから離れた状態を示す図、図6(D)は起点画像SPの位置に関連情報画像I-20が追加表示された状態を示す図、図6(E)は関連情報画像I-20が起点画像SPから離れた状態を示す図、図6(F)は関連情報画像I-30が追加表示され、さらに起点画像SPから離れた状態を示す図である。 FIG. 6 is a diagram showing a control example of the related information image display screen by the display control unit 132 of the PC 130. 6 (A) is a diagram showing a state in which only the starting image SP is displayed, FIG. 6 (B) is a diagram showing a state in which the related information image I-10 is displayed at the position of the starting image SP, and FIG. 6 (C). ) Is a diagram showing a state in which the related information image I-10 is separated from the starting image SP, and FIG. 6D is a diagram showing a state in which the related information image I-20 is additionally displayed at the position of the starting image SP, FIG. (E) is a diagram showing a state in which the related information image I-20 is separated from the starting image SP, and FIG. 6 (F) is a diagram showing a state in which the related information image I-30 is additionally displayed and further separated from the starting image SP. Is.

図6に示すように、関連情報画像表示画面の初期状態は、起点画像SPのみが表示される(図6(A))。サーバ120により最初の断片データが検索されると、この断片データに基づく関連情報画像I-10が起点画像SPの位置に表示される(図6(B))。次に、関連情報画像I-10が起点画像SPから離れた位置に移動する(図6(C))。この状態で、関連情報画像I-10に対して、操作部134による操作が受け付けられるようになる。次に、サーバ120により次の断片データが検索され、この断片データに基づく関連情報画像I-20が起点画像SPの位置に表示される(図6(D))。そして、関連情報画像I-20が起点画像SPから離れた位置に移動する(図6(E))。より詳しくは、関連情報画像I-10が、図6(C)に示した位置よりも起点画像SPから遠い位置に移動すると共に、関連情報画像I-20が、それまで関連情報画像I-10が表示されていた位置に移動する。この状態で、関連情報画像I-10および関連情報画像I-20に対し、操作部134による操作が受け付けられるようになる。同様に、サーバ120により次の断片データが検索されると、この断片データに基づく関連情報画像I-30が起点画像SPの位置に表示され、起点画像SPから離れた位置に移動する(図6(F))。このとき、関連情報画像I-10が、図6(C)に示した位置よりもさらに起点画像SPから遠い位置に移動すると共に、関連情報画像I-20が、それまで関連情報画像I-10が表示されていた位置に移動する。そして、関連情報画像I-30が、それまで関連情報画像I-20が表示されていた位置に移動する。 As shown in FIG. 6, in the initial state of the related information image display screen, only the starting image SP is displayed (FIG. 6A). When the first fragment data is searched by the server 120, the related information image I-10 based on the fragment data is displayed at the position of the starting image SP (FIG. 6B). Next, the related information image I-10 moves to a position away from the starting image SP (FIG. 6 (C)). In this state, the operation by the operation unit 134 can be accepted for the related information image I-10. Next, the next fragment data is searched by the server 120, and the related information image I-20 based on the fragment data is displayed at the position of the starting image SP (FIG. 6D). Then, the related information image I-20 moves to a position away from the starting image SP (FIG. 6 (E)). More specifically, the related information image I-10 moves to a position farther from the starting image SP than the position shown in FIG. 6 (C), and the related information image I-20 has been moved to a position farther from the related information image I-10. Moves to the position where was displayed. In this state, the operation by the operation unit 134 can be accepted for the related information image I-10 and the related information image I-20. Similarly, when the next fragment data is searched by the server 120, the related information image I-30 based on the fragment data is displayed at the position of the origin image SP and moves to a position away from the origin image SP (FIG. 6). (F)). At this time, the related information image I-10 moves to a position farther from the starting point image SP than the position shown in FIG. 6C, and the related information image I-20 is moved to a position farther from the starting point image SP, and the related information image I-20 is moved to a position farther from the related information image I-10. Moves to the position where was displayed. Then, the related information image I-30 moves to the position where the related information image I-20 has been displayed until then.

このようにして、サーバ120において断片データが検索されるたびに、検索された断片データに基づく関連情報画像が表示され、次々と泡が表れて空間を漂うように、移動していく。ここで、新しい関連情報画像が表示されるたびに、既に表示されている関連情報画像は、それまでの表示位置(現在位置)よりも起点画像SPから遠い位置に移動する。これにより、先に表示された関連情報画像ほど起点画像SPから遠く、後に表示された関連情報画像ほど起点画像SPの近くに表示されるため、関連情報画像の時系列が、並び順によって直感的に把握される。 In this way, every time the fragment data is searched for in the server 120, the related information image based on the searched fragment data is displayed, and bubbles appear one after another and move so as to float in the space. Here, each time a new related information image is displayed, the already displayed related information image moves to a position farther from the starting point image SP than the previous display position (current position). As a result, the related information image displayed earlier is displayed farther from the starting image SP, and the related information image displayed later is displayed closer to the starting image SP, so that the time series of the related information images is intuitive according to the order. Is grasped by.

図7は、関連情報画像の表示内容の例を示す図である。図7には、部分コンテンツが文書ファイルである場合の関連情報画像の例が示されている。図7に示す例では、文書ファイルである部分コンテンツC-1自体を表示する場合のコンテンツ画像の一部が切り出されて関連情報画像I-10となっている。ここで、部分コンテンツC-1のコンテンツ画像のうち、関連情報画像I-10として切り出される部分は、例えば、部分コンテンツC-1の断片データを検索するのに用いられた特徴情報に対応する部分としても良い。具体例を挙げると、特定の単語を検索キー(キーワード)としてデータベース124を検索し、その単語を含む文書ファイルである部分コンテンツC-1が検出されたものとする。この場合、検出された部分コンテンツC-1のコンテンツ画像の中でその単語が実際に記載されている部分が切り出され、関連情報画像I-10に表示される。 FIG. 7 is a diagram showing an example of the display contents of the related information image. FIG. 7 shows an example of a related information image when the partial content is a document file. In the example shown in FIG. 7, a part of the content image when displaying the partial content C-1 itself, which is a document file, is cut out to be the related information image I-10. Here, in the content image of the partial content C-1, the portion cut out as the related information image I-10 is, for example, the portion corresponding to the feature information used for searching the fragment data of the partial content C-1. May be. To give a specific example, it is assumed that the database 124 is searched using a specific word as a search key (keyword), and the partial content C-1 which is a document file containing the word is detected. In this case, a portion of the detected partial content C-1 in which the word is actually described is cut out and displayed on the related information image I-10.

部分コンテンツが静止画である場合(センサ・データをグラフ等の図で表現した画像を含む)は、上記の文書ファイルの場合と同様に、静止画のコンテンツ画像中で特徴情報に対応する部分を切り出して関連情報画像としても良い。部分コンテンツが動画や音響情報である場合、コンテンツ画像の一部を関連情報画像として用いるのではなく、見本画像や部分コンテンツの種類を示す画像が関連情報画像として用いられる。 When the partial content is a still image (including an image in which sensor data is represented by a diagram such as a graph), the part corresponding to the feature information in the content image of the still image is displayed as in the case of the above document file. It may be cut out and used as a related information image. When the partial content is moving image or acoustic information, a sample image or an image showing the type of the partial content is used as the related information image instead of using a part of the content image as the related information image.

関連情報画像の表示サイズは、部分コンテンツの断片データの検索に用いられた特徴情報を反映して設定される。サーバ120の検索部125は、複数の特徴情報(検索キー)を組み合わせて検索を行い得る。そこで、検索において合致した検索キーの数が多いほど大きい表示サイズで関連情報画像を表示するように制御しても良い。この場合、関連情報画像の表示サイズに応じて、関連情報画像として用いられるコンテンツ画像の部分の表示倍率を制御しても良い。具体的には、関連情報画像を大きい表示サイズで表示する場合、表示されるコンテンツ画像の部分も拡大表示するようにしても良い。また、コンテンツ画像の部分の表示倍率は変更せず、より多くの情報(コンテンツ画像におけるより広い領域)を関連情報画像として表示するようにしても良い。 The display size of the related information image is set to reflect the feature information used for searching the fragment data of the partial content. The search unit 125 of the server 120 may perform a search by combining a plurality of feature information (search keys). Therefore, it may be controlled to display the related information image in a larger display size as the number of matching search keys increases in the search. In this case, the display magnification of the portion of the content image used as the related information image may be controlled according to the display size of the related information image. Specifically, when the related information image is displayed in a large display size, the displayed content image portion may also be enlarged and displayed. Further, the display magnification of the portion of the content image may not be changed, and more information (a wider area in the content image) may be displayed as the related information image.

<関連情報画像に対する操作>
関連情報画像表示画面に表示された関連情報画像に対して操作が行われると、表示制御部132は、操作に応じて画面の表示を切り替える。具体的には、関連情報画像を選択する操作に応じて、選択された関連情報画像に示された部分コンテンツのコンテンツ画像を表示したり、選択された関連情報画像に示された部分コンテンツに関連する他の部分コンテンツの情報を表示したりする。
<Operations for related information images>
When an operation is performed on the related information image displayed on the related information image display screen, the display control unit 132 switches the display of the screen according to the operation. Specifically, depending on the operation of selecting the related information image, the content image of the partial content shown in the selected related information image may be displayed, or related to the partial content shown in the selected related information image. Display information about other partial content.

図8は、関連情報画像に対する操作による画面の表示の切り替えの例を示す図である。図8に示す例では、関連情報画像表示画面において関連情報画像I-30を選択する操作が行われたものとする。図示の例では、操作部134としてタッチ・パネルが用いられ、関連情報画像を選択する操作として関連情報画像I-30がタッチされた。ここで、関連情報画像I-30に示された部分コンテンツが動画であるものとする。この場合、表示制御部132の制御により、画面の表示は、関連情報画像表示画面から部分コンテンツを表示するコンテンツ画像を表示する画面に切り替わる。ここでは、部分コンテンツが動画であるため、動画コンテンツを再生する再生ソフトウェアの操作パネルC-2が表示される。コンテンツ画像の表示画面は、部分コンテンツの種類に応じて種々の形態となる。例えば、選択された関連情報画像の部分コンテンツが静止画や文書ファイルであれば、これらの部分コンテンツ自体を画像として表示する画面となる。また、選択された関連情報画像の部分コンテンツが音響情報であれば、動画の場合と同様に、音響情報を再生する再生ソフトウェアの操作パネルが表示される。 FIG. 8 is a diagram showing an example of switching the display of the screen by operating the related information image. In the example shown in FIG. 8, it is assumed that the operation of selecting the related information image I-30 is performed on the related information image display screen. In the illustrated example, the touch panel was used as the operation unit 134, and the related information image I-30 was touched as an operation for selecting the related information image. Here, it is assumed that the partial content shown in the related information image I-30 is a moving image. In this case, under the control of the display control unit 132, the screen display is switched from the related information image display screen to the screen for displaying the content image for displaying the partial content. Here, since the partial content is a moving image, the operation panel C-2 of the reproduction software for reproducing the moving image content is displayed. The display screen of the content image has various forms depending on the type of partial content. For example, if the partial content of the selected related information image is a still image or a document file, the screen displays the partial content itself as an image. Further, if the partial content of the selected related information image is acoustic information, the operation panel of the reproduction software for reproducing the acoustic information is displayed as in the case of the moving image.

図9は、関連情報画像に対する操作による画面の表示の切り替えの他の例を示す図である。図9に示す例においても、図8と同様に、操作部134としてタッチ・パネルが用いられ、関連情報画像を選択する操作として関連情報画像I-30がタッチされたものとする。ただし、ここでは図8の操作とは異なる操作として、一定時間以上継続して関連情報画像I-30がタッチ(ロング・タッチ)されたものとする。この場合、表示制御部132は、サーバ120に対して、選択された関連情報画像に示された部分コンテンツの断片データに関連する他の断片データ(以下、関連断片データ)を要求する。サーバ120の検索部125は、この要求に応じてデータベース124を検索し、得られた関連断片データをPC130に返送する。PC130の表示制御部132は、取得した関連断片データに基づく表示を行う。 FIG. 9 is a diagram showing another example of switching the display of the screen by operating the related information image. In the example shown in FIG. 9, it is assumed that the touch panel is used as the operation unit 134 and the related information image I-30 is touched as an operation for selecting the related information image, as in FIG. However, here, as an operation different from the operation shown in FIG. 8, it is assumed that the related information image I-30 is touched (long touch) continuously for a certain period of time or longer. In this case, the display control unit 132 requests the server 120 for other fragment data (hereinafter, related fragment data) related to the fragment data of the partial content shown in the selected related information image. The search unit 125 of the server 120 searches the database 124 in response to this request, and returns the obtained related fragment data to the PC 130. The display control unit 132 of the PC 130 performs display based on the acquired related fragment data.

関連断片データに基づく表示は、関連情報画像と同様の表示であって良い。ただし、選択操作が行われた関連情報画像に関連付けられたものであることを明示的に示す表示が行われる。図9に示す例では、選択された関連情報画像I-30に接触させて、関連断片データに基づく5つの情報画像I-31が表示されている。関連断片データに基づく情報画像は、関連情報画像と同様に、選択操作による表示の切り替えが行われるようにしても良い。なお、関連断片データに基づく情報画像の表示態様は、選択された関連情報画像との関係がわかるものであれば良く、図9に示す表示態様に限定されない。 The display based on the related fragment data may be the same display as the related information image. However, a display is clearly shown that the image is associated with the related information image for which the selection operation has been performed. In the example shown in FIG. 9, five information images I-31 based on the related fragment data are displayed in contact with the selected related information image I-30. As for the information image based on the related fragment data, the display may be switched by the selection operation in the same manner as the related information image. The display mode of the information image based on the related fragment data is not limited to the display mode shown in FIG. 9, as long as the relationship with the selected related information image can be understood.

図10は、関連断片データに基づく情報画像の表示例を示す図である。図10(A)は図9に示した表示態様とは異なる第1の表示態様を示し、図10(B)は第2の表示態様を示す。図10(A)に示す例では、関連情報画像の周囲に、円環状に、関連断片データに基づく情報画像を配置することにより両画像が関連することを示している。図10(B)に示す例では、関連情報画像と関連断片データに基づく情報画像とをエッジで連結することにより両画像が関連することを示している。 FIG. 10 is a diagram showing a display example of an information image based on the related fragment data. FIG. 10A shows a first display mode different from the display mode shown in FIG. 9, and FIG. 10B shows a second display mode. In the example shown in FIG. 10A, both images are shown to be related by arranging an information image based on the related fragment data in a ring shape around the related information image. In the example shown in FIG. 10B, it is shown that both images are related by connecting the related information image and the information image based on the related fragment data at an edge.

関連情報画像表示画面では、上記のように関連情報画像に対する操作を受け付けて表示制御が行われる他、起点画像SPに対する操作を受け付けて表示制御を行っても良い。例えば、起点画像SPに対する選択操作が行われると、関連情報画像の新規表示および移動を停止させ、再度、起点画像SPに対する選択操作が行われると、関連情報画像の新規表示および移動を再開するような表示制御を行っても良い。また、起点画像SPに対する選択操作が行われると操作メニューを表示し、各種の操作の指示を受け付けられるようにしても良い。 On the related information image display screen, in addition to accepting an operation on the related information image and performing display control as described above, an operation on the starting image SP may be received and display control may be performed. For example, when the selection operation for the origin image SP is performed, the new display and movement of the related information image is stopped, and when the selection operation for the origin image SP is performed again, the new display and movement of the related information image is restarted. Display control may be performed. Further, when the selection operation for the starting image SP is performed, the operation menu may be displayed so that instructions for various operations can be accepted.

図11は、関連情報画像表示画面において操作メニューの表示が行われた様子を示す図である。図11に示す例では、起点画像SPに対して選択操作が行われ、関連情報画像表示画面に対する操作の指示を入力するための操作メニューM-1が表示されている。ユーザが操作メニューM-1に表示された操作を選択すると、表示制御部132は、関連情報画像表示画面に対して選択された操作に基づく各種の表示制御を実行する。 FIG. 11 is a diagram showing how the operation menu is displayed on the related information image display screen. In the example shown in FIG. 11, a selection operation is performed on the starting image SP, and an operation menu M-1 for inputting an operation instruction on the related information image display screen is displayed. When the user selects an operation displayed on the operation menu M-1, the display control unit 132 executes various display controls based on the selected operation on the related information image display screen.

<適用例>
本実施形態の適用例を説明する。本実施形態の情報処理システム100は、様々な場面において、画像、音響情報、センサ・データ等の情報を収集し、蓄積すると共に、収集した取得情報から得られた特徴情報を検索キーとして蓄積されている断片的な情報を検索して出力する。したがって、画像、音響情報、センサ・データ等の情報が取得されるのに伴って、随時、取得情報に対して特徴情報により関連付けられる断片的な情報が検出され、ユーザに提示されることになる。また、情報の検索は、ユーザが意図的に入力した検索キーではなく、取得情報から抽出された種々の特徴情報を組み合わせた検索キーにより行われる。そのため、検索結果として提示される情報には、ユーザが関連情報として想定しないような情報が含まれる可能性がある。
<Application example>
An application example of this embodiment will be described. The information processing system 100 of the present embodiment collects and accumulates information such as images, acoustic information, and sensor data in various situations, and also stores feature information obtained from the collected acquired information as a search key. Search and output fragmentary information. Therefore, as information such as images, acoustic information, and sensor data is acquired, fragmentary information associated with the acquired information by feature information is detected and presented to the user at any time. .. Further, the information search is performed not by the search key intentionally input by the user, but by the search key that combines various feature information extracted from the acquired information. Therefore, the information presented as the search result may include information that the user does not expect as related information.

以下に、具体的な適用場面を想定して、本実施形態の情報処理システム100の適用例を説明する。ここでは一例として、情報処理システム100を会議に適用する場合について考える。適用対象の会議を次のように想定する。毎週1回、定期的に開催する。参加者は固定で、A、B、Cの3名、会場は不特定とする。 Hereinafter, an application example of the information processing system 100 of the present embodiment will be described assuming a specific application situation. Here, as an example, a case where the information processing system 100 is applied to a conference will be considered. The applicable meeting is assumed as follows. Held regularly once a week. Participants are fixed, 3 people A, B, C, and the venue is unspecified.

図12は、本実施形態の情報処理システム100の適用例を示す図である。図12に示す場面は、ある時に開催された上記の会議の場面である。参加者A、B、CはテーブルTを囲んでおり、テーブルT上には周囲を撮影する全周カメラ(カメラ111)と、マイクロフォン112とが置かれている。また、参加者Aの後方には表示装置140が設けられている。サーバ120は図示されていない。会議が開始されると、カメラ111およびマイクロフォン112のスイッチがオンにされ、情報の取得が開始される。 FIG. 12 is a diagram showing an application example of the information processing system 100 of the present embodiment. The scene shown in FIG. 12 is a scene of the above-mentioned conference held at a certain time. Participants A, B, and C surround the table T, and an all-around camera (camera 111) for photographing the surroundings and a microphone 112 are placed on the table T. Further, a display device 140 is provided behind the participant A. Server 120 is not shown. When the conference is started, the camera 111 and the microphone 112 are switched on and information acquisition is started.

カメラ111およびマイクロフォン112は、会議が行われている間、継続的に情報を取得する。したがって、会議の進行に伴って、サーバ120が次々と、取得情報から特徴情報を抽出し、断片データを検索する。そして、検索された断片データに基づき関連情報画像が次々と生成され、表示装置140に表示される。例えば、会議において、参加者の一人による「先週の会議でBさんが話した議題」という発言をマイクロフォン112により取得したものとする。すると、この取得情報から特徴情報として「先週の会議」、「参加者B」、「議題」等のキーワードが抽出される。そして、データベース124の検索により、これらのキーワードに関連付けられた断片データが検出され、検出された断片データに基づいて関連情報画像が生成され、表示装置140に表示される。 The camera 111 and the microphone 112 continuously acquire information during the conference. Therefore, as the conference progresses, the server 120 extracts the feature information from the acquired information one after another and searches for the fragment data. Then, related information images are generated one after another based on the searched fragment data and displayed on the display device 140. For example, it is assumed that one of the participants obtained the statement "the agenda spoken by Mr. B at the meeting last week" by the microphone 112 at the meeting. Then, keywords such as "last week's meeting", "participant B", and "agenda" are extracted as characteristic information from this acquired information. Then, by searching the database 124, fragment data associated with these keywords is detected, and a related information image is generated based on the detected fragment data and displayed on the display device 140.

また、会議において、参加者Cが資料を提示し、この資料がカメラ111により撮影されたものとする。すると、この取得情報から資料のイメージや資料に記述されたテキスト等の情報が特徴情報として抽出される。そして、データベース124の検索により、これらの特徴情報に関連付けられた断片データが検出され、検出された断片データに基づいて関連情報画像が生成され、表示装置140に表示される。 Further, it is assumed that the participant C presents the material at the meeting and the material is photographed by the camera 111. Then, information such as an image of the material and text described in the material is extracted from this acquired information as feature information. Then, by searching the database 124, fragment data associated with these feature information is detected, and a related information image is generated based on the detected fragment data and displayed on the display device 140.

データベース124には、断片データが、特徴情報により特定される人物ごとに分類して格納されている。したがって、検索キーとして用いられた特徴情報として人物を特定する情報がある場合、検索結果として得られた断片データに関連する人物を特定することができる。そこで、図12に示した例のように、複数人の情報が取得される場面で関連情報画像を表示する場合、誰に関連する関連情報画像かを識別できるようにしても良い。例えば、関連情報画像の枠に、関連する人物ごとに異なる色を付して表示しても良い。また、関連する人物ごとに形状を異ならせた関連情報画像を表示しても良い。さらに、関連情報画像に連接して、または関連情報画像の近傍に、視認するユーザが関連する人物を特定可能な画像(サムネイル写真等)を表示したり、関連する人物を特定可能な情報(名前等)を表示したりしても良い。 Fragment data is classified and stored in the database 124 for each person specified by the feature information. Therefore, when there is information for identifying a person as the feature information used as the search key, the person related to the fragment data obtained as the search result can be specified. Therefore, as in the example shown in FIG. 12, when the related information image is displayed in the scene where the information of a plurality of people is acquired, it may be possible to identify who the related information image is related to. For example, the frame of the related information image may be displayed with a different color for each related person. Further, a related information image having a different shape for each related person may be displayed. Furthermore, an image (thumbnail photograph, etc.) that allows the user to visually identify the related person is displayed in connection with the related information image or in the vicinity of the related information image, or information (name) that can identify the related person. Etc.) may be displayed.

図12に示した例では、会議の参加者全員が視認できる表示装置140に関連情報画像を表示し、各参加者が一つの関連情報画像表示画面を参照するようにしたが、関連情報画像の利用方法は上記の例に限定されない。例えば、各参加者が所持する携帯型端末の表示部に関連情報画像を個別に表示するようにしても良い。以上のようにして、サーバ120は、会議の進行に伴い、会議中に取得される情報に基づき、リアルタイムで断片データの検索を行う。そして、得られた断片データに基づく関連情報画像を表示させる。また、サーバ120は、会議の進行に伴って取得した取得情報を、抽出した特徴情報に基づいて分解し、断片データとしてデータベース124に格納する。 In the example shown in FIG. 12, the related information image is displayed on the display device 140 that can be visually recognized by all the participants of the conference, and each participant refers to one related information image display screen. The usage method is not limited to the above example. For example, the related information image may be individually displayed on the display unit of the portable terminal possessed by each participant. As described above, the server 120 searches for fragment data in real time based on the information acquired during the conference as the conference progresses. Then, the related information image based on the obtained fragment data is displayed. Further, the server 120 decomposes the acquired information acquired as the conference progresses based on the extracted feature information, and stores it in the database 124 as fragment data.

データベース124を検索する際に、検索キーとして用いられる特徴情報に対して重み付けを行うことにより、検索結果として得られる断片データの傾向に影響を与えることができる。例えば、個人を特定するような特徴情報に大きい重みを与えて検索を行うと、特定される個人に関連する断片データが検索される割合が大きくなることが想定される。一方、場所、時間、場面、議題などの複数ユーザが共有する特徴情報に大きい重みを与えて検索を行うと、複数ユーザに関連する断片データが検索される割合が大きくなることが想定される。図12に示したように、会議において検索される情報を参加者全員で参照する場合は、後者のような検索を行うことで、各参加者に関連する情報を含む関連情報画像の表示が行われる可能性が高くなる。一方、関連情報画像を各参加者の携帯型端末に表示させるような場合は、前者のような検索を行い、個別に関連情報画像の表示制御を行うことで、参加者ごとに異なる関連情報画像を表示させ得る。 By weighting the feature information used as the search key when searching the database 124, it is possible to influence the tendency of the fragment data obtained as the search result. For example, if a search is performed by giving a large weight to characteristic information that identifies an individual, it is expected that the rate of searching fragmentary data related to the identified individual will increase. On the other hand, if the feature information shared by a plurality of users such as place, time, scene, and agenda is given a large weight to the search, it is expected that the rate of searching the fragment data related to the plurality of users will increase. As shown in FIG. 12, when all the participants refer to the information searched in the conference, the latter type of search is performed to display the related information image including the information related to each participant. It is more likely that you will be sick. On the other hand, when displaying the related information image on each participant's portable terminal, the related information image different for each participant is performed by performing a search like the former and individually controlling the display of the related information image. Can be displayed.

なお、上記の例では、複数人が参加する会議の場面を想定して情報処理システム100の適用例を説明したが、情報処理システム100は、より多くの人が参加するイベントにおいて利用しても良い。また、一人のユーザが自身の情報処理装置を用いて自身の情報をデータベース124に蓄積させながら、関連情報画像を閲覧するようにしても良い。 In the above example, the application example of the information processing system 100 has been described assuming the situation of a meeting in which a plurality of people participate, but the information processing system 100 may be used in an event in which more people participate. good. Further, one user may browse the related information image while accumulating his / her own information in the database 124 by using his / her own information processing device.

また、図12に示すような適用例において、参加者に脈拍や血圧、一定時間の呼吸数等の生体情報を取得するセンサ113を持たせておき、会議中の各参加者の生体情報を取得情報として取得しても良い。そして、脈拍の変動や血圧の上昇、呼吸数の増加等を特徴情報として抽出し、データベース124に蓄積する断片データに付与したり、断片データの検索に用いたりすることにより、参加者の動揺や興奮等の感情の変化を、断片データの検索に反映させ得る。 Further, in the application example as shown in FIG. 12, the participants are provided with a sensor 113 for acquiring biological information such as pulse, blood pressure, and respiratory rate for a certain period of time, and the biological information of each participant during the meeting is acquired. It may be acquired as information. Then, by extracting the fluctuation of pulse, the increase of blood pressure, the increase of respiratory rate, etc. as characteristic information and adding it to the fragment data accumulated in the database 124, or by using it for searching the fragment data, the participants may be upset. Changes in emotions such as excitement can be reflected in the search for fragment data.

本実施形態では、種々の取得情報から抽出された種々の特徴情報を組み合わせた検索キーを用いて断片データの検索を行うため、検索結果として提示される情報には、ユーザが関連情報として想定しないような情報が含まれる可能性があることを述べた。これに加えて、断片データを検索する際に、検索キーが合致する割合が低い(特徴情報に対してあまり関連しない)断片データが適当な割合で検索結果に含まれるようにしても良い。このような制御を行うことで、より一層、ユーザの想定を外れた情報を提示し得る。 In the present embodiment, since the fragment data is searched using a search key that combines various feature information extracted from various acquired information, the user does not assume that the information presented as the search result is related information. It was stated that such information may be included. In addition to this, when searching for fragment data, fragment data having a low ratio of matching search keys (not so related to feature information) may be included in the search results at an appropriate ratio. By performing such control, it is possible to present information that is beyond the user's expectation.

以上、本発明の実施形態について説明したが、本発明の技術的範囲は上記実施形態には限定されない。例えば、上記の実施形態では、サーバ120がデータ加工部126を有する構成としたが、サーバ120は検索部125による検索結果をそのまま出力し、情報出力手段であるPC130において、関連情報画像を生成するのに必要な加工を行うように構成しても良い。また、サーバ120において関連情報画像の表示制御までを行い、PC130や表示装置140ではサーバ120の制御にしたがって関連情報画像の表示のみを行うように構成しても良い。その他、本発明の技術思想の範囲から逸脱しない様々な変更や構成の代替は、本発明に含まれる。 Although the embodiments of the present invention have been described above, the technical scope of the present invention is not limited to the above embodiments. For example, in the above embodiment, the server 120 has the data processing unit 126, but the server 120 outputs the search result by the search unit 125 as it is, and the PC 130, which is an information output means, generates a related information image. It may be configured to perform the necessary processing. Further, the server 120 may be configured to control the display of the related information image, and the PC 130 or the display device 140 may be configured to display only the related information image according to the control of the server 120. In addition, various changes and alternative configurations that do not deviate from the scope of the technical idea of the present invention are included in the present invention.

100…情報処理システム、111…カメラ、112…マイクロフォン、113…センサ、120…サーバ、121…データ取得部、122…解析部、123…データ処理部、124…データベース、125…検索部、126…データ加工部、127…送受信部、130…パーソナル・コンピュータ(PC)、131…送受信部、132…表示制御部、133…表示部、134…操作部、135…操作受け付け部、140…表示装置、I-10~I-40…関連情報画像、SP…起点画像 100 ... Information processing system, 111 ... Camera, 112 ... Microphone, 113 ... Sensor, 120 ... Server, 121 ... Data acquisition unit, 122 ... Analysis unit, 123 ... Data processing unit, 124 ... Database, 125 ... Search unit, 126 ... Data processing unit 127 ... Transmission / reception unit, 130 ... Personal computer (PC), 131 ... Transmission / reception unit, 132 ... Display control unit 133 ... Display unit, 134 ... Operation unit, 135 ... Operation reception unit, 140 ... Display device, I-10 to I-40 ... Related information image, SP ... Starting point image

Claims (21)

少なくとも画像および音声が含まれる情報を解析して抽出された特徴情報に基づき当該情報を分解して得られた断片データを格納したデータベースと、
少なくとも画像および音声を含む情報を、特定の条件に従って継続的に取得する情報取得手段と、
前記情報取得手段により継続的に取得される情報を順次解析して特徴情報を抽出する特徴情報抽出手段と、
前記特徴情報抽出手段により抽出された前記特徴情報を順次検索キーに加えて前記データベースを検索する検索手段と、
前記検索手段による検索結果を出力する出力手段と、
を備えることを特徴とする、情報処理システム。
A database that stores fragmentary data obtained by decomposing the information based on the feature information extracted by analyzing at least the information including images and sounds.
An information acquisition means that continuously acquires information including at least images and sounds according to specific conditions .
A feature information extraction means that sequentially analyzes information continuously acquired by the information acquisition means to extract feature information, and a feature information extraction means.
A search means for searching the database by sequentially adding the feature information extracted by the feature information extraction means to the search key,
An output means for outputting the search result by the search means and
An information processing system characterized by being equipped with.
前記出力手段は、前記検索手段による検索結果として得られた断片データを加工し、当該断片データおよび当該断片データの特徴情報に応じて予め定められた態様で当該断片データに基づく情報画像を生成し、表示装置に表示させることを特徴とする、請求項1に記載の情報処理システム。 The output means processes the fragment data obtained as a search result by the search means, and generates an information image based on the fragment data in a predetermined manner according to the fragment data and the feature information of the fragment data. The information processing system according to claim 1, wherein the information processing system is displayed on a display device. 前記出力手段は、前記検索手段による検索が行われるたびに検索結果の断片データに基づく前記情報画像を生成し、生成した当該情報画像を、既に表示されている情報画像と共に順次表示させることを特徴とする請求項2に記載の情報処理システム。 The output means is characterized in that each time a search is performed by the search means, the information image based on the fragment data of the search result is generated, and the generated information image is sequentially displayed together with the already displayed information image. The information processing system according to claim 2. 前記出力手段は、前記表示装置の画面上に起点位置を設定し、新規に前記情報画像を表示する際に、新規の当該情報画像を当該起点位置に表示し、既に表示されている情報画像を現在位置よりも当該起点位置から遠い位置に移動させることを特徴とする請求項3に記載の情報処理システム。 The output means sets a starting point position on the screen of the display device, and when newly displaying the information image, the new information image is displayed at the starting point position, and the already displayed information image is displayed. The information processing system according to claim 3, wherein the information processing system is moved to a position farther from the starting point position than the current position. 前記表示装置に表示された前記情報画像の選択を受け付ける受け付け手段をさらに備え、
前記出力手段は、選択された前記情報画像に対応する前記断片データの加工前の断片データによる出力を行うことを特徴とする請求項2に記載の情報処理システム。
Further provided with a receiving means for accepting the selection of the information image displayed on the display device.
The information processing system according to claim 2, wherein the output means outputs the fragment data corresponding to the selected information image by the fragment data before processing.
前記検索手段は、選択された前記情報画像に対応する前記断片データに関連付けられた断片データを検索し、得られた断片データによる出力をさらに行うことを特徴とする請求項5に記載の情報処理システム。 The information processing according to claim 5, wherein the search means searches for fragment data associated with the fragment data corresponding to the selected information image, and further outputs the obtained fragment data. system. 前記検索手段は、後に抽出された前記特徴情報ほど大きい重みを与えて検索キーとして用いることを特徴とする、請求項1に記載の情報処理システム。 The information processing system according to claim 1 , wherein the search means is used as a search key by giving a larger weight to the feature information extracted later. 前記検索手段は、抽出された前記特徴情報が予め定められた開始条件を満足する場合に、当該特徴情報を検索キーとして前記データベースの検索を開始することを特徴とする、請求項1に記載の情報処理システム。 The first aspect of claim 1 , wherein the search means starts searching the database using the feature information as a search key when the extracted feature information satisfies a predetermined start condition. Information processing system. 前記検索手段は、前記特徴情報として、場所を特定する情報、時間を特定する情報、人を特定する情報のうち少なくとも二つが抽出されたことを前記開始条件として、前記データベースの検索を開始することを特徴とする、請求項8に記載の情報処理システム。 The search means starts the search of the database on the condition that at least two of the information specifying the place, the information specifying the time, and the information specifying the person are extracted as the feature information. 8. The information processing system according to claim 8 . 前記特徴情報抽出手段により抽出された前記特徴情報に基づいて前記情報取得手段により取得された情報を分解して断片データを生成し、生成した当該断片データを前記データベースに格納するデータ処理手段をさらに備えることを特徴とする、請求項1に記載の情報処理システム。 Further, a data processing means for decomposing the information acquired by the information acquisition means based on the feature information extracted by the feature information extraction means to generate fragment data and storing the generated fragment data in the database. The information processing system according to claim 1, wherein the information processing system is provided. 前記データ処理手段は、一の情報を分解して生成した複数の前記断片データを互いに関連付けて前記データベースに格納することを特徴とする、請求項10に記載の情報処理システム。 The information processing system according to claim 10 , wherein the data processing means associates a plurality of the fragment data generated by decomposing one piece of information with each other and stores the fragment data in the database. 前記特徴情報抽出手段は、前記特徴情報として、取得された情報に関連付けられる人物を特定する情報を抽出し、
前記データ処理手段は、前記特徴情報として抽出された人物ごとに前記断片データを分類して前記データベースに格納することを特徴とする、請求項11に記載の情報処理システム。
The feature information extracting means extracts, as the feature information, information that identifies a person associated with the acquired information.
The information processing system according to claim 11 , wherein the data processing means classifies the fragment data for each person extracted as the feature information and stores the fragment data in the database.
少なくとも画像および音声が含まれる情報を解析して抽出された特徴情報に基づき当該情報を分解して得られた断片データを格納したデータベースから、少なくとも画像および音声が含まれる情報を特定の条件に従って継続的に取得すると共に当該情報を順次解析して特徴情報を抽出し、抽出した当該特徴情報を順次検索キーに加えて検索して得られた断片データを順次取得する取得手段と、
取得した前記断片データの特徴情報に基づいて当該断片データを加工して、当該特徴情報に関連する部分を表す情報画像を生成する画像生成手段と、
前記画像生成手段により生成された前記情報画像を、前記断片データおよび当該断片データの特徴情報に応じて予め定められた態様で表示する表示手段と、
を備えることを特徴とする、情報処理装置。
At least the information including image and sound is continued according to specific conditions from the database storing the fragment data obtained by decomposing the information based on the feature information extracted by analyzing the information including at least image and sound. The acquisition means for sequentially acquiring the fragment data obtained by sequentially analyzing the information and extracting the feature information , adding the extracted feature information to the search key in sequence , and searching.
An image generation means that processes the fragment data based on the acquired feature information of the fragment data to generate an information image representing a portion related to the feature information.
A display means for displaying the information image generated by the image generation means in a predetermined manner according to the fragment data and the feature information of the fragment data .
An information processing device characterized by being equipped with.
前記表示手段は、前記取得手段により検索結果の前記断片データが取得されるたびに、当該断片データに基づいて前記画像生成手段により生成された前記情報画像を、既に表示されている情報画像と共に順次表示することを特徴とする、請求項13に記載の情報処理装置。 Each time the fragment data of the search result is acquired by the acquisition means, the display means sequentially displays the information image generated by the image generation means based on the fragment data together with the already displayed information image. The information processing apparatus according to claim 13 , wherein the information processing apparatus is displayed. 前記表示手段は、画面上に起点位置を設定し、新規に前記情報画像を表示する際に、新規の当該情報画像を当該起点位置に表示し、既に表示されている情報画像を現在位置よりも当該起点位置から遠い位置に移動させることを特徴とする、請求項14に記載の情報処理装置。 The display means sets a starting point position on the screen, and when newly displaying the information image, the new information image is displayed at the starting point position, and the already displayed information image is displayed at a position higher than the current position. The information processing apparatus according to claim 14 , wherein the information processing apparatus is moved to a position far from the starting point position. 前記表示手段は、複数の検索キーに合致して検出された前記断片データに関して、合致した検索キーの数に応じて前記情報画像の表示サイズを制御することを特徴とする、請求項13に記載の情報処理装置。 13. The display means according to claim 13 , wherein the display means controls the display size of the information image according to the number of matched search keys for the fragment data detected by matching a plurality of search keys. Information processing equipment. 前記表示手段は、前記情報画像の表示サイズに応じて、当該情報画像に表示される前記断片データの部分の表示倍率を制御することを特徴とする、請求項16に記載の情報処理装置。 The information processing apparatus according to claim 16 , wherein the display means controls the display magnification of a portion of the fragment data displayed on the information image according to the display size of the information image. 前記表示手段は、特定の人物との関連を示す情報を検索キーとして検出された前記断片データに基づく前記情報画像の表示に関して、人物ごとに特定された特定表示を行うことを特徴とする、請求項13に記載の情報処理装置。 The display means is characterized in that it performs a specific display specified for each person with respect to the display of the information image based on the fragment data detected by using the information indicating the relationship with the specific person as a search key. Item 13. The information processing apparatus according to item 13. 表示された前記情報画像の選択を受け付ける受け付け手段をさらに備え、
前記表示手段は、選択された前記情報画像に対応する前記断片データに基づいて、当該断片データに基づくコンテンツ表示を行うことを特徴とする、請求項13に記載の情報処理装置。
Further provided with a receiving means for accepting the selection of the displayed information image,
The information processing apparatus according to claim 13 , wherein the display means displays contents based on the fragment data based on the fragment data corresponding to the selected information image.
前記取得手段は、選択された前記情報画像に対応する前記断片データに関連する断片データを取得し、
前記表示手段は、取得された前記関連する断片データに基づくコンテンツ表示を行うことを特徴とする、請求項19に記載の情報処理装置。
The acquisition means acquires fragment data related to the fragment data corresponding to the selected information image, and obtains the fragment data.
The information processing apparatus according to claim 19 , wherein the display means displays contents based on the acquired related fragment data.
コンピュータを、
少なくとも画像および音声が含まれる情報を解析して抽出された特徴情報に基づき当該情報を分解して得られた断片データを格納したデータベースから、少なくとも画像および音声が含まれる情報を特定の条件に従って継続的に取得すると共に当該情報を順次解析して特徴情報を抽出し、抽出した当該特徴情報を順次検索キーに加えて検索して得られた断片データを順次取得する取得手段と、
取得した前記断片データの特徴情報に基づいて当該断片データを加工して、当該特徴情報に関連する部分を表す情報画像を生成する画像生成手段と、
前記画像生成手段により生成された前記情報画像を、前記断片データおよび当該断片データの特徴情報に応じて予め定められた態様で表示装置に表示させる表示制御手段として、
機能させることを特徴とする、プログラム。
Computer,
At least the information including image and sound is continued according to specific conditions from the database storing the fragment data obtained by decomposing the information based on the feature information extracted by analyzing the information including at least image and sound. The acquisition means for sequentially acquiring the fragment data obtained by sequentially analyzing the information and extracting the feature information , adding the extracted feature information to the search key in sequence , and searching.
An image generation means that processes the fragment data based on the acquired feature information of the fragment data to generate an information image representing a portion related to the feature information.
As a display control means for displaying the information image generated by the image generation means on a display device in a predetermined manner according to the fragment data and the feature information of the fragment data .
A program characterized by making it work.
JP2017220118A 2017-11-15 2017-11-15 Information processing systems, information processing equipment and programs Active JP7077585B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017220118A JP7077585B2 (en) 2017-11-15 2017-11-15 Information processing systems, information processing equipment and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017220118A JP7077585B2 (en) 2017-11-15 2017-11-15 Information processing systems, information processing equipment and programs

Publications (2)

Publication Number Publication Date
JP2019091290A JP2019091290A (en) 2019-06-13
JP7077585B2 true JP7077585B2 (en) 2022-05-31

Family

ID=66836391

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017220118A Active JP7077585B2 (en) 2017-11-15 2017-11-15 Information processing systems, information processing equipment and programs

Country Status (1)

Country Link
JP (1) JP7077585B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6850377B1 (en) 2020-01-30 2021-03-31 ベルフェイス株式会社 Information processing equipment, information processing methods and programs

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005018344A (en) 2003-06-25 2005-01-20 Nippon Telegr & Teleph Corp <Ntt> Keyword vector dictionary generating device and system and its program
JP2006092396A (en) 2004-09-27 2006-04-06 Oki Electric Ind Co Ltd Apparatus for detecting lone person and person in group
JP2007122157A (en) 2005-10-25 2007-05-17 Olympus Imaging Corp Image retrieval device, image retrieval program, image retrieval method and recording medium
JP2010152744A (en) 2008-12-25 2010-07-08 Toshiba Corp Reproducing device
JP2010165354A (en) 2008-12-17 2010-07-29 Toshihiko Okabe Transmission and reception system of link information and display device of link information
JP2010206364A (en) 2009-03-02 2010-09-16 Mitsubishi Electric Corp Image monitoring system
JP2012160793A (en) 2011-01-28 2012-08-23 Konica Minolta Business Technologies Inc Video conference system and apparatus for video conference, and program
JP2014042235A (en) 2012-07-24 2014-03-06 Takashi Hirabayashi Audience rating survey system, facial expression information generation device, and facial expression information generation program
JP2016081174A (en) 2014-10-14 2016-05-16 富士ゼロックス株式会社 Association program and information processing apparatus

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11161661A (en) * 1997-11-28 1999-06-18 Sharp Corp Information retrieval device
US9373076B1 (en) * 2007-08-08 2016-06-21 Aol Inc. Systems and methods for building and using social networks in image analysis

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005018344A (en) 2003-06-25 2005-01-20 Nippon Telegr & Teleph Corp <Ntt> Keyword vector dictionary generating device and system and its program
JP2006092396A (en) 2004-09-27 2006-04-06 Oki Electric Ind Co Ltd Apparatus for detecting lone person and person in group
JP2007122157A (en) 2005-10-25 2007-05-17 Olympus Imaging Corp Image retrieval device, image retrieval program, image retrieval method and recording medium
JP2010165354A (en) 2008-12-17 2010-07-29 Toshihiko Okabe Transmission and reception system of link information and display device of link information
JP2010152744A (en) 2008-12-25 2010-07-08 Toshiba Corp Reproducing device
JP2010206364A (en) 2009-03-02 2010-09-16 Mitsubishi Electric Corp Image monitoring system
JP2012160793A (en) 2011-01-28 2012-08-23 Konica Minolta Business Technologies Inc Video conference system and apparatus for video conference, and program
JP2014042235A (en) 2012-07-24 2014-03-06 Takashi Hirabayashi Audience rating survey system, facial expression information generation device, and facial expression information generation program
JP2016081174A (en) 2014-10-14 2016-05-16 富士ゼロックス株式会社 Association program and information processing apparatus

Also Published As

Publication number Publication date
JP2019091290A (en) 2019-06-13

Similar Documents

Publication Publication Date Title
JP5791605B2 (en) Metadata tagging system, image search method, device, and gesture tagging method applied thereto
JP5615023B2 (en) Display control apparatus and display control method
WO2009075754A1 (en) Recording audio metadata for stored images
JP4674508B2 (en) Information processing system and information processing program
JP2005267279A (en) Information processing system and information processing method, and computer program
JP2017129720A (en) Information processing system, information processing apparatus, information processing method, and information processing program
JP5729844B1 (en) Content evaluation apparatus, system, server apparatus, and terminal apparatus
JP2006268395A (en) Information processor, information processing method and program
JP7077585B2 (en) Information processing systems, information processing equipment and programs
JP6602080B2 (en) Imaging system, control method therefor, and computer program
JP6276570B2 (en) Image / audio reproduction system, image / audio reproduction method and program
JP2012178028A (en) Album creation device, control method thereof, and program
JP2018073237A (en) Conference information display system, conference information display method and conference information display program
JP4572545B2 (en) Information processing system, information processing method, and computer program
CN107885482B (en) Audio playing method and device, storage medium and electronic equipment
JP2002351972A (en) Watching system by using network
JP4649944B2 (en) Moving image processing apparatus, moving image processing method, and program
US20160133243A1 (en) Musical performance system, musical performance method and musical performance program
JP2020009011A (en) Photobook creation system and server device
CN111225250B (en) Video extended information processing method and device
CN108280184A (en) A kind of examination question extracts method, system and smart pen based on smart pen
JP2008090526A (en) Conference information storage device, system, conference information display device, and program
JP6297739B1 (en) Property information server
JP2017004193A (en) Information processing device, information processing method, and program
JP6394463B2 (en) Music search system and music search program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220502

R150 Certificate of patent or registration of utility model

Ref document number: 7077585

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150