JP6063697B2 - Apparatus, method and program for image display - Google Patents
Apparatus, method and program for image display Download PDFInfo
- Publication number
- JP6063697B2 JP6063697B2 JP2012224108A JP2012224108A JP6063697B2 JP 6063697 B2 JP6063697 B2 JP 6063697B2 JP 2012224108 A JP2012224108 A JP 2012224108A JP 2012224108 A JP2012224108 A JP 2012224108A JP 6063697 B2 JP6063697 B2 JP 6063697B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- image
- extracted
- data
- attribute
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 41
- 238000004891 communication Methods 0.000 claims description 27
- 230000008569 process Effects 0.000 claims description 14
- 239000000284 extract Substances 0.000 claims description 12
- 238000000605 extraction Methods 0.000 claims description 4
- 230000005540 biological transmission Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 14
- 238000012545 processing Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 10
- 230000015654 memory Effects 0.000 description 6
- 238000013459 approach Methods 0.000 description 4
- 230000000386 athletic effect Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 2
- 238000003703 image analysis method Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 235000006481 Colocasia esculenta Nutrition 0.000 description 1
- 240000004270 Colocasia esculenta var. antiquorum Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 239000010454 slate Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Landscapes
- User Interface Of Digital Computer (AREA)
- Telephone Function (AREA)
Description
本発明は、電子機器に、複数の画像のなかから一部の画像を選択して表示させる技術に関する。 The present invention relates to a technique for selecting and displaying a part of images from a plurality of images on an electronic device.
携帯電話機等の電子機器において、画像を表示させる仕組みが種々提案されている。例えば特許文献1には、現在位置を含む所定領域内の位置に関連付けられた画像データを検索し、検索された画像データに従い現在位置の周辺に関連する画像を表示する装置が開示されている。また、特許文献2には、現在の日付が記念日を含む所定の期間内である場合、記念日に関連付けられた静止画像を抽出し、抽出した静止画像を用いて作成した動画像を再生する装置が記載されている。また、特許文献3には、表示された写真を閲覧している人物の顔をカメラで撮影し、撮影した顔と同じ人物の顔が写りこんだ写真を抽出して表示する装置が記載されている。 Various mechanisms for displaying images in electronic devices such as mobile phones have been proposed. For example, Patent Document 1 discloses an apparatus that searches for image data associated with a position within a predetermined area including the current position, and displays an image related to the vicinity of the current position according to the retrieved image data. In Patent Document 2, when the current date is within a predetermined period including the anniversary, a still image associated with the anniversary is extracted, and a moving image created using the extracted still image is reproduced. An apparatus is described. Patent Document 3 describes a device that captures a face of a person who is viewing a displayed photograph with a camera, and extracts and displays a photograph of the same person's face as the photographed face. Yes.
ユーザが持ち歩く電子機器の画面に表示される背景画像(壁紙)が、所定の時間の経過等の特定のイベントの発生に伴い自動的に切り替わる機能がある。そのような機能を備えた電子機器をユーザが職場で取り出した時に、たまたま家族の写真が大きく表示されていると、ユーザはその表示を相応しくないと感じるかも知れない。例えば、朝の出勤の時間帯にワインを飲んでくつろぐ人々の写真が大きく表示されたり、気温の高い時に炬燵で鍋を囲む人々の写真が大きく表示されたりする場合も同様である。 There is a function in which a background image (wallpaper) displayed on a screen of an electronic device carried by a user is automatically switched with the occurrence of a specific event such as the passage of a predetermined time. When a user takes out an electronic device having such a function at work, if the photograph of the family happens to be displayed in a large size, the user may feel that the display is not appropriate. For example, the same is true when a photograph of people who drink wine in the morning work hours is displayed in a large size, or when a photograph of people surrounding a pan is boiled when the temperature is high.
本発明は、上記の事情に鑑み、電子機器の置かれている環境に相応しい表示を電子機器に行わせる手段を提供することを目的とする。 In view of the above circumstances, an object of the present invention is to provide means for causing an electronic device to perform display suitable for the environment in which the electronic device is placed.
本発明は、各々画像を示す複数の画像データを取得する画像データ取得部と、前記複数の画像データの各々に関する当該画像データが示す画像の属性と、自装置が置かれている環境の属性とに基づき、前記複数の画像データのなかから1以上の画像データを選択し、当該選択した1以上の画像データが示す画像の表示を表示装置に指示する制御部とを備え、前記制御部は、予め定められた複数の基準位置のなかから、自装置の現在の位置から所定距離内のエリアに入る基準位置を抽出し、前記複数の画像データの各々に関する当該画像データが示す画像の属性に前記抽出された基準位置に対応する属性が含まれる画像データを前記複数の画像データのなかから抽出し、抽出された画像データのなかから前記1以上の画像データを選択する装置を提案する。 The present invention provides an image data acquisition unit that acquires a plurality of image data each indicating an image, an attribute of an image indicated by the image data relating to each of the plurality of image data, and an attribute of an environment in which the device is placed A control unit that selects one or more image data from the plurality of image data, and instructs a display device to display an image indicated by the selected one or more image data . A reference position that falls within an area within a predetermined distance from the current position of the device is extracted from a plurality of predetermined reference positions, and the image attribute indicated by the image data related to each of the plurality of image data the image data including the corresponding attribute to the extracted reference position extracted from the multiple image data, select the one or more image data from among the extracted image data apparatus Proposed.
上記の装置において、前記制御部は、前記抽出された画像データの各々に関する当該画像データが示す画像の属性と、自装置が置かれている環境の属性とに基づき、前記抽出された画像データの各々に関し確率を決定し、当該決定した確率に従い、前記抽出された画像データのなかから1以上の画像データを選択する、という構成が採用されてもよい。 In the above apparatus, the control unit includes a attribute of the image the image data indicates for each of the image data which has been the extraction, based on the attributes of the environment in which the own apparatus is placed, the extracted image data A configuration may be employed in which a probability is determined for each, and one or more image data is selected from the extracted image data according to the determined probability.
また、本発明は、各々画像を示す複数の画像データを取得する画像データ取得部と、前記複数の画像データの各々に関する当該画像データが示す画像の属性と、自装置が置かれている環境の属性とに基づき、前記複数の画像データの各々の表示態様を決定し、当該決定した表示態様で前記複数の画像データが示す画像の表示を表示装置に指示する制御部とを備え、前記制御部は、予め定められた複数の基準位置のなかから、自装置の現在の位置から所定距離内のエリアに入る基準位置を抽出し、前記複数の画像データの各々に関する当該画像データが示す画像の属性に前記抽出された基準位置に対応する属性が含まれる画像データを前記複数の画像データのなかから抽出し、抽出された画像データの各々の前記表示態様を決定する装置を提案する。 The present invention also provides an image data acquisition unit that acquires a plurality of image data each indicating an image, an attribute of an image indicated by the image data relating to each of the plurality of image data, and an environment in which the apparatus is placed. A control unit that determines a display mode of each of the plurality of image data based on the attribute, and instructs a display device to display an image indicated by the plurality of image data in the determined display mode, the control unit Extracts a reference position that enters an area within a predetermined distance from the current position of the device from a plurality of predetermined reference positions, and the attribute of the image indicated by the image data for each of the plurality of image data Suggest image data is extracted from the multiple image data, that determine the display mode of each of the extracted image data apparatus includes attributes corresponding to the extracted reference position That.
上記の装置において、前記制御部は、前記抽出された画像データの各々に関する当該画像データが示す画像の属性と、自装置が置かれている環境の属性とに基づき、前記抽出された画像データの各々に関し確率を決定し、当該決定した確率に従い複数の表示態様の選択肢のなかから選択した表示態様を、前記抽出された画像データの各々の表示態様として決定する、という構成が採用されてもよい。 In the above apparatus, the control unit includes a attribute of the image the image data indicates for each of the image data which has been the extraction, based on the attributes of the environment in which the own apparatus is placed, the extracted image data A configuration may be employed in which a probability is determined for each, and a display mode selected from among a plurality of display mode options according to the determined probability is determined as each display mode of the extracted image data. .
上記のいずれかの装置において、前記制御部は、前記抽出された画像データの各々に関する当該画像データが示す写真の撮影された位置が、自装置の現在の位置に近い程、当該画像データに関する前記確率を増加する、という構成が採用されてもよい。 In any of the above-described apparatuses, the control unit is configured to control the image data regarding the image data as the position where the photograph indicated by the image data regarding each of the extracted image data is closer to the current position of the apparatus. A configuration of increasing the probability may be adopted.
また、上記のいずれかの装置において、前記制御部は、前記抽出された画像データの各々に関する当該画像データが示す写真の撮影された時刻が、現在の時刻に近い程、当該画像データに関する前記確率を増加する、という構成が採用されてもよい。 Further, in any of the above-described apparatuses, the control unit may increase the probability regarding the image data as the time when the photograph indicated by the image data regarding each of the extracted image data is taken is closer to the current time. The configuration of increasing the number may be adopted.
また、上記のいずれかの装置において、前記制御部は、前記抽出された画像データのうち、直近に行われた撮影により生成された画像データが示す写真の被写体と同一の被写体の写真を示す画像データに関する前記確率を増加する、という構成が採用されてもよい。 In any of the above-described apparatuses, the control unit may display an image showing a photograph of the same subject as the subject of the photograph indicated by the image data generated by the most recently performed shooting among the extracted image data. A configuration of increasing the probability related to data may be adopted.
また、上記のいずれかの装置において、前記制御部は、前記抽出された画像データのうち、直近に行われた収音により生成された音声データが示す属性と同一の属性の画像を示す画像データに関する前記確率を増加する、という構成が採用されてもよい。 In any one of the above-described apparatuses, the control unit may display image data indicating an image having the same attribute as the attribute indicated by the sound data generated by the sound collection performed most recently in the extracted image data. A configuration may be adopted in which the probability with respect to is increased.
また、本発明は、一の装置が、各々画像を示す複数の画像データを取得するステップと、前記一の装置又は前記一の装置と互いにデータ通信する他の装置が、予め定められた複数の基準位置のなかから前記一の装置の現在の位置から所定距離内のエリアに入る基準位置を抽出し、前記複数の画像データの各々に関する当該画像データが示す画像の属性に前記抽出された基準位置に対応する属性が含まれる画像データを前記複数の画像データのなかから抽出し、抽出された画像データの各々に関する当該画像データが示す画像の属性と、前記一の装置が置かれている環境の属性とに基づき、前記抽出された画像データのなかから1以上の画像データを選択するステップと、前記一の装置が、前記選択された1以上の画像データが示す画像の表示を表示装置に指示するステップとを備える方法を提案する。 Further, the present invention provides a method in which one device acquires a plurality of image data each indicating an image, and the one device or another device that performs data communication with the one device is a plurality of predetermined data . A reference position that enters an area within a predetermined distance from the current position of the one device is extracted from the reference positions, and the extracted reference position is an attribute of the image indicated by the image data regarding each of the plurality of image data. Image data including an attribute corresponding to the image data is extracted from the plurality of image data, the attribute of the image indicated by the image data for each of the extracted image data, and the environment in which the one device is placed based on the attributes, and the step of selecting one or more image data from among the image data of the extracted, the one device, the display of the selected one or more image data is image showing We propose a method and a step of instructing the display device.
また、本発明は、一の装置が、各々画像を示す複数の画像データを取得するステップと、前記一の装置又は前記一の装置と互いにデータ通信する他の装置が、予め定められた複数の基準位置のなかから前記一の装置の現在の位置から所定距離内のエリアに入る基準位置を抽出し、前記複数の画像データの各々に関する当該画像データが示す画像の属性に前記抽出された基準位置に対応する属性が含まれる画像データを前記複数の画像データのなかから抽出し、抽出された画像データの各々に関する当該画像データが示す画像の属性と、前記一の装置が置かれている環境の属性とに基づき、前記抽出された画像データの各々の表示態様を決定するステップと、前記一の装置が、前記決定された表示態様で前記抽出された画像データが示す画像の表示を表示装置に指示するステップとを備える方法を提案する。 Further, the present invention provides a method in which one device acquires a plurality of image data each indicating an image, and the one device or another device that performs data communication with the one device is a plurality of predetermined data . A reference position that enters an area within a predetermined distance from the current position of the one device is extracted from the reference positions, and the extracted reference position is an attribute of the image indicated by the image data regarding each of the plurality of image data. Image data including an attribute corresponding to the image data is extracted from the plurality of image data, the attribute of the image indicated by the image data for each of the extracted image data, and the environment in which the one device is placed based on the attributes, and determining each of the display mode of the image data of the extracted, the one device, image data of the extracted with the determined display form of the image shown It proposes a method comprising the steps of: instructing shown on the display device.
また、本発明は、コンピュータに各々画像を示す複数の画像データを取得する処理と、予め定められた複数の基準位置のなかから、前記コンピュータの現在の位置から所定距離内のエリアに入る基準位置を抽出し、前記複数の画像データの各々に関する当該画像データが示す画像の属性に前記抽出された基準位置に対応する属性が含まれる画像データを前記複数の画像データのなかから抽出し、抽出された画像データの各々に関する当該画像データが示す画像の属性と、前記コンピュータが置かれている環境の属性とに基づき、前記抽出された画像データのなかから1以上の画像データを選択し、当該選択した1以上の画像データが示す画像の表示を表示装置に指示する処理とを実行させるためのプログラムを提案する。 Further, according to the present invention, a reference position that enters an area within a predetermined distance from the current position of the computer from among a plurality of predetermined reference positions, and a process of acquiring a plurality of pieces of image data each representing an image in the computer Image data including an attribute corresponding to the extracted reference position in the attribute of the image indicated by the image data related to each of the plurality of image data is extracted from the plurality of image data and extracted. Selecting one or more image data from the extracted image data based on the attribute of the image indicated by the image data for each of the image data and the attribute of the environment in which the computer is placed, A program for executing a process of instructing a display device to display an image indicated by one or more pieces of image data is proposed.
また、本発明は、コンピュータに各々画像を示す複数の画像データを取得する処理と、予め定められた複数の基準位置のなかから、前記コンピュータの現在の位置から所定距離内のエリアに入る基準位置を抽出し、前記複数の画像データの各々に関する当該画像データが示す画像の属性に前記抽出された基準位置に対応する属性が含まれる画像データを前記複数の画像データのなかから抽出し、抽出された画像データの各々に関する当該画像データが示す画像の属性と、前記コンピュータが置かれている環境の属性とに基づき、前記抽出された画像データの各々の表示態様を決定し、当該決定した表示態様で前記抽出された画像データが示す画像の表示を表示装置に指示する処理とを実行させるためのプログラムを提案する。 Further, according to the present invention, a reference position that enters an area within a predetermined distance from the current position of the computer from among a plurality of predetermined reference positions, and a process of acquiring a plurality of pieces of image data each representing an image in the computer Image data including an attribute corresponding to the extracted reference position in the attribute of the image indicated by the image data related to each of the plurality of image data is extracted from the plurality of image data and extracted. and attributes of the image to which the image data is shown for each of the image data, based on the attributes of the environment in which the computer is located, to determine each of the display mode of the image data of the extracted display mode to which the determined A program for executing a process for instructing a display device to display an image indicated by the extracted image data is proposed.
本発明によれば、電子機器は電子機器の置かれている環境に相応しい表示を行う。そのため、ユーザは、場違いな画像や時期外れな画像といった、状況等に照らし相応しくない画像により煩わされることが少なくなる。 According to the present invention, the electronic device performs a display suitable for the environment in which the electronic device is placed. Therefore, the user is less likely to be bothered by images that are not suitable in light of the situation, such as out-of-place images or out-of-time images.
(1.実施例)
以下に、本発明の一実施例として画像表示システム1を説明する。画像表示システム1は、ユーザが用いる端末装置のディスプレイに表示される背景画像(以下、「壁紙」という)を自動的に変化させるシステムである。画像表示システム1においては、例えばユーザが自宅にいる時には家族や友人の写真が高い確率で表示される一方、ユーザが職場にいる時には風景の写真等が高い確率で表示される、といった具合に、端末装置の置かれている環境に応じて端末装置に表示される壁紙が変化する。ただし、壁紙に用いられる画像は確率に従い選択されるため、同じ環境下において必ずしも同じ壁紙が表示されるとは限らない。
(1. Example)
Hereinafter, an image display system 1 will be described as an embodiment of the present invention. The image display system 1 is a system that automatically changes a background image (hereinafter referred to as “wallpaper”) displayed on a display of a terminal device used by a user. In the image display system 1, for example, when a user is at home, a photograph of a family member or friend is displayed with a high probability, while when a user is at the workplace, a landscape photograph or the like is displayed with a high probability. The wallpaper displayed on the terminal device changes according to the environment in which the terminal device is placed. However, since the image used for the wallpaper is selected according to the probability, the same wallpaper is not always displayed under the same environment.
(1.1.構成)
まず、画像表示システム1の構成を説明する。図1は、画像表示システム1の全体構成を示すブロック図である。画像表示システム1は、端末装置10と、サーバ装置11を備えている。端末装置10とサーバ装置11は、移動通信網やインターネット等のネットワーク19を介して相互にデータ通信が可能である。
(1.1. Configuration)
First, the configuration of the image display system 1 will be described. FIG. 1 is a block diagram showing the overall configuration of the image display system 1. The image display system 1 includes a terminal device 10 and a server device 11. The terminal device 10 and the server device 11 can perform data communication with each other via a network 19 such as a mobile communication network or the Internet.
端末装置10は、ユーザが画像の表示等に用いる電子機器であり、ノート型PC(Personal Computer)、スマートフォン、スレートデバイス等の移動通信端末である。なお、図1には端末装置10が1つのみ表示されているが、端末装置10の数は画像表示システム1を利用するユーザの数に応じて任意に変化する。また、以下の説明において、端末装置10はコンピュータが本実施例にかかるプログラムに従う処理を実行することにより実現されるものとするが、端末装置10は、端末装置10が備える機能構成(後述)をハードウェアにより実現した、いわゆる専用機として構成されてもよい。 The terminal device 10 is an electronic device that is used by a user for displaying an image, and is a mobile communication terminal such as a notebook PC (Personal Computer), a smartphone, or a slate device. Although only one terminal device 10 is displayed in FIG. 1, the number of terminal devices 10 is arbitrarily changed according to the number of users who use the image display system 1. In the following description, the terminal device 10 is realized by a computer executing processing according to the program according to the embodiment. The terminal device 10 has a functional configuration (described later) provided in the terminal device 10. It may be configured as a so-called dedicated machine realized by hardware.
サーバ装置11は、端末装置10からの要求に応じて画像データの記憶、検索、及び送信を行う。また、以下の説明において、サーバ装置11はコンピュータが本実施例にかかるプログラムに従う処理を実行することにより実現されるものとするが、サーバ装置11が備える機能構成(後述)をハードウェアにより実現した、いわゆる専用機として構成されてもよい。 The server device 11 stores, retrieves, and transmits image data in response to a request from the terminal device 10. In the following description, the server apparatus 11 is realized by a computer executing processing according to the program according to the present embodiment. However, a functional configuration (described later) provided in the server apparatus 11 is realized by hardware. It may be configured as a so-called dedicated machine.
図2は端末装置10のハードウェア構成を示すブロック図である。制御部101は、端末装置10の各部の動作を制御するとともに各種データの処理を行う。制御部101は、CPU(Central Processing Unit)等の演算処理装置やメモリを備え、所定のプログラムを実行することによって上記制御及び処理を行う。 FIG. 2 is a block diagram illustrating a hardware configuration of the terminal device 10. The control unit 101 controls the operation of each unit of the terminal device 10 and processes various data. The control unit 101 includes an arithmetic processing device such as a CPU (Central Processing Unit) and a memory, and performs the above control and processing by executing a predetermined program.
記憶部102は、例えばハードディスクやフラッシュメモリ等の記録媒体を備え、制御部101が実行するプログラム、制御部101が用いる各種データ、タッチディスプレイ104(後述)が表示する画像を示す画像データ等を記憶する。通信部103は、アンテナや、ネットワーク19の通信方式に対応したモデム等を備え、データの変調・復調といったデータ通信に必要な処理を行い、ネットワーク19を介してサーバ装置11やサーバ装置11とは異なる他の装置(図示略)との間でデータを送受信する。 The storage unit 102 includes a recording medium such as a hard disk or a flash memory, and stores programs executed by the control unit 101, various data used by the control unit 101, image data indicating an image displayed on the touch display 104 (described later), and the like. To do. The communication unit 103 includes an antenna, a modem corresponding to the communication method of the network 19, performs processing necessary for data communication such as data modulation / demodulation, and the server device 11 and the server device 11 via the network 19. Data is transmitted to and received from another device (not shown).
タッチディスプレイ104は、画像を表示するとともにユーザの操作を受け付ける。タッチディスプレイ104は表示部1041とセンサ部1042とを備える。表示部1041は画像データが示す画像を表示するディスプレイであり、その方式は液晶方式、有機EL(electroluminescence)方式等、いずれであってもよい。 The touch display 104 displays an image and accepts a user operation. The touch display 104 includes a display unit 1041 and a sensor unit 1042. The display unit 1041 is a display that displays an image indicated by the image data, and the method may be any of a liquid crystal method, an organic EL (electroluminescence) method, and the like.
センサ部1042は、表示部1041により表示される画像に対するユーザの指等のポインタの接触もしくは近接(以下、接触又は近接を総称して「タッチ」という)を検出し、検出したタッチの位置を示す座標データを制御部101に出力するタッチセンサである。センサ部1042の方式は静電容量方式、電磁誘導方式、抵抗膜方式、光方式等、いずれであってもよい。なお、端末装置10は、センサ部1042に加えて、もしくはセンサ部1042に代えて、操作ボタン等の他の操作手段を備えてもよい。 The sensor unit 1042 detects contact or proximity of a pointer such as a user's finger with respect to an image displayed on the display unit 1041 (hereinafter, contact or proximity is collectively referred to as “touch”), and indicates the position of the detected touch. It is a touch sensor that outputs coordinate data to the control unit 101. The method of the sensor unit 1042 may be any of a capacitance method, an electromagnetic induction method, a resistance film method, an optical method, and the like. Note that the terminal device 10 may include other operation means such as operation buttons in addition to the sensor unit 1042 or instead of the sensor unit 1042.
GPS信号受信部105は、複数のGPS(Global Positioning System)衛星の各々から信号(以下「GPS信号」という)を受信し、制御部101に出力する。制御部101に出力されたGPS信号は、制御部101において端末装置10の現在位置の特定処理に用いられる。カメラ106は、外界を撮影して生成した画像データを制御部101に出力する。計時部107は、現在時刻を示す現在時刻データを生成し、制御部101に出力する。マイク108は、外界の音を示す波形データを生成し、制御部101に出力する。 The GPS signal receiving unit 105 receives a signal (hereinafter referred to as “GPS signal”) from each of a plurality of GPS (Global Positioning System) satellites and outputs the signal to the control unit 101. The GPS signal output to the control unit 101 is used by the control unit 101 for specifying the current position of the terminal device 10. The camera 106 outputs image data generated by photographing the outside world to the control unit 101. The time measuring unit 107 generates current time data indicating the current time and outputs the current time data to the control unit 101. The microphone 108 generates waveform data indicating external sounds and outputs the waveform data to the control unit 101.
記憶部102に記憶されている各種データの一部は、以下に説明するデータベース(Database、以下「DB」と称する)により管理されている。画像管理DB1021は、記憶部102もしくは後述するサーバ装置11の記憶部112に記憶されている画像データを管理するためのDBである。図3は画像管理DB1021のデータ構成を示した図である。画像管理DB1021は画像の各々に応じたデータレコードを含み、各データレコードは以下のデータフィールドを有している。なお、以下にデータフィールドには[ ]を付す。
[画像ID]:画像を識別する画像IDを格納する。画像IDは、例えば画像を示す画像データのファイル名を示す。
[撮影時刻]:画像が写真である場合、写真の撮影時刻を示す撮影時刻データを格納する。
[撮影場所]:画像が写真である場合、写真の撮影場所の経度・緯度を示す撮影位置データを格納する。
[属性タグ]:画像に関する各種属性を示す属性タグを格納する。
[ポイント]:画像の表示頻度、表示サイズ、表示の際の濃度の決定に用いる確率を算出するための自然数を示すポイントを格納する。
Some of the various data stored in the storage unit 102 are managed by a database (hereinafter referred to as “DB”) described below. The image management DB 1021 is a DB for managing image data stored in the storage unit 102 or the storage unit 112 of the server device 11 described later. FIG. 3 shows the data structure of the image management DB 1021. The image management DB 1021 includes data records corresponding to each of the images, and each data record has the following data fields. In the following, [] is attached to the data field.
[Image ID]: Stores an image ID for identifying an image. The image ID indicates, for example, a file name of image data indicating an image.
[Photographing time]: When the image is a photograph, photographing time data indicating the photographing time of the photograph is stored.
[Shooting location]: When the image is a photograph, shooting location data indicating the longitude and latitude of the shooting location of the photo is stored.
[Attribute tag]: Stores an attribute tag indicating various attributes relating to the image.
[Point]: Stores a point indicating a natural number for calculating an image display frequency, a display size, and a probability used for determining a density at the time of display.
[属性タグ]は、画像に関する様々な情報を格納し得る。例えば、ユーザの長男が運動会で徒競走をしている写真の[属性タグ]には、「家族」、「子ども」、「長男」、「運動会」、「徒競走」等の各種データが格納され得る。この場合、「家族」、「子ども」、「長男」というデータは、例えば制御部101が画像データを取得した際、後述する被写体管理DB1024に格納されているデータに従い自動的に登録されたデータである。また、「運動会」、「徒競走」というデータは、例えばユーザにより入力されたデータである。ただし、[属性タグ]に格納されるデータの取得方法はこれらに限られず、例えば写真の撮影時刻及び撮影場所を示すデータに基づき、ネットワーク19を介して外部の装置からこの写真に関するデータ(例えば、イベントの名称を示すデータ)を取得する方法等、他の方法が用いられてもよい。 [Attribute tag] may store various information related to the image. For example, various data such as “family”, “children”, “eldest son”, “athletic meet”, “accompanied race” can be stored in the [attribute tag] of the photograph in which the eldest son of the user is competing in an athletic meet. In this case, the data “family”, “child”, and “eldest son” are data that are automatically registered according to data stored in a subject management DB 1024 described later when the control unit 101 acquires image data, for example. is there. Further, the data “athletic meet” and “competition” are data input by the user, for example. However, the acquisition method of the data stored in the [attribute tag] is not limited to these. For example, based on the data indicating the shooting time and the shooting location of the photo, the data related to the photo (for example, from the external device via the network 19) Other methods such as a method of acquiring data indicating the name of the event may be used.
[ポイント]は、壁紙に使用される画像の選択における確率を決定するために用いられる数値(自然数)である。各画像に対するポイントの付与の方法及びポイントの利用の方法については、後述する動作の説明において併せて説明する。 [Point] is a numerical value (natural number) used to determine a probability in selecting an image used for wallpaper. A method for assigning points to each image and a method for using points will be described together in the description of operations described later.
スケジュール管理DB1022は、祝日や記念日、予定といった各種イベントに関するデータを管理するためのDBである。図4はスケジュール管理DB1022のデータ構成を示した図である。スケジュール管理DB1022はイベントの各々に応じたデータレコードを含み、各データレコードは以下のデータフィールドを有している。
[イベントID]:イベントを識別するイベントIDを格納する。
[開始時刻]:イベントの開始時刻を示す開始時刻データを格納する。
[終了時刻]:イベントの終了時刻を示す終了時刻データを格納する。
[場所]:イベントが会議等の場合、イベントが行われる場所の名称、住所、又は経度・緯度を示すデータを格納する。
[内容]:イベントの内容(例えば、「長男の誕生日」等)を示すデータを格納する。
The schedule management DB 1022 is a DB for managing data related to various events such as holidays, anniversaries, and schedules. FIG. 4 is a diagram showing a data configuration of the schedule management DB 1022. The schedule management DB 1022 includes data records corresponding to each event, and each data record has the following data fields.
[Event ID]: Stores an event ID for identifying an event.
[Start time]: Stores start time data indicating the start time of the event.
[End time]: Stores end time data indicating the end time of the event.
[Location]: When the event is a meeting or the like, the name, address, or data indicating the longitude / latitude of the location where the event is held is stored.
[Content]: Stores data indicating the content of the event (for example, “the birthday of the eldest son”).
[開始時刻]、[終了時刻]及び[内容]に格納されるデータは、例えばユーザにより入力されたデータである。また、[場所]に格納されるデータは、例えばユーザにより入力されたデータ(例えば、場所の名称や住所を示すデータ)や、ユーザにより入力されたデータに基づき、ネットワーク19を介して外部の装置から取得されたデータ(例えば、緯度・経度を示すデータ)である。 The data stored in [Start Time], [End Time], and [Content] are data input by the user, for example. The data stored in [Location] is, for example, an external device via the network 19 based on data input by the user (for example, data indicating the name or address of the location) or data input by the user. (For example, data indicating latitude / longitude) acquired from.
基準位置管理DB1023は、自宅や職場といった特定の場所(基準位置)に関するデータを管理するためのDBである。図5は基準位置管理DB1023のデータ構成を示した図である。基準位置管理DB1023は基準位置の各々に応じたデータレコードを含み、各データレコードは以下のデータフィールドを有している。
[基準位置ID]:基準位置を識別する基準位置IDを格納する。
[名称]:基準位置の名称(例えば、「自宅」、「職場」等)を示すデータを格納する。
[位置]:基準位置の緯度・経度を示す基準位置データを格納する。
[属性タグ]:ユーザが基準位置に関連付けた画像の属性タグを格納する。
The reference position management DB 1023 is a DB for managing data related to a specific place (reference position) such as a home or a workplace. FIG. 5 shows the data structure of the reference position management DB 1023. The reference position management DB 1023 includes data records corresponding to the respective reference positions, and each data record has the following data fields.
[Reference position ID]: The reference position ID for identifying the reference position is stored.
[Name]: Stores data indicating the name of the reference position (for example, “home”, “workplace”, etc.).
[Position]: Stores reference position data indicating the latitude and longitude of the reference position.
[Attribute tag]: Stores an attribute tag of an image associated with the reference position by the user.
[名称]及び[属性タグ]に格納されるデータは、例えばユーザにより入力されたデータである。また、[位置]に格納されるデータは、例えばGPS信号受信部105から受け取ったGPS信号に基づき制御部101が生成した現在位置を示すデータ(以下、「現在位置データ」という)である。ユーザは、基準位置(例えば自宅)において端末装置10に対し所定の操作を行った後、基準位置の名称(例えば「自宅」)や基準位置に関連付けたい属性タグ(例えば「家族」、「友人」)を入力することにより、基準位置管理DB1023に新たな基準位置に関するデータレコードを追加することができる。なお、[位置]に格納されるデータとして、制御部101がGPS信号に基づき生成した現在位置データに代えて、例えばユーザが端末装置10に表示される地図上で選択した位置を示す位置データが用いられてもよい。 The data stored in [Name] and [Attribute Tag] is, for example, data input by the user. The data stored in [Position] is, for example, data indicating the current position generated by the control unit 101 based on the GPS signal received from the GPS signal receiving unit 105 (hereinafter referred to as “current position data”). After the user performs a predetermined operation on the terminal device 10 at the reference position (for example, home), the name of the reference position (for example, “home”) and the attribute tags (for example, “family”, “friend”) that are to be associated with the reference position. ) Can be added to the reference position management DB 1023 to add a data record relating to a new reference position. As the data stored in [Position], for example, position data indicating the position selected on the map displayed on the terminal device 10 by the user is used instead of the current position data generated by the control unit 101 based on the GPS signal. May be used.
被写体管理DB1024は、ユーザの家族や友人等の特定の人物(以下、「登録被写体」という)に関するデータを管理するためのDBである。図6は被写体管理DB1024のデータ構成を示した図である。被写体管理DB1024は登録被写体の各々に応じたデータレコードを含み、各データレコードは以下のデータフィールドを有している。
[被写体ID]:登録被写体を識別する被写体IDを格納する。
[名称]:登録被写体の名称(例えば、「長男」、「太郎」等)を示すデータを格納する。
[特徴データ]:登録被写体の顔の特徴(例えば、顔の輪郭の形状や、眼、口、鼻の位置関係等の特徴)を示す特徴データを格納する。
[属性タグ]:ユーザが登録被写体に関連付けた画像の属性タグ(例えば、「家族」、「友人」等)を格納する。
The subject management DB 1024 is a DB for managing data relating to a specific person (hereinafter referred to as “registered subject”) such as a user's family and friends. FIG. 6 shows the data structure of the subject management DB 1024. The subject management DB 1024 includes data records corresponding to each registered subject, and each data record has the following data fields.
[Subject ID]: Stores a subject ID for identifying a registered subject.
[Name]: Stores data indicating the name of the registered subject (for example, “eldest son”, “Taro”, etc.).
[Feature data]: Stores feature data indicating the features of the face of the registered subject (for example, features such as the shape of the face contour and the positional relationship between the eyes, mouth, and nose).
[Attribute tag]: Stores an attribute tag (for example, “family”, “friend”, etc.) of the image associated with the registered subject by the user.
[名称]及び[属性タグ]に格納されるデータは、例えばユーザにより入力されたデータである。また、[特徴データ]に格納されるデータは、制御部101がカメラ106から受け取った登録被写体の写真を示す画像データを既知の画像解析手法に従い処理し生成したデータである。ユーザは、端末装置10に対し所定の操作を行い、登録したい被写体をカメラ106により撮影した後、その被写体の名称(例えば「長男」)やその被写体に関連付けたい属性タグ(例えば「家族」)を入力することにより、被写体管理DB1024に新たな登録被写体に関するデータレコードを追加することができる。 The data stored in [Name] and [Attribute Tag] is, for example, data input by the user. The data stored in [feature data] is data generated by processing image data indicating a photograph of a registered subject received from the camera 106 by the control unit 101 according to a known image analysis method. The user performs a predetermined operation on the terminal device 10 and shoots a subject to be registered with the camera 106, and then specifies a name of the subject (for example, “eldest son”) and an attribute tag (for example, “family”) to be associated with the subject. By inputting, a data record relating to a new registered subject can be added to the subject management DB 1024.
上述したハードウェア構成を備える端末装置10は、制御部101が記憶部102に記憶されているプログラムに従う処理を実行することにより、図7に示す機能構成を備える装置として動作する。 The terminal device 10 having the hardware configuration described above operates as a device having the functional configuration illustrated in FIG. 7 when the control unit 101 executes a process according to a program stored in the storage unit 102.
画像データ取得部121は、端末装置10により表示される画像を示す画像データを取得する機能構成部である。具体的には、画像データ取得部121は、制御部101が記憶部102に記憶されている画像データを読み出すことにより実現される。なお、記憶部102に記憶されている画像データには、予め記憶部102に記憶されている画像データに加え、通信部103がサーバ装置11や他の装置から受信した画像データや、カメラ106が撮影により生成した画像データが含まれる。 The image data acquisition unit 121 is a functional configuration unit that acquires image data indicating an image displayed by the terminal device 10. Specifically, the image data acquisition unit 121 is realized by the control unit 101 reading out image data stored in the storage unit 102. Note that image data stored in the storage unit 102 includes image data received by the communication unit 103 from the server device 11 and other devices, in addition to image data stored in advance in the storage unit 102, and the camera 106. Image data generated by shooting is included.
画像属性データ取得部122は、端末装置10により表示される画像の属性を示す画像属性データを取得する機能構成部である。具体的には、画像属性データ取得部122は、制御部101が記憶部102に記憶されている画像管理DB1021(図3)やスケジュール管理DB1022(図4)から画像に関連するデータを画像属性データとして読み出すことにより実現される。 The image attribute data acquisition unit 122 is a functional configuration unit that acquires image attribute data indicating an attribute of an image displayed by the terminal device 10. Specifically, the image attribute data acquisition unit 122 receives data related to an image from the image management DB 1021 (FIG. 3) or the schedule management DB 1022 (FIG. 4) stored in the storage unit 102 by the control unit 101. This is realized by reading as
環境属性データ取得部123は、端末装置10が置かれている環境の属性を示す環境属性データを取得する機能構成部である。具体的には、環境属性データ取得部123は、制御部101がGPS信号受信部105からGPS信号を受け取って現在位置データを生成し、制御部101が計時部107から現在の時刻を示す現在時刻データを受け取り、制御部101がカメラ106から外界の画像を示す画像データを受け取り、もしくは制御部101がマイク108から外界の音を示す波形データを受け取ることにより実現される。 The environment attribute data acquisition unit 123 is a functional configuration unit that acquires environment attribute data indicating an attribute of the environment where the terminal device 10 is placed. Specifically, in the environment attribute data acquisition unit 123, the control unit 101 receives a GPS signal from the GPS signal reception unit 105 to generate current position data, and the control unit 101 displays a current time indicating the current time from the time measurement unit 107. This is realized by receiving data, and the control unit 101 receives image data indicating an external image from the camera 106, or the control unit 101 receives waveform data indicating an external sound from the microphone 108.
制御部124は、表示対象の画像の選択を行い、選択した画像の表示態様を決定し、画像の表示を表示部125(後述)に指示する機能構成部である。具体的には、制御部124は、制御部101が、画像属性データ取得部122により取得された画像属性データが示す属性と、環境属性データ取得部123により取得された環境属性データが示す属性に基づき、画像データ取得部121により取得される画像データが示す画像のなかから表示対象の画像を選択するとともに、選択した画像の表示における大きさ及び濃度を決定し、決定したそれらの表示態様で画像の表示を表示部1041に指示することにより実現される。 The control unit 124 is a functional configuration unit that selects an image to be displayed, determines a display mode of the selected image, and instructs the display unit 125 (described later) to display the image. Specifically, the control unit 124 sets the attribute indicated by the image attribute data acquired by the image attribute data acquisition unit 122 and the attribute indicated by the environment attribute data acquired by the environment attribute data acquisition unit 123. Based on the image indicated by the image data acquired by the image data acquisition unit 121, an image to be displayed is selected, the size and density in the display of the selected image are determined, and the image in the determined display mode Is displayed to the display unit 1041.
表示部125は、画像を表示する機能構成部である。具体的には、表示部125は、表示部1041が制御部124の指示に従い画像を表示することにより実現される。 The display unit 125 is a functional configuration unit that displays an image. Specifically, the display unit 125 is realized by the display unit 1041 displaying an image in accordance with an instruction from the control unit 124.
図8はサーバ装置11のハードウェア構成を示すブロック図である。制御部111は、サーバ装置11の各部の動作を制御するとともに各種データの処理を行う。制御部111は、CPU等の演算処理装置やメモリを備え、所定のプログラムを実行することによって上記制御及び処理を行う。 FIG. 8 is a block diagram illustrating a hardware configuration of the server apparatus 11. The control unit 111 controls the operation of each unit of the server device 11 and processes various data. The control unit 111 includes an arithmetic processing unit such as a CPU and a memory, and performs the above control and processing by executing a predetermined program.
記憶部112は、例えばハードディスク等の記録媒体を備え、制御部111が実行するプログラム、制御部111が用いる各種データ、端末装置10との間で送受信される画像データ等を記憶する。通信部113は、アンテナやネットワーク19の通信方式に対応したモデム等を備え、データの変調・復調といったデータ通信に必要な処理を行い、ネットワーク19を介して端末装置10との間でデータを送受信する。 The storage unit 112 includes a recording medium such as a hard disk, and stores programs executed by the control unit 111, various data used by the control unit 111, image data transmitted to and received from the terminal device 10, and the like. The communication unit 113 includes an antenna and a modem corresponding to the communication method of the network 19, performs processing necessary for data communication such as data modulation / demodulation, and transmits / receives data to / from the terminal device 10 via the network 19. To do.
サーバ装置11は、任意の端末装置10から画像データの記憶、検索及び送信の要求を受け付ける。そのため、記憶部112は、端末装置10の各々が利用可能な画像データを管理するためのDBとして、端末管理DB1121を記憶している。図9は端末管理DB1121のデータ構成を示した図である。端末管理DB1121は端末装置10の各々に応じたデータレコードを含み、各データレコードは以下のデータフィールドを有している。
[端末ID]:端末装置10を識別する端末IDを格納する。
[パスワード]:端末装置10のユーザの本人認証を行うためのパスワードを格納する。
[画像ID群]:端末装置10により利用可能な画像データを識別する画像IDを格納する。
The server device 11 receives a request for storage, search, and transmission of image data from an arbitrary terminal device 10. Therefore, the storage unit 112 stores a terminal management DB 1121 as a DB for managing image data that can be used by each terminal device 10. FIG. 9 shows the data structure of the terminal management DB 1121. The terminal management DB 1121 includes data records corresponding to each of the terminal devices 10, and each data record has the following data fields.
[Terminal ID]: A terminal ID for identifying the terminal device 10 is stored.
[Password]: Stores a password for authenticating the user of the terminal device 10.
[Image ID Group]: An image ID for identifying image data that can be used by the terminal device 10 is stored.
なお、1つの端末装置10により利用可能な画像データは通常複数であるため、[画像データ群]には、それら複数の画像データを識別する複数の画像IDが格納される。 Since there are usually a plurality of image data that can be used by one terminal device 10, a plurality of image IDs for identifying the plurality of image data are stored in the [image data group].
上述したハードウェア構成を備えるサーバ装置11は、制御部111が記憶部112に記憶されているプログラムに従う処理を実行することにより、図10に示す機能構成を備える装置として動作する。 The server device 11 having the hardware configuration described above operates as a device having the functional configuration illustrated in FIG. 10 when the control unit 111 executes a process according to a program stored in the storage unit 112.
画像データ受信部131は、端末装置10から送信されてくる画像データを受信する機能構成部である。具体的には、画像データ受信部131は、制御部111が通信部113を制御して端末装置10から送信されてくる画像データを受信することにより実現される。 The image data receiving unit 131 is a functional configuration unit that receives image data transmitted from the terminal device 10. Specifically, the image data receiving unit 131 is realized when the control unit 111 controls the communication unit 113 to receive image data transmitted from the terminal device 10.
記憶部132は、画像データ受信部131により受信された画像データを記憶する機能構成部である。具体的には、記憶部132は、記憶部112が制御部111の制御の下で通信部113により受信された画像データを記憶することにより実現される。 The storage unit 132 is a functional configuration unit that stores the image data received by the image data receiving unit 131. Specifically, the storage unit 132 is realized by the storage unit 112 storing image data received by the communication unit 113 under the control of the control unit 111.
送信要求受信部133は、端末装置10から送信されてくる画像データの送信要求を受信する機能構成部である。具体的には、送信要求受信部133は、制御部111が通信部113を制御して端末装置10から送信されてくる画像データの送信要求を受信することにより実現される。 The transmission request receiving unit 133 is a functional configuration unit that receives a transmission request for image data transmitted from the terminal device 10. Specifically, the transmission request receiving unit 133 is realized when the control unit 111 controls the communication unit 113 to receive a transmission request for image data transmitted from the terminal device 10.
画像データ検索部134は、送信要求受信部133により受信された送信要求に従い、記憶部132に記憶されている画像データのなかから要求された画像データを検索する機能構成部である。具体的には、画像データ検索部134は、制御部111が送信要求により示される画像IDの画像データを記憶部112から読み出すことにより実現される。 The image data search unit 134 is a functional configuration unit that searches the requested image data from the image data stored in the storage unit 132 in accordance with the transmission request received by the transmission request reception unit 133. Specifically, the image data search unit 134 is realized when the control unit 111 reads out the image data of the image ID indicated by the transmission request from the storage unit 112.
画像データ送信部135は、送信要求に応じて画像データを端末装置10に送信する機能構成部である。具体的には、画像データ送信部135は、通信部113が制御部111の制御の下で、送信要求に従い記憶部112から読み出された画像データを端末装置10に送信することにより実現される。 The image data transmission unit 135 is a functional configuration unit that transmits image data to the terminal device 10 in response to a transmission request. Specifically, the image data transmission unit 135 is realized when the communication unit 113 transmits the image data read from the storage unit 112 to the terminal device 10 in accordance with the transmission request under the control of the control unit 111. .
(1.2.動作)
(1.2.1.画像登録動作)
次に、画像表示システム1の動作例について説明する。まず、ユーザが壁紙に利用される画像を示す画像データを端末装置10に登録する際に画像表示システム1が行う動作を説明する。
(1.2. Operation)
(1.2.1. Image registration operation)
Next, an operation example of the image display system 1 will be described. First, an operation performed by the image display system 1 when a user registers image data indicating an image used for wallpaper in the terminal device 10 will be described.
ユーザが画像データを端末装置10に登録する主な方法としては、カメラ106を用いた撮影により生成された画像データを登録する方法、通信部103を介して他の装置から受信した画像データを登録する方法がある。 As a main method of registering image data in the terminal device 10 by the user, a method of registering image data generated by photographing using the camera 106, or registering image data received from another device via the communication unit 103 is registered. There is a way to do it.
カメラ106により生成される画像データの登録においては、制御部101はカメラ106により生成された画像データを記憶部102に記憶するとともに、画像管理DB1021(図3)に新しいデータレコードを追加し、当該画像データに固有に割り当てた画像IDと、計時部107から受け取った現在時刻データと、GPS信号受信部105から受け取ったGPS信号に基づき生成した現在位置データを、追加したデータレコードの[画像ID]、[撮影時刻]、[撮影場所]に各々格納する。 In registering the image data generated by the camera 106, the control unit 101 stores the image data generated by the camera 106 in the storage unit 102 and adds a new data record to the image management DB 1021 (FIG. 3). [Image ID] of the data record in which the image ID uniquely assigned to the image data, the current time data received from the time measuring unit 107, and the current position data generated based on the GPS signal received from the GPS signal receiving unit 105 are added. , [Shooting time], and [shooting location].
また、制御部101はカメラ106により生成された画像データが示す画像を、既知の画像解析手法により解析し、その画像に人物の顔の画像が含まれるか否かを判定し、顔の画像が含まれると判定した場合、その顔の特徴を示す特徴データを生成する。その後、制御部101は生成した特徴データと被写体管理DB1024(図6)に格納されているデータレコードの各々の[特徴データ]に格納されているデータとのマッチングを行い、マッチするデータを含むデータレコードがあれば、当該データレコードの[属性タグ]に格納されているデータを、画像管理DB1021に新たに登録したデータレコードの[属性タグ]に格納する。 Further, the control unit 101 analyzes the image indicated by the image data generated by the camera 106 using a known image analysis method, determines whether or not the image includes a human face image, and the face image is If it is determined that it is included, feature data indicating the feature of the face is generated. Thereafter, the control unit 101 performs matching between the generated feature data and data stored in [feature data] of each data record stored in the subject management DB 1024 (FIG. 6), and data including matching data If there is a record, the data stored in the [attribute tag] of the data record is stored in the [attribute tag] of the data record newly registered in the image management DB 1021.
また、ユーザにより、カメラ106により撮影された写真の属性を示すデータの入力が行われた場合、制御部101は入力されたデータを画像管理DB1021に新たに登録したデータレコードの[属性タグ]に格納する。 When the user inputs data indicating the attribute of a photograph taken by the camera 106, the control unit 101 stores the input data in [Attribute tag] of the data record newly registered in the image management DB 1021. Store.
また、他の装置から通信部103を介して受信された画像データの登録においては、制御部101は通信部103から受け取った画像データを記憶部102に記憶するとともに、画像管理DB1021(図3)に新しいデータレコードを追加し、当該画像データに固有に割り当てた画像IDを、追加したデータレコードの[画像ID]に格納する。また、制御部101は、通信部103から受け取った画像データが写真を示し、当該写真の撮影時刻を示す時刻データや撮影場所を示す位置データを伴っている場合、これらのデータを、追加したデータレコードの[撮影時刻]及び[撮影場所]に各々格納する。さらに、御部101は、通信部103から受け取った画像データが撮影時刻及び撮影場所以外の属性を示すデータを伴っている場合、そのデータを、追加したデータレコードの[属性タグ]に格納する。 In addition, in registering image data received from another device via the communication unit 103, the control unit 101 stores the image data received from the communication unit 103 in the storage unit 102 and the image management DB 1021 (FIG. 3). A new data record is added, and the image ID uniquely assigned to the image data is stored in [image ID] of the added data record. In addition, when the image data received from the communication unit 103 indicates a photograph and includes time data indicating the shooting time of the photograph or position data indicating a shooting location, the control unit 101 adds these data to the added data. Stored in [shooting time] and [shooting location] of the record. Further, when the image data received from the communication unit 103 is accompanied by data indicating attributes other than the shooting time and the shooting location, the control unit 101 stores the data in the [attribute tag] of the added data record.
なお、記憶媒体から画像データを読み込んで登録する場合等、端末装置10が上述した方法とは異なる方法により取得した画像データを登録する場合も、その登録における端末装置10の動作は、上述した他のサーバから画像データを取得した場合と同様である。 Even when the terminal device 10 registers image data acquired by a method different from the method described above, such as when reading and registering image data from a storage medium, the operation of the terminal device 10 in the registration is as described above. This is the same as when image data is acquired from the server.
ユーザは上記のように画像データを端末装置10に次々と登録していくことができるが、端末装置10の記憶容量の制限を超えるデータ量の画像データを端末装置10に保存することはできない。しかしながら、画像表示システム1においては、ユーザは端末装置10に登録した画像データの一部をサーバ装置11に記憶させることにより、端末装置10の記憶容量の制限を超えたデータ量の画像データを端末装置10において利用可能としている。 Although the user can successively register the image data in the terminal device 10 as described above, image data having a data amount exceeding the storage capacity limit of the terminal device 10 cannot be stored in the terminal device 10. However, in the image display system 1, the user stores part of the image data registered in the terminal device 10 in the server device 11, so that the amount of image data exceeding the storage capacity limit of the terminal device 10 is stored in the terminal device 10. It can be used in the device 10.
ユーザが端末装置10に対し所定の操作を行い、端末装置10をサーバ装置11にログインさせた後、サーバ装置11に対し指定した画像データの移動を指示すると、端末装置10は指定された画像データを画像IDとともにサーバ装置11に送信し、送信が完了すると記憶部102から当該画像データを削除する。ただし、画像管理DB1021(図3)に格納されている、当該削除した画像データに関するデータレコードは削除されずに維持される。一方、端末装置10から画像データ及び画像IDを受信したサーバ装置11は、受信した画像データを記憶部112に記憶するとともに、端末管理DB1121(図9)のなかから、画像データのアップロード元の端末装置10に関するデータレコードを検索し、検索したデータレコードの[画像ID群]に受信した画像IDを格納する。 When the user performs a predetermined operation on the terminal device 10, logs the terminal device 10 into the server device 11, and instructs the server device 11 to move the designated image data, the terminal device 10 designates the designated image data. Is transmitted to the server apparatus 11 together with the image ID, and when the transmission is completed, the image data is deleted from the storage unit 102. However, the data record related to the deleted image data stored in the image management DB 1021 (FIG. 3) is maintained without being deleted. On the other hand, the server device 11 that has received the image data and the image ID from the terminal device 10 stores the received image data in the storage unit 112, and from the terminal management DB 1121 (FIG. 9), the terminal from which the image data is uploaded. A data record related to the device 10 is searched, and the received image ID is stored in [image ID group] of the searched data record.
上記のように端末装置10の画像管理DB1021に画像IDや属性タグ等のデータが登録され、端末装置10の記憶部102又はサーバ装置11の記憶部112に画像データが記憶されると、端末装置10はそれらの画像データを壁紙の表示に利用することができるようになる。 When data such as an image ID or an attribute tag is registered in the image management DB 1021 of the terminal device 10 as described above and the image data is stored in the storage unit 102 of the terminal device 10 or the storage unit 112 of the server device 11, the terminal device The image data 10 can be used for displaying wallpaper.
(1.2.2.壁紙切り替え表示動作)
続いて、端末装置10における壁紙の切り替え表示が行われる際に画像表示システム1が行う動作を説明する。画像表示システム1においては、以下の規則に従うように、壁紙に利用される画像の選択が行われる。
(1.2.2. Wallpaper switching display operation)
Next, an operation performed by the image display system 1 when wallpaper terminal switching display on the terminal device 10 is performed will be described. In the image display system 1, an image used for wallpaper is selected so as to comply with the following rules.
(1)画像管理DB1021(図3)において、[撮影時刻」に格納されているデータが示す日付が現在の日付に近い画像ほど、高い確率で選択する。
(2)画像管理DB1021(図3)において、[撮影場所]に格納されているデータが示す位置が端末装置10の現在の位置に近い画像ほど、高い確率で選択する。
(3)基準位置管理DB1023(図5)に登録されている基準位置のいずれか(以下、「基準位置A」とする)に関するデータレコードの[属性タグ]と画像管理DB1021(図3)に登録されている画像のいずれか(以下、「画像X」とする)に関するデータレコードの[属性タグ]に共通するデータが格納されている場合、基準位置Aの位置が端末装置10の現在の位置に近い程、画像Xを高い確率で選択する。
(4)スケジュール管理DB1022(図4)に登録されているイベントのいずれか(以下、「イベントB」とする)に関するデータレコードの[内容]と画像管理DB1021(図3)に登録されている画像のいずれか(以下、「画像Y」とする)に関するデータレコードの[属性タグ]に共通するデータが格納されている場合、イベントBの開始時刻が現在の時刻に近い程、画像Yを高い確率で選択する。
(5)ユーザにより、マイク108に対し画像の属性を示す言葉が発声された場合、画像管理DB1021(図3)において[属性タグ]に、マイク108が生成した波形データが示す属性を示すデータを格納している画像を高い確率で選択する。
(6)ユーザにより、被写体管理DB1024に登録されている人物の顔がカメラ106により撮影された場合、その人物に関連する写真を高い確率で選択する。
(1) In the image management DB 1021 (FIG. 3), an image whose date indicated by the data stored in [Shooting Time] is closer to the current date is selected with higher probability.
(2) In the image management DB 1021 (FIG. 3), an image closer to the current position of the terminal device 10 is selected with a higher probability as the position indicated by the data stored in [Shooting Location].
(3) [Attribute tag] of a data record related to one of the reference positions registered in the reference position management DB 1023 (FIG. 5) (hereinafter referred to as “reference position A”) and registered in the image management DB 1021 (FIG. 3) When data common to the [attribute tag] of the data record relating to any of the images that have been recorded (hereinafter referred to as “image X”) is stored, the position of the reference position A is the current position of the terminal device 10. The closer the image X is, the higher the probability of selecting the image X.
(4) [Content] of a data record related to one of the events registered in the schedule management DB 1022 (FIG. 4) (hereinafter referred to as “event B”) and an image registered in the image management DB 1021 (FIG. 3) If the common data is stored in the [attribute tag] of the data record related to any of the above (hereinafter referred to as “image Y”), the probability that the image Y is higher as the start time of the event B is closer to the current time Select with.
(5) When a word indicating an image attribute is uttered by the user to the microphone 108, data indicating the attribute indicated by the waveform data generated by the microphone 108 is displayed in [Attribute Tag] in the image management DB 1021 (FIG. 3). Select stored images with high probability.
(6) When the user captures the face of a person registered in the subject management DB 1024 with the camera 106, the user selects a photograph related to the person with a high probability.
制御部101は所定時間の経過毎(例えば1分毎)に、上記の(1)〜(6)の規則に従った画像の選択を行うために、画像管理DB1021(図3)に登録されている画像に対するポイントの付与を行う。まず、制御部101は、画像管理DB1021のデータレコードのなかから、[撮影時刻]が示す日付(以下、「日付d」とする)が、現在の日付(以下、「日付D」とする)の前後の所定期間(例えば、現在の日付の1週間前から1週間後までの計15日間)に入るものを抽出し、抽出したデータレコードの[ポイント]に、例えば以下のように決定されるポイントを加算する。なお、この場合、日付d及び日付Dは年を考慮せず、月日のみを考慮した日付である。 The control unit 101 is registered in the image management DB 1021 (FIG. 3) in order to select an image in accordance with the rules (1) to (6) every time a predetermined time elapses (for example, every minute). Points are given to existing images. First, in the data record of the image management DB 1021, the control unit 101 sets the date (hereinafter referred to as “date d”) indicated by [shooting time] to the current date (hereinafter referred to as “date D”). Points that fall within a predetermined period before and after (for example, a total of 15 days from one week before to one week after the current date) are extracted, and the points determined as follows, for example, in [Points] of the extracted data records Is added. In this case, the date d and the date D are dates that consider only the month and day without considering the year.
日付Dと日付dの差が0日(同日)の場合、80ポイントを加算。
日付Dと日付dの差が1日の場合、70ポイントを加算。
日付Dと日付dの差が2日の場合、60ポイントを加算。
日付Dと日付dの差が3日の場合、50ポイントを加算。
日付Dと日付dの差が4日の場合、40ポイントを加算。
日付Dと日付dの差が5日の場合、30ポイントを加算。
日付Dと日付dの差が6日の場合、20ポイントを加算。
日付Dと日付dの差が7日の場合、10ポイントを加算。
If the difference between date D and date d is 0 (same day), add 80 points.
If the difference between date D and date d is 1 day, add 70 points.
If the difference between Date D and Date d is 2 days, add 60 points.
If the difference between date D and date d is 3 days, add 50 points.
If the difference between date D and date d is 4 days, add 40 points.
If the difference between date D and date d is 5 days, add 30 points.
If the difference between date D and date d is 6 days, add 20 points.
If the difference between date D and date d is 7 days, add 10 points.
すなわち、制御部101は、撮影時刻が示す日付が現在の日付により近い画像に対し、より多くのポイントを付与する。 That is, the control unit 101 gives more points to an image whose date indicated by the shooting time is closer to the current date.
また、制御部101は、画像管理DB1021のデータレコードのなかから、[撮影場所]が示す位置(以下、「位置l」とする)が、端末装置10の現在の位置(以下、「位置L」とする)から所定距離以内のエリア(例えば、位置Lから1000m以内のエリア)に入るものを抽出し、抽出したデータレコードの[ポイント]に、例えば以下のように決定されるポイントを加算する。 Further, the control unit 101 determines that the position (hereinafter referred to as “position l”) indicated by [shooting location] from the data record of the image management DB 1021 is the current position (hereinafter referred to as “position L”) of the terminal device 10. And an area within a predetermined distance (for example, an area within 1000 m from the position L) is extracted, and for example, a point determined as follows is added to [Point] of the extracted data record.
位置Lと位置lとの距離が0m以上100m未満の場合、100ポイントを加算。
位置Lと位置lとの距離が100m以上200m未満の場合、90ポイントを加算。
位置Lと位置lとの距離が200m以上300m未満の場合、80ポイントを加算。
位置Lと位置lとの距離が300m以上400m未満の場合、70ポイントを加算。
位置Lと位置lとの距離が400m以上500m未満の場合、60ポイントを加算。
位置Lと位置lとの距離が500m以上600m未満の場合、50ポイントを加算。
位置Lと位置lとの距離が600m以上700m未満の場合、40ポイントを加算。
位置Lと位置lとの距離が700m以上800m未満の場合、30ポイントを加算。
位置Lと位置lとの距離が800m以上900m未満の場合、20ポイントを加算。
位置Lと位置lとの距離が900m以上1000m未満の場合、10ポイントを加算。
When the distance between the position L and the position l is 0 m or more and less than 100 m, 100 points are added.
When the distance between the position L and the position l is 100 m or more and less than 200 m, 90 points are added.
When the distance between the position L and the position l is 200 m or more and less than 300 m, 80 points are added.
When the distance between the position L and the position l is 300 m or more and less than 400 m, 70 points are added.
If the distance between the position L and the position l is 400m or more and less than 500m, 60 points are added.
When the distance between the position L and the position l is 500 m or more and less than 600 m, 50 points are added.
If the distance between the position L and the position l is 600 m or more and less than 700 m, 40 points are added.
If the distance between the position L and the position l is 700m or more and less than 800m, add 30 points.
When the distance between the position L and the position l is 800 m or more and less than 900 m, 20 points are added.
When the distance between the position L and the position l is 900 m or more and less than 1000 m, 10 points are added.
すなわち、制御部101は、画像の撮影位置が端末装置10の現在の位置により近い画像に対し、より多くのポイントを付与する。 That is, the control unit 101 gives more points to an image whose image shooting position is closer to the current position of the terminal device 10.
また、制御部101、基準位置管理DB1023(図5)のデータレコードのなかから、[位置]に格納されているデータが示す基準位置(以下、「位置M」とする)が、端末装置10の現在の位置、すなわち位置Lから所定距離以内のエリア(例えば、位置Lから1000m以内のエリア)に入るものを抽出する。基準位置管理DB1023から1以上のデータレコードを抽出した場合、制御部101は続いて、画像管理DB1021のデータレコードのなかから、[属性タグ]に、先に基準位置管理DB1023から抽出したデータレコードの[属性タグ]に格納されているデータと共通するデータ(一部共通でも可)を格納しているものを抽出する。 The reference position (hereinafter referred to as “position M”) indicated by the data stored in [Position] from the data records of the control unit 101 and the reference position management DB 1023 (FIG. 5) A current position, that is, an area that falls within a predetermined distance from the position L (for example, an area within 1000 m from the position L) is extracted. When one or more data records are extracted from the reference position management DB 1023, the control unit 101 continues to select the data record previously extracted from the reference position management DB 1023 from [Attribute tag] from the data records of the image management DB 1021. Extracts data that stores data common to the data stored in [Attribute tag] (may be partially common).
例えば、制御部101が基準位置管理DB1023において[属性タグ]に「家族」及び「友人」が格納されているデータレコードを、端末装置10の現在位置(位置L)から1000m以内の基準位置に関するデータレコードとして抽出した場合、制御部101は画像管理DB1021のデータレコードのなかから、[属性タグ]に「家族」又は「友人」が格納されているデータレコードを抽出する。 For example, the control unit 101 uses a data record in which “family” and “friend” are stored in [attribute tag] in the reference position management DB 1023 as data related to a reference position within 1000 m from the current position (position L) of the terminal device 10. When extracted as a record, the control unit 101 extracts a data record in which “family” or “friend” is stored in [attribute tag] from the data records of the image management DB 1021.
続いて、制御部101は上記のように画像管理DB1021から抽出したデータレコードの[ポイント]に、例えば以下のように決定されるポイントを加算する。 Subsequently, the control unit 101 adds a point determined as follows, for example, to [Point] of the data record extracted from the image management DB 1021 as described above.
位置Lと位置Mとの距離が0m以上100m未満の場合、100ポイントを加算。
位置Lと位置Mとの距離が100m以上200m未満の場合、90ポイントを加算。
位置Lと位置Mとの距離が200m以上300m未満の場合、80ポイントを加算。
位置Lと位置Mとの距離が300m以上400m未満の場合、70ポイントを加算。
位置Lと位置Mとの距離が400m以上500m未満の場合、60ポイントを加算。
位置Lと位置Mとの距離が500m以上600m未満の場合、50ポイントを加算。
位置Lと位置Mとの距離が600m以上700m未満の場合、40ポイントを加算。
位置Lと位置Mとの距離が700m以上800m未満の場合、30ポイントを加算。
位置Lと位置Mとの距離が800m以上900m未満の場合、20ポイントを加算。
位置Lと位置Mとの距離が900m以上1000m未満の場合、10ポイントを加算。
When the distance between the position L and the position M is 0 m or more and less than 100 m, 100 points are added.
90 points are added when the distance between the position L and the position M is 100 m or more and less than 200 m.
When the distance between the position L and the position M is 200 m or more and less than 300 m, 80 points are added.
When the distance between the position L and the position M is 300 m or more and less than 400 m, 70 points are added.
If the distance between the position L and the position M is 400m or more and less than 500m, add 60 points.
When the distance between the position L and the position M is 500 m or more and less than 600 m, 50 points are added.
When the distance between the position L and the position M is 600 m or more and less than 700 m, 40 points are added.
If the distance between position L and position M is 700m or more and less than 800m, add 30 points.
When the distance between the position L and the position M is 800 m or more and less than 900 m, 20 points are added.
When the distance between the position L and the position M is 900 m or more and less than 1000 m, 10 points are added.
すなわち、制御部101は、端末装置10の現在の位置により近い基準位置に関連する画像に対し、より多くのポイントを付与する。 That is, the control unit 101 gives more points to the image related to the reference position that is closer to the current position of the terminal device 10.
また、制御部101は、スケジュール管理DB1022(図4)のデータレコードのなかから[開始時刻]に格納されているデータが示す日付(以下、「日付e」とする)が、現在の日付(以下、「日付E」とする)の前後の所定期間(例えば、現在の日付の1週間前から1週間後までの計15日間)に入るものを抽出する。なお、この場合、日付e及び日付Eは年月日の全てを考慮した日付である。 Further, the control unit 101 determines that the date (hereinafter referred to as “date e”) indicated by the data stored in [Start Time] from the data record of the schedule management DB 1022 (FIG. 4) is the current date (hereinafter referred to as “date e”) , “Date E”) and those that fall within a predetermined period (for example, a total of 15 days from one week before to one week after the current date) are extracted. In this case, the date e and the date E are dates that consider all dates.
スケジュール管理DB1022から1以上のデータレコードを抽出した場合、制御部101は続いて、画像管理DB1021のデータレコードのなかから、[属性タグ]に、先にスケジュール管理DB1022から抽出したデータレコードの[内容]に格納されているデータと共通するデータ(一部共通でも可)を格納しているものを抽出する。 When one or more data records are extracted from the schedule management DB 1022, the control unit 101 continues to select [attribute tag] from the data records of the image management DB 1021 and [contents of the data record previously extracted from the schedule management DB 1022]. ], Which stores data common to the data stored in () (some may be common) is extracted.
例えば、制御部101がスケジュール管理DB1022において[内容]に「長男の誕生日」が格納されているデータレコードを、現在の日付(日付E)の1週間前から1週間後までの計15日間の期間内に開始するイベントに関するデータレコードとして抽出した場合、制御部101は画像管理DB1021のデータレコードのなかから、[属性タグ]に「長男」又は「誕生日」が格納されているデータレコードを抽出する。 For example, the control unit 101 stores data records in which “birthday of the eldest son” is stored in [content] in the schedule management DB 1022 for a total of 15 days from one week before the current date (date E) to one week later. When extracted as a data record related to an event that starts within the period, the control unit 101 extracts a data record in which “eldest son” or “birthday” is stored in [attribute tag] from the data records of the image management DB 1021 To do.
続いて、制御部101は上記のように画像管理DB1021から抽出したデータレコードの[ポイント]に、例えば以下のように決定されるポイントを加算する。 Subsequently, the control unit 101 adds a point determined as follows, for example, to [Point] of the data record extracted from the image management DB 1021 as described above.
日付Eと日付eの差が0日(同日)の場合、80ポイントを加算。
日付Eと日付eの差が1日の場合、70ポイントを加算。
日付Eと日付eの差が2日の場合、60ポイントを加算。
日付Eと日付eの差が3日の場合、50ポイントを加算。
日付Eと日付eの差が4日の場合、40ポイントを加算。
日付Eと日付eの差が5日の場合、30ポイントを加算。
日付Eと日付eの差が6日の場合、20ポイントを加算。
日付Eと日付eの差が7日の場合、10ポイントを加算。
If the difference between date E and date e is 0 (same day), add 80 points.
If the difference between date E and date e is one day, add 70 points.
If the difference between date E and date e is 2 days, add 60 points.
If the difference between date E and date e is 3 days, add 50 points.
If the difference between date E and date e is 4 days, add 40 points.
If the difference between date E and date e is 5 days, add 30 points.
If the difference between date E and date e is 6 days, add 20 points.
If the difference between date E and date e is 7 days, add 10 points.
すなわち、制御部101は、開始時刻が示す日付が現在の日付により近いイベントに関連する画像に対し、より多くのポイントを付与する。 That is, the control unit 101 gives more points to an image related to an event whose date indicated by the start time is closer to the current date.
また、制御部101は、ユーザが端末装置10に対し音声による画像の抽出を指示する所定の操作を行った後、何らかの属性を示す言葉を発声した場合、マイク108により生成された波形データが示す言葉を既知の音声認識手法により解析し、画像管理DB1021のデータレコードのなかから、[属性タグ]に、波形データの解析により得られた言葉を示すデータを含むものを抽出する。 Further, when the user utters a word indicating some attribute after the user performs a predetermined operation to instruct the terminal device 10 to extract an image by voice, the waveform data generated by the microphone 108 indicates The words are analyzed by a known voice recognition method, and the data including the data indicating the words obtained by the analysis of the waveform data is extracted from the [attribute tag] from the data records of the image management DB 1021.
例えば、ユーザが「スカイタワー」と発声した場合、制御部101は画像管理DB1021のなかから、[属性タグ]に「スカイタワー」が格納されているデータレコードを抽出する。 For example, when the user utters “Sky Tower”, the control unit 101 extracts a data record in which “Sky Tower” is stored in [Attribute Tag] from the image management DB 1021.
続いて、制御部101は上記のように画像管理DB1021から抽出したデータレコードの[ポイント]に、例えば以下のように決定されるポイントを加算する。 Subsequently, the control unit 101 adds a point determined as follows, for example, to [Point] of the data record extracted from the image management DB 1021 as described above.
発声が行われた時刻からの経過時間が2分未満の場合、100ポイントを加算。
発声が行われた時刻からの経過時間が2分以上4分未満の場合、90ポイントを加算。
発声が行われた時刻からの経過時間が4分以上6分未満の場合、80ポイントを加算。
発声が行われた時刻からの経過時間が6分以上8分未満の場合、70ポイントを加算。
発声が行われた時刻からの経過時間が8分以上10分未満の場合、60ポイントを加算。
発声が行われた時刻からの経過時間が10分以上12分未満の場合、50ポイントを加算。
発声が行われた時刻からの経過時間が12分以上14分未満の場合、40ポイントを加算。
発声が行われた時刻からの経過時間が14分以上16分未満の場合、30ポイントを加算。
発声が行われた時刻からの経過時間が16分以上18分未満の場合、20ポイントを加算。
発声が行われた時刻からの経過時間が18分以上20分未満の場合、10ポイントを加算。
If the elapsed time from the time when the utterance was made is less than 2 minutes, 100 points are added.
If the elapsed time from the time when the utterance was made is 2 minutes or more and less than 4 minutes, 90 points are added.
If the elapsed time from the time when the utterance was made is 4 minutes or more and less than 6 minutes, 80 points are added.
If the elapsed time from the time when the utterance was made is 6 minutes or more and less than 8 minutes, 70 points are added.
If the elapsed time from the time when the utterance was made is 8 minutes or more and less than 10 minutes, 60 points are added.
If the elapsed time from the time when the utterance was made is 10 minutes or more and less than 12 minutes, 50 points are added.
If the elapsed time from the time when the utterance was made is 12 minutes or more and less than 14 minutes, 40 points are added.
If the elapsed time from the time when the utterance was made is 14 minutes or more and less than 16 minutes, 30 points are added.
If the elapsed time from the time when the utterance was made is 16 minutes or more and less than 18 minutes, 20 points are added.
If the elapsed time from the time when the utterance was made is 18 minutes or more and less than 20 minutes, 10 points are added.
すなわち、制御部101は、ユーザによる属性の発声が行われた時刻からの経過時間が短い程、発声された属性に関連する画像に対し、より多くのポイントを付与する。 That is, the control unit 101 gives more points to the image related to the uttered attribute as the elapsed time from the time when the attribute is uttered by the user is shorter.
また、ユーザが端末装置10に対し撮影による画像の抽出を指示する所定の操作を行った場合、カメラ106は撮影により画像データを生成し、制御部101はカメラ106が生成した画像データが示す被写体の顔の特徴データを生成する。続いて、制御部101は被写体管理DB1024(図6)のデータレコードのなかから、[特徴データ]に、撮影された画像から生成した特徴データとマッチするデータを含むものを抽出する。 Further, when the user performs a predetermined operation for instructing the terminal device 10 to extract an image by shooting, the camera 106 generates image data by shooting, and the control unit 101 indicates the subject indicated by the image data generated by the camera 106. The facial feature data is generated. Subsequently, the control unit 101 extracts, from the data record of the subject management DB 1024 (FIG. 6), the [feature data] including data that matches the feature data generated from the photographed image.
被写体管理DB1024から1以上のデータレコードを抽出した場合、制御部101は続いて、画像管理DB1021のデータレコードのなかから、[属性タグ]に、先に被写体管理DB1024から抽出したデータレコードの[属性タグ]に格納されているデータと共通するデータ(一部共通でも可)を格納しているものを抽出する。 When one or more data records are extracted from the subject management DB 1024, the control unit 101 subsequently selects [attribute tag] from the data records of the image management DB 1021 and [attributes of the data records previously extracted from the subject management DB 1024. Extract data that stores data common to the data stored in [Tag] (may be partially common).
例えば、被写体管理DB1024にユーザの長男の顔の特徴データが、「長男」という属性タグとともに登録されている場合、ユーザが長男を撮影すると、制御部101は画像管理DB1021のなかから、[属性タグ]に「長男」が格納されているデータレコードを抽出する。 For example, when the feature data of the face of the user's eldest son is registered in the subject management DB 1024 together with the attribute tag “eldest son”, when the user takes a picture of the eldest son, the control unit 101 selects the attribute tag from the image management DB 1021. ], The data record in which “eldest son” is stored is extracted.
続いて、制御部101は上記のように画像管理DB1021から抽出したデータレコードの[ポイント]に、例えば以下のように決定されるポイントを加算する。 Subsequently, the control unit 101 adds a point determined as follows, for example, to [Point] of the data record extracted from the image management DB 1021 as described above.
撮影が行われた時刻からの経過時間が2分未満の場合、100ポイントを加算。
撮影が行われた時刻からの経過時間が2分以上4分未満の場合、90ポイントを加算。
撮影が行われた時刻からの経過時間が4分以上6分未満の場合、80ポイントを加算。
撮影が行われた時刻からの経過時間が6分以上8分未満の場合、70ポイントを加算。
撮影が行われた時刻からの経過時間が8分以上10分未満の場合、60ポイントを加算。
撮影が行われた時刻からの経過時間が10分以上12分未満の場合、50ポイントを加算。
撮影が行われた時刻からの経過時間が12分以上14分未満の場合、40ポイントを加算。
撮影が行われた時刻からの経過時間が14分以上16分未満の場合、30ポイントを加算。
撮影が行われた時刻からの経過時間が16分以上18分未満の場合、20ポイントを加算。
撮影が行われた時刻からの経過時間が18分以上20分未満の場合、10ポイントを加算。
If the elapsed time from the time the photo was taken is less than 2 minutes, add 100 points.
90 points are added if the elapsed time from the time of shooting is 2 minutes or more and less than 4 minutes.
If the elapsed time from the time of shooting is 4 minutes or more and less than 6 minutes, 80 points are added.
If the elapsed time from the time of shooting is 6 minutes or more and less than 8 minutes, 70 points are added.
60 points are added if the elapsed time from the time of shooting is 8 minutes or more and less than 10 minutes.
If the elapsed time from the time the photo was taken is 10 minutes or more and less than 12 minutes, 50 points are added.
40 points are added if the elapsed time from the time of shooting is 12 minutes or more and less than 14 minutes.
Add 30 points if the elapsed time from the time the photo was taken is 14 minutes or more and less than 16 minutes.
20 points are added if the elapsed time from the time of shooting is 16 minutes or more and less than 18 minutes.
If the elapsed time from the time of shooting is 18 minutes or more and less than 20 minutes, 10 points are added.
すなわち、制御部101は、ユーザによる被写体の撮影が行われた時刻からの経過時間が短い程、撮影された被写体に関連する画像に対し、より多くのポイントを付与する。 That is, the control unit 101 gives more points to the image related to the photographed subject as the elapsed time from the time when the subject was photographed by the user is shorter.
制御部101は、上述したポイントの加算の処理を完了すると、画像管理DB1021に含まれる全データレコードの[ポイント]に所定数のポイント(例えば、1ポイント)を一律に加算する。このポイントの一律加算により、上述したポイントの加算の処理においてポイントの加算が行われなかった画像に対しても、以下に述べる確率の算出において正の確率が算出される。そのため、全ての画像が壁紙の表示において利用される可能性がある。 When the control unit 101 completes the above point addition processing, the control unit 101 uniformly adds a predetermined number of points (for example, one point) to [points] of all data records included in the image management DB 1021. With the uniform addition of points, a positive probability is calculated in the probability calculation described below even for an image that has not been subjected to point addition in the above-described point addition processing. For this reason, all images may be used in the display of wallpaper.
続いて、制御部101は、画像管理DB1021に含まれるデータレコードの数が全部でn個であり、k番目(kは1≦k≦nである任意の自然数)のデータレコードの[ポイント]に格納されているデータの値をPkとするとき、このk番目のデータレコードに応じた確率Rkを以下の式1に従い算出する。
続いて、制御部101は、上記のように算出した確率Rkに従い、画像管理DB1021に登録されている画像のなかから所定数(以下、5つとする)の画像を選択する。 Subsequently, the control unit 101 selects a predetermined number (hereinafter, five) of images from the images registered in the image management DB 1021 according to the probability R k calculated as described above.
続いて、制御部101は選択した5つの画像を示す画像データが記憶部102に記憶されているか否かを確認し、記憶部102に記憶されていない画像データに関しては、その画像データの画像IDを含む送信要求を、通信部103を介してサーバ装置11に送信する。なお、その際、必要に応じて端末装置10のサーバ装置11に対するログインの処理が行われる。 Subsequently, the control unit 101 confirms whether or not image data indicating the selected five images is stored in the storage unit 102. For image data not stored in the storage unit 102, the image ID of the image data is stored. Is transmitted to the server apparatus 11 via the communication unit 103. At that time, login processing for the server device 11 of the terminal device 10 is performed as necessary.
サーバ装置11の制御部111は通信部113を介して端末装置10から送信要求を受け取ると、その送信要求に含まれる画像IDで識別される画像データを記憶部112から読み出し、通信部113を介して要求元の端末装置10に送信する。端末装置10の制御部101は通信部103を介してサーバ装置11から送られてくる画像データを受信すると、受信した画像データを記憶部102に記憶させる。 When the control unit 111 of the server device 11 receives a transmission request from the terminal device 10 via the communication unit 113, the control unit 111 reads image data identified by the image ID included in the transmission request from the storage unit 112, and transmits the image data via the communication unit 113. To the requesting terminal device 10. When the control unit 101 of the terminal device 10 receives image data sent from the server device 11 via the communication unit 103, the control unit 101 stores the received image data in the storage unit 102.
続いて、制御部101は、選択した5つの画像の画像データを用いて、それら5つの画像を合成した1枚の壁紙の画像を示す壁紙画像データを生成する。壁紙画像データの生成において、制御部101はそれら5つの画像の壁紙における大きさの比率を、例えば以下の式2に従い決定する。ただし、式2において、S1〜S5は、確率Rkが大きい順に画像1〜画像5とする場合、各々、画像1〜画像5の壁紙におけるサイズの比率を示す。
また、壁紙画像データの生成において、制御部101は5つの画像の壁紙における濃度の比率を、例えば以下の式3に従い決定する。ただし、式3において、C1〜C5は、比率Rkが大きい順に画像1〜画像5とする場合、各々、画像1〜画像5の壁紙における濃度の比率を示す。
制御部101は、上記のように生成した壁紙画像データに従った壁紙の表示を表示部1041に指示する。端末装置10は、所定時間の経過毎(例えば1分毎)に、上述したポイントの付与、ポイントに基づく確率Rkの算出、算出した確率Rkに従った画像データの選択、選択した画像データを用いた壁紙画像データの生成、壁紙画像データに従った壁紙の表示、という一連の処理を繰り返す。その結果、表示部1041には、端末装置10が置かれた環境に応じた画像が、高い確率で壁紙に表示されることになる。 The control unit 101 instructs the display unit 1041 to display wallpaper according to the wallpaper image data generated as described above. The terminal device 10 assigns the above-described points, calculates the probability R k based on the points, selects image data according to the calculated probability R k , and selects the selected image data every time a predetermined time elapses (for example, every minute). A series of processes of generating wallpaper image data using and displaying wallpaper according to wallpaper image data is repeated. As a result, an image corresponding to the environment in which the terminal device 10 is placed is displayed on the display unit 1041 with high probability on the wallpaper.
図11〜図16は、画像表示システム1において端末装置10が表示する壁紙の内容を模式的に示した図である。図11は、1年間における特定の日が近付いてくると、端末装置10の壁紙に、ユーザが過去のその日に撮影した写真が高い確率で表示される様子を示した図である。このように、画像表示システム1によれば、過去の異なる年の近い月日に撮影された写真が高い確率で壁紙に表示されるため、ユーザは例えば過去の同じ時節の記憶を、壁紙を通じて思い出すことができる。 FIGS. 11-16 is the figure which showed typically the content of the wallpaper which the terminal device 10 displays in the image display system 1. FIG. FIG. 11 is a diagram illustrating a state in which a photograph taken by a user on the day in the past is displayed with a high probability on a wallpaper of the terminal device 10 when a specific day in one year approaches. As described above, according to the image display system 1, since a photograph taken on a date close to a different year in the past is displayed on the wallpaper with a high probability, the user remembers, for example, the memory of the same time in the past through the wallpaper. be able to.
図12は、ユーザが特定の場所の近くに行くと、端末装置10の壁紙に、その特定の場所の周辺で撮影された写真が高い確率で表示される様子を示した図である。このように、画像表示システム1によれば、ユーザが現在いる場所に関連する画像が高い確率で壁紙に表示されるため、ユーザは例えば現在の場所の近くにある名所を、壁紙を通じて知ったり、過去に同じ場所を訪れた際の記憶を、壁紙を通じて思い出したりすることができる。 FIG. 12 is a diagram illustrating a state in which, when the user goes near a specific place, photographs taken around the specific place are displayed on the wallpaper of the terminal device 10 with high probability. As described above, according to the image display system 1, an image related to the location where the user is present is displayed on the wallpaper with a high probability, so that the user can know the famous places near the current location through the wallpaper, You can remember the memories of visiting the same place in the past through wallpaper.
図13は、ユーザが自宅もしくはその近くにいる時には端末装置10の壁紙に家族や友人の写真が高い確率で表示され、ユーザが職場もしくはその近くにいる時には端末装置10の壁紙に風景の写真等が高い確率で表示される様子を示した図である。このように、画像表示システム1によれば、ユーザが現在いる場所に適した画像が高い確率で壁紙に表示されるため、例えば職場においてプライベートの写真ばかりが壁紙に表示される、といった不都合が回避される。 In FIG. 13, when the user is at or near the home, a picture of a family member or friend is displayed with a high probability on the wallpaper of the terminal device 10, and when the user is at or near the workplace, a landscape photograph or the like is displayed on the wallpaper of the terminal device 10. It is the figure which showed a mode that is displayed with high probability. As described above, according to the image display system 1, an image suitable for the location where the user is present is displayed on the wallpaper with a high probability, so that the inconvenience that only private photos are displayed on the wallpaper in the workplace is avoided. Is done.
図14は、スケジュールに登録されているイベントが近付いてくると、端末装置10の壁紙に、イベントに関連する画像が高い確率で表示される様子を示した図である。このように、画像表示システム1によれば、スケジュールに登録されているイベントが近付いてくると、そのイベントに関連する画像が高い確率で壁紙に表示されるため、ユーザは例えばイベントが近付いたことを、壁紙を通じて気付くことができる。 FIG. 14 is a diagram illustrating a state in which an image related to an event is displayed with high probability on the wallpaper of the terminal device 10 when an event registered in the schedule approaches. As described above, according to the image display system 1, when an event registered in the schedule approaches, an image related to the event is displayed on the wallpaper with a high probability. Can be noticed through the wallpaper.
図15は、ユーザがキーワードと発声すると、端末装置10の壁紙に、キーワードに関連する画像が高い確率で表示される様子を示した図である。このように、画像表示システム1によれば、ユーザはキーワードを発声することにより、希望する内容の画像を高い確率で壁紙に表示させることができる。 FIG. 15 is a diagram illustrating a state in which an image related to the keyword is displayed with high probability on the wallpaper of the terminal device 10 when the user utters the keyword. Thus, according to the image display system 1, the user can display an image having a desired content on the wallpaper with a high probability by uttering a keyword.
図16は、ユーザが人物を撮影すると、端末装置10の壁紙に、その人物の写真が高い確率で表示される様子を示した図である。このように、画像表示システム1によれば、ユーザは人物を撮影することにより、その人物の写真を高い確率で壁紙に表示させることができる。 FIG. 16 is a diagram illustrating a state in which a photograph of a person is displayed with high probability on the wallpaper of the terminal device 10 when the user captures a person. Thus, according to the image display system 1, the user can display a photograph of the person on the wallpaper with a high probability by photographing the person.
なお、端末装置10において、高い確率で表示される画像は、より大きく、より高い濃度で表示される。その結果、それらの画像はユーザの目に留まりやすく、またユーザの印象に残りやすい。 In the terminal device 10, an image displayed with a high probability is displayed with a larger and higher density. As a result, those images tend to be noticed by the user and remain in the user's impression.
以上述べたように、画像表示システム1によれば、端末装置10が置かれている環境に応じた画像が高い確率で表示されるため、ユーザの目に留まりやすい。その結果、ユーザは画像の表示機能に利便性を感じることができる。また、画像表示システム1によれば、端末装置10において表示される画像は確率に従い選択されるため、同じ環境下においても必ずしも同じ画像が表示されるとは限らない。従って、ユーザは表示される画像に単調さを感じることなく、飽きずにそれらの画像を見ることができる。 As described above, according to the image display system 1, an image corresponding to the environment in which the terminal device 10 is placed is displayed with a high probability, so that the image display system 1 is easily noticed by the user. As a result, the user can feel the convenience of the image display function. Moreover, according to the image display system 1, since the image displayed on the terminal device 10 is selected according to the probability, the same image is not always displayed even in the same environment. Therefore, the user can see these images without getting tired without feeling monotonous in the displayed images.
[変形例]
上述した実施例は本発明の一具体例であって、様々に変形することができる。以下にそれらの変形の例を示す。
[Modification]
The above-described embodiment is a specific example of the present invention and can be variously modified. Examples of these modifications are shown below.
(1)上述した実施例は本発明を壁紙の切り替え機能に適用した例であるが、本発明は壁紙の切り替え機能に限らず、複数の画像のなかから一部の画像を選択して表示する機能であれば、いずれにも適用可能である。 (1) The above-described embodiment is an example in which the present invention is applied to the wallpaper switching function. However, the present invention is not limited to the wallpaper switching function, and a part of images are selected and displayed from a plurality of images. Any function can be applied.
例えば、ユーザの操作に応じて、端末装置10もしくはサーバ装置11に記憶されている画像データが示す画像もしくは当該画像のサムネイル画像を端末装置10の表示部1041に一覧表示するような場合においても、本発明は適用可能である。その場合、端末装置10には、例えば、端末装置10の置かれている環境に応じた確率で選択された画像群が第1ページに表示され、第1ページに表示されなかった画像のなかから、同じく端末装置10の置かれている環境に応じた確率で選択された画像群が第2ページに表示され、・・・という具合に、順次、画像群の表示が行われることになる。 For example, even when a list of images indicated by image data stored in the terminal device 10 or the server device 11 or thumbnail images of the image is displayed on the display unit 1041 of the terminal device 10 in response to a user operation, The present invention is applicable. In that case, the terminal device 10 displays, for example, an image group selected with a probability according to the environment in which the terminal device 10 is placed on the first page, and from among the images not displayed on the first page. Similarly, the image group selected with a probability corresponding to the environment where the terminal device 10 is placed is displayed on the second page, and so on.
(2)上述した実施例においては、端末装置10の置かれている環境に応じた確率に従い、表示対象の画像の選択が行われる構成が採用されている。これに代えて、もしくはこれに加えて、端末装置10の置かれている環境に応じた確率に従い、画像の表示態様が、複数の選択肢のなかから選択される構成が採用されてもよい。 (2) In the above-described embodiment, a configuration is adopted in which an image to be displayed is selected according to the probability according to the environment where the terminal device 10 is placed. Instead of this, or in addition to this, a configuration in which the image display mode is selected from a plurality of options according to the probability according to the environment in which the terminal device 10 is placed may be employed.
例えば、画像の表示態様としては、画像のサイズ、濃さ、アニメーション表示(点滅等)等が考えられる。例えば、画像のサイズとして大と小の2つの選択肢があり、1つの画面に大のサイズの画像が1枚、小のサイズの画像が4枚、の計5枚の画像が表示可能である場合を考える。この場合、制御部101は利用可能な画像のなかからランダムに5枚の画像を選択した後、これら5枚の画像の各々に関し、例えば以下の式4に従い、確率Rq(ただし、qは5つの画像の各々に応じた1〜5のいずれかの自然数、Pqは5枚の画像の各々のポイント)を算出する。
続いて、制御部101は上記のように算出した確率Rqに従い、5枚の画像のなかから大のサイズで表示する画像を1枚、選択する。制御部101はそのように選択した1枚の画像を大のサイズで、他の4枚の画像を小のサイズで表示するように、表示部1041に指示する。その結果、端末装置10の置かれている環境に応じた画像が、より高い確率で大きなサイズで表示されることになる。 Subsequently, the control unit 101 selects one image to be displayed in a large size from among the five images according to the probability R q calculated as described above. The control unit 101 instructs the display unit 1041 to display one image thus selected in a large size and the other four images in a small size. As a result, an image corresponding to the environment where the terminal device 10 is placed is displayed with a higher probability and a larger size.
上記の例は画像の表示態様としてサイズを変更する例であるが、画像の表示における濃度やアニメーション表示等の他の種類の表示態様を変更する場合も同様である。また、上記の例は表示態様の選択肢の数が2つ(大と小)であるが、選択肢の数は3以上であってもよい。 The above example is an example in which the size is changed as the display mode of the image, but the same applies to the case of changing other types of display modes such as density and animation display in the display of the image. In the above example, the number of display mode options is two (large and small), but the number of options may be three or more.
この変形例によれば、例えばユーザの現在位置に近い位置で撮影された写真が高い確率で大きく表示される、というように、端末装置10の置かれている環境に応じた特定の画像が高い確率で目立つように表示される。その結果、ユーザは表示される画像により利便性を感じることができるとともに、単調性がないため、飽きを感じにくい。 According to this modification, for example, a specific image corresponding to the environment in which the terminal device 10 is placed is high such that a photograph taken at a position close to the current position of the user is displayed with high probability. Prominently displayed with probability. As a result, the user can feel convenience from the displayed image and is not monotonous.
(3)上述した実施例においては、端末装置10において利用可能な画像データの一部はサーバ装置11に記憶される構成が採用されている。これに代えて、端末装置10が利用可能な画像データは全て端末装置10に記憶される構成が採用されてもよい。その場合、画像表示システム1にサーバ装置11は不要となる。 (3) In the above-described embodiment, a configuration in which a part of image data usable in the terminal device 10 is stored in the server device 11 is employed. Instead of this, a configuration in which all image data that can be used by the terminal device 10 is stored in the terminal device 10 may be employed. In that case, the server device 11 is not required in the image display system 1.
(4)上述した実施例においては、端末装置10において表示される画像の選択処理は端末装置10において行われる構成が採用されている。これに代えて、端末装置10において表示される画像の選択処理がサーバ装置11において行われる構成が採用されてもよい。その場合、端末装置10が備える画像属性データ取得部122、環境属性データ取得部123及び制御部124に相当する機能構成部をサーバ装置11に設け、サーバ装置11が必要に応じて環境属性データ(例えば、端末装置10の現在位置を示す現在位置データ)を端末装置10から受信し、画像データの選択を行い、選択した画像データを端末装置10に送信するように構成すればよい。 (4) In the above-described embodiment, a configuration in which the selection process of the image displayed on the terminal device 10 is performed on the terminal device 10 is employed. Instead of this, a configuration in which the server device 11 performs a selection process of an image displayed on the terminal device 10 may be employed. In that case, the server apparatus 11 is provided with functional configuration units corresponding to the image attribute data acquisition unit 122, the environment attribute data acquisition unit 123, and the control unit 124 included in the terminal device 10, and the server apparatus 11 sets the environment attribute data ( For example, the current position data indicating the current position of the terminal device 10 may be received from the terminal device 10, the image data may be selected, and the selected image data may be transmitted to the terminal device 10.
(5)上述した実施例においては、基準位置に関するデータがユーザの入力により登録される構成が採用されているが、基準位置に関するデータを登録する方法はこれに限られない。例えば、端末装置10の制御部101が、日中の時間帯に平均的に所定時間以上、留まっている位置を職場の位置と推定し、夜間の時間帯に平均的に所定時間以上、留まっている位置を自宅の位置と推定し、それらの推定した位置を基準位置として基準位置管理DB1023に自動的に登録する構成が採用されてもよい。 (5) In the above-described embodiment, a configuration in which data related to the reference position is registered by user input is adopted, but the method of registering data related to the reference position is not limited to this. For example, the control unit 101 of the terminal device 10 estimates a position that stays on average for a predetermined time or more in the daytime period as a workplace position, and stays on average for a predetermined time or more in the nighttime period. A configuration may be employed in which the current position is estimated as the home position, and the estimated position is automatically registered in the reference position management DB 1023 as the reference position.
(6)上述した実施例において、カメラ106による撮影により画像の選択の確率を変更する機能が用いられる際、ユーザが撮影の指示を行い、その指示が行われた時に撮影された画像に基づき、画像の選択の確率が変更される構成が採用されている。これに加えて、もしくはこれに代えて、カメラ106が継続的に外界を撮影し、撮影により順次生成される画像データに示される被写体に関する画像を高い確率で選択するように端末装置10を構成してもよい。その場合、例えばカメラ106が端末装置10の表示部1041を観る人物の顔を撮影する方向に配置されていると、端末装置10を見ているユーザに関連する画像が高い確率で選択されて表示されることになる。 (6) In the above-described embodiment, when the function of changing the probability of selecting an image by shooting with the camera 106 is used, the user gives a shooting instruction, and based on the image shot when the instruction is given, A configuration is employed in which the probability of image selection is changed. In addition to this, or instead of this, the terminal device 10 is configured such that the camera 106 continuously captures the outside world and selects an image relating to the subject indicated in the image data sequentially generated by the capturing with a high probability. May be. In this case, for example, when the camera 106 is arranged in a direction to capture the face of a person who views the display unit 1041 of the terminal device 10, an image related to the user watching the terminal device 10 is selected and displayed with a high probability. Will be.
(7)上述した実施例において、カメラ106による撮影により画像の選択の確率を変更する機能が用いられる際、被写体管理DB1024に予め特徴データが登録されている被写体に関してのみ、画像の選択の確率が増加される構成が採用されている。これに代えて、予め被写体管理DB1024に特徴データが登録されていない被写体が撮影された場合にも、当該被写体に関連する写真が高い確率で選択される構成が採用されてもよい。その場合、端末装置10は利用可能な画像データのうち人物の顔の写真を示す全ての画像データに関し、当該画像データが示す顔の特徴データを生成し、新たにカメラ106により撮影された人物の顔の特徴データとの間でマッチング処理を行うように構成すればよい。 (7) In the above-described embodiment, when the function of changing the image selection probability by photographing with the camera 106 is used, the image selection probability is related only to the subject whose feature data is registered in the subject management DB 1024 in advance. Increased configuration is adopted. Instead of this, even when a subject whose feature data is not registered in the subject management DB 1024 is photographed in advance, a configuration in which a photograph related to the subject is selected with a high probability may be employed. In this case, the terminal device 10 generates facial feature data indicated by the image data regarding all the image data indicating the photograph of the face of the person among the available image data, and the person newly photographed by the camera 106. What is necessary is just to comprise so that a matching process may be performed between the feature data of a face.
(8)上述した実施例において、端末装置10は表示部1041を内蔵する構成が採用されている。これに代えて、端末装置10は表示部1041を内蔵せず、外部に接続された表示装置に対し、制御部101が画像の表示を指示する構成が採用されてもよい。 (8) In the above-described embodiment, the terminal device 10 employs a configuration in which the display unit 1041 is built. Instead of this, the terminal device 10 may not include the display unit 1041, and a configuration in which the control unit 101 instructs the display device connected to the outside to display an image may be employed.
(9)上述した実施例においては、現在時刻が特定の時刻に近い場合、その時刻に関連する画像が選択される確率が高くなる構成において、現在の時刻と、画像の属性として示される時刻とが年単位で比較される。時刻の比較の単位は年単位に限られず、例えば、月単位、週単位、日単位であってもよい。例えば、日単位で比較する場合、毎日、夕方に近付く程、夕方に撮影された写真が高い確率で表示される、という具合に、ユーザの1日の生活リズムに応じた画像の表示が行われることになる。 (9) In the above-described embodiment, when the current time is close to a specific time, the probability that an image related to that time is selected is high, and the current time and the time indicated as the attribute of the image Are compared on a yearly basis. The unit of time comparison is not limited to a year unit, and may be a month unit, a week unit, or a day unit, for example. For example, when comparing day by day, an image corresponding to the daily rhythm of the user is displayed, such that the closer to the evening, the higher the probability that a photograph taken in the evening will be displayed. It will be.
(10)上述した実施例においては、現在時刻が特定の時刻に近い場合、その時刻に関連する画像が選択される確率が高くなる構成において、現在時刻がその時刻に近付くにつれて、その時刻に関連する画像が選択される確率が徐々に増加し、その時刻が過ぎた後、その時刻に関連する画像が選択される確率が徐々に低減する。これに代えて、特定の時刻を過ぎた後は、その特定の時刻に関連する画像の選択される確率を増加させない構成が採用されてもよい。この場合、例えばクリスマスが過ぎるまでは、クリスマスに関連する画像が高い確率で表示され、クリスマスを過ぎるとクリスマスに関連する画像はほとんど表示されなくなる、という具合に、時期遅れの画像が表示される確率が下がり、場合によっては望ましい。 (10) In the above-described embodiment, when the current time is close to a specific time, the probability that an image related to that time is selected increases, and as the current time approaches that time, The probability that an image to be selected is gradually increased, and after that time has passed, the probability that an image related to that time is selected is gradually reduced. Instead of this, a configuration may be adopted in which after a specific time has passed, the probability of selecting an image related to the specific time is not increased. In this case, for example, the image related to Christmas is displayed with high probability until Christmas passes, and the image related to Christmas is hardly displayed after Christmas. May be desirable in some cases.
なお、上述した実施例において説明に用いた具体的な数値等のデータ、算出式、データベースのデータ構成、処理の順序等はあくまで一例であって、本発明を限定するものではない。 Note that the specific numerical data, calculation formulas, data structure of the database, processing order, etc. used in the description in the above-described embodiments are merely examples, and do not limit the present invention.
1…画像表示システム、10…端末装置、11…サーバ装置、19…ネットワーク、101…制御部、102…記憶部、103…通信部、104…タッチディスプレイ、105…GPS信号受信部、106…カメラ、107…計時部、108…マイク、111…制御部、112…記憶部、113…通信部、121…画像データ取得部、122…画像属性データ取得部、123…環境属性データ取得部、124…制御部、125…表示部、131…画像データ受信部、132…記憶部、133…送信要求受信部、134…画像データ検索部、135…画像データ送信部、1021…画像管理DB、1022…スケジュール管理DB、1023…基準位置管理DB、1024…被写体管理DB、1041…表示部、1042…センサ部、1121…端末管理DB DESCRIPTION OF SYMBOLS 1 ... Image display system, 10 ... Terminal device, 11 ... Server apparatus, 19 ... Network, 101 ... Control part, 102 ... Memory | storage part, 103 ... Communication part, 104 ... Touch display, 105 ... GPS signal receiving part, 106 ... Camera 107: Timekeeping unit, 108: Microphone, 111: Control unit, 112 ... Storage unit, 113 ... Communication unit, 121 ... Image data acquisition unit, 122 ... Image attribute data acquisition unit, 123 ... Environmental attribute data acquisition unit, 124 ... Control unit 125 ... Display unit 131 Image data reception unit 132 Storage unit 133 Transmission request reception unit 134 Image data search unit 135 Image data transmission unit 1021 Image management DB 1022 Schedule Management DB, 1023 ... Reference position management DB, 1024 ... Subject management DB, 1041 ... Display unit, 1042 ... Sensor unit, 1121 Terminal management DB
Claims (12)
前記複数の画像データの各々に関する当該画像データが示す画像の属性と、自装置が置かれている環境の属性とに基づき、前記複数の画像データのなかから1以上の画像データを選択し、当該選択した1以上の画像データが示す画像の表示を表示装置に指示する制御部と
を備え、
前記制御部は、予め定められた複数の基準位置のなかから、自装置の現在の位置から所定距離内のエリアに入る基準位置を抽出し、前記複数の画像データの各々に関する当該画像データが示す画像の属性に前記抽出された基準位置に対応する属性が含まれる画像データを前記複数の画像データのなかから抽出し、抽出された画像データのなかから前記1以上の画像データを選択する
装置。 An image data acquisition unit for acquiring a plurality of image data each representing an image;
Based on the attribute of the image indicated by the image data related to each of the plurality of image data and the attribute of the environment in which the device is placed, one or more image data are selected from the plurality of image data, A control unit that instructs the display device to display an image indicated by the selected one or more image data ,
The control unit extracts a reference position that enters an area within a predetermined distance from the current position of the device from a plurality of predetermined reference positions, and the image data regarding each of the plurality of image data indicates the image data containing the attributes corresponding to the extracted reference position to the attribute of the image is extracted from among the plurality of image data, device select the image data of the one or more from among the extracted image data .
請求項1に記載の装置。 The control unit may determine the attributes of the image to the image data indicates for each of the image data which has been the extraction, based on the attributes of the environment in which the own apparatus is placed, the probability relates each of the image data of the extracted The apparatus according to claim 1, wherein one or more image data are selected from the extracted image data according to the determined probability.
前記複数の画像データの各々に関する当該画像データが示す画像の属性と、自装置が置かれている環境の属性とに基づき、前記複数の画像データの各々の表示態様を決定し、当該決定した表示態様で前記複数の画像データが示す画像の表示を表示装置に指示する制御部と
を備え、
前記制御部は、予め定められた複数の基準位置のなかから、自装置の現在の位置から所定距離内のエリアに入る基準位置を抽出し、前記複数の画像データの各々に関する当該画像データが示す画像の属性に前記抽出された基準位置に対応する属性が含まれる画像データを前記複数の画像データのなかから抽出し、抽出された画像データの各々の前記表示態様を決定する
装置。 An image data acquisition unit for acquiring a plurality of image data each representing an image;
Based on the attribute of the image indicated by the image data regarding each of the plurality of image data and the attribute of the environment in which the device is placed, the display mode of each of the plurality of image data is determined, and the determined display A control unit that instructs a display device to display an image indicated by the plurality of image data in an aspect ,
The control unit extracts a reference position that enters an area within a predetermined distance from the current position of the device from a plurality of predetermined reference positions, and the image data regarding each of the plurality of image data indicates the image data containing the attributes corresponding to the extracted reference position to the attribute of the image is extracted from the multiple image data, that determine the display mode of each of the extracted image data apparatus.
請求項3に記載の装置。 The control unit may determine the attributes of the image to the image data indicates for each of the image data which has been the extraction, based on the attributes of the environment in which the own apparatus is placed, the probability relates each of the image data of the extracted The apparatus according to claim 3, wherein a display mode selected from among a plurality of display mode options according to the determined probability is determined as each display mode of the extracted image data.
請求項2又は4に記載の装置。 The control unit increases the probability related to the image data as the photographed position indicated by the image data related to each of the extracted image data is closer to the current position of the device. 4. The apparatus according to 4.
請求項2、4および5のいずれか1項に記載の装置。 The control unit increases the probability regarding the image data as the time when the photograph indicated by the image data regarding each of the extracted image data is taken is closer to the current time. The apparatus of any one of these.
請求項2および4乃至6のいずれか1項に記載の装置。 The control unit increases the probability related to image data indicating a photograph of the same subject as that of the photograph indicated by the image data generated by the most recent photographing among the extracted image data. And the apparatus according to any one of 4 to 6.
請求項2および4乃至7のいずれか1項に記載の装置。 The control unit increases the probability relating to image data indicating an image having the same attribute as the attribute indicated by sound data generated by sound collection performed most recently in the extracted image data. The apparatus according to any one of 4 to 7.
前記一の装置又は前記一の装置と互いにデータ通信する他の装置が、予め定められた複数の基準位置のなかから前記一の装置の現在の位置から所定距離内のエリアに入る基準位置を抽出し、前記複数の画像データの各々に関する当該画像データが示す画像の属性に前記抽出された基準位置に対応する属性が含まれる画像データを前記複数の画像データのなかから抽出し、抽出された画像データの各々に関する当該画像データが示す画像の属性と、前記一の装置が置かれている環境の属性とに基づき、前記抽出された画像データのなかから1以上の画像データを選択するステップと、
前記一の装置が、前記選択された1以上の画像データが示す画像の表示を表示装置に指示するステップと
を備える方法。 A device that acquires a plurality of pieces of image data each representing an image;
The one device or another device that performs data communication with the one device extracts a reference position that enters an area within a predetermined distance from the current position of the one device from a plurality of predetermined reference positions. And extracting image data from which the attribute corresponding to the extracted reference position is included in the attribute of the image indicated by the image data related to each of the plurality of image data from the plurality of image data. Selecting one or more image data from the extracted image data based on an attribute of an image indicated by the image data regarding each of the data and an attribute of an environment in which the one device is placed;
The one device includes a step of instructing a display device to display an image indicated by the one or more selected image data.
前記一の装置又は前記一の装置と互いにデータ通信する他の装置が、予め定められた複数の基準位置のなかから前記一の装置の現在の位置から所定距離内のエリアに入る基準位置を抽出し、前記複数の画像データの各々に関する当該画像データが示す画像の属性に前記抽出された基準位置に対応する属性が含まれる画像データを前記複数の画像データのなかから抽出し、抽出された画像データの各々に関する当該画像データが示す画像の属性と、前記一の装置が置かれている環境の属性とに基づき、前記抽出された画像データの各々の表示態様を決定するステップと、
前記一の装置が、前記決定された表示態様で前記抽出された画像データが示す画像の表示を表示装置に指示するステップと
を備える方法。 A device that acquires a plurality of pieces of image data each representing an image;
The one device or another device that performs data communication with the one device extracts a reference position that enters an area within a predetermined distance from the current position of the one device from a plurality of predetermined reference positions. And extracting image data from which the attribute corresponding to the extracted reference position is included in the attribute of the image indicated by the image data related to each of the plurality of image data from the plurality of image data. Determining a display mode of each of the extracted image data based on an attribute of an image indicated by the image data regarding each of the data and an attribute of an environment in which the one device is placed;
The one device includes a step of instructing a display device to display an image indicated by the extracted image data in the determined display mode.
各々画像を示す複数の画像データを取得する処理と、
予め定められた複数の基準位置のなかから、前記コンピュータの現在の位置から所定距離内のエリアに入る基準位置を抽出し、前記複数の画像データの各々に関する当該画像データが示す画像の属性に前記抽出された基準位置に対応する属性が含まれる画像データを前記複数の画像データのなかから抽出し、抽出された画像データの各々に関する当該画像データが示す画像の属性と、前記コンピュータが置かれている環境の属性とに基づき、前記抽出された画像データのなかから1以上の画像データを選択し、当該選択した1以上の画像データが示す画像の表示を表示装置に指示する処理と
を実行させるためのプログラム。 A process of acquiring a plurality of image data each representing an image on a computer;
A reference position that enters an area within a predetermined distance from the current position of the computer is extracted from a plurality of predetermined reference positions, and the attribute of the image indicated by the image data related to each of the plurality of image data is Image data including an attribute corresponding to the extracted reference position is extracted from the plurality of image data, and the image attribute indicated by the image data regarding each of the extracted image data and the computer are placed. And selecting one or more image data from the extracted image data based on the attribute of the environment in which the selected image data is displayed, and instructing a display device to display an image indicated by the selected one or more image data. Program for.
各々画像を示す複数の画像データを取得する処理と、
予め定められた複数の基準位置のなかから、前記コンピュータの現在の位置から所定距離内のエリアに入る基準位置を抽出し、前記複数の画像データの各々に関する当該画像データが示す画像の属性に前記抽出された基準位置に対応する属性が含まれる画像データを前記複数の画像データのなかから抽出し、抽出された画像データの各々に関する当該画像データが示す画像の属性と、前記コンピュータが置かれている環境の属性とに基づき、前記抽出された画像データの各々の表示態様を決定し、当該決定した表示態様で前記抽出された画像データが示す画像の表示を表示装置に指示する処理と
を実行させるためのプログラム。 A process of acquiring a plurality of image data each representing an image on a computer;
A reference position that enters an area within a predetermined distance from the current position of the computer is extracted from a plurality of predetermined reference positions, and the attribute of the image indicated by the image data related to each of the plurality of image data is Image data including an attribute corresponding to the extracted reference position is extracted from the plurality of image data, and the image attribute indicated by the image data regarding each of the extracted image data and the computer are placed. And determining the display mode of each of the extracted image data based on the attributes of the environment in which the extracted image data is displayed and instructing the display device to display the image indicated by the extracted image data in the determined display mode. Program to let you.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012224108A JP6063697B2 (en) | 2012-10-09 | 2012-10-09 | Apparatus, method and program for image display |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012224108A JP6063697B2 (en) | 2012-10-09 | 2012-10-09 | Apparatus, method and program for image display |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014078064A JP2014078064A (en) | 2014-05-01 |
JP6063697B2 true JP6063697B2 (en) | 2017-01-18 |
Family
ID=50783341
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012224108A Active JP6063697B2 (en) | 2012-10-09 | 2012-10-09 | Apparatus, method and program for image display |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6063697B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110275689A (en) * | 2019-06-29 | 2019-09-24 | 于峰 | Image processing method and device based on Life-and-death element |
CN111159680B (en) * | 2019-12-30 | 2022-03-04 | 云知声智能科技股份有限公司 | Equipment binding method and device based on face recognition |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4882228B2 (en) * | 2004-12-15 | 2012-02-22 | 株式会社ニコン | Image reproduction apparatus and image reproduction system |
WO2006064696A1 (en) * | 2004-12-15 | 2006-06-22 | Nikon Corporation | Image reproducing system |
JP5279466B2 (en) * | 2008-11-28 | 2013-09-04 | キヤノン株式会社 | Information processing apparatus, control method therefor, program, and storage medium |
JP2010231744A (en) * | 2009-03-30 | 2010-10-14 | Nec Personal Products Co Ltd | Information processing apparatus, program and image data management method |
JP5366676B2 (en) * | 2009-06-22 | 2013-12-11 | キヤノン株式会社 | IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM |
JP2012090190A (en) * | 2010-10-22 | 2012-05-10 | Kyocera Corp | Mobile communication terminal, display control program and display control method |
-
2012
- 2012-10-09 JP JP2012224108A patent/JP6063697B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014078064A (en) | 2014-05-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110780707B (en) | Information processing apparatus, information processing method, and computer readable medium | |
CN103797493B (en) | For sharing the smart camera of picture automatically | |
CN115803723A (en) | Updating avatar states in messaging systems | |
CN115735229A (en) | Updating avatar garments in messaging systems | |
CN116028659A (en) | Behavior curation of media assets | |
CN108241737A (en) | For providing the system of location information and supporting the electronic device and method of the system | |
CN115552403B (en) | Inviting media overlays for private collections of media content items | |
US10922354B2 (en) | Reduction of unverified entity identities in a media library | |
CN115777113B (en) | Message system for redisplaying content items | |
US11663261B2 (en) | Defining a collection of media content items for a relevant interest | |
JP2011118710A (en) | Musical piece recommendation system, apparatus and method for processing information | |
CN115867882A (en) | Travel-based augmented reality content for images | |
CN115668888A (en) | Featured content collection interface | |
CN115668119A (en) | Reply interface with sticker for messaging system | |
CN115867905A (en) | Augmented reality based speech translation in travel situations | |
CN115697508A (en) | Game result overlay system | |
CN115836292A (en) | Augmented reality-based translation associated with travel | |
CN115812217A (en) | Travel-based augmented reality content for reviews | |
CN117337430A (en) | Shortcut based on scanning operation in message system | |
KR20230002684A (en) | Personalized messages generated automatically | |
US11294538B2 (en) | Timeline media content navigation system | |
CN115516834A (en) | Messaging system with carousel of related entities | |
CN116235194A (en) | Media content delivery and management | |
JP6063697B2 (en) | Apparatus, method and program for image display | |
CN116636190A (en) | Messaging system for redisplaying content items |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150812 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160518 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160905 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161219 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6063697 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |