JP2014081833A - Information processing terminal, control method, and program - Google Patents

Information processing terminal, control method, and program Download PDF

Info

Publication number
JP2014081833A
JP2014081833A JP2012230122A JP2012230122A JP2014081833A JP 2014081833 A JP2014081833 A JP 2014081833A JP 2012230122 A JP2012230122 A JP 2012230122A JP 2012230122 A JP2012230122 A JP 2012230122A JP 2014081833 A JP2014081833 A JP 2014081833A
Authority
JP
Japan
Prior art keywords
image
display
images
information processing
processing terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012230122A
Other languages
Japanese (ja)
Inventor
Shunsuke Nakamura
俊輔 中村
Junko Murakami
純子 村上
Tomotaka Yuasa
知敬 湯浅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2012230122A priority Critical patent/JP2014081833A/en
Publication of JP2014081833A publication Critical patent/JP2014081833A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a technology for narrowing down an image displayed in an information processing terminal with a simpler operation.SOLUTION: A control part of an information processing terminal monitors whether the information processing terminal is shaken by a user on the basis of acceleration information outputted by a motion sensor with a plurality of images displayed on a display surface. In the case of detecting that the information processing terminal is shaken by the user, the control part specifies a direction in which the information processing terminal is shaken. Next, the control part specifies a narrowing down condition and a reduction rate. Then, the control part narrows down an image on the basis of the specified narrowing down condition and reduction rate. Next, the control part displays an animation for eliminating images other than the narrowed down image in a display part. Concretely, the control part displays in the display part the animation in which the images other than the narrowed down image move in the specified direction to disappear so as to fly to the outside of the display surface.

Description

本発明は、情報処理端末に表示された画像を直感的な操作で絞り込む技術に関する。   The present invention relates to a technique for narrowing down an image displayed on an information processing terminal by an intuitive operation.

近年、カメラ機能を備えた、携帯電話機等の情報処理端末が広く利用されている。また、記憶装置の大容量化や、クラウドサービスの発達により、大量の画像データを蓄積することが可能になっている。そこで、近年、大量の画像データの中から目的の画像データを検索する技術が開発されている。例えば、特許文献1に記載の発明では、画像データごとにキーワードを予め設定しておき、当該キーワードを使って画像データを検索する構成となっている。   In recent years, information processing terminals such as mobile phones having a camera function have been widely used. In addition, a large amount of image data can be stored with an increase in capacity of a storage device and development of a cloud service. Therefore, in recent years, a technique for searching for target image data from a large amount of image data has been developed. For example, in the invention described in Patent Document 1, a keyword is set in advance for each image data, and the image data is searched using the keyword.

特開2005−354134号公報JP 2005-354134 A

しかし、特許文献1に記載の発明では、目的の画像データを検索するにあたって、検索キーワードを設定した後に、検索ボタンを選択するという操作を行わなければならない。   However, in the invention described in Patent Document 1, when searching for target image data, it is necessary to perform an operation of selecting a search button after setting a search keyword.

本発明は、このような事情に鑑みてなされたものであり、情報処理端末に表示された画像をより簡単な操作で絞り込む技術を提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides a technique for narrowing down an image displayed on an information processing terminal with a simpler operation.

上記の課題を解決するため、本発明は、その表示面に複数の画像を表示する表示手段と、前記表示手段により表示された複数の画像のうち、所定の規則に従って、1又は複数の画像を特定する特定手段と、ユーザによって自機が振られた方向を検出する検出手段と、前記表示手段により表示された複数の画像のうち、前記特定手段により特定された1又は複数の画像以外の画像が、前記検出手段により検出された方向に沿って移動する様子を表示するように、前記表示手段を制御する表示制御手段とを備える情報処理端末を提供する。
好ましい態様において、前記表示制御手段は、前記特定手段により特定された1又は複数の画像以外の画像が、前記検出手段により検出された方向に沿って移動し、前記表示面の外へ飛び出すようにして消える様子を表示するように、前記表示手段を制御してもよい。
In order to solve the above problems, the present invention provides a display unit that displays a plurality of images on its display surface, and one or more images are displayed according to a predetermined rule among a plurality of images displayed by the display unit. An identifying unit for identifying, a detecting unit for detecting a direction in which the user's own device is shaken, and an image other than one or a plurality of images identified by the identifying unit among a plurality of images displayed by the display unit Provides an information processing terminal comprising display control means for controlling the display means so as to display a state of moving along the direction detected by the detection means.
In a preferred aspect, the display control means moves an image other than one or a plurality of images specified by the specifying means along the direction detected by the detection means and jumps out of the display surface. The display means may be controlled so as to display the disappearance state.

さらに好ましい態様において、前記情報処理端末は、前記表示手段により表示された複数の画像のうち、一の画像の選択を受け付ける受付手段をさらに備え、前記特定手段は、前記受付手段によりその選択が受け付けられた一の画像を、前記1又は複数の画像の一部又は全部として特定してもよい。   In a further preferred aspect, the information processing terminal further comprises accepting means for accepting selection of one of the plurality of images displayed by the display means, and the specifying means accepts the selection by the accepting means. The obtained one image may be specified as a part or all of the one or more images.

さらに好ましい態様において、前記特定手段は、前記受付手段によりその選択が受け付けられた一の画像と、当該一の画像と関連付けられる他の画像とを、前記1又は複数の画像の一部又は全部として特定してもよい。   In a further preferred aspect, the specifying means includes, as part or all of the one or more images, one image whose selection is received by the receiving means and another image associated with the one image. You may specify.

さらに好ましい態様において、前記受付手段は、前記表示面に対するユーザの指による押圧を検出することにより、前記一の画像の選択を受け付け、前記特定手段は、前記受付手段により検出された前記押圧の力に応じて、前記1又は複数の画像を特定してもよい。   In a further preferred aspect, the accepting unit accepts selection of the one image by detecting a press by a user's finger on the display surface, and the specifying unit detects the pressing force detected by the accepting unit. Depending on, the one or more images may be specified.

さらに好ましい態様において、前記検出手段は、ユーザによって自機が振られた回数を検出し、前記特定手段は、前記検出手段により検出された回数に応じて、前記1又は複数の画像を特定してもよい。   In a further preferred aspect, the detection means detects the number of times the user has been shaken by the user, and the specifying means specifies the one or more images according to the number of times detected by the detection means. Also good.

さらに好ましい態様において、前記表示制御手段は、前記制御を行った後、前記検出手段により検出された方向に沿って移動する前記画像が、前記表示面の外へ飛び出すようにして消える前に、前記受付手段を介して選択された場合には、当該画像を元の表示位置に表示するよう、前記表示手段を制御してもよい。   In a further preferred aspect, the display control means, after performing the control, before the image moving along the direction detected by the detection means disappears so as to jump out of the display surface. If selected via the accepting means, the display means may be controlled to display the image at the original display position.

さらに好ましい態様において、前記表示制御手段による前記制御に応答して、前記特定手段により特定された1又は複数の画像以外の画像を示すデータを、他の情報処理端末に送信する送信手段をさらに備えてもよい。   In a further preferred aspect, the apparatus further comprises transmission means for transmitting data indicating an image other than the one or more images specified by the specifying means to another information processing terminal in response to the control by the display control means. May be.

さらに好ましい態様において、前記検出手段は、ユーザによって自機が裏返しにされた状態を検出し、前記表示制御手段は、前記制御を行った後に、前記検出手段により自機が裏返しにされた状態が検出された場合に、前記表示面から消した前記画像を再び前記表示面に表示するように、前記表示手段を制御してもよい。
さらに好ましい態様において、前記受付手段は、前記表示面に対するユーザの指による押圧を検出することにより、前記一の画像中に示される一のオブジェクトの選択を受け付け、前記特定手段は、前記一の画像と、前記受付手段によりその選択が受け付けられた一のオブジェクトを示す他の画像とを、前記1又は複数の画像の一部又は全部として特定してもよい。
In a further preferred aspect, the detection means detects a state in which the own apparatus is turned over by a user, and the display control means performs the control and then the state in which the own apparatus is turned over by the detection means. If detected, the display means may be controlled so that the image erased from the display surface is displayed again on the display surface.
In a further preferred aspect, the accepting means accepts a selection of one object shown in the one image by detecting a press by a user's finger on the display surface, and the specifying means accepts the one image. And another image showing one object whose selection is accepted by the accepting means may be specified as part or all of the one or more images.

また、本発明は、その表示面に複数の画像を表示する表示手段を有する情報処理端末の制御方法であって、前記表示手段により表示された複数の画像のうち、所定の規則に従って、1又は複数の画像を特定する特定ステップと、ユーザによって自機が振られた方向を検出する検出ステップと、前記表示手段により表示された複数の画像のうち、前記特定手段により特定された1又は複数の画像以外の画像が、前記ステップにおいて検出された方向に沿って移動する様子を表示するように、前記表示手段を制御する表示制御ステップとを有する制御方法を提供する。   Further, the present invention is a method for controlling an information processing terminal having a display means for displaying a plurality of images on its display surface, wherein one or more of the plurality of images displayed by the display means is determined according to a predetermined rule. A specifying step for specifying a plurality of images, a detecting step for detecting a direction in which the user is shaken by the user, and one or more specified by the specifying unit among the plurality of images displayed by the display unit There is provided a control method including a display control step of controlling the display means so as to display a state in which an image other than an image moves along the direction detected in the step.

また、本発明は、その表示面に複数の画像を表示する表示手段を有するコンピュータに、前記表示手段により表示された複数の画像のうち、所定の規則に従って、1又は複数の画像を特定する特定ステップと、ユーザによって自機が振られた方向を検出する検出ステップと、前記表示手段により表示された複数の画像のうち、前記特定手段により特定された1又は複数の画像以外の画像が、前記ステップにおいて検出された方向に沿って移動する様子を表示するように、前記表示手段を制御する表示制御ステップとを実行させるためのプログラムを提供する。   The present invention also provides a computer having display means for displaying a plurality of images on its display surface, wherein one or more images are specified according to a predetermined rule among the plurality of images displayed by the display means. A detection step for detecting a direction in which the user is shaken by the user, and an image other than one or a plurality of images specified by the specifying unit among the plurality of images displayed by the display unit, There is provided a program for executing a display control step for controlling the display means so as to display a state of moving along the direction detected in the step.

本発明によれば、情報処理端末に表示された画像をより簡単な操作で絞り込むことができる。   According to the present invention, an image displayed on an information processing terminal can be narrowed down by a simpler operation.

通信システム100の構成を示す図である。1 is a diagram showing a configuration of a communication system 100. FIG. 情報処理端末1のハードウェア構成を示すブロック図である。2 is a block diagram illustrating a hardware configuration of the information processing terminal 1. FIG. 画像情報テーブル121のデータ構成例を示す図である。6 is a diagram illustrating a data configuration example of an image information table 121. FIG. 情報処理端末1の機能的構成を示す図である。2 is a diagram illustrating a functional configuration of the information processing terminal 1. FIG. サーバ装置2のハードウェア構成を示すブロック図である。2 is a block diagram showing a hardware configuration of a server device 2. FIG. 画像情報テーブル221のデータ構成例を示す図である。6 is a diagram illustrating an example data configuration of an image information table 221. FIG. 画像の絞り込み動作を示すフローチャートである。It is a flowchart which shows image narrowing-down operation | movement. 画像の絞り込み動作時の画面の遷移を示す図である。It is a figure which shows the transition of the screen at the time of image narrowing-down operation | movement. 絞り込み条件テーブル122のデータ構成例を示す図である。It is a figure which shows the data structural example of the narrowing-down condition table 122. FIG. 情報処理端末1Aの機能的構成を示す図である。It is a figure which shows the functional structure of 1 A of information processing terminals. 画像の絞り込み動作を示すフローチャートである。It is a flowchart which shows image narrowing-down operation | movement. 画像の絞り込み動作時の画面の遷移を示す図である。It is a figure which shows the transition of the screen at the time of image narrowing-down operation | movement. 削減率テーブル123のデータ構成例を示す図である。It is a figure which shows the data structural example of the reduction rate table 123. FIG. 条件テーブル124のデータ構成例を示す図である。It is a figure which shows the example of a data structure of the condition table. 画像データ送信時の様子を示す図である。It is a figure which shows the mode at the time of image data transmission. 画像の絞り込み動作時の画面の遷移を示す図である。It is a figure which shows the transition of the screen at the time of image narrowing-down operation | movement.

1.第1実施形態
1−1.構成
1−1−1.通信システム100
図1は、第1実施形態に係る通信システム100の構成を示す図である。通信システム100は、画像データのストレージサービスを提供するためのシステムである。通信システム100は、図1に示されるように、情報処理端末1と、サーバ装置2とを有する。各装置は、通信回線3により相互に接続されている。ここで通信回線3とは、例えば、移動体通信網やインターネットにより構成されるネットワークである。なお、図1に示される通信システム100には、情報処理端末1が1つしか含まれていないが、2つ以上含めてもよい。
1. First embodiment 1-1. Configuration 1-1-1. Communication system 100
FIG. 1 is a diagram illustrating a configuration of a communication system 100 according to the first embodiment. The communication system 100 is a system for providing a storage service for image data. As shown in FIG. 1, the communication system 100 includes an information processing terminal 1 and a server device 2. Each device is connected to each other by a communication line 3. Here, the communication line 3 is a network constituted by, for example, a mobile communication network or the Internet. Note that the communication system 100 illustrated in FIG. 1 includes only one information processing terminal 1, but may include two or more.

1−1−2.情報処理端末1
図1に示される情報処理端末1は、サーバ装置2に対して画像データをアップロードして蓄積する一方で、アップロードした画像データをダウンロードして当該画像データにより示される画像を閲覧するためのコンピュータ装置である。情報処理端末1は、例えば、携帯電話機や、スマートフォンや、PDA(Personal Digital Assistant)や、タブレット端末や、パーソナルコンピュータである。
1-1-2. Information processing terminal 1
The information processing terminal 1 shown in FIG. 1 uploads and accumulates image data to the server device 2, while downloading the uploaded image data and viewing the image indicated by the image data. It is. The information processing terminal 1 is, for example, a mobile phone, a smartphone, a PDA (Personal Digital Assistant), a tablet terminal, or a personal computer.

図2は、情報処理端末1のハードウェア構成を示すブロック図である。情報処理端末1は、図2に示されるように、制御部11と、記憶部12と、表示部13と、タッチセンサ部14と、モーションセンサ15と、撮像部16と、GPS(Global Positioning System)受信部17と、WAN(Wide Area Network)通信部18と、赤外線通信部19とにより構成される。   FIG. 2 is a block diagram illustrating a hardware configuration of the information processing terminal 1. As shown in FIG. 2, the information processing terminal 1 includes a control unit 11, a storage unit 12, a display unit 13, a touch sensor unit 14, a motion sensor 15, an imaging unit 16, and a GPS (Global Positioning System). ) The receiving unit 17, a WAN (Wide Area Network) communication unit 18, and an infrared communication unit 19.

制御部11は、CPU(Central Processing Unit)と、ROM(Read Only Memory)と、RAM(Random Access Memory)と、タイマとを備えている。CPUがROM又は記憶部12に記憶されているプログラムを実行することにより情報処理端末1の各部を制御する。タイマは、現在日時を計時する。   The control unit 11 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and a timer. The CPU controls each unit of the information processing terminal 1 by executing a program stored in the ROM or the storage unit 12. The timer keeps track of the current date and time.

記憶部12は、例えばEEPROM(Electronically Erasable and Programmable ROM)やフラッシュメモリ等の記憶装置であり、CPUにより実行されるプログラムやデータを記憶する。なお、記憶部12は、UIM(User Identify Module)カードやSIM(Subscriber Identity Module)カードのように、着脱可能な記憶装置であってもよい。   The storage unit 12 is a storage device such as an EEPROM (Electronically Erasable and Programmable ROM) or a flash memory, and stores programs and data executed by the CPU. The storage unit 12 may be a removable storage device such as a UIM (User Identify Module) card or a SIM (Subscriber Identity Module) card.

表示部13は、液晶ディスプレイや有機EL(Electroluminescence)パネル等の表示装置であり、制御部11の制御の下、その表示面131に画像を表示する。タッチセンサ部14は、表示部13の表示面131の上に重ねて設けられ、ユーザの指が接触した領域の座標情報を制御部11に出力する。制御部11は、その出力された座標情報に基づいて、ユーザの指の接触位置と、ユーザの指による押圧の強さを特定する。   The display unit 13 is a display device such as a liquid crystal display or an organic EL (Electroluminescence) panel, and displays an image on the display surface 131 under the control of the control unit 11. The touch sensor unit 14 is provided so as to overlap the display surface 131 of the display unit 13, and outputs coordinate information of an area in which the user's finger is in contact to the control unit 11. The control unit 11 specifies the contact position of the user's finger and the strength of pressing by the user's finger based on the output coordinate information.

モーションセンサ15は、2軸又は3軸の加速度センサである。モーションセンサ15は、情報処理端末1に対して加えられた加速度を示す情報を制御部11に出力する。制御部11は、その出力された加速度情報に基づいて、情報処理端末1がユーザによって振られたことや、情報処理端末1が振られた方向や、情報処理端末1が振られた回数を特定する。   The motion sensor 15 is a biaxial or triaxial acceleration sensor. The motion sensor 15 outputs information indicating the acceleration applied to the information processing terminal 1 to the control unit 11. Based on the output acceleration information, the control unit 11 specifies that the information processing terminal 1 has been shaken by the user, the direction in which the information processing terminal 1 has been shaken, and the number of times the information processing terminal 1 has been shaken. To do.

撮像部16は、CCD(Charge Coupled Device)等の撮像素子とレンズとを備えたデジタルカメラである。撮像部16は、レンズを通して入射した光をCCDによって信号に変換し、この信号に基づいて画像データを生成する。GPS受信部17は、図示せぬGPS用受信アンテナを介して複数のGPS衛星から信号を受信して、制御部11に出力する。制御部11は、この出力された信号に基づいて、情報処理端末1の現在位置を特定する。   The imaging unit 16 is a digital camera including an imaging element such as a CCD (Charge Coupled Device) and a lens. The imaging unit 16 converts light incident through the lens into a signal by the CCD, and generates image data based on the signal. The GPS receiving unit 17 receives signals from a plurality of GPS satellites via a GPS receiving antenna (not shown) and outputs the signals to the control unit 11. The control unit 11 specifies the current position of the information processing terminal 1 based on the output signal.

WAN通信部18は、基地局を介して外部の装置と通信を行うための手段である。赤外線通信部19は、赤外線を用いて、数十cm程度の通信範囲において、外部の装置と通信を行うための手段である。   The WAN communication unit 18 is means for communicating with an external device via a base station. The infrared communication unit 19 is means for performing communication with an external device using infrared rays in a communication range of about several tens of centimeters.

以上の構成要素を有する情報処理端末1は、撮像部16により生成された画像データを、WAN通信部18を用いて、サーバ装置2にアップロードすることができる。その際、情報処理端末1は、当該画像データとともに、当該画像データが生成された日時を示す日時データと、当該データが生成された場所を示す座標データとをサーバ装置2にアップロードする。画像データが生成された日時は、タイマを参照して特定され、画像データが生成された場所は、GPS受信部17により出力される信号に基づいて特定される。なお、ここで、サーバ装置2にアップロードされる画像データは、必ずしも撮像部16により生成された画像データ(すなわち、写真の画像データ)でなくてもよい。   The information processing terminal 1 having the above components can upload the image data generated by the imaging unit 16 to the server device 2 using the WAN communication unit 18. At that time, the information processing terminal 1 uploads the date and time data indicating the date and time when the image data was generated and the coordinate data indicating the location where the data was generated to the server device 2 together with the image data. The date and time when the image data is generated is specified with reference to a timer, and the place where the image data is generated is specified based on a signal output from the GPS receiver 17. Here, the image data uploaded to the server device 2 is not necessarily image data generated by the imaging unit 16 (that is, image data of a photograph).

情報処理端末1によってアップロードされた画像データについては、後述するようにサーバ装置2により付加情報が生成された上で記憶される。サーバ装置2により記憶された画像データは、情報処理端末1を用いてダウンロードして閲覧することが可能である。例えば、情報処理端末1において、記憶部12に記憶される画像閲覧プログラムが実行されたことを契機として、サーバ装置2に記憶された画像データが情報処理端末1にダウンロードされる。その際、画像データには、サーバ装置2により付加された付加情報が付加されて、画像ファイルとしてダウンロードされる。なお、その際の画像データは、サムネイル画像であってもよい。   The image data uploaded by the information processing terminal 1 is stored after the additional information is generated by the server device 2 as will be described later. The image data stored by the server device 2 can be downloaded and viewed using the information processing terminal 1. For example, the image data stored in the server device 2 is downloaded to the information processing terminal 1 when the image browsing program stored in the storage unit 12 is executed in the information processing terminal 1. At that time, additional information added by the server device 2 is added to the image data and downloaded as an image file. Note that the image data at that time may be a thumbnail image.

図3は、画像閲覧プログラムが実行されて画像ファイル群がダウンロードされた場合に
記憶部12に記憶される画像情報テーブル121のデータ構成例を示す図である。画像情報テーブル121を構成する各レコードは、「画像ID」と、「年月」と、「人物」と、「イベント」と、「場所」というフィールドにより構成される。「画像ID」のフィールドには、画像データを識別するための画像識別情報が格納される。「年月」のフィールドには、画像データが生成された年月を示す年月情報が格納される。「人物」のフィールドには、画像データにより示される画像に写っている人物を識別するための人物識別情報が格納される。「場所」のフィールドには、画像データが生成された場所を示す場所情報が格納される。
FIG. 3 is a diagram illustrating a data configuration example of the image information table 121 stored in the storage unit 12 when the image browsing program is executed and an image file group is downloaded. Each record constituting the image information table 121 includes fields of “image ID”, “year / month”, “person”, “event”, and “location”. The “image ID” field stores image identification information for identifying image data. The “year / month” field stores year / month information indicating the year / month when the image data was generated. In the “person” field, person identification information for identifying a person shown in the image indicated by the image data is stored. The “location” field stores location information indicating a location where the image data is generated.

次に、情報処理端末1の機能的構成について説明する。図4は、情報処理端末1の機能的構成を示す図である。図4に示される機能は、特に、表示部13によって表示された画像を絞り込む場合の動作に関する。当該機能は、記憶部12に記憶されるプログラムがCPUにより実行されることにより実現される。   Next, the functional configuration of the information processing terminal 1 will be described. FIG. 4 is a diagram illustrating a functional configuration of the information processing terminal 1. The function illustrated in FIG. 4 particularly relates to an operation when the image displayed by the display unit 13 is narrowed down. This function is realized by executing a program stored in the storage unit 12 by the CPU.

振り検出部41は、モーションセンサ15により出力される加速度情報に基づいて、情報処理端末1がユーザによって振られたことを検出する手段である。方向検出部42は、モーションセンサ15により出力される加速度情報に基づいて、情報処理端末1がユーザによって振られた方向を検出する手段である。例えば、方向検出部42は、情報処理端末1が左右方向(図8(b)紙面左右方向)に振られた場合には、振られた方向として「左右方向」を検出し、上下方向(図12(b)紙面上下方向)に振られた場合には、振られた方向として「上下方向」を検出する。もちろん、斜め方向を、振られた方向として検出するようにしてもよい。なお、本実施形態における「振る」という行為には、情報処理端末1を一方向にのみ移動させる行為も含まれ、必ずしも往復運動させることを必要とするものではない。   The swing detection unit 41 is means for detecting that the information processing terminal 1 has been shaken by the user based on the acceleration information output from the motion sensor 15. The direction detection unit 42 is means for detecting the direction in which the information processing terminal 1 is swung by the user based on the acceleration information output from the motion sensor 15. For example, when the information processing terminal 1 is swung in the left-right direction (the left-right direction in FIG. 8B), the direction detection unit 42 detects the “left-right direction” as the swung direction, and the up-down direction (FIG. 12 (b), the “up and down direction” is detected as the shake direction. Of course, the oblique direction may be detected as the shake direction. The act of “shaking” in the present embodiment includes an act of moving the information processing terminal 1 only in one direction and does not necessarily require reciprocal movement.

絞り込み条件特定部43は、画像を絞り込む際の条件を規定する絞り込み条件を特定する手段である。絞り込み条件特定部43は、ユーザによって予め設定され、記憶部12に記憶されている絞り込み条件情報を参照して、絞り込み条件を特定する。絞り込み条件情報とは、例えば、「年月(降順)」である。   The narrowing-down condition specifying unit 43 is means for specifying a narrowing-down condition that defines conditions for narrowing down an image. The narrow-down condition specifying unit 43 refers to the narrow-down condition information that is preset by the user and stored in the storage unit 12, and specifies the narrow-down condition. The narrowing-down condition information is, for example, “year / month (descending order)”.

削減率特定部44は、画像を絞り込む際に排除する画像の枚数を規定する削減率を特定する手段である。削減率特定部44は、ユーザによって予め設定され、記憶部12に記憶されている削減率情報を参照して、削減率を特定する。削減率情報とは、例えば、「10%」や「20%」といった数値を示す情報である。削減率として「10%」が指定されている場合には、表示部13により表示されている画像全体のうち、10%の画像が排除される。   The reduction rate specifying unit 44 is a means for specifying a reduction rate that defines the number of images to be excluded when narrowing down images. The reduction rate specifying unit 44 specifies the reduction rate with reference to the reduction rate information that is preset by the user and stored in the storage unit 12. The reduction rate information is information indicating numerical values such as “10%” and “20%”, for example. When “10%” is designated as the reduction rate, 10% of the images displayed by the display unit 13 are excluded.

絞り込み部45は、絞り込み条件特定部43により特定された絞り込み条件と、削減率特定部44により特定された削減率とに基づいて、画像の絞り込みを行う手段である。例えば、図3に示される画像「imageA」〜「imageL」が表示されている場合において、絞り込み条件として「年月(降順)」が特定され、削減率として「50%」が特定された場合には、画像「imageE」〜「imageG」及び「imageI」〜「imageK」が、残される。この絞り込み部45は、本発明に係る「特定手段」の一例である。   The narrowing-down unit 45 is means for narrowing down the image based on the narrowing-down condition specified by the narrowing-down condition specifying unit 43 and the reduction rate specified by the reduction rate specifying unit 44. For example, when images “imageA” to “imageL” shown in FIG. 3 are displayed, “year / month (descending order)” is specified as the narrowing-down condition, and “50%” is specified as the reduction rate. The images “imageE” to “imageG” and “imageI” to “imageK” are left. The narrowing-down unit 45 is an example of the “specifying unit” according to the present invention.

表示制御部46は、絞り込み部45により絞り込まれた画像以外の画像を排除するアニメーションを表示部13に表示させる手段である。表示制御部46は、絞り込み部45により絞り込まれた画像以外の画像が、方向検出部42により検出された方向に移動してゆき、表示面131の外へ飛び出すようにして消えてゆく様子を示すアニメーションを表示部13に表示させる。
以上が、情報処理端末1の構成についての説明である。
The display control unit 46 is a unit that causes the display unit 13 to display an animation that excludes images other than the image narrowed down by the narrowing-down unit 45. The display control unit 46 shows a state in which an image other than the image narrowed down by the narrowing unit 45 moves in the direction detected by the direction detection unit 42 and disappears so as to jump out of the display surface 131. The animation is displayed on the display unit 13.
The above is the description of the configuration of the information processing terminal 1.

1−1−3.サーバ装置2
図1に示されるサーバ装置2は、情報処理端末1によりアップロードされた画像データを蓄積するためのコンピュータ装置である。図5は、サーバ装置2のハードウェア構成を示すブロック図である。サーバ装置2は、図5に示されるように、制御部21と、記憶部22と、通信部23とにより構成される。
1-1-3. Server device 2
A server device 2 shown in FIG. 1 is a computer device for storing image data uploaded by the information processing terminal 1. FIG. 5 is a block diagram illustrating a hardware configuration of the server device 2. As shown in FIG. 5, the server device 2 includes a control unit 21, a storage unit 22, and a communication unit 23.

制御部21は、CPUと、ROMと、RAMとを備えている。CPUがROM又は記憶部22に記憶されているプログラムを実行することによりサーバ装置2の各部を制御する。記憶部22は、HDD(Hard Disk Drive)等の記憶装置であり、CPUにより実行されるプログラムや、情報処理端末1によりアップロードされた画像データを記憶する。通信部23は、通信回線3を介して外部の装置と通信を行うための手段である。   The control unit 21 includes a CPU, a ROM, and a RAM. The CPU controls each unit of the server device 2 by executing a program stored in the ROM or the storage unit 22. The storage unit 22 is a storage device such as an HDD (Hard Disk Drive) and stores a program executed by the CPU and image data uploaded by the information processing terminal 1. The communication unit 23 is means for communicating with an external device via the communication line 3.

以上の構成要素を有するサーバ装置2は、情報処理端末1によりアップロードされた画像データを記憶部22に記憶する。その際、サーバ装置2は、画像データの分類を容易にするために、各画像データにつき付加情報を生成する。具体的には、上述の画像識別情報と、年月情報と、人物識別情報と、イベント情報と、場所情報とを生成する。   The server device 2 having the above components stores the image data uploaded by the information processing terminal 1 in the storage unit 22. At that time, the server device 2 generates additional information for each image data in order to facilitate the classification of the image data. Specifically, the above-described image identification information, year / month information, person identification information, event information, and location information are generated.

画像識別情報は、サーバ装置2により任意に設定される。年月情報は、情報処理端末1により画像データとともにアップロードされる日時データに基づいて設定される。人物識別情報は、情報処理端末1によりアップロードされた画像データに対して周知の顔認識処理を施し、その認識結果に基づいて設定される。例えば、2つの画像に同一人物が写っている場合には、当該2つの画像を示す画像データには、それぞれ同一の人物識別情報が付加される。イベント情報は、情報処理端末1により画像データとともにアップロードされる日時データに基づいて設定される。例えば、同日に生成された画像データ同士には、同一のイベント情報が設定される。場所情報は、情報処理端末1により画像データとともにアップロードされる座標データに基づいて設定される。   The image identification information is arbitrarily set by the server device 2. The year / month information is set based on the date / time data uploaded together with the image data by the information processing terminal 1. The person identification information is set based on a recognition result obtained by performing a known face recognition process on the image data uploaded by the information processing terminal 1. For example, when the same person is shown in two images, the same person identification information is added to the image data indicating the two images. The event information is set based on date / time data uploaded together with image data by the information processing terminal 1. For example, the same event information is set for the image data generated on the same day. The location information is set based on coordinate data uploaded together with image data by the information processing terminal 1.

図6は、この付加情報を格納した画像情報テーブル221のデータ構成例を示す図である。画像情報テーブル221を構成する各レコードは、「端末ID」と、「画像ID」と、「年月」と、「人物」と、「イベント」と、「場所」というフィールドにより構成される。この画像情報テーブル221は、「端末ID」というフィールドが追加されている点以外は、情報処理端末1に記憶される画像情報テーブル121と同じである。ここで、「端末ID」というフィールドには、情報処理端末1を識別するための端末識別情報が格納される。
以上が、サーバ装置2の構成についての説明である。
FIG. 6 is a diagram showing a data configuration example of the image information table 221 storing this additional information. Each record constituting the image information table 221 includes fields of “terminal ID”, “image ID”, “year / month”, “person”, “event”, and “location”. This image information table 221 is the same as the image information table 121 stored in the information processing terminal 1 except that a field of “terminal ID” is added. Here, terminal identification information for identifying the information processing terminal 1 is stored in the field of “terminal ID”.
The above is the description of the configuration of the server device 2.

1−2.動作
次に、本実施形態に係る情報処理端末1の動作について説明する。具体的には、表示部13によって表示された画像を絞り込む場合の動作について説明する。図7は、当該動作を示すフローチャートである。また、図8は、当該動作が実行される際の画面の遷移の一例を示す図である。なお、当該動作を実行するにあたっては、上述の画像閲覧プログラムが実行され、複数の画像ファイルがサーバ装置2よりダウンロードされているものとする。
1-2. Operation Next, the operation of the information processing terminal 1 according to the present embodiment will be described. Specifically, an operation for narrowing down the image displayed by the display unit 13 will be described. FIG. 7 is a flowchart showing the operation. FIG. 8 is a diagram illustrating an example of screen transition when the operation is executed. In executing the operation, it is assumed that the above-described image browsing program is executed and a plurality of image files are downloaded from the server device 2.

図8(a)に示されるような画面が表示部13により表示面131に表示されている状態において、情報処理端末1の制御部11は、モーションセンサ15により出力される加速度情報に基づいて、情報処理端末1がユーザによって振られたか否かについて監視する(ステップSa1)。そして、ユーザによって振られたことを検出した場合には(ステップSa1;YES)、制御部11は、その振られた方向を特定する(ステップSa2)。例えば、図8(b)に示すように左右方向に振られた場合には、制御部11は、振られた方向として「左右方向」を特定する。   In a state where the screen as shown in FIG. 8A is displayed on the display surface 131 by the display unit 13, the control unit 11 of the information processing terminal 1 is based on the acceleration information output by the motion sensor 15. It is monitored whether or not the information processing terminal 1 has been shaken by the user (step Sa1). When it is detected that the user has swung (step Sa1; YES), the control unit 11 specifies the swung direction (step Sa2). For example, as shown in FIG. 8B, when it is swung in the left-right direction, the control unit 11 specifies “left-right direction” as the swung direction.

次に、制御部11は、画像を絞り込む際の条件を規定する絞り込み条件を特定する(ステップSa3)。具体的には、制御部11は、記憶部12に予め記憶されている絞り込み条件情報を参照して、絞り込み条件を特定する。また、制御部11は、画像を絞り込む際に排除する画像の枚数を規定する削減率を特定する(ステップSa4)。具体的には、制御部11は、記憶部12に予め記憶されている削減率情報を参照して、絞り込み条件を特定する。   Next, the control unit 11 specifies a narrowing-down condition that defines a condition for narrowing down the image (step Sa3). Specifically, the control unit 11 refers to the narrowing condition information stored in advance in the storage unit 12 and specifies the narrowing condition. Further, the control unit 11 specifies a reduction rate that defines the number of images to be excluded when narrowing down the images (step Sa4). Specifically, the control unit 11 refers to the reduction rate information stored in advance in the storage unit 12 and specifies the narrowing condition.

次に、制御部11は、ステップSa3において特定した絞り込み条件と、ステップSa4において特定した削減率とに基づいて、画像の絞り込みを行う(ステップSa5)。例えば、図3に示される画像「imageA」〜「imageL」が表示されている場合において、絞り込み条件として「年月(降順)」が特定され、削減率として「25%」が特定された場合には、画像「imageA」〜「imageB」及び「imageE」〜「imageK」が、残される。   Next, the control unit 11 narrows down the image based on the narrowing-down condition specified in step Sa3 and the reduction rate specified in step Sa4 (step Sa5). For example, when images “imageA” to “imageL” shown in FIG. 3 are displayed, “year / month (descending order)” is specified as the narrowing-down condition, and “25%” is specified as the reduction rate. The images “imageA” to “imageB” and “imageE” to “imageK” are left.

次に、制御部11は、ステップSa5において絞り込まれた画像以外の画像を排除するアニメーションを表示部13に表示させる(ステップSa6)。具体的には、制御部11は、ステップSa5において絞り込まれた画像以外の画像が、ステップSa2において特定された方向に移動してゆき、表示面131の外へ飛び出すようにして消えてゆく様子を示すアニメーションを表示部13に表示させる。   Next, the control unit 11 causes the display unit 13 to display an animation that excludes images other than the image narrowed down in step Sa5 (step Sa6). Specifically, the control unit 11 shows a state in which images other than the image narrowed down in step Sa5 move in the direction specified in step Sa2 and disappear so as to jump out of the display surface 131. The animation shown is displayed on the display unit 13.

例えば、ステップSa2において特定された方向が「左右方向」であり、ステップSa5において、画像「imageA」〜「imageB」及び「imageE」〜「imageK」に絞り込まれた場合には、図8(c)に示されるように、画像「imageC」、「imageD」及び「imageL」が排除される。図8(d)は、画像「imageC」、「imageD」及び「imageL」が排除された後の表示画面を示す図である。
以上が、本実施形態に係る情報処理端末1の動作の説明である。
For example, when the direction specified in step Sa2 is the “left-right direction” and the images “imageA” to “imageB” and “imageE” to “imageK” are narrowed down in step Sa5, FIG. As shown, the images “imageC”, “imageD”, and “imageL” are excluded. FIG. 8D is a diagram showing the display screen after images “imageC”, “imageD”, and “imageL” are excluded.
The above is the description of the operation of the information processing terminal 1 according to the present embodiment.

以上説明した本実施形態に係る情報処理端末1によれば、ユーザは情報処理端末1を振るという操作により、当該端末に表示された画像を絞り込むことができる。ここで、「振る」という行為は、振った対象から何かをふるい落とすという結果を直感させる行為である。よって、情報処理端末1のユーザは、直感的な操作により画像の絞り込みを行うことができる。   According to the information processing terminal 1 according to the present embodiment described above, the user can narrow down the images displayed on the terminal by an operation of shaking the information processing terminal 1. Here, the act of “shaking” is an act of intuition of the result of sieving something off the shaked object. Therefore, the user of the information processing terminal 1 can narrow down the image by an intuitive operation.

2.第2実施形態
2−1.構成
2−1−1.通信システム100
本実施形態に係る通信システムの構成は、第1実施形態に係る通信システム100の構成と同じである。よって、本実施形態に係る通信システムの構成についての説明は省略する。
2. Second embodiment 2-1. Configuration 2-1-1. Communication system 100
The configuration of the communication system according to the present embodiment is the same as the configuration of the communication system 100 according to the first embodiment. Therefore, the description about the structure of the communication system which concerns on this embodiment is abbreviate | omitted.

2−1−2.情報処理端末1
本実施形態に係る情報処理端末1Aの構成は、以下に説明する絞り込み条件テーブル122を有している点と、その機能的構成を除いては、第1実施形態に係る情報処理端末1の構成と共通する。よって、以下の説明では、両者の相違点の説明を中心に行い、共通する部分の説明については省略する。また、本実施形態に係る情報処理端末1Aの構成要素のうち、第1実施形態に係る情報処理端末1と共通するものについては、同一の符号を用いる。
2-1-2. Information processing terminal 1
The configuration of the information processing terminal 1A according to the present embodiment is the configuration of the information processing terminal 1 according to the first embodiment, except that the information processing terminal 1A has a narrowing-down condition table 122 described below and its functional configuration. And in common. Therefore, in the following description, it demonstrates centering on description of the difference between both, and description of a common part is abbreviate | omitted. Moreover, the same code | symbol is used about the component which is common in the information processing terminal 1 which concerns on 1st Embodiment among the components of the information processing terminal 1A which concerns on this embodiment.

情報処理端末1Aは、その記憶部12に、絞り込み条件テーブル122を記憶する。図9は、絞り込み条件テーブル122のデータ構成例を示す図である。絞り込み条件テーブル122を構成する各レコードは、「カウント値」と「絞り込み条件」というフィールドにより構成される。「カウント値」のフィールドには、後述するカウンタにより計数される値が格納される。「絞り込み条件」のフィールドには、画像を絞り込む際の条件を規定する絞り込み条件が格納される。   The information processing terminal 1 </ b> A stores the narrow-down condition table 122 in the storage unit 12. FIG. 9 is a diagram illustrating a data configuration example of the narrowing-down condition table 122. Each record constituting the narrowing-down condition table 122 is composed of fields of “count value” and “narrowing condition”. A value counted by a counter described later is stored in the “count value” field. In the “refining condition” field, a narrowing condition that defines conditions for narrowing an image is stored.

次に、情報処理端末1Aの機能的構成について説明する。図10は、情報処理端末1Aの機能的構成を示す図である。図10に示される機能は、特に、表示部13によって表示された画像を絞り込む場合の動作に関する。当該機能は、記憶部12に記憶されるプログラムがCPUにより実行されることにより実現される。   Next, the functional configuration of the information processing terminal 1A will be described. FIG. 10 is a diagram illustrating a functional configuration of the information processing terminal 1A. The function shown in FIG. 10 particularly relates to an operation for narrowing down the image displayed by the display unit 13. This function is realized by executing a program stored in the storage unit 12 by the CPU.

絞り込み条件特定部51は、画像を絞り込む際の条件を規定する絞り込み条件を特定する手段である。絞り込み条件特定部51は、現状のカウンタ52の値と、記憶部12に記憶される絞り込み条件テーブル122の内容とに基づいて、絞り込み条件を特定する。例えば、絞り込み条件テーブル122の内容が、図9に示される通りであって、カウンタの値が「0」である場合には、「人物」が絞り込み条件として特定される。   The narrowing-down condition specifying unit 51 is means for specifying a narrowing-down condition that defines conditions for narrowing down an image. The narrowing-down condition specifying unit 51 specifies narrowing-down conditions based on the current value of the counter 52 and the contents of the narrowing-down condition table 122 stored in the storage unit 12. For example, when the contents of the narrowing-down condition table 122 are as shown in FIG. 9 and the value of the counter is “0”, “person” is specified as the narrowing-down condition.

絞り込み部53は、絞り込み条件特定部51により特定された絞り込み条件に基づいて、画像の絞り込みを行う手段である。絞り込み部53は、画像情報テーブル121を参照して、ユーザによって選択されている画像と、絞り込み条件特定部51により特定された絞り込み条件において関連付けられている画像を特定し、当該画像と、ユーザによって選択されている画像とを絞り込み結果として残す。例えば、ユーザによって選択された画像が「imageA」であって、絞り込み条件特定部51により特定された絞り込み条件が「人物」であって、画像情報テーブル121の内容が、図3に示される通りである場合には、「人物」のフィールドに画像「imageA」と同じ人物識別情報「P1」が格納されている画像「imageB」、「imageD」〜「imageG」、「imageI」及び「imageK」〜「imageL」が、絞り込み結果として残される。この絞り込み部53は、本発明に係る「特定手段」の一例である。   The narrowing-down unit 53 is a unit that narrows down the image based on the narrowing-down condition specified by the narrowing-down condition specifying unit 51. The narrowing-down unit 53 refers to the image information table 121, specifies an image selected by the user and an image associated with the narrowing-down condition specified by the narrowing-down condition specifying unit 51, and the image and the user The selected image is left as a refined result. For example, the image selected by the user is “imageA”, the filtering condition specified by the filtering condition specifying unit 51 is “person”, and the contents of the image information table 121 are as shown in FIG. In a case where there is an image “imageB”, “imageD” to “imageG”, “imageI”, and “imageK” to “imageK” in which the same person identification information “P1” as the image “imageA” is stored in the “person” field “imageL” is left as a refinement result. The narrowing-down unit 53 is an example of the “specifying unit” according to the present invention.

表示制御部54は、絞り込み部45又は絞り込み部53により絞り込まれた画像以外の画像を排除するアニメーションを表示部13に表示させる手段である。表示制御部54は、絞り込み部45又は絞り込み部53により絞り込まれた画像以外の画像が、方向検出部42により検出された方向に移動してゆき、表示面131の外へ飛び出すようにして消えてゆく様子を示すアニメーションを表示部13に表示させる。
以上が、情報処理端末1Aの構成についての説明である。
The display control unit 54 is a unit that causes the display unit 13 to display an animation that excludes images other than the images narrowed down by the narrowing-down unit 45 or the narrowing-down unit 53. The display control unit 54 moves away in the direction detected by the direction detection unit 42 and jumps out of the display surface 131 except for the image narrowed down by the narrowing unit 45 or the narrowing unit 53. An animation showing a state of going is displayed on the display unit 13.
The above is the description of the configuration of the information processing terminal 1A.

2−1−3.サーバ装置2
本実施形態に係るサーバ装置の構成は、第1実施形態に係るサーバ装置2の構成と同じである。よって、本実施形態に係るサーバ装置の構成についての説明は省略する。
2-1-3. Server device 2
The configuration of the server device according to the present embodiment is the same as the configuration of the server device 2 according to the first embodiment. Therefore, the description about the structure of the server apparatus which concerns on this embodiment is abbreviate | omitted.

2−2.動作
次に、本実施形態に係る情報処理端末1の動作について説明する。具体的には、表示部13によって表示された画像を絞り込む場合の動作について説明する。図11は、当該動作を示すフローチャートである。また、図12は、当該動作が実行される際の画面の遷移の一例を示す図である。なお、当該動作を実行するにあたっては、上述の画像閲覧プログラムが実行され、複数の画像ファイルがサーバ装置2よりダウンロードされているものとする。なお、図11において図7と共通する処理については、図7と同一の符号を付してある。
2-2. Operation Next, the operation of the information processing terminal 1 according to the present embodiment will be described. Specifically, an operation for narrowing down the image displayed by the display unit 13 will be described. FIG. 11 is a flowchart showing the operation. FIG. 12 is a diagram illustrating an example of screen transition when the operation is executed. In executing the operation, it is assumed that the above-described image browsing program is executed and a plurality of image files are downloaded from the server device 2. In FIG. 11, processes that are the same as those in FIG. 7 are given the same reference numerals as in FIG. 7.

図12(a)に示されるような画面が表示部13により表示面131に表示されている状態において、情報処理端末1の制御部11は、モーションセンサ15により出力される加速度情報に基づいて、情報処理端末1がユーザによって振られたか否かについて監視する(ステップSa1)。そして、ユーザによって振られたことを検出した場合には(ステップSa1;YES)、制御部11は、その振られた方向を特定する(ステップSa2)。例えば、図12(b)に示すように上下方向に振られた場合には、制御部11は、振られた方向として「上下方向」を特定する。   In a state where the screen as shown in FIG. 12A is displayed on the display surface 131 by the display unit 13, the control unit 11 of the information processing terminal 1 is based on the acceleration information output by the motion sensor 15. It is monitored whether or not the information processing terminal 1 has been shaken by the user (step Sa1). When it is detected that the user has swung (step Sa1; YES), the control unit 11 specifies the swung direction (step Sa2). For example, as shown in FIG. 12B, when it is swung up and down, the control unit 11 specifies “up and down direction” as the swung direction.

次に、制御部11は、ユーザによって画像が選択されているか否かについて判定する(ステップSb1)。この判定の結果、ユーザによって画像が選択されている場合には(ステップSb1;YES)、制御部11は、画像を絞り込む際の条件を規定する絞り込み条件を特定する(ステップSb2)。   Next, the control unit 11 determines whether an image has been selected by the user (step Sb1). If the result of this determination is that an image has been selected by the user (step Sb1; YES), the control unit 11 specifies a narrowing condition that defines the conditions for narrowing down the image (step Sb2).

具体的には、制御部11は、現状のカウンタの値と、記憶部12に記憶される絞り込み条件テーブル122の内容とに基づいて、絞り込み条件を特定する。例えば、絞り込み条件テーブル122の内容が、図9に示される通りであって、カウンタの値が「0」である場合には、「人物」が絞り込み条件として特定される。   Specifically, the control unit 11 specifies the narrowing-down condition based on the current counter value and the contents of the narrowing-down condition table 122 stored in the storage unit 12. For example, when the contents of the narrowing-down condition table 122 are as shown in FIG. 9 and the value of the counter is “0”, “person” is specified as the narrowing-down condition.

次に、制御部11は、ステップSb2において特定した絞り込み条件に基づいて、画像の絞り込みを行う(ステップSb3)。具体的には、制御部11は、画像情報テーブル121を参照して、ユーザによって選択されている画像と、ステップSb2において特定した絞り込み条件において関連付けられている画像を特定し、当該画像と、ユーザによって選択されている画像とを絞り込み結果として残す。例えば、ユーザによって選択された画像が「imageA」であって、ステップSb2において特定された絞り込み条件が「人物」であって、画像情報テーブル121の内容が、図3に示される通りである場合には、「人物」のフィールドに画像「imageA」と同じ人物識別情報「P1」が格納されている画像「imageB」、「imageD」〜「imageG」、「imageI」及び「imageK」〜「imageL」が、絞り込み結果として残される。   Next, the control unit 11 performs image narrowing based on the narrowing condition specified in step Sb2 (step Sb3). Specifically, the control unit 11 refers to the image information table 121, identifies the image selected by the user and the image associated in the narrowing-down condition identified in step Sb2, and the image, the user The image selected by is left as a refined result. For example, when the image selected by the user is “imageA”, the filtering condition specified in step Sb2 is “person”, and the contents of the image information table 121 are as shown in FIG. The images “imageB”, “imageD” to “imageG”, “imageI”, and “imageK” to “imageL” have the same person identification information “P1” as the image “imageA” stored in the “person” field. , Left as a result of narrowing down.

次に、制御部11は、ステップSb3において絞り込まれた画像以外の画像を排除するアニメーションを表示部13に表示させる(ステップSb4)。具体的には、制御部11は、ステップSa5において絞り込まれた画像以外の画像が、ステップSa2において特定された方向に移動してゆき、表示面131の外へ飛び出すようにして消えてゆく様子を示すアニメーションを表示部13に表示させる。   Next, the control part 11 displays the animation which excludes images other than the image narrowed down in step Sb3 on the display part 13 (step Sb4). Specifically, the control unit 11 shows a state in which images other than the image narrowed down in step Sa5 move in the direction specified in step Sa2 and disappear so as to jump out of the display surface 131. The animation shown is displayed on the display unit 13.

例えば、ステップSa2において特定された方向が「上下方向」であり、ステップSa5において、画像「imageB」、「imageD」〜「imageG」、「imageI」及び「imageK」〜「imageL」に絞り込まれた場合には、図12(c)に示されるように、画像「imageC」、「imageH」及び「imageJ」が排除される。図12(d)は、画像「imageC」、「imageH」及び「imageJ」が排除された後の表示画面を示す図である。
次に、制御部11は、カウンタの値を1増加させる(ステップSb5)。そして、制御部11は、再度ステップSa1の処理を実行する。
For example, the direction specified in step Sa2 is “vertical direction”, and in step Sa5, images “imageB”, “imageD” to “imageG”, “imageI”, and “imageK” to “imageL” are narrowed down As shown in FIG. 12C, images “imageC”, “imageH”, and “imageJ” are excluded. FIG. 12D is a diagram illustrating a display screen after images “imageC”, “imageH”, and “imageJ” are excluded.
Next, the control unit 11 increases the value of the counter by 1 (step Sb5). And the control part 11 performs the process of step Sa1 again.

なお、上記のステップSb1の判定において、ユーザによって画像が選択されていないと判定された場合の処理については、第1実施形態のステップSa3〜Sa6の処理と同じであるため、その説明を省略する。
以上が、本実施形態に係る情報処理端末1の動作の説明である。
本実施形態に係る情報処理端末1によれば、当該端末のユーザは、「振る」という直感的な操作により画像の絞り込みを行うことができる。また、ユーザは、「振る」度に絞り込み条件を変えることができる。
In addition, since it is the same as the process of step Sa3-Sa6 of 1st Embodiment about the process when it determines with the image not having been selected by the user in determination of said step Sb1, the description is abbreviate | omitted. .
The above is the description of the operation of the information processing terminal 1 according to the present embodiment.
According to the information processing terminal 1 according to the present embodiment, the user of the terminal can narrow down images by an intuitive operation of “shaking”. Further, the user can change the narrowing-down condition each time “shake”.

3.変形例
上記の実施形態は、以下のように変形してもよい。また、以下の変形例は、互いに組み合わせてもよい。
3−1.変形例1
上記の第1及び第2実施形態において、ユーザによって情報処理端末1が振られた回数に応じて、画像を絞り込む枚数を変化させるようにしてもよい。例えば、図13に示されるような、振られた回数と削減率とを対応づけて格納する削減率テーブル123を情報処理端末1(又は1A)の記憶部12に記憶させ、上記の第1及び第2実施形態のステップSa4の処理において、制御部11に、モーションセンサ15から出力される加速度情報に基づいて、振られた回数を特定させ、その特定された回数と上記の削減率テーブル123の内容とに基づいて、削減率を特定させるようにしてもよい。
また、振られた回数に代えて、振り幅や振りの速度に応じて、画像を絞り込む枚数を変化させるようにしてもよい。
3. Modifications The above embodiment may be modified as follows. The following modifications may be combined with each other.
3-1. Modification 1
In the first and second embodiments described above, the number of images to be narrowed may be changed according to the number of times the information processing terminal 1 is shaken by the user. For example, as shown in FIG. 13, a reduction rate table 123 that stores the number of shakes and the reduction rate in association with each other is stored in the storage unit 12 of the information processing terminal 1 (or 1A). In the processing of step Sa4 of the second embodiment, the control unit 11 is caused to specify the number of times of shaking based on the acceleration information output from the motion sensor 15, and the specified number of times and the above-described reduction rate table 123 The reduction rate may be specified based on the content.
Further, instead of the number of times of shaking, the number of images to be narrowed down may be changed according to the swing width and the swing speed.

3−2.変形例2
上記の第2実施形態において、ユーザによって情報処理端末1が振られた際(又は振られる前に)、ユーザによって画像が選択される際の表示面131に対するユーザの指の押圧力に応じて、画像を絞り込む条件を変化させて、その結果、画像を絞り込む枚数を変化させるようにしてもよい。例えば、図14に示されるような、押圧力(具体的には接触面積)と絞り込み条件とを対応づけて格納する絞り込み条件テーブル124を情報処理端末1Aの記憶部12に記憶させ、上記の第2実施形態のステップSb2の処理において、制御部11に、タッチセンサ部14から出力される座標情報と絞り込み条件テーブル124の内容とに基づいて、絞り込み条件を特定させるようにしてもよい。
3-2. Modification 2
In the second embodiment, when the information processing terminal 1 is shaken by the user (or before being shaken), according to the pressing force of the user's finger on the display surface 131 when the image is selected by the user, The condition for narrowing down the images may be changed, and as a result, the number of images to be narrowed down may be changed. For example, as shown in FIG. 14, a narrowing condition table 124 for storing a pressing force (specifically, a contact area) and a narrowing condition in association with each other is stored in the storage unit 12 of the information processing terminal 1A. In the process of step Sb2 in the second embodiment, the control unit 11 may specify the narrowing-down condition based on the coordinate information output from the touch sensor unit 14 and the contents of the narrowing-down condition table 124.

3−3.変形例3
上記の第1及び第2実施形態において、絞り込みの結果排除される画像のデータを他の情報処理端末1に送信するようにしてもよい。例えば、図15に示されるように、他の情報処理端末1Bの直上において情報処理端末1(又は1A)を振った場合に、絞り込みの結果排除される画像のデータを赤外線通信部19を用いて情報処理端末1Bに送信するようにしてもよい。この際、排除される画像の画像IDのみを情報処理端末1Bに送信し、画像データの取得についてはサーバ装置2に対してアクセスさせるようにしてもよい。
3-3. Modification 3
In the first and second embodiments described above, image data excluded as a result of narrowing down may be transmitted to another information processing terminal 1. For example, as shown in FIG. 15, when the information processing terminal 1 (or 1A) is shaken immediately above the other information processing terminal 1B, image data excluded as a result of narrowing down is transmitted using the infrared communication unit 19. You may make it transmit to the information processing terminal 1B. At this time, only the image ID of the image to be excluded may be transmitted to the information processing terminal 1B, and the server apparatus 2 may be accessed for obtaining the image data.

3−4.変形例4
上記の第1及び第2実施形態において、絞り込まれた画像以外の画像を排除するアニメーションを表示部13に表示させている際に、当該画像が表示面131から消える前にユーザによってタッチセンサ部14を介して選択された場合には、当該画像を元の表示位置に表示するようにしてもよい。
3-4. Modification 4
In the first and second embodiments described above, when an animation that excludes an image other than the narrowed-down image is displayed on the display unit 13, the touch sensor unit 14 is displayed by the user before the image disappears from the display surface 131. If selected via the button, the image may be displayed at the original display position.

3−5.変形例5
上記の第1及び第2実施形態において、情報処理端末1が裏返しにされた場合に、すでに絞り込みの結果排除された画像を、再び元の表示位置に表示するようにしてもよい。すなわち、絞り込みをリセットするようにしてもよい。この場合、情報処理端末1の制御部11は、モーションセンサ15から出力される加速度情報に基づいて、情報処理端末1が裏返しにされたことを検出する。
3-5. Modification 5
In the first and second embodiments, when the information processing terminal 1 is turned upside down, an image that has already been excluded as a result of narrowing down may be displayed again at the original display position. That is, the narrowing down may be reset. In this case, the control unit 11 of the information processing terminal 1 detects that the information processing terminal 1 is turned over based on the acceleration information output from the motion sensor 15.

3−6.変形例6
上記の第1及び第2実施形態に関連して説明した絞り込み条件は、あくまで一例であり、その他の絞り込み条件を採用してもよい。例えば、「画像データのデータサイズ(昇順又は降順)」や、「年月(昇順)」や、「画像データにより表される画像に写っている人数(昇順又は降順)」や、「ユーザによって画像データごとに設定される優先度(昇順又は降順)」等を採用してもよい。
3-6. Modification 6
The narrowing-down conditions described in relation to the first and second embodiments are merely examples, and other narrowing conditions may be adopted. For example, “data size of image data (ascending or descending order)”, “year / month (ascending order)”, “number of people in the image represented by image data (ascending or descending order)”, “image by user The priority (ascending order or descending order) set for each data may be adopted.

3−7.変形例7
上記の第1及び第2実施形態において、情報処理端末1(又は1A)の制御部11によって実行されるプログラムは、コンピュータ装置が読み取り可能な記録媒体を介して情報処理端末1に提供されてもよい。ここで記録媒体とは、例えば、磁気テープや磁気ディスクなどの磁気記録媒体や、光ディスクなどの光記録媒体や、光磁気記録媒体や、半導体メモリ等である。また、同プログラムは、インターネット等のネットワークを介して情報処理端末1に提供されてもよい。
3-7. Modification 7
In the first and second embodiments described above, the program executed by the control unit 11 of the information processing terminal 1 (or 1A) may be provided to the information processing terminal 1 via a computer-readable recording medium. Good. Here, the recording medium is, for example, a magnetic recording medium such as a magnetic tape or a magnetic disk, an optical recording medium such as an optical disk, a magneto-optical recording medium, or a semiconductor memory. The program may be provided to the information processing terminal 1 via a network such as the Internet.

3−8.変形例8
上記の第1及び第2実施形態では、情報処理端末1は、サーバ装置2に対して画像データをアップロードして蓄積しているが、サーバ装置2にアップロードせずに、自機の記憶部12に画像データを蓄積するようにしてもよい。この場合、情報処理端末1は、サーバ装置2が備える、付加情報を生成する機能を備えてもよい。具体的には、情報処理端末1は、各画像データにつき、画像識別情報と、年月情報と、人物識別情報と、イベント情報と、場所情報とを生成し、画像情報テーブル121に各情報を格納するようにしてもよい。
3-8. Modification 8
In the first and second embodiments described above, the information processing terminal 1 uploads and accumulates image data to the server device 2, but without uploading the image data to the server device 2, the storage unit 12 of its own device. The image data may be stored in the storage. In this case, the information processing terminal 1 may have a function of generating additional information included in the server device 2. Specifically, the information processing terminal 1 generates image identification information, year / month information, person identification information, event information, and location information for each image data, and stores each information in the image information table 121. You may make it store.

3−9.変形例9
上記の第1及び第2実施形態において、画像を絞り込む際に排除される画像の移動速度は、情報処理端末1が振られた際にモーションセンサ15により検出された加速度に応じて変化させてもよい。例えば、検出された加速度が大きくなるにつれて、画像の移動速度が増加するようにしてもよい。
3-9. Modification 9
In the first and second embodiments described above, the moving speed of the image that is excluded when the image is narrowed may be changed according to the acceleration detected by the motion sensor 15 when the information processing terminal 1 is shaken. Good. For example, the moving speed of the image may increase as the detected acceleration increases.

3−10.変形例10
上記の第2実施形態では、画像を絞り込む際にユーザによって画像が選択されている場合であって、絞り込み条件として「人物」が特定されたときには、当該選択されている画像と、当該画像と同じ人物識別情報と関連付けられている画像とが絞り込み結果として残される(図11のステップSb3参照)。この際、選択されている画像に複数の人物が示されているときは、それらの人物の中で特にユーザによって選択されている人物を示す人物識別情報と関連付けられている画像のみを絞り込み結果として残すようにしてもよい。ここで、ユーザによって選択されている人物は、例えば、画像に対するユーザの指の接触位置によって特定される。
3-10. Modification 10
In the second embodiment, when the image is narrowed down by the user when the image is narrowed down and “person” is specified as the narrowing-down condition, the selected image is the same as the selected image. The image associated with the person identification information is left as a narrowing result (see step Sb3 in FIG. 11). At this time, when a plurality of persons are indicated in the selected image, only the images associated with the person identification information indicating the person selected by the user among the persons are selected as the narrowing result. It may be left. Here, the person selected by the user is specified by the contact position of the user's finger with respect to the image, for example.

図16は、本変形例に係る、画像の絞り込み動作が実行される際の画面の遷移の一例を示す図である。上記の第2実施形態では、画像が整列されて画面に表示されているが(図12(a)参照)、図16(a)に示されるように、画像は整列されていない状態で表示されてもよい。図16(a)に示される画面が表示されている状態において、図16(b)に示されるように、一の画像の人物Aがユーザによって選択されて、情報処理端末1が振られると、上記の第2実施形態と同様にユーザによって振られたことが検出され(図11のステップSa1;YES)、その振られた方向が特定される(図11のステップSa2)。   FIG. 16 is a diagram illustrating an example of screen transition when the image narrowing-down operation according to the present modification is executed. In the second embodiment, images are arranged and displayed on the screen (see FIG. 12A), but as shown in FIG. 16A, the images are displayed in an unaligned state. May be. In a state where the screen shown in FIG. 16A is displayed, as shown in FIG. 16B, when the person A of one image is selected by the user and the information processing terminal 1 is shaken, As in the second embodiment, it is detected that the user has swung (step Sa1 in FIG. 11; YES), and the swung direction is specified (step Sa2 in FIG. 11).

本例においては、ユーザによって一の画像中の人物Aが選択されているため、ユーザによって画像が選択されていると判定され(図11のステップSb1;YES)、画像を絞り込む際の条件を規定する絞り込み条件が特定される(図11のステップSb2)。この際に、絞り込み条件として「人物」が特定された場合、本例においてはユーザによって一の画像中の人物Aが選択されているため、この人物Aを示す人物識別情報と関連付けられている画像が、前記ユーザによって選択されている画像とともに絞り込み結果として残される。ここで、ユーザによって選択された人物を示す人物識別情報を特定するために、画像IDごとに、当該画像に写っている人物を示す人物識別情報と、当該人物が表示されるその画像中の位置を示す座標情報とを記憶しておくようにしてもよい。   In this example, since the person A in the one image is selected by the user, it is determined that the image is selected by the user (step Sb1 in FIG. 11; YES), and conditions for narrowing down the image are defined. The narrowing-down conditions to be specified are specified (step Sb2 in FIG. 11). At this time, when “person” is specified as the narrowing-down condition, in this example, since the person A in one image is selected by the user, the image associated with the person identification information indicating this person A Are left as a narrowing result together with the image selected by the user. Here, in order to specify the person identification information indicating the person selected by the user, for each image ID, the person identification information indicating the person shown in the image and the position in the image where the person is displayed. Coordinate information indicating the above may be stored.

画像の絞り込みが完了すると、上記の第2実施形態と同様に、絞り込まれた画像以外の画像を排除するアニメーションが表示部13に表示される。図16(c)は、その際の表示画面の一例を示す図である。そして、図16(d)に示されるように、絞り込みの結果残された画像が整列された上で表示部13に表示される。
なお、画像中に示され、ユーザによって選択可能なオブジェクトは人物に限られず、例えば、建物や物品であってもよい。
When the image narrowing is completed, an animation that excludes images other than the narrowed image is displayed on the display unit 13 as in the second embodiment. FIG. 16C is a diagram showing an example of the display screen at that time. Then, as shown in FIG. 16D, the images left as a result of the narrowing down are aligned and displayed on the display unit 13.
The object shown in the image and selectable by the user is not limited to a person, and may be a building or an article, for example.

1…情報処理端末、2…サーバ装置、3…通信回線、11…制御部、12…記憶部、13…表示部、14…タッチセンサ部、15…モーションセンサ、16…撮像部、17…GPS受信部、18…WAN通信部、19…赤外線通信部、21…制御部、22…記憶部、23…通信部、41…振り検出部、42…方向検出部、43…絞り込み条件特定部、44…削減率特定部、45…絞り込み部、46…表示制御部、51…絞り込み条件特定部、52…カウンタ、53…絞り込み部、54…表示制御部、100…通信システム、121…画像情報テーブル、122…絞り込み条件テーブル、123…削減率テーブル、124…絞り込み条件テーブル、221…画像情報テーブル DESCRIPTION OF SYMBOLS 1 ... Information processing terminal, 2 ... Server apparatus, 3 ... Communication line, 11 ... Control part, 12 ... Memory | storage part, 13 ... Display part, 14 ... Touch sensor part, 15 ... Motion sensor, 16 ... Imaging part, 17 ... GPS Receiving unit, 18 ... WAN communication unit, 19 ... infrared communication unit, 21 ... control unit, 22 ... storage unit, 23 ... communication unit, 41 ... swing detection unit, 42 ... direction detection unit, 43 ... narrowing-down condition specifying unit, 44 ... Reduction rate specifying unit, 45 ... Narrowing unit, 46 ... Display control unit, 51 ... Narrowing condition specifying unit, 52 ... Counter, 53 ... Narrowing unit, 54 ... Display control unit, 100 ... Communication system, 121 ... Image information table, 122: Filtering condition table, 123: Reduction rate table, 124: Filtering condition table, 221: Image information table

Claims (12)

その表示面に複数の画像を表示する表示手段と、
前記表示手段により表示された複数の画像のうち、所定の規則に従って、1又は複数の画像を特定する特定手段と、
ユーザによって自機が振られた方向を検出する検出手段と、
前記表示手段により表示された複数の画像のうち、前記特定手段により特定された1又は複数の画像以外の画像が、前記検出手段により検出された方向に沿って移動する様子を表示するように、前記表示手段を制御する表示制御手段と
を備える情報処理端末。
Display means for displaying a plurality of images on the display surface;
A specifying means for specifying one or a plurality of images according to a predetermined rule among the plurality of images displayed by the display means;
Detecting means for detecting a direction in which the user is shaken by the user;
Among the plurality of images displayed by the display means, an image other than the one or more images specified by the specifying means is displayed so as to move along the direction detected by the detection means. An information processing terminal comprising: display control means for controlling the display means.
前記表示制御手段は、前記特定手段により特定された1又は複数の画像以外の画像が、前記検出手段により検出された方向に沿って移動し、前記表示面の外へ飛び出すようにして消える様子を表示するように、前記表示手段を制御することを特徴とする請求項1に記載の情報処理端末。   The display control means is such that an image other than one or a plurality of images specified by the specifying means moves along the direction detected by the detection means and disappears so as to jump out of the display surface. The information processing terminal according to claim 1, wherein the display unit is controlled to display the information. 前記表示手段により表示された複数の画像のうち、一の画像の選択を受け付ける受付手段をさらに備え、
前記特定手段は、前記受付手段によりその選択が受け付けられた一の画像を、前記1又は複数の画像の一部又は全部として特定する
ことを特徴とする請求項1又は2に記載の情報処理端末。
A receiving unit for receiving selection of one of the plurality of images displayed by the display unit;
The information processing terminal according to claim 1 or 2, wherein the specifying unit specifies one image, the selection of which has been received by the receiving unit, as part or all of the one or more images. .
前記特定手段は、前記受付手段によりその選択が受け付けられた一の画像と、当該一の画像と関連付けられる他の画像とを、前記1又は複数の画像の一部又は全部として特定することを特徴とする請求項3に記載の情報処理端末。   The specifying unit specifies one image whose selection is received by the receiving unit and another image associated with the one image as a part or all of the one or more images. The information processing terminal according to claim 3. 前記受付手段は、前記表示面に対するユーザの指による押圧を検出することにより、前記一の画像の選択を受け付け、
前記特定手段は、前記受付手段により検出された前記押圧の力に応じて、前記1又は複数の画像を特定する
ことを特徴とする請求項3又は4に記載の情報処理端末。
The accepting means accepts selection of the one image by detecting a press by a user's finger on the display surface,
The information processing terminal according to claim 3 or 4, wherein the specifying unit specifies the one or more images in accordance with the pressing force detected by the receiving unit.
前記検出手段は、ユーザによって自機が振られた回数を検出し、
前記特定手段は、前記検出手段により検出された回数に応じて、前記1又は複数の画像を特定する
ことを特徴とする請求項1乃至5のいずれか1項に記載の情報処理端末。
The detection means detects the number of times the user has been shaken by the user,
The information processing terminal according to any one of claims 1 to 5, wherein the specifying unit specifies the one or more images according to the number of times detected by the detection unit.
前記表示制御手段は、前記制御を行った後、前記検出手段により検出された方向に沿って移動する前記画像が、前記表示面の外へ飛び出すようにして消える前に、前記受付手段を介して選択された場合には、当該画像を元の表示位置に表示するよう、前記表示手段を制御することを特徴とする請求項3乃至5のいずれか1項に記載の情報処理端末。   The display control means, after performing the control, before the image moving along the direction detected by the detection means disappears so as to jump out of the display surface, through the reception means. The information processing terminal according to any one of claims 3 to 5, wherein, when selected, the display unit is controlled to display the image at the original display position. 前記表示制御手段による前記制御に応答して、前記特定手段により特定された1又は複数の画像以外の画像を示すデータを、他の情報処理端末に送信する送信手段をさらに備えることを特徴とする請求項1乃至7のいずれか1項に記載の情報処理端末。   In addition to the control by the display control means, it further comprises transmission means for transmitting data indicating an image other than one or a plurality of images specified by the specifying means to another information processing terminal. The information processing terminal according to any one of claims 1 to 7. 前記検出手段は、ユーザによって自機が裏返しにされた状態を検出し、
前記表示制御手段は、前記制御を行った後に、前記検出手段により自機が裏返しにされた状態が検出された場合に、前記表示面から消した前記画像を再び前記表示面に表示するように、前記表示手段を制御する
ことを特徴とする請求項1乃至8のいずれか1項に記載の情報処理端末。
The detection means detects a state in which the user's machine is turned over by the user,
The display control unit displays the image erased from the display surface again on the display surface when the detection unit detects that the own device is turned upside down after performing the control. The information processing terminal according to any one of claims 1 to 8, wherein the display unit is controlled.
前記受付手段は、前記表示面に対するユーザの指による押圧を検出することにより、前記一の画像中に示される一のオブジェクトの選択を受け付け、
前記特定手段は、前記一の画像と、前記受付手段によりその選択が受け付けられた一のオブジェクトを示す他の画像とを、前記1又は複数の画像の一部又は全部として特定する
ことを特徴とする請求項4に記載の情報処理端末。
The accepting means accepts selection of one object shown in the one image by detecting a press by a user's finger on the display surface,
The specifying unit specifies the one image and another image indicating the one object whose selection is received by the receiving unit as part or all of the one or more images. The information processing terminal according to claim 4.
その表示面に複数の画像を表示する表示手段を有する情報処理端末の制御方法であって、
前記表示手段により表示された複数の画像のうち、所定の規則に従って、1又は複数の画像を特定する特定ステップと、
ユーザによって自機が振られた方向を検出する検出ステップと、
前記表示手段により表示された複数の画像のうち、前記特定手段により特定された1又は複数の画像以外の画像が、前記ステップにおいて検出された方向に沿って移動する様子を表示するように、前記表示手段を制御する表示制御ステップと
を有する制御方法。
A method of controlling an information processing terminal having display means for displaying a plurality of images on its display surface,
A specifying step of specifying one or a plurality of images according to a predetermined rule among the plurality of images displayed by the display means;
A detection step for detecting a direction in which the user is swung by the user;
Among the plurality of images displayed by the display unit, an image other than one or a plurality of images specified by the specifying unit is displayed so as to move along the direction detected in the step. And a display control step for controlling the display means.
その表示面に複数の画像を表示する表示手段を有するコンピュータに、
前記表示手段により表示された複数の画像のうち、所定の規則に従って、1又は複数の画像を特定する特定ステップと、
ユーザによって自機が振られた方向を検出する検出ステップと、
前記表示手段により表示された複数の画像のうち、前記特定手段により特定された1又は複数の画像以外の画像が、前記ステップにおいて検出された方向に沿って移動する様子を表示するように、前記表示手段を制御する表示制御ステップと
を実行させるためのプログラム。
In a computer having display means for displaying a plurality of images on the display surface,
A specifying step of specifying one or a plurality of images according to a predetermined rule among the plurality of images displayed by the display means;
A detection step for detecting a direction in which the user is swung by the user;
Among the plurality of images displayed by the display unit, an image other than one or a plurality of images specified by the specifying unit is displayed so as to move along the direction detected in the step. A display control step for controlling the display means.
JP2012230122A 2012-10-17 2012-10-17 Information processing terminal, control method, and program Pending JP2014081833A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012230122A JP2014081833A (en) 2012-10-17 2012-10-17 Information processing terminal, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012230122A JP2014081833A (en) 2012-10-17 2012-10-17 Information processing terminal, control method, and program

Publications (1)

Publication Number Publication Date
JP2014081833A true JP2014081833A (en) 2014-05-08

Family

ID=50785958

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012230122A Pending JP2014081833A (en) 2012-10-17 2012-10-17 Information processing terminal, control method, and program

Country Status (1)

Country Link
JP (1) JP2014081833A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014137742A (en) * 2013-01-17 2014-07-28 Nikon Corp Display device, imaging device, and display control program
CN105511753A (en) * 2014-10-20 2016-04-20 中兴通讯股份有限公司 Method and terminal for display adjustment
JP2019117441A (en) * 2017-12-26 2019-07-18 大日本印刷株式会社 Operation display device and program
JPWO2020262038A1 (en) * 2019-06-25 2021-09-13 日本郵船株式会社 Program and information processing method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014137742A (en) * 2013-01-17 2014-07-28 Nikon Corp Display device, imaging device, and display control program
CN105511753A (en) * 2014-10-20 2016-04-20 中兴通讯股份有限公司 Method and terminal for display adjustment
JP2019117441A (en) * 2017-12-26 2019-07-18 大日本印刷株式会社 Operation display device and program
JP7043832B2 (en) 2017-12-26 2022-03-30 大日本印刷株式会社 Operation display device and program
JPWO2020262038A1 (en) * 2019-06-25 2021-09-13 日本郵船株式会社 Program and information processing method

Similar Documents

Publication Publication Date Title
US9998651B2 (en) Image processing apparatus and image processing method
US9880640B2 (en) Multi-dimensional interface
US9632578B2 (en) Method and device for switching tasks
TWI600322B (en) Method for operating an electronic device with an integratd camera and related electronic device and non-transitory computer readable storage medium
US8988347B2 (en) Image processing apparatus, image displaying method, and image displaying program
US20180005040A1 (en) Event-based image classification and scoring
RU2621626C2 (en) Method and device for controlling schedule with optical character reading device
EP2894607B1 (en) Electronic device and display method thereof
US11914850B2 (en) User profile picture generation method and electronic device
US20200192540A1 (en) Content collection method, apparatus and storage medium
EP3128411B1 (en) Interface display method, terminal, computer program and recording medium
US9380214B2 (en) Image photographing apparatus and method thereof
CN107003586B (en) Photographic device and image capture method
JP6555026B2 (en) Information provision system
KR20140034339A (en) User terminal apparatus for uploading contents, user terminal apparatus for downloading contents, server, contents sharing system and their contents sharing method
US20150106761A1 (en) Information processing apparatus, method for controlling the information processing apparatus, and storage medium
US9635234B2 (en) Server, client terminal, system, and program
CN105745612A (en) Resizing technique for display content
JP2014081833A (en) Information processing terminal, control method, and program
EP2498256B1 (en) Reproduction processing apparatus, imaging apparatus, reproduction processing method, and program
US20190026380A1 (en) Method and apparatus for processing bookmark and terminal device
KR102273198B1 (en) Method and device for recognizing visually coded patterns
US11430165B2 (en) Display control apparatus and display control method
JP2020187751A (en) Mobile communication terminal for providing image content search user interface and image content management method using the same
KR20140105672A (en) Apparatus and method for processing a album in portable terminal