JP7375091B2 - Image processing device, image processing method, program and recording medium - Google Patents
Image processing device, image processing method, program and recording medium Download PDFInfo
- Publication number
- JP7375091B2 JP7375091B2 JP2022063222A JP2022063222A JP7375091B2 JP 7375091 B2 JP7375091 B2 JP 7375091B2 JP 2022063222 A JP2022063222 A JP 2022063222A JP 2022063222 A JP2022063222 A JP 2022063222A JP 7375091 B2 JP7375091 B2 JP 7375091B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- tag information
- search
- images
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 30
- 238000003672 processing method Methods 0.000 title claims description 10
- 230000004044 response Effects 0.000 claims description 29
- 238000000605 extraction Methods 0.000 claims description 19
- 239000000284 extract Substances 0.000 claims description 17
- 238000003825 pressing Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 31
- 230000006870 function Effects 0.000 description 15
- 238000010079 rubber tapping Methods 0.000 description 15
- 235000005612 Grewia tenax Nutrition 0.000 description 13
- 244000041633 Grewia tenax Species 0.000 description 13
- 238000011156 evaluation Methods 0.000 description 13
- 238000001514 detection method Methods 0.000 description 9
- 238000000034 method Methods 0.000 description 9
- 238000010191 image analysis Methods 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 7
- 230000009471 action Effects 0.000 description 6
- 235000015243 ice cream Nutrition 0.000 description 6
- 238000003860 storage Methods 0.000 description 6
- 239000010813 municipal solid waste Substances 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 235000009508 confectionery Nutrition 0.000 description 2
- 230000035622 drinking Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000002834 transmittance Methods 0.000 description 2
- 244000205754 Colocasia esculenta Species 0.000 description 1
- 235000006481 Colocasia esculenta Nutrition 0.000 description 1
- 206010011469 Crying Diseases 0.000 description 1
- 235000016623 Fragaria vesca Nutrition 0.000 description 1
- 240000009088 Fragaria x ananassa Species 0.000 description 1
- 235000011363 Fragaria x ananassa Nutrition 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000010931 gold Substances 0.000 description 1
- 229910052737 gold Inorganic materials 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
- G06F16/532—Query formulation, e.g. graphical querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/54—Browsing; Visualisation therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/5866—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
- G06F16/538—Presentation of query results
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Library & Information Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、画像群の中から、検索条件に基づいて画像を検索し、その検索の結果の画像を表示部に表示させる画像処理装置、画像処理方法、プログラムおよび記録媒体に関する。 The present invention relates to an image processing device, an image processing method, a program, and a recording medium that search for an image from a group of images based on search conditions and display the image as a result of the search on a display unit.
例えば、スマートフォンに保持されている画像群の中から、ユーザが所望する画像を探す場合、ユーザは、画像群に含まれる画像の一覧(サムネイル画像)を表示部に時系列に表示させ、画像の一覧を時系列に遡りながら所望の画像を探すという方法が用いられる。また、画像群の中から画像を検索するためのキーワードを入力し、タグ情報等の画像の付加情報を利用して、キーワードに一致する画像を検索する方法が知られている。 For example, when a user searches for a desired image from among a group of images held on a smartphone, the user displays a list of images (thumbnail images) included in the image group in chronological order on the display section, and A method is used in which a desired image is searched for while going back through the list in chronological order. Furthermore, a method is known in which a keyword for searching for an image from a group of images is input, and additional information of the image such as tag information is used to search for an image matching the keyword.
しかし、画像の一覧を表示させて遡るという方法では、画像群に含まれる大量の画像の中から、所望の画像を探すことは非常に困難である。また、キーワードを入力して画像を検索する方法では、どのようなキーワードを使用すればよいのかが明確な場合には、所望の画像を適切に検索することができるかもしれないが、キーワードが明確ではない場合には、所望の画像を適切に検索することは非常に困難である。 However, with the method of displaying a list of images and going back, it is extremely difficult to search for a desired image from among a large number of images included in a group of images. In addition, with the method of searching for images by inputting keywords, if it is clear what kind of keywords to use, it may be possible to properly search for the desired image, but if the keywords are clearly Otherwise, it is very difficult to properly search for a desired image.
ここで、本発明に関連性のある先行技術文献として、特許文献1、2がある。 Here, as prior art documents relevant to the present invention, there are Patent Documents 1 and 2.
特許文献1には、画像データに付与された付加情報に基づいて文字列検索を行うことにより、画像データの検索を行うことが記載されている。例えば、検索したいExifの文字列と、検索したい付箋の文字列と、のAND/ORのいずれかの検索を行うことにより、入力された文字列に一致する付加情報を有する画像データを検索し、検索結果に該当する画像データを表示することが記載されている。 Patent Document 1 describes that image data is searched by performing a character string search based on additional information added to the image data. For example, by performing an AND/OR search between the Exif character string you want to search and the sticky note character string you want to search, you can search for image data that has additional information that matches the input character string, It is stated that image data corresponding to the search results will be displayed.
特許文献2には、デジタル画像に関連する複数の属性及び属性値をラベルにおいて表示し、ユーザが、ラベルにおいて表示される属性値の一を選択することにより画像の他の集合等を選択することが記載されている。また、選択された画像の集合を閲覧している際に、ユーザが、特定の人間の画像全てを検索し、それらの画像を時系列的に表示し、それらの関連するラベルを表示することが記載されている。 Patent Document 2 discloses that a plurality of attributes and attribute values related to a digital image are displayed on a label, and a user selects another set of images by selecting one of the attribute values displayed on the label. is listed. Also, while viewing a selected set of images, the user can search for all images of a particular person, display those images in chronological order, and display their associated labels. Are listed.
特許文献1には、複数の付加情報の文字列のAND検索を行うことなどが記載されているが、ユーザが検索したい文字列を入力する必要があり、直感的に画像を検索することができない。
また、特許文献2には、1枚のデジタル画像の属性値の一を選択することにより、他の画像の集合を閲覧することなどが記載されているが、一の属性値のみに対応する画像の集合を閲覧できるのみであり、例えば複数の属性値により画像を絞り込むことはできない。
Patent Document 1 describes performing an AND search of multiple character strings of additional information, but the user has to input the character string he or she wants to search, making it impossible to search for images intuitively. .
Further, Patent Document 2 describes that by selecting one of the attribute values of one digital image, a set of other images can be viewed, but images that correspond only to one attribute value You can only view a collection of images, and cannot narrow down the images by, for example, multiple attribute values.
また、従来のオンラインフォトサービスには、画像の閲覧を促す通知をユーザに送信し、ユーザが所有する過去の画像を閲覧するのを促す機能を有するものがある。 Furthermore, some conventional online photo services have a function of sending a user a notification urging the user to view images, and urging the user to view past images that the user owns.
画像の閲覧を促す通知がユーザに送信された後、ユーザにより、この通知が開封されると、図20に示すように、例えばユーザが所有する「2015/01/10」の画像群の中から選択された数枚の画像を用いて作成されたコラージュ画像が表示部に表示される。 After a notification prompting the user to view images is sent to the user, when the user opens this notification, for example, from among the images of "2015/01/10" owned by the user, as shown in Figure 20. A collage image created using the selected several images is displayed on the display section.
続いて、ユーザにより、コラージュ画像の下側に表示されている「その他の写真を表示」というボタンが押されると、図21に示すように、コラージュ画像で用いられている画像と同じ撮影日の「2015年1月10日(土)」の画像群が、画像の撮影時刻の降順に表示部に表示される。 Next, when the user presses the button "Show other photos" displayed at the bottom of the collage image, as shown in Figure 21, the user will be able to see the photos taken on the same day as the images used in the collage image. A group of images for "January 10, 2015 (Saturday)" are displayed on the display unit in descending order of the image shooting time.
また、ユーザは、表示部に表示された画像群を上方向または下方向へ移動させることにより、その前後の撮影日に撮影された画像群を、画像の撮影時刻の順に、順次表示させることができる。
例えば、表示部に表示された画像群が上方向へ移動されると、「2015年1月10日(土)」よりも前の直近の撮影日である、例えば「2015年1月9日(金)」の画像群が表示部に表示される。一方、表示部に表示された画像群が下方向へ移動されると、「2015年1月10日(土)」よりも後の直近の撮影日である、例えば「2015年1月18日(日)」の画像群が表示部に表示される。
Furthermore, by moving the image group displayed on the display unit upward or downward, the user can sequentially display the image groups taken on the previous and subsequent shooting dates in the order of the image shooting time. can.
For example, when the group of images displayed on the display is moved upward, the most recent shooting date before "Saturday, January 10, 2015", for example, "January 9, 2015 ( A group of images of "Gold" are displayed on the display section. On the other hand, when the group of images displayed on the display section is moved downward, the most recent shooting date after "Saturday, January 10, 2015", for example, "January 18, 2015 ( A group of images of ``day)'' are displayed on the display section.
このように、従来のオンラインフォトサービスには、コラージュ画像から、「その他の写真を表示」のボタンを辿っていくことにより、このコラージュ画像で用いられている画像と同じ撮影日の画像群を時系列に表示させる機能がある。 In this way, with conventional online photo services, by following the "Show other photos" button from a collage image, you can view a group of images taken on the same day as the images used in this collage image. There is a function to display in series.
画像の閲覧を促す通知に含まれるコラージュ画像は、「2015年1月10日(土)」という画像の撮影時刻に関する検索条件で検索され、撮影日が「2015年1月10日(土)」の画像群の中から選択された数枚の画像を用いて作成されたものである。従って、コラージュ画像から、このコラージュ画像で用いられている画像の撮影時刻の前後に撮影された、撮影日が「2015年1月10日(土)」の画像群を時系列に表示させることができる。
しかし、従来のオンラインフォトサービスには、画像の撮影時刻以外の任意の条件で検索された画像の中から、その中の1枚の画像の撮影時刻の前後に撮影された画像を時系列に表示させる機能は備えられていない。
The collage image included in the notification prompting to view the image was searched using the search condition related to the time the image was taken, ``Saturday, January 10, 2015,'' and the date of the image was ``Saturday, January 10, 2015.'' It was created using several images selected from a group of images. Therefore, from a collage image, it is possible to display in chronological order a group of images with the shooting date "Saturday, January 10, 2015" that were taken before and after the shooting time of the image used in this collage image. can.
However, conventional online photo services display images taken before and after the shooting time of one of the images searched based on arbitrary conditions other than the shooting time of the image in chronological order. There is no function to do so.
また、従来のオンラインフォトサービスにおいて、画像群の中から、キーワードに該当する画像を検索する場合、そのキーワードに該当する画像群が、撮影日毎に、画像の撮影時刻の降順に表示部に表示される。
画像群の中から、例えば「サッカー」というキーワードに該当する画像を検索すると、図22に示すように、「2015年12月5日(土)」の画像群の中から、サッカーに該当する9枚の画像がヒットする。
In addition, in conventional online photo services, when searching for an image that matches a keyword from among a group of images, the group of images that match that keyword are displayed on the display in descending order of the shooting time of the image by shooting date. Ru.
For example, if you search for images that match the keyword "soccer" from the image group, as shown in Figure 22, from the image group "December 5, 2015 (Saturday)", 9 that match the keyword "soccer" will be found. 2 images are hit.
ここで、「2015年12月5日(土)」の表示の右側に表示された「下向き矢印」のボタンが押されると、サッカーとは関係のない画像も含めて、「2015年12月5日(土)」の画像群に含まれる全ての画像が表示され、「下向き矢印」のボタンは、「上向き矢印」のボタンに変更される。「上向き矢印」のボタンが押されると、再びサッカーに該当する9枚の画像が表示され、「下向き矢印」のボタンに戻る。 Here, if the "down arrow" button displayed on the right side of the display of "Saturday, December 5, 2015" is pressed, the "December 5, 2015" button will be displayed, including images unrelated to soccer. All images included in the "Sunday (Saturday)" image group are displayed, and the "downward arrow" button is changed to an "upward arrow" button. When the "upward arrow" button is pressed, nine images corresponding to soccer are displayed again, and the display returns to the "downward arrow" button.
図22に示すように、「サッカー」のキーワードで検索した場合、「サッカー」に該当する画像がヒットした「2015年12月5日(土)」よりも前において、「サッカー」に該当する画像がヒットした撮影年月日は、「2015年11月28日」である。 As shown in Figure 22, when searching for the keyword "soccer", images matching "soccer" were found before "Saturday, December 5, 2015" when images matching "soccer" were found. The shooting date that became a hit is "November 28, 2015."
ここで、画像群に含まれる全ての画像が撮影時刻の順に表示される時系列画像の一覧画面に戻り、「2015年12月5日(土)」の画像群を見た場合に、時系列画像の一覧において、「2015年12月5日(土)」の次の画像の撮影年月日は、「2015年12月6日(日)」であり、「2015年12月5日(土)」の前の画像の撮影年月日は、「2015年12月4日(金)」であったとする。 Now, return to the chronological image list screen where all images included in the image group are displayed in order of shooting time, and if you look at the image group of "Saturday, December 5, 2015", the chronological In the image list, the shooting date of the next image after "Saturday, December 5, 2015" is "Sunday, December 6, 2015" and "Saturday, December 5, 2015" )” is assumed to be “December 4, 2015 (Friday)”.
このように、従来のオンラインフォトサービスには、画像群から、「サッカー」のキーワードで画像の検索を行った場合に、「サッカー」に該当する画像がある撮影日の画像を、その撮影日毎に表示する機能がある。 In this way, in conventional online photo services, when you search for images from a group of images using the keyword "soccer," you can search for images that have images corresponding to "soccer" for each shooting date. There is a function to display.
しかし、従来のオンラインフォトサービスには、例えばボタンを押すというワンアクションで、ヒットした撮影日の画像の一覧から、その中の1枚の画像の撮影時刻の前後に撮影された画像を時系列に表示させる機能は備えられていない。言い換えると、時系列画像の一覧において表示させたい撮影日をユーザが記憶しておき、時系列画像の一覧を表示させて、表示させたい撮影日へユーザが移動させなければならない。 However, with conventional online photo services, with a single action such as pressing a button, images taken before and after the shooting time of one of the images are displayed in chronological order from a list of images taken on hit shooting dates. No display function is provided. In other words, the user must memorize the shooting date that the user wants to display in the list of time-series images, display the list of time-series images, and move to the shooting date that the user wants to display.
本発明の目的は、画像の撮影時刻以外の条件で検索された画像の一覧の中の1の画像から、その1の画像の撮影時刻の前後に撮影された画像を時系列に表示させることができる画像処理装置、画像処理方法、プログラムおよび記録媒体を提供することにある。 An object of the present invention is to display, in chronological order, images taken before and after the photographing time of one image in a list of images searched based on conditions other than the photographing time of the image. The object of the present invention is to provide an image processing device, an image processing method, a program, and a recording medium that can perform the following steps.
上記目的を達成するために、本発明は、ユーザから入力された指示を取得する指示取得部と、
画像群の中から、ユーザからの指示に応じて入力された検索条件に一致する画像を検索画像として検索する画像検索部と、
画像群に含まれる画像を表示部に表示させる画像表示部と、
表示部に表示された画像の中から、ユーザからの指示に応じて選択された1の画像を指定する画像指定部と、を備え、
検索条件は、画像群の中から、撮影時刻以外の条件により画像を検索するための条件であり、
画像指定部は、表示部に表示された検索画像の中から、ユーザからの指示に応じて選択された1の検索画像を指定検索画像として指定し、
画像表示部は、指定検索画像が指定された場合に、指定検索画像のみを表示部に表示させた後、ユーザからの指示に応じて、指定検索画像と、画像群に含まれる、指定検索画像の撮影時刻の前後に撮影された画像の少なくとも一部と、を時系列画像として時系列により表示部に表示させる、画像処理装置を提供する。
In order to achieve the above object, the present invention includes an instruction acquisition unit that acquires instructions input by a user;
an image search unit that searches, as a search image, an image matching a search condition input in response to an instruction from a user from among the image group;
an image display unit that displays images included in the image group on a display unit;
an image specifying section for specifying one image selected from among the images displayed on the display section according to an instruction from a user;
The search condition is a condition for searching for an image from a group of images based on conditions other than the shooting time.
The image designation unit designates one search image selected from among the search images displayed on the display unit according to an instruction from the user as a designated search image;
When the specified search image is specified, the image display section displays only the specified search image on the display section, and then displays the specified search image and the specified search images included in the image group in accordance with instructions from the user. To provide an image processing device that displays at least a part of images photographed before and after a photographing time as time-series images on a display unit in chronological order.
ここで、画像表示部は、指定検索画像のみを表示部に表示させた後、ユーザからの指示が入力される毎に、検索画像の中から、指定検索画像の撮影時刻よりも前または後に撮影された1の検索画像のみを、指定検索画像の撮影時刻から時系列に撮影された検索画像の順に順次表示部に表示させることが好ましい。 Here, after displaying only the specified search image on the display section, the image display section selects a photograph from among the search images before or after the shooting time of the specified search image every time an instruction is input from the user. It is preferable to display only one search image that has been searched in sequence on the display unit in the order of search images shot in chronological order starting from the shooting time of the specified search image.
また、画像指定部は、表示部に表示された時系列画像の中から、ユーザからの指示に応じて選択された1の時系列画像を指定時系列画像として指定し、
画像表示部は、指定時系列画像が指定された場合に、指定時系列画像のみを表示部に表示させた後、ユーザからの指示が入力される毎に、画像群の中から、指定時系列画像の撮影時刻よりも前または後に撮影された1の画像のみを、指定時系列画像の撮影時刻から時系列に撮影された画像の順に順次表示部に表示させることが好ましい。
Further, the image specifying unit specifies one time-series image selected from among the time-series images displayed on the display unit according to an instruction from the user as a designated time-series image,
When the specified time-series images are specified, the image display section displays only the specified time-series images on the display section, and then displays the specified time-series images from among the image group each time an instruction from the user is input. It is preferable that only one image photographed before or after the photographing time of the image is sequentially displayed on the display unit in the order of images photographed in chronological order starting from the photographing time of the designated time-series images.
また、画像検索部は、
画像群に含まれる画像に付与されたタグ情報を表示部に表示させるタグ情報表示部と、
表示部に表示されたタグ情報の中から、ユーザからの指示に応じて選択されたタグ情報を選択タグ情報として指定するタグ情報指定部と、
画像群の中から、選択タグ情報が付与された画像を検索画像として抽出する画像抽出部と、を備え、
タグ情報表示部は、画像群に含まれる全ての画像に付与された全てのタグ情報の少なくとも一部を表示部に表示させ、
タグ情報指定部は、表示部に表示されたタグ情報の中から、ユーザからの指示に応じて選択された1つ目のタグ情報を第1選択タグ情報として指定し、
画像抽出部は、画像群の中から、第1選択タグ情報が付与された画像を第1検索画像として抽出し、
画像表示部は、全ての第1検索画像の少なくとも一部を表示部に表示させ、
タグ情報表示部は、全ての第1検索画像に付与された全てのタグ情報の少なくとも一部を表示部に表示させることが好ましい。
In addition, the image search section
a tag information display unit that displays tag information attached to images included in the image group on a display unit;
a tag information designation section that designates tag information selected from among the tag information displayed on the display section as selected tag information according to an instruction from a user;
an image extraction unit that extracts an image to which selection tag information is attached from the image group as a search image;
The tag information display section causes the display section to display at least part of all the tag information attached to all the images included in the image group,
The tag information designation unit designates the first tag information selected from among the tag information displayed on the display unit according to an instruction from the user as the first selected tag information,
The image extraction unit extracts an image to which the first selection tag information is attached from the image group as a first search image;
The image display unit displays at least a portion of all the first search images on the display unit,
It is preferable that the tag information display section displays at least part of all the tag information given to all the first search images on the display section.
また、タグ情報指定部は、第1選択タグ情報に加えて、表示部に表示されたタグ情報の中から、ユーザからの指示に応じて選択された2つ目のタグ情報を第2選択タグ情報として同時に指定し、
画像抽出部は、第1検索画像の中から、第2選択タグ情報が付与された第1検索画像を第2検索画像として抽出し、
画像表示部は、全ての第2検索画像の少なくとも一部を表示部に表示させ、
タグ情報表示部は、全ての第2検索画像に付与された全てのタグ情報の少なくとも一部を表示部に表示させることが好ましい。
Further, in addition to the first selected tag information, the tag information specifying section selects second selected tag information from among the tag information displayed on the display section according to an instruction from the user. Specify at the same time as information,
The image extraction unit extracts the first search image to which the second selection tag information is attached as a second search image from among the first search images;
The image display unit displays at least a portion of all the second search images on the display unit,
It is preferable that the tag information display section displays at least part of all the tag information given to all the second search images on the display section.
また、タグ情報指定部は、表示部に表示されたタグ情報の中から、ユーザからの指示に応じて選択された2以上のタグ情報を選択タグ情報として同時に指定し、
画像抽出部は、画像群の中から、2以上の選択タグ情報の全てが付与された画像を検索画像として抽出し、
画像表示部は、全ての検索画像の少なくとも一部を表示部に表示させ、
タグ情報表示部は、全ての検索画像に付与された全てのタグ情報の少なくとも一部を表示部に表示させることが好ましい。
The tag information designation unit simultaneously designates two or more pieces of tag information selected from among the tag information displayed on the display unit as selected tag information according to instructions from the user;
The image extraction unit extracts, as a search image, an image to which all two or more pieces of selection tag information are attached from the image group;
The image display unit displays at least a portion of all the search images on the display unit,
It is preferable that the tag information display section displays at least part of all the tag information given to all the search images on the display section.
また、本発明は、指示取得部が、ユーザから入力された指示を取得するステップと、
画像検索部が、画像群の中から、ユーザからの指示に応じて入力された検索条件に一致する画像を検索画像として検索するステップと、
画像表示部が、画像群に含まれる画像を表示部に表示させるステップと、
画像指定部が、表示部に表示された画像の中から、ユーザからの指示に応じて選択された1の画像を指定するステップと、を含み、
検索条件は、画像群の中から、撮影時刻以外の条件により画像を検索するための条件であり、
表示部に表示された検索画像の中から、ユーザからの指示に応じて選択された1の検索画像を指定検索画像として指定し、
指定検索画像が指定された場合に、指定検索画像のみを表示部に表示させた後、ユーザからの指示に応じて、指定検索画像と、画像群に含まれる、指定検索画像の撮影時刻の前後に撮影された画像の少なくとも一部と、を時系列画像として時系列により表示部に表示させる、画像処理方法を提供する。
The present invention also provides a step in which the instruction acquisition unit acquires instructions input by the user;
a step in which the image search unit searches the image group for an image that matches a search condition input in response to an instruction from a user as a search image;
a step in which the image display unit displays an image included in the image group on the display unit;
The image specifying unit specifies one image selected from among the images displayed on the display unit in response to an instruction from a user,
The search condition is a condition for searching for an image from a group of images based on conditions other than the shooting time.
From among the search images displayed on the display unit, one search image selected according to instructions from the user is designated as a specified search image,
When a specified search image is specified, only the specified search image is displayed on the display section, and then, according to instructions from the user, images are displayed before and after the shooting time of the specified search image and the specified search images included in the image group. To provide an image processing method for displaying at least a part of images photographed on a display unit in chronological order as time-series images.
また、本発明は、上記の画像処理方法の各々のステップをコンピュータに実行させるためのプログラムを提供する。 Further, the present invention provides a program for causing a computer to execute each step of the above-described image processing method.
また、本発明は、上記の画像処理方法の各々のステップをコンピュータに実行させるためのプログラムが記録されたコンピュータ読み取り可能な記録媒体を提供する。 Further, the present invention provides a computer-readable recording medium on which a program for causing a computer to execute each step of the above-described image processing method is recorded.
また、本発明は、ユーザから入力された指示を取得する指示取得部と、
画像群の中から、ユーザからの指示に応じて入力された検索条件に一致する画像を検索画像として検索する画像検索部と、
画像群に含まれる画像を表示部に表示させる画像表示部と、
表示部に表示された画像の中から、ユーザからの指示に応じて選択された1の画像を指定する画像指定部と、を備え、
指示取得部、画像検索部、画像表示部および画像指定部は、ハードウェア、または、プログラムを実行するプロセッサであり、
検索条件は、画像群の中から、撮影時刻以外の条件により画像を検索するための条件であり、
画像指定部は、表示部に表示された検索画像の中から、ユーザからの指示に応じて選択された1の検索画像を指定検索画像として指定し、
画像表示部は、指定検索画像が指定された場合に、指定検索画像のみを表示部に表示させた後、ユーザからの指示に応じて、指定検索画像と、画像群に含まれる、指定検索画像の撮影時刻の前後に撮影された画像の少なくとも一部と、を時系列画像として時系列により表示部に表示させる、画像処理装置を提供する。
The present invention also provides an instruction acquisition unit that acquires an instruction input by a user;
an image search unit that searches, as a search image, an image matching a search condition input in response to an instruction from a user from among the image group;
an image display unit that displays images included in the image group on a display unit;
an image specifying section for specifying one image selected from among the images displayed on the display section according to an instruction from a user;
The instruction acquisition unit, image search unit, image display unit, and image designation unit are hardware or a processor that executes a program,
The search condition is a condition for searching for an image from a group of images based on conditions other than the shooting time.
The image designation unit designates one search image selected from among the search images displayed on the display unit according to an instruction from the user as a designated search image;
When the specified search image is specified, the image display section displays only the specified search image on the display section, and then displays the specified search image and the specified search images included in the image group in accordance with instructions from the user. To provide an image processing device that displays at least a part of images photographed before and after a photographing time as time-series images on a display unit in chronological order.
ここで、画像検索部は、
画像群に含まれる画像に付与されたタグ情報を表示部に表示させるタグ情報表示部と、
表示部に表示されたタグ情報の中から、ユーザからの指示に応じて選択されたタグ情報を選択タグ情報として指定するタグ情報指定部と、
画像群の中から、選択タグ情報が付与された画像を検索画像として抽出する画像抽出部と、を備え、
タグ情報表示部、タグ情報指定部および画像抽出部は、ハードウェア、または、プログラムを実行するプロセッサであり、
タグ情報表示部は、画像群に含まれる全ての画像に付与された全てのタグ情報の少なくとも一部を表示部に表示させ、
タグ情報指定部は、表示部に表示されたタグ情報の中から、ユーザからの指示に応じて選択された1つ目のタグ情報を第1選択タグ情報として指定し、
画像抽出部は、画像群の中から、第1選択タグ情報が付与された画像を第1検索画像として抽出し、
画像表示部は、全ての第1検索画像の少なくとも一部を表示部に表示させ、
タグ情報表示部は、全ての第1検索画像に付与された全てのタグ情報の少なくとも一部を表示部に表示させることが好ましい。
Here, the image search section is
a tag information display unit that displays tag information attached to images included in the image group on a display unit;
a tag information designation section that designates tag information selected from among the tag information displayed on the display section as selected tag information according to an instruction from a user;
an image extraction unit that extracts an image to which selection tag information is attached from the image group as a search image;
The tag information display section, the tag information specification section, and the image extraction section are hardware or a processor that executes a program,
The tag information display section causes the display section to display at least part of all the tag information attached to all the images included in the image group,
The tag information designation unit designates the first tag information selected from among the tag information displayed on the display unit according to an instruction from the user as the first selected tag information,
The image extraction unit extracts an image to which the first selection tag information is attached from the image group as a first search image;
The image display unit displays at least a portion of all the first search images on the display unit,
It is preferable that the tag information display section displays at least part of all the tag information given to all the first search images on the display section.
本発明によれば、ユーザは、1の検索画像の撮影時刻の前後に撮影された画像を表示させるために、一旦、画像の一覧画面に戻る必要はなく、ユーザからの指示に応じて、指定検索画像の撮影時刻の前後に撮影された画像を時系列に表示させて閲覧することができる。 According to the present invention, in order to display images shot before and after the shooting time of the first search image, the user does not need to return to the image list screen once, but can display the specified images according to the user's instructions. Images taken before and after the time when the searched image was taken can be displayed in chronological order for viewing.
以下に、添付の図面に示す好適実施形態に基づいて、本発明の画像処理装置、画像処理方法、プログラムおよび記録媒体を詳細に説明する。 DESCRIPTION OF THE PREFERRED EMBODIMENTS An image processing apparatus, an image processing method, a program, and a recording medium of the present invention will be described in detail below based on preferred embodiments shown in the accompanying drawings.
図1は、本発明に係る画像処理システムの構成を表す一実施形態のブロック図である。図1に示す画像処理システム10は、サーバ12と、ネットワーク16を介して各々サーバ12に接続された複数のクライアント14と、を備えている。 FIG. 1 is a block diagram of an embodiment showing the configuration of an image processing system according to the present invention. The image processing system 10 shown in FIG. 1 includes a server 12 and a plurality of clients 14 each connected to the server 12 via a network 16.
サーバ12は、画像処理システム10を利用する複数のユーザの各々が所有する画像群を取得し、各々のユーザが所有する画像群に含まれる各々の画像を保持し、その画像を各々のユーザによって指定された共有相手のみと共有する機能等を有する。
サーバ12は、1台に限らず、複数台であってもよく、制御装置、記憶装置および通信装置等を有する、ワークステーション等によって構成される。
The server 12 acquires a group of images owned by each of the plurality of users who use the image processing system 10, holds each image included in the image group owned by each user, and allows the images to be downloaded by each user. It has a function to share only with specified sharing partners.
The server 12 is not limited to one, but may be a plurality of servers, and is constituted by a workstation or the like having a control device, a storage device, a communication device, and the like.
クライアント14は、本発明の画像処理装置であり、ユーザが所有する画像群の中から、検索条件に基づいて、より詳しくは画像に付与されたタグ情報を画像の検索条件として使用して画像を検索し、その検索の結果の画像を表示部に表示する機能等を有する。
クライアント14は、制御装置、入力装置、記憶装置、通信装置およびディスプレイ等を有する、デスクトップPC(パーソナルコンピュータ)、ノートPC、タブレットPC、あるいは、携帯電話およびスマートフォン等の携帯端末等によって構成される。
以下、クライアント14がスマートフォンの場合を例に挙げて説明する。
The client 14 is an image processing device according to the present invention, and searches images from a group of images owned by the user based on a search condition, more specifically, using tag information attached to an image as a search condition for the image. It has a function of searching and displaying the image of the search result on the display unit.
The client 14 is configured by a desktop PC (personal computer), a notebook PC, a tablet PC, or a mobile terminal such as a mobile phone or a smartphone, which has a control device, an input device, a storage device, a communication device, a display, and the like.
Hereinafter, a case where the client 14 is a smartphone will be described as an example.
図2は、クライアントの構成を表す一実施形態のブロック図である。図2に示すクライアント14は、指示取得部18と、画像保持部20と、画像解析部22と、評価値付与部24と、タグ情報付与部26と、重み付け設定部28と、タグ情報表示部30と、タグ情報指定部32と、画像抽出部34と、タグ情報検索部36と、画像表示部38と、画像指定部40と、画像情報表示部42と、画像情報編集部44と、表示部46と、を備えている。 FIG. 2 is a block diagram of one embodiment representing the configuration of a client. The client 14 shown in FIG. 2 includes an instruction acquisition section 18, an image holding section 20, an image analysis section 22, an evaluation value assignment section 24, a tag information assignment section 26, a weighting setting section 28, and a tag information display section. 30, tag information specifying section 32, image extracting section 34, tag information searching section 36, image display section 38, image specifying section 40, image information display section 42, image information editing section 44, display A section 46 is provided.
クライアント14において、まず、指示取得部18は、クライアント14のユーザから入力された指示を取得する。 In the client 14, the instruction acquisition unit 18 first acquires an instruction input by the user of the client 14.
ユーザは、スマートフォンのタッチパネルをタッチ操作することにより各種の指示を入力することができる。なお、タッチパネルに限らず、マウス、キーボードおよびトラックパッド等の入力装置を利用して指示を入力することもできる。
ユーザからの指示には、詳細は後述するが、タグ情報を選択する指示、画像を選択する指示、画像に付与するタグ情報を入力する指示、タグ情報の検索条件(キーワード)を入力する指示、画像を表示部46に表示させる指示等が含まれる。
The user can input various instructions by touching the touch panel of the smartphone. Note that instructions can be input using not only the touch panel but also input devices such as a mouse, keyboard, and track pad.
Instructions from the user include instructions to select tag information, instructions to select images, instructions to input tag information to be added to images, instructions to input search conditions (keywords) for tag information, although details will be described later. This includes instructions for displaying an image on the display unit 46, and the like.
続いて、画像保持部20は、半導体メモリ等の記憶装置であり、画像群を保持する。 Next, the image holding unit 20 is a storage device such as a semiconductor memory, and holds a group of images.
画像群は、ユーザによりスマートフォンのカメラを用いて撮影されたものであり、スマートフォンの内部に保持されている。なお、画像群は特に限定されず、例えば外部からスマートフォンの内部に取り込まれた画像群、および、SNS(Social Network System:ソーシャル・ネットワーク・システム)およびオンラインストレージ等に保持されたオンラインの画像群、およびこれらの画像群の組み合わせ等でもよい。 The image group is taken by a user using a smartphone camera and is held inside the smartphone. Note that the image group is not particularly limited, and may include, for example, a group of images imported into a smartphone from the outside, a group of online images stored in SNS (Social Network System), online storage, etc. It may also be a combination of these image groups.
例えば、スマートフォンのカメラで撮影された画像は、スマートフォンからサーバ12へ自動的にアップロードされるように設定することができる。サーバ12へアップロードされた画像は、サーバ12の記憶装置内における各々のユーザの記憶領域に保持される。サーバ12へアップロードされた画像は、スマートフォンの画像保持部20に残すように設定することもできるし、消去するように設定することもできる。
また、例えばデジタルカメラで撮影された画像、PC、ノートPC、タブレットPC等に保持されている画像、および写真プリント等からスキャンされた画像(デジタル画像データ)等は、スマートフォンの内部に取り込むことができる。外部からスマートフォンの内部に取り込まれた画像は、画像保持部20に保持され、同様に画像群の一部として取り扱われる。
For example, images taken with a smartphone camera can be set to be automatically uploaded from the smartphone to the server 12. Images uploaded to the server 12 are held in each user's storage area within the storage device of the server 12. The images uploaded to the server 12 can be set to remain in the image holding section 20 of the smartphone, or can be set to be deleted.
In addition, for example, images taken with a digital camera, images stored on a PC, notebook PC, tablet PC, etc., and images scanned from photo prints (digital image data), etc. cannot be imported into the smartphone. can. Images imported into the smartphone from the outside are held in the image holding unit 20 and similarly handled as part of the image group.
続いて、画像解析部22は、画像群に含まれる各々の画像を解析する。 Subsequently, the image analysis unit 22 analyzes each image included in the image group.
画像の解析項目は特に限定されないが、例えば画像に写っている被写体の検出(人物検出およびオブジェクト検出)、人物の顔の検出、人物の表情の検出、人物の行動の検出、シーンの検出(夜景、海、砂浜、空、…)、イベントの検出(運動会、結婚式、卒業式、…)およびユーザの嗜好(趣味)の検出等の画像内容の解析、画像の明るさ、色合い、コントラストおよびボケブレの程度等の画像の画質の解析、Exif(Exchangeable Image File Format)などの画像の付加情報に含まれる時間情報(撮影時刻)および位置情報(撮影場所)等の解析等を含む。 Image analysis items are not particularly limited, but include, for example, detection of a subject in an image (person detection and object detection), detection of a person's face, detection of a person's facial expression, detection of a person's actions, and scene detection (night scene detection). , sea, beach, sky,...), event detection (sports day, wedding, graduation ceremony,...), and analysis of image content, such as detecting user preferences (hobbies), image brightness, hue, contrast, and blurring. This includes analysis of the image quality, such as the degree of image quality, and analysis of time information (shooting time) and location information (shooting location) included in additional image information such as Exif (Exchangeable Image File Format).
続いて、評価値付与部24は、各々の画像の解析の結果に基づいて、各々の画像に評価値を付与する。 Subsequently, the evaluation value assigning unit 24 assigns an evaluation value to each image based on the results of the analysis of each image.
評価値付与部24が画像に評価値を付与する方法は特に限定されないが、例えば画像の各々の解析の結果にスコアを付け、複数の解析の結果のスコアの総合スコアを算出し、この総合スコアを、その画像の評価値として付与することができる。
例えば、人物が笑顔である画像は、泣いている顔および怒っている顔等よりも高いスコアを付ける。また、明るさが適切な画像は、明るすぎる画像、および、暗すぎる画像よりも高いスコアを付ける。
また、評価値付与部24は、後述するタグ情報の重み付けの設定に応じて、時間的に、より前に選択されたタグ情報が付与された画像よりも、より後に選択されたタグ情報が付与された画像の評価値を高く設定する。
The method by which the evaluation value assigning unit 24 assigns an evaluation value to an image is not particularly limited, but for example, it assigns a score to the result of each analysis of the image, calculates a total score of the scores of the results of a plurality of analyses, and calculates the total score. can be given as the evaluation value of the image.
For example, an image in which a person is smiling is given a higher score than a crying face, an angry face, and the like. Furthermore, an image with appropriate brightness is given a higher score than an image that is too bright or an image that is too dark.
In addition, the evaluation value assigning unit 24 assigns tag information selected later than an image assigned tag information selected earlier in terms of time, according to settings for weighting tag information to be described later. set the evaluation value of the image to be high.
続いて、タグ情報付与部26は、各々の画像の解析の結果に基づいて、各々の画像にタグ情報を付与する。 Subsequently, the tag information adding unit 26 adds tag information to each image based on the results of the analysis of each image.
タグ情報は、画像に関する各種の情報であり、例えば画像の撮影年月日および撮影場所、画像に写っている被写体の名称、被写体の行動の名称、画像から読み取られるシーン、イベント、人物の感情等を表す名称、および、ユーザの嗜好の名称等を例示することができる。タグ情報はテキスト情報であり、キーワードによってタグ情報を検索することが可能である。
タグ情報は、複数の下位概念のタグ情報を有する上位概念のタグ情報を含んでいてもよい。例えば、「モンブラン」および「いちごのショートケーキ」という2つの下位概念のタグ情報を有する「スイーツ」という上位概念のタグ情報を含んでいてもよい。
また、タグ情報は、タグ情報の信頼度を表す信頼度の情報を有していてもよい。自動で付与されたタグ情報の内容は正確ではない場合もあるが、信頼度の情報に基づいて、タグ情報の内容の正確さを判断することが可能になる。
タグ情報付与部26は必須の構成要素ではないが、画像に予め付与されているタグ情報にさらにタグ情報を付与してもよいし、タグ情報が付与されていない画像に新たにタグ情報を付与してもよい。
Tag information is a variety of information related to images, such as the date and location of the image, the name of the subject in the image, the name of the subject's actions, scenes, events, and emotions of the person that can be read from the image. A name representing a user's preference, a name representing a user's preference, etc. can be exemplified. Tag information is text information, and it is possible to search for tag information using keywords.
The tag information may include tag information of a superordinate concept that has tag information of a plurality of subordinate concepts. For example, it may include tag information for the superordinate concept "sweets" that has tag information for two subordinate concepts "Mont Blanc" and "strawberry shortcake."
Further, the tag information may include reliability information indicating the reliability of the tag information. Although the content of automatically assigned tag information may not be accurate, it is possible to judge the accuracy of the content of tag information based on reliability information.
Although the tag information adding unit 26 is not an essential component, it may add additional tag information to the tag information that has been added to the image in advance, or it may add new tag information to an image to which no tag information has been added. You may.
続いて、重み付け設定部28は、タグ情報に対して重み付けの設定をする。 Subsequently, the weighting setting unit 28 sets weighting for the tag information.
重み付け設定部28が、タグ情報に対して重み付けの設定を行う方法は特に限定されないが、ユーザが2以上のタグ情報を用いて画像を検索する場合、時間的に、より前に選択されたタグ情報よりも、より後に選択されたタグ情報の方が重要である可能性が高いと考えられる。これに応じて、重み付け設定部28は、表示部46に表示されたタグ情報の中から、ユーザからの指示に応じて同時に選択された2以上のタグ情報のうち、時間的に、より前に選択されたタグ情報よりも、より後に選択されたタグ情報の重み付けの設定を重く設定することができる。 The method by which the weighting setting unit 28 sets weighting for tag information is not particularly limited, but when a user searches for an image using two or more pieces of tag information, the tag selected earlier in terms of time is used. It is considered that there is a high possibility that the tag information selected later is more important than the tag information. In response to this, the weighting setting section 28 selects one of the two or more pieces of tag information simultaneously selected from among the tag information displayed on the display section 46 according to an instruction from the user, which is earlier in time. It is possible to set the weighting of tag information selected later to be heavier than the selected tag information.
続いて、タグ情報表示部30は、画像群に含まれる画像に付与されたタグ情報を表示部46に表示させる。 Subsequently, the tag information display section 30 causes the display section 46 to display the tag information added to the images included in the image group.
タグ情報表示部30が、タグ情報を表示させる方法は特に限定されないが、例えば表示部46に表示されたタグ情報を複数のカテゴリに分類して表示させることができる。これにより、タグ情報の種類毎に、タグ情報を分類して表示させることができるため、ユーザは、表示部46に表示されたタグ情報の中から、画像の検索条件として使用したいタグ情報を容易に見つけることができる。 Although the method by which the tag information display section 30 displays tag information is not particularly limited, for example, the tag information displayed on the display section 46 can be classified into a plurality of categories and displayed. As a result, the tag information can be classified and displayed for each type of tag information, so the user can easily select the tag information that he/she wishes to use as an image search condition from among the tag information displayed on the display section 46. can be found in.
この場合、タグ情報表示部30は、複数のカテゴリの少なくとも1つに含まれるタグ情報を、タグ情報が付与された画像の枚数が多い順に並べて表示させることができる。これにより、多くの画像に付与されたタグ情報を優先的に表示させることができる。なお、画像の撮影年月日等のように、連続する数字で表されるタグ情報は、数字の降順または昇順に並べて表示させてもよい。 In this case, the tag information display section 30 can display the tag information included in at least one of the plurality of categories in descending order of the number of images to which tag information has been added. Thereby, tag information attached to many images can be displayed preferentially. Note that tag information represented by consecutive numbers, such as the photographing date of an image, may be displayed in descending or ascending numerical order.
また、タグ情報表示部30は、複数のカテゴリの少なくとも1つに含まれるタグ情報を、画像を検索するためのキーワードとして使用された回数が多い順に並べて表示させてもよいし、タグ情報が、その信頼度の情報を有する場合、複数のカテゴリの少なくとも1つに含まれるタグ情報を、タグ情報が有する信頼度の情報に基づいて、タグ情報の信頼度が高い順に並べて表示させてもよい。 Further, the tag information display section 30 may display tag information included in at least one of a plurality of categories in descending order of the number of times the tag information has been used as a keyword for searching for an image. When having reliability information, tag information included in at least one of the plurality of categories may be arranged and displayed in descending order of reliability based on reliability information included in the tag information.
また、タグ情報表示部30は、ユーザからの指示に応じて上位概念のタグ情報が選択された場合に、上位概念のタグ情報に含まれる複数の下位概念のタグ情報を表示部46に表示させることができる。
また、タグ情報表示部30は、タグ情報をボタン(リンク)として表示部(タッチパネル)46に表示させることができる。これにより、ユーザは、タグ情報を容易に選択することができる。
Furthermore, when the tag information of a superordinate concept is selected in response to an instruction from the user, the tag information display section 30 causes the display section 46 to display tag information of a plurality of subordinate concepts included in the tag information of the superordinate concept. be able to.
Further, the tag information display section 30 can display the tag information as a button (link) on the display section (touch panel) 46. This allows the user to easily select tag information.
続いて、タグ情報指定部32は、表示部46に表示されたタグ情報の中から、ユーザからの指示に応じて選択されたタグ情報を選択タグ情報として指定する。
また、タグ情報指定部32は、表示部46に表示された検索タグ情報の中から、ユーザからの指示に応じて選択された検索タグ情報を選択タグ情報として指定する。
Subsequently, the tag information specifying unit 32 specifies the tag information selected from among the tag information displayed on the display unit 46 as the selected tag information according to an instruction from the user.
Further, the tag information specifying section 32 specifies search tag information selected from among the search tag information displayed on the display section 46 in response to an instruction from the user as selected tag information.
続いて、画像抽出部34は、画像群の中から、タグ情報指定部32によって指定された選択タグ情報が付与された画像を検索画像として抽出する。 Subsequently, the image extracting unit 34 extracts, as a search image, an image to which the selected tag information specified by the tag information specifying unit 32 is added from the image group.
ここで、タグ情報表示部30、タグ情報指定部32および画像抽出部34は、画像群の中から、ユーザからの指示に応じて入力された検索条件に一致する画像を検索画像として検索する本発明の画像検索部を構成する。 Here, the tag information display unit 30, the tag information designation unit 32, and the image extraction unit 34 are configured to search for images that match the search conditions input in response to instructions from the user as search images from among the image group. This constitutes an image search unit of the invention.
続いて、タグ情報検索部36は、画像群に含まれる全ての画像に付与された全てのタグ情報の中から、ユーザからの指示に応じて入力されたキーワードと少なくとも一部が一致するタグ情報を検索タグ情報として検索する。 Next, the tag information search unit 36 selects tag information that at least partially matches the keyword input in response to an instruction from the user, from among all the tag information added to all the images included in the image group. Search as search tag information.
続いて、画像表示部38は、画像群に含まれる画像を表示部46に表示させる。 Subsequently, the image display section 38 causes the display section 46 to display the images included in the image group.
画像表示部38は、例えば画像群に含まれる各々の画像、画像群に含まれる画像の一覧(サムネイル画像)、検索画像の一覧(サムネイル画像)等を表示する。
画像表示部38は、画像の一覧または検索画像の一覧を表示部46に表示させる場合、画像を、その撮影時刻の順に時系列に表示させることができる。また、画像群に含まれる各々の画像が、画像の評価値の情報を有する場合、画像表示部38は、画像を、画像の評価値が高い順に表示部46に表示させることもできる。
The image display unit 38 displays, for example, each image included in the image group, a list of images included in the image group (thumbnail images), a list of searched images (thumbnail images), and the like.
When displaying a list of images or a list of searched images on the display unit 46, the image display unit 38 can display the images chronologically in the order of their photographing times. Further, when each image included in the image group has information on the image evaluation value, the image display section 38 can display the images on the display section 46 in order of the image evaluation value.
続いて、画像指定部40は、表示部46に表示された画像の中から、ユーザからの指示に応じて選択された1の画像を指定する。 Subsequently, the image specifying section 40 specifies one image selected from among the images displayed on the display section 46 in response to an instruction from the user.
ユーザは、表示部46に表示された画像の一覧の中から、閲覧したい1の画像を選択することができる。1の画像が選択された場合、画像表示部38により、この選択された1の画像のみが表示部46に表示される。 The user can select one image that he/she wishes to view from the list of images displayed on the display section 46. When one image is selected, the image display section 38 displays only the selected one image on the display section 46.
続いて、画像情報表示部42は、画像指定部40によって指定された1の画像、つまり、ユーザからの指示に応じて選択された1の画像の情報を表示部46に表示させる。 Subsequently, the image information display section 42 causes the display section 46 to display information about the one image specified by the image specifying section 40, that is, the one image selected according to the instruction from the user.
画像の情報には、その画像に関する各種の情報が含まれる。本実施形態の場合、画像の撮影時刻および画像に付与されたタグ情報が含まれる。なお、これに限定されず、画像のファイル名、画像のサイズ、解像度、撮影場所の情報等を含んでいてもよい。 The image information includes various types of information regarding the image. In the case of this embodiment, the image capture time and tag information attached to the image are included. Note that the information is not limited to this, and may include information such as the image file name, image size, resolution, and shooting location.
続いて、画像情報編集部44は、ユーザからの指示に応じて、画像情報表示部42によって表示部46に表示された1の画像の情報を編集する。 Subsequently, the image information editing section 44 edits the information of one image displayed on the display section 46 by the image information display section 42 in accordance with instructions from the user.
ユーザは、画像に付与されたタグ情報等を編集することができる。タグ情報付与部26によって自動で付与されたタグ情報の中には正確ではないタグ情報が含まれる可能性もある。ユーザは、正確ではないと考えられるタグ情報を修正したり、削除したりすることができる。
また、ユーザは、画像に対して新規なタグ情報を付与することもできる。この場合、画像情報編集部44は、ユーザからの指示に応じて入力された新規なタグ情報を、表示部46に表示された1の画像の情報として1の画像に付与する。
The user can edit tag information etc. given to the image. There is a possibility that the tag information automatically added by the tag information adding section 26 includes inaccurate tag information. The user can modify or delete tag information that is considered inaccurate.
The user can also add new tag information to images. In this case, the image information editing section 44 adds new tag information input in response to an instruction from the user to one image as information about the one image displayed on the display section 46.
続いて、表示部46は、各種の情報を表示する。 Subsequently, the display section 46 displays various information.
表示部46には、画像、画像の情報、画像の一覧、タグ情報の一覧等が表示される。表示部46は、液晶パネル、有機EL(Electro Luminescence:エレクトロルミネッセンス)パネル等であり、本実施形態の場合、タッチパネルである。 The display unit 46 displays images, image information, a list of images, a list of tag information, and the like. The display unit 46 is a liquid crystal panel, an organic EL (Electro Luminescence) panel, or the like, and in the case of this embodiment, is a touch panel.
次に、図3に示すフローチャートを参照しながら、クライアント14において、検索条件として、画像に付与されたタグ情報を使用して、画像群の中から所望の画像を検索する場合の動作を説明する。 Next, with reference to the flowchart shown in FIG. 3, the operation when the client 14 searches for a desired image from a group of images using tag information attached to an image as a search condition will be explained. .
まず、1つ目のタグ情報が選択される場合の動作を説明する。
この場合、まず、タグ情報表示部30により、画像群に含まれる全ての画像に付与された全てのタグ情報の少なくとも一部が表示部46に表示される(ステップS1)。
タグ情報が表示部46に表示されると、続いて、タグ情報指定部32により、表示部46に表示されたタグ情報の中から、ユーザからの指示に応じて選択された1つ目のタグ情報が第1選択タグ情報(選択タグ情報)として指定される(ステップS2)。
第1選択タグ情報が指定されると、続いて、画像抽出部34により、画像群の中から、第1選択タグ情報が付与された画像が第1検索画像(検索画像)として抽出される(ステップS3)。
第1検索画像が抽出されると、続いて、画像表示部38により、全ての第1検索画像の少なくとも一部が表示部46に表示される(ステップS4)。
続いて、タグ情報表示部30により、全ての第1検索画像に付与された全てのタグ情報の少なくとも一部が表示部46に表示される(ステップS5)。
First, the operation when the first tag information is selected will be explained.
In this case, first, the tag information display section 30 displays on the display section 46 at least a portion of all the tag information added to all the images included in the image group (step S1).
When the tag information is displayed on the display section 46, the tag information specifying section 32 then selects the first tag from among the tag information displayed on the display section 46 according to an instruction from the user. The information is designated as first selected tag information (selected tag information) (step S2).
When the first selection tag information is specified, the image extraction unit 34 extracts the image to which the first selection tag information has been added from the image group as a first search image (search image). Step S3).
After the first search images are extracted, the image display section 38 displays at least a portion of all the first search images on the display section 46 (step S4).
Subsequently, the tag information display section 30 displays at least a portion of all the tag information added to all the first search images on the display section 46 (step S5).
次に、1つ目のタグ情報に加えて、2つ目のタグ情報が同時に選択される場合の動作を説明する。
この場合、続いて、タグ情報指定部32により、第1選択タグ情報に加えて、表示部46に表示されたタグ情報の中から、ユーザからの指示に応じて選択された2つ目のタグ情報が第2選択タグ情報(選択タグ情報)として同時に指定される(ステップS6)。
続いて、画像抽出部34により、第1検索画像の中から、第2選択タグ情報が付与された第1検索画像が第2検索画像(検索画像)として抽出される(ステップS7)。
続いて、画像表示部38により、全ての第2検索画像の少なくとも一部が表示部46に表示される(ステップS8)。
続いて、タグ情報表示部30により、全ての第2検索画像に付与された全てのタグ情報の少なくとも一部が表示部46に表示される(ステップS9)。
Next, the operation when the second tag information is simultaneously selected in addition to the first tag information will be described.
In this case, the tag information specifying section 32 then selects the second tag selected from the tag information displayed on the display section 46 in addition to the first selected tag information according to the instruction from the user. The information is simultaneously designated as second selected tag information (selected tag information) (step S6).
Subsequently, the image extraction unit 34 extracts the first search image to which the second selection tag information has been added as a second search image (search image) from among the first search images (step S7).
Subsequently, the image display section 38 displays at least a portion of all the second search images on the display section 46 (step S8).
Subsequently, the tag information display unit 30 displays at least a portion of all the tag information added to all the second search images on the display unit 46 (step S9).
なお、3以上のタグ情報が同時に選択される場合の動作も同様である。つまり、2以上のタグ情報が同時に選択される場合の動作は以下の通りである。
まず、タグ情報指定部32により、表示部46に表示されたタグ情報の中から、ユーザからの指示に応じて選択された2以上のタグ情報が選択タグ情報として同時に指定される。
続いて、画像抽出部34により、画像群の中から、2以上の選択タグ情報の全てが付与された画像が検索画像として抽出される。
続いて、画像表示部38により、全ての検索画像の少なくとも一部が表示部46に表示される。
続いて、タグ情報表示部30により、全ての検索画像に付与された全てのタグ情報の少なくとも一部が表示部46に表示される。
Note that the operation is similar when three or more pieces of tag information are selected at the same time. In other words, the operation when two or more pieces of tag information are selected at the same time is as follows.
First, the tag information specifying section 32 simultaneously specifies two or more pieces of tag information selected from among the tag information displayed on the display section 46 as selected tag information according to an instruction from a user.
Subsequently, the image extraction unit 34 extracts, from the image group, an image to which all two or more pieces of selection tag information have been added as a search image.
Subsequently, the image display section 38 displays at least a portion of all the search images on the display section 46 .
Subsequently, the tag information display section 30 displays at least a portion of all the tag information added to all the search images on the display section 46.
以下、本発明の画像処理装置について、クライアント14がスマートフォン上で動作するアプリケーションプログラム(以下、単にアプリともいう)によって実現されている場合を例に挙げて説明する。 The image processing apparatus of the present invention will be described below, taking as an example a case where the client 14 is implemented by an application program (hereinafter also simply referred to as an application) running on a smartphone.
図4は、クライアントの表示部に表示されたアプリのホーム画面を表す一実施形態の概念図である。図4に示すスマートフォンの表示部46はタッチパネルで構成されており、ユーザは、タッチパネルをタッチ操作することにより、表示部(タッチパネル)46を、各種の情報を表示するだけでなく、ユーザから入力された各種の指示を取得する指示取得部18としても使用することができる。 FIG. 4 is a conceptual diagram of an embodiment showing a home screen of an application displayed on a display unit of a client. The display unit 46 of the smartphone shown in FIG. 4 is composed of a touch panel, and by touching the touch panel, the user can use the display unit (touch panel) 46 not only to display various information but also to receive input from the user. It can also be used as an instruction acquisition unit 18 that acquires various instructions.
ホーム画面内の上部には、通知およびステータス領域50が表示され、その下側には、メニュー領域52が表示されている。また、ホーム画面内の下部には、ナビゲーション領域54が表示されている。 A notification and status area 50 is displayed at the top of the home screen, and a menu area 52 is displayed below it. Furthermore, a navigation area 54 is displayed at the bottom of the home screen.
ナビゲーション領域54内には、左側から右側へ向かって順に、「さがす」、「まとめる」、「ホーム」、「共有する」および「いろいろ」の各ボタンが表示されている。
「さがす」のボタンがタップ(押下)されると、タグ情報の選択画面が表示部46に表示される。
また、「まとめる」のボタンがタップされると、画像群に含まれる画像を用いてフォトアルバム等の合成画像が自動で作成される。
「ホーム」のボタンがタップされると、ホーム画面、つまり、画像群に含まれる画像の一覧が表示部46に表示される。画像の一覧において、画像は、例えば撮影時刻の順序(降順または昇順)で並べて表示される。
「共有する」のボタンがタップされると、ユーザからの指示に応じて選択された画像が他のユーザと共有される。
「いろいろ」のボタンがタップされると、ナビゲーション領域には表示されていない、その他の各種の機能を選択して実行することができる。
Within the navigation area 54, buttons ``Search,''``Collect,''``Home,''``Share,'' and ``Various'' are displayed in order from left to right.
When the "Search" button is tapped (pressed down), a tag information selection screen is displayed on the display unit 46.
Furthermore, when the "Combine" button is tapped, a composite image such as a photo album is automatically created using the images included in the image group.
When the "home" button is tapped, a home screen, that is, a list of images included in the image group is displayed on the display unit 46. In the list of images, the images are arranged and displayed, for example, in the order of shooting time (descending order or ascending order).
When the "Share" button is tapped, the selected image is shared with other users in accordance with the user's instructions.
When the "Various" button is tapped, various other functions not displayed in the navigation area can be selected and executed.
メニュー領域52とナビゲーション領域54との間の領域には、画像の一覧が表示されている。画像の検索前に、検索条件としてタグ情報が何も選択されていない状態において、画像の一覧画面には、画像の一覧、例えば画像群に含まれる全ての画像の少なくとも一部が、画像の撮影時刻の順に、本実施形態の場合には撮影時刻の降順に、画像の一覧画面の上側から下側へ向かって時系列に表示されている。 A list of images is displayed in the area between the menu area 52 and the navigation area 54. Before searching for an image, if no tag information is selected as a search condition, the image list screen will display a list of images, for example at least some of all the images included in the image group will be displayed when the image was taken. The images are displayed in chronological order from the top to the bottom of the image list screen in descending order of shooting time in this embodiment.
ユーザは、図4に指印56で示すように、画像の一覧画面に表示された画像の中から閲覧したい1の画像をタップすることにより、このタップされた1の画像のみを表示部46に表示させて閲覧することができる。 As shown by the finger mark 56 in FIG. 4, the user taps one image that he or she wishes to view from among the images displayed on the image list screen, and displays only the tapped image on the display unit 46. You can also view it.
この場合、画像指定部40により、表示部46に表示された画像の一覧の中から、ユーザからの指示に応じて選択された1の画像が指定画像として指定され、画像表示部38により、指定画像のみが表示部46に表示される。 In this case, the image specifying section 40 specifies one image selected from the list of images displayed on the display section 46 in response to an instruction from the user, and the image display section 38 specifies the specified image. Only the image is displayed on the display section 46.
図5は、指定画像の閲覧画面を表す一実施形態の概念図である。指定画像の閲覧画面は、表示部46の全面に表示される。図5に示すように、指定画像の閲覧画面の左上部には、「×」のボタン58が表示され、右下部には、「情報」のボタン60が表示されている。指定画像の閲覧画面の下部には、「ゴミ箱」のボタン62および「共有」のボタン64等が表示されている。 FIG. 5 is a conceptual diagram of one embodiment showing a designated image viewing screen. The designated image viewing screen is displayed on the entire surface of the display unit 46. As shown in FIG. 5, an "x" button 58 is displayed at the upper left of the designated image viewing screen, and an "information" button 60 is displayed at the lower right. At the bottom of the designated image viewing screen, a "trash can" button 62, a "share" button 64, and the like are displayed.
例えば、ユーザは、「×」のボタン58をタップすることにより、指定画像の閲覧画面を閉じて、画像の一覧画面(ホーム画面)に戻ることができる。また、ユーザは、「ゴミ箱」のボタン62をタップして指定画像を削除したり、「共有」のボタン64をタップして指定画像を他のユーザと共有したりすることができる。さらに、ユーザは、図5に指印56で示すように、「情報」のボタン60をタップすることにより、指定画像が裏返されて、指定画像の情報を閲覧することができる。 For example, by tapping the "x" button 58, the user can close the designated image viewing screen and return to the image list screen (home screen). The user can also tap the "trash can" button 62 to delete the designated image, or tap the "share" button 64 to share the designated image with other users. Further, by tapping the "Information" button 60, as shown by the finger mark 56 in FIG. 5, the user can flip over the designated image and view the information of the designated image.
図6は、指定画像の情報の閲覧画面を表す一実施形態の概念図である。指定画像の情報の閲覧画面の左上部には、「×」のボタン66が表示され、右上部には、「編集」のボタン68が表示されている。また、指定画像の情報の閲覧画面の上部には、指定画像のサムネイル画像が表示され、その下側には、指定画像の撮影時刻、自動で付いたタグ、自分で付けたタグ、および、「タグを追加」のボタン70がこの順序で表示されている。 FIG. 6 is a conceptual diagram of an embodiment showing a viewing screen for information on a designated image. An "x" button 66 is displayed at the top left of the viewing screen for information on the specified image, and an "edit" button 68 is displayed at the top right. In addition, a thumbnail image of the specified image is displayed at the top of the screen for viewing information about the specified image, and below it, the shooting time of the specified image, tags added automatically, tags added by yourself, and " "Add Tag" buttons 70 are displayed in this order.
自動で付いたタグは、カレンダー、人物、撮影場所、自動付与タグ、サービスタグの各カテゴリに分類され、自分で付けたタグは、手動付与タグのカテゴリに分類されている。
カレンダーのカテゴリには、指定画像の撮影年および撮影月として、「2018」および「12月」のタグ情報のボタンが含まれている。
人物のカテゴリには、「たろう」のタグ情報のボタンが含まれている。
撮影場所のカテゴリには、「公園」、「港区」および「お台場海浜公園」のタグ情報のボタンが含まれている。
自動付与タグのカテゴリには、「屋外」、「男の子」および「晴れ」のタグ情報のボタンが含まれている。
スキャンタグのカテゴリには、「スキャンサービス」のタグ情報のボタンが含まれている。
手動付与タグのカテゴリには、「キッズコーデ」のタグ情報のボタンが含まれている。
Automatically added tags are categorized into calendar, person, shooting location, automatically added tags, and service tags, while tags you add yourself are categorized into manually added tags.
The calendar category includes buttons for tag information of "2018" and "December" as the year and month of photography of the specified image.
The person category includes a button for tag information of "Taro."
The photography location category includes tag information buttons for "park,""MinatoWard," and "Odaiba Seaside Park."
The automatically assigned tag category includes tag information buttons for "outdoors,""boy," and "sunny."
The scan tag category includes a "scan service" tag information button.
The manually assigned tag category includes a button for tag information of "Kids Coordination".
例えば、ユーザは、「×」のボタン66をタップすることにより、指定画像の情報の閲覧画面を閉じて、指定画像の閲覧画面に戻ることができる。また、ユーザは、指印56で示すように、「編集」のボタン68をタップすることにより、指定画像の情報を編集することができる。 For example, the user can close the designated image information viewing screen and return to the designated image viewing screen by tapping the "x" button 66. Further, the user can edit the information of the specified image by tapping an "edit" button 68, as indicated by the finger mark 56.
図7は、指定画像の情報の編集画面を表す一実施形態の概念図である。図7に示す指定画像の情報の編集画面の左上部には、「キャンセル」のボタン72が表示され、右上部には、「保存」のボタン74が表示されている。 FIG. 7 is a conceptual diagram of an embodiment showing an editing screen for information on a designated image. A "Cancel" button 72 is displayed at the upper left of the information editing screen for the designated image shown in FIG. 7, and a "Save" button 74 is displayed at the upper right.
指定画像の情報の閲覧画面において、「編集」のボタン68がタップされた場合、指定画像の情報の編集画面において、削除可能なタグ情報のボタン内には、「×」のボタンが表示される。ユーザによりタグ情報のボタン内の「×」のボタンがタップされた場合、画像情報編集部44により、そのタグ情報のボタンは削除される。また、図7に指印56で示すように、ユーザにより「タグを追加」のボタン70がタップされた場合、新規なタグ情報の入力画面が表示される。 When the "edit" button 68 is tapped on the specified image information viewing screen, an "x" button is displayed among the buttons for tag information that can be deleted on the specified image information editing screen. . When the user taps the "X" button among the tag information buttons, the image information editing unit 44 deletes the tag information button. Further, as shown by the finger mark 56 in FIG. 7, when the user taps the "Add tag" button 70, a new tag information input screen is displayed.
指定画像の情報の編集画面において、「キャンセル」のボタン72がタップされた場合、指定画像の情報に対する編集内容が破棄され、指定画像の情報の閲覧画面に戻る。「保存」のボタン74がタップされた場合、指定画像の情報に対する編集内容が保存される。 If the "Cancel" button 72 is tapped on the specified image information editing screen, the edited content for the specified image information is discarded, and the screen returns to the specified image information viewing screen. When the "save" button 74 is tapped, the edited content of the information of the specified image is saved.
図8は、新規なタグ情報の入力画面を表す一実施形態の概念図である。図8に示す新規なタグ情報の入力画面の上部には、指定画像のサムネイル画像が表示され、その下側には、新規なタグ情報の入力欄76が表示されている。新規なタグ情報の入力欄76には、新規なタグ情報の入力を促すための「タグを追加」というメッセージが表示されている。新規なタグ情報の入力欄76の右側には、「キャンセル」のボタン78が表示されている。 FIG. 8 is a conceptual diagram of an embodiment showing a new tag information input screen. At the top of the new tag information input screen shown in FIG. 8, a thumbnail image of the specified image is displayed, and below that, a new tag information input field 76 is displayed. In the input field 76 for new tag information, a message "Add tag" is displayed to prompt input of new tag information. A "Cancel" button 78 is displayed on the right side of the input field 76 for new tag information.
ユーザにより、新規なタグ情報の入力欄76がタップされた場合、新規なタグ情報の入力欄76の下側には、最近付与した新規なタグ情報の履歴が表示され、新規なタグ情報の入力画面の下部には、ソフトウェアキーボードが表示される。ユーザは、ソフトウェアキーボードを使用して、新規なタグ情報の入力欄76に、新規なタグ情報の名称を入力することができる。 When the user taps the new tag information input field 76, the history of recently added new tag information is displayed below the new tag information input field 76, and the new tag information input field 76 is displayed. A software keyboard is displayed at the bottom of the screen. The user can input the name of new tag information in the new tag information input field 76 using the software keyboard.
この場合、ユーザが新規なタグ情報の入力欄76に文字を入力する毎に、部分一致検索が行われ、画像群に含まれる全ての画像に付与された全てのタグ情報の中から、新規なタグ情報の入力欄76に入力された文字に部分一致するタグ情報が検索されて新規なタグ情報の入力画面内に表示される。ユーザは、新規なタグ情報の入力画面内に表示されたタグ情報の一覧の中から、新規なタグ情報を選択することもできる。 In this case, each time the user inputs characters into the input field 76 for new tag information, a partial match search is performed to search for new tag information from among all tag information attached to all images included in the image group. Tag information that partially matches the characters input in the tag information input field 76 is searched and displayed in a new tag information input screen. The user can also select new tag information from the list of tag information displayed in the new tag information input screen.
ユーザにより、「キャンセル」のボタン78がタップされた場合、新規なタグ情報の入力画面が閉じられ、指定画像の情報の編集画面に戻る。 When the user taps the "Cancel" button 78, the new tag information input screen is closed and the screen returns to the specified image information editing screen.
続いて、タグ情報の選択画面について説明する。
前述の通り、「さがす」のボタンがタップされると、タグ情報の選択画面が表示部46に表示される。
Next, the tag information selection screen will be explained.
As described above, when the "Search" button is tapped, a tag information selection screen is displayed on the display unit 46.
図9は、タグ情報の選択画面を表す一実施形態の概念図である。タグ情報の選択画面は、画像の一覧画面内の上側の一部の領域以外の領域の上層に重ねて下層の画像の一覧が一定の透過率で透過して見えるように表示されている。タグ情報が選択されていない状態において、タグ情報の選択画面には、画像群に含まれる全ての画像に付与された全てのタグ情報の一部が複数のカテゴリに分類されて表示されている。それぞれのタグ情報は、ボタンとしてタグ情報の選択画面内に表示されている。また、タグ情報の選択画面内の下部には、「タグを検索」のボタン80が表示されている。 FIG. 9 is a conceptual diagram of an embodiment showing a tag information selection screen. The tag information selection screen is displayed so that the list of images in the lower layer can be seen through at a constant transmittance by being superimposed on an area other than the upper part of the image list screen. In a state where no tag information is selected, on the tag information selection screen, a portion of all the tag information added to all the images included in the image group is displayed, classified into a plurality of categories. Each piece of tag information is displayed as a button on the tag information selection screen. Further, a "search tag" button 80 is displayed at the bottom of the tag information selection screen.
複数のカテゴリには、カレンダー、人物、撮影場所、自動付与タグ、手動付与タグ、サービスタグの各カテゴリが含まれている。
カレンダーのカテゴリには、画像の撮影年および撮影月のタグ情報のボタンが含まれる。
人物のカテゴリには、画像に写っている人物の名称のタグ情報のボタンが含まれる。
撮影場所のカテゴリには、画像が撮影された場所のタグ情報のボタンが含まれる。
自動付与タグのカテゴリには、タグ情報付与部26によって自動で付与されたタグ情報のボタンが含まれる。
手動付与タグのカテゴリには、ユーザによって手動で付与されたタグ情報のボタン、つまり、画像情報編集部44によって付与されたタグ情報のボタンが含まれる。
サービスタグのカテゴリには、例えばプリントをスキャンしてデジタル画像データを作成するなどのように、本発明に係る画像処理システム10によって提供されるサービスに関連するタグ情報のボタンが含まれる。
The multiple categories include calendar, person, shooting location, automatically assigned tag, manually assigned tag, and service tag.
The calendar category includes buttons for tag information of the year and month the image was taken.
The person category includes a button for tag information of the name of the person in the image.
The photography location category includes buttons for tag information of the location where the image was taken.
The category of automatically assigned tags includes buttons for tag information automatically assigned by the tag information assigning unit 26.
The category of manually added tags includes buttons for tag information manually added by the user, that is, buttons for tag information added by the image information editing section 44.
The service tag category includes buttons for tag information related to services provided by the image processing system 10 according to the present invention, such as scanning a print to create digital image data.
タグ情報の選択画面において、カレンダーのカテゴリには、画像の撮影年として、「2018」、「2017」および「2016」のタグ情報のボタンがこの順序で左側から右側へ向かって表示され、画像の撮影月として、「12月」、「11月」、「10月」および「9月」のタグ情報のボタンがこの順序で左側から右側へ向かって表示されている。
人物のカテゴリには、人物の名称として、「たかし」、「あきら」および「富士花子」のタグ情報のボタンがこの順序で左側から右側へ向かって表示されている。
撮影場所のカテゴリには、タグ情報が含まれていない。
自動付与タグのカテゴリには、「自転車」、「ラーメン」および「飲み会」のタグ情報のボタンがこの順序で左側から右側へ向かって表示されている。
手動付与タグのカテゴリには、「サークル」、「今日のランチ」および「絶景」のタグ情報のボタンがこの順序で左側から右側へ向かって表示されている。
サービスタグのカテゴリには、「スキャン画像」のタグ情報のボタンが表示されている。
On the tag information selection screen, in the calendar category, tag information buttons for "2018,""2017," and "2016" are displayed in this order from the left to the right as the year the image was taken. Tag information buttons for "December,""November,""October," and "September" are displayed in this order from the left to the right as shooting months.
In the person category, tag information buttons for “Takashi,” “Akira,” and “Fuji Hanako” are displayed as person names in this order from the left to the right.
The shooting location category does not include tag information.
In the automatically assigned tag category, tag information buttons for "bicycle,""ramen," and "drinking party" are displayed in this order from the left to the right.
In the manually assigned tag category, buttons for tag information of "Circle,""Today'sLunch," and "Scenic View" are displayed in this order from the left to the right.
In the service tag category, a tag information button for "scanned image" is displayed.
カレンダーのカテゴリ以外の他の各カテゴリに含まれるタグ情報のボタンは、横一列に並べて表示されている。カレンダーのカテゴリには、画像の撮影年および撮影月のタグ情報のボタンがそれぞれ横一列に並べて、撮影年および撮影月の数字の降順に表示されている。その他の各カテゴリに含まれるタグ情報のボタンは、各々のタグ情報が付与された画像の枚数が多い順に表示されている。 Buttons for tag information included in each category other than the calendar category are displayed in a horizontal line. In the calendar category, buttons for tag information for the year and month of image capture are arranged horizontally in a row, and are displayed in descending numerical order of the year and month of image capture. The tag information buttons included in each of the other categories are displayed in descending order of the number of images to which each tag information has been added.
なお、各々のカテゴリにおいて、左右方向に全てを表示できない数のタグ情報が含まれている場合、ユーザは、各々のカテゴリに含まれるタグ情報のボタンをタップした状態で左方向または右方向にスワイプすることにより、タグ情報の選択画面に表示されたタグ情報のボタンを外側へ押し出し、かつタグ情報の選択画面に表示されていないタグ情報のボタンをタグ情報の選択画面内へ移動して表示させることができる。 In addition, if each category contains tag information that cannot be displayed in the left or right direction, the user can swipe left or right while tapping the tag information button included in each category. By doing this, the tag information button displayed on the tag information selection screen is pushed outward, and the tag information button that is not displayed on the tag information selection screen is moved and displayed within the tag information selection screen. be able to.
ユーザは、画像を検索するために、キーワードをタイプして入力する必要はなく、表示部46に表示されているタグ情報の中から、検索したい所望の画像に対応するタグ情報をタップして選択することができるため、直感的に検索を行うことができる。 In order to search for an image, the user does not have to type in a keyword; instead, the user taps and selects the tag information corresponding to the desired image to be searched from among the tag information displayed on the display section 46. This allows for intuitive searching.
ここで、ユーザにより、検索条件としてタグ情報が何も選択されていない状態において、図10に指印56で示すように、タグ情報の選択画面に表示されたタグ情報のボタンの中から1つ目のタグ情報として、「自転車」のタグ情報のボタンがタップされたとする。 Here, when the user has not selected any tag information as a search condition, as shown by the finger mark 56 in FIG. Assume that a button with tag information of "bicycle" is tapped as the tag information of "bicycle".
この場合、タグ情報指定部32により、ユーザからの指示に応じて選択された「自転車」のタグ情報のボタンに対応する「自転車」のタグ情報が第1選択タグ情報として指定される。また、タグ情報表示部30により、「自転車」のタグ情報のボタンの色が変更され、かつ、タグ情報の選択画面によって覆われていない画像の一覧画面の上部の領域内の左側に「自転車」と表示される。 In this case, the tag information specifying unit 32 specifies the tag information of "bicycle" corresponding to the button of the tag information of "bicycle" selected according to the instruction from the user as the first selected tag information. In addition, the tag information display unit 30 changes the color of the tag information button for "bicycle" and displays "bicycle" on the left side in the upper area of the image list screen that is not covered by the tag information selection screen. is displayed.
続いて、画像抽出部34により、画像群の中から、第1選択タグ情報である「自転車」のタグ情報が付与された画像が第1検索画像として抽出され、画像表示部38により、全ての第1検索画像の少なくとも一部が画像の一覧画面に表示される。 Subsequently, the image extracting unit 34 extracts the image to which the tag information of “bicycle”, which is the first selection tag information, is added from the image group as the first search image, and the image display unit 38 At least a portion of the first search image is displayed on the image list screen.
また、図11に示すように、タグ情報表示部30により、全ての第1検索画像に付与された全てのタグ情報の少なくとも一部がタグ情報の選択画面に表示される。つまり、タグ情報の選択画面に表示されたタグ情報の内容が更新される。 Further, as shown in FIG. 11, the tag information display unit 30 displays at least a portion of all the tag information added to all the first search images on the tag information selection screen. That is, the content of the tag information displayed on the tag information selection screen is updated.
本実施形態の場合、カレンダーのカテゴリは、画像の撮影年として、「2018」、「2017」および「2016」から「2018」および「2017」のタグ情報のボタンに変更される。
また、人物のカテゴリは、「たかし」、「あきら」および「富士花子」から「たかし」、「あきら」および「山田さん」のタグ情報のボタンに変更される。
自動付与タグのカテゴリは、「自転車」、「ラーメン」および「飲み会」から「自転車」、「山」および「ガードレール」のタグ情報のボタンに変更される。
手動付与タグのカテゴリは、「サークル」、「今日のランチ」および「絶景」から「サークル」、「絶景」および「チャリ旅」のタグ情報のボタンに変更される。
In the case of this embodiment, the calendar category is changed from "2018,""2017," and "2016" to buttons with tag information of "2018" and "2017," as the year in which the image was taken.
Furthermore, the person categories are changed from "Takashi,""Akira," and "Fuji Hanako" to tag information buttons for "Takashi,""Akira," and "Mr. Yamada."
The automatically assigned tag categories are changed from "bicycles,""ramen," and "drinking parties" to tag information buttons for "bicycles,""mountains," and "guardrails."
The manually assigned tag categories are changed from "circle,""today'slunch," and "scenic view" to tag information buttons for "circle,""scenicview," and "bicycle trip."
つまり、タグ情報の選択画面に表示されたタグ情報のボタンの中から、「自転車」のタグ情報のボタンのみが選択された場合、画像群の中から、「自転車」のタグ情報が付与された検索画像のみに絞り込まれ、かつ、画像群に含まれる全ての画像に付与された全てのタグ情報の中から、「自転車」のタグ情報が付与された全ての検索画像に付与された全てのタグ情報のみに絞り込まれる。 In other words, if only the tag information button for "bicycle" is selected from among the tag information buttons displayed on the tag information selection screen, the tag information for "bicycle" is assigned from among the images. All the tags added to all the search images that have been narrowed down to search images and have tag information of "bicycle" added to them from all the tag information added to all the images included in the image group. Narrowed down to information only.
続いて、図12に指印56で示すように、ユーザにより、タグ情報の選択画面に表示されたタグ情報のボタンの中から、1つ目の「自転車」のタグ情報のボタンに加えて、2つ目のタグ情報として、「チャリ旅」のタグ情報のボタンがタップされたとする。つまり、「自転車」のタグ情報のボタンが選択された状態において、さらに「チャリ旅」のタグ情報のボタンが追加で選択され、同時に2つのタグ情報が選択されたとする。 Next, as shown by the finger mark 56 in FIG. 12, the user selects the second tag information button in addition to the first "bicycle" tag information button from among the tag information buttons displayed on the tag information selection screen. Assume that the tag information button for "chari trip" is tapped as the second tag information. That is, suppose that in a state where the tag information button for "bicycle" is selected, a button for tag information for "charitary trip" is additionally selected, and two pieces of tag information are selected at the same time.
この場合、タグ情報指定部32により、1つ目の「自転車」のタグ情報に加えて、ユーザからの指示に応じて選択された「チャリ旅」のタグ情報のボタンに対応する2つ目の「チャリ旅」のタグ情報が第2選択タグ情報として指定される。つまり、「自転車」および「チャリ旅」のタグ情報の両方が選択タグ情報として同時に指定される。また、タグ情報表示部30により、「自転車」のタグ情報のボタンに加えて、「チャリ旅」のタグ情報のボタンの色が変更され、かつ、タグ情報の選択画面によって覆われていない画像の一覧画面の上部の領域内に表示された「自転車」の右側に「チャリ旅」と表示される。 In this case, in addition to the first "bicycle" tag information, the tag information specifying unit 32 selects a second "bicycle" tag information button that corresponds to the "chari trip" tag information button selected in response to the user's instruction. The tag information of "chari trip" is specified as the second selected tag information. In other words, both the tag information of "bicycle" and "charitary trip" are designated as the selected tag information at the same time. In addition, the tag information display unit 30 changes the color of the tag information button for "chari trip" in addition to the tag information button for "bicycle", and also changes the color of the tag information button for "chari trip" and displays images that are not covered by the tag information selection screen. ``Chari trip'' is displayed to the right of ``bicycle'' displayed in the upper area of the list screen.
続いて、画像抽出部34により、「自転車」のタグ情報が付与された第1検索画像の中から、「チャリ旅」のタグ情報が付与された第1検索画像が第2検索画像として抽出され、図13に示すように、画像表示部38により、第2検索画像の少なくとも一部が画像の一覧画面に表示される。
また、図示省略するが、タグ情報表示部30により、全ての第2検索画像に付与された全てのタグ情報の少なくとも一部がタグ情報の選択画面に表示される。
Subsequently, the image extraction unit 34 extracts the first search image to which the tag information of "chari trip" is attached as a second search image from among the first search images to which the tag information of "bicycle" is attached. , as shown in FIG. 13, the image display unit 38 displays at least a portion of the second search image on the image list screen.
Although not shown, the tag information display unit 30 displays at least a portion of all the tag information added to all the second search images on the tag information selection screen.
つまり、「自転車」および「チャリ旅」の両方のタグ情報のボタンが同時に選択された場合、画像群の中から、「自転車」および「チャリ旅」の両方のタグ情報が付与された検索画像のみに絞り込まれ、かつ、画像群に含まれる全ての画像に付与された全てのタグ情報の中から、「自転車」および「チャリ旅」の両方のタグ情報が付与された全ての検索画像に付与された全てのタグ情報のみに絞り込まれる。 In other words, if the tag information buttons for both "bicycle" and "chari trip" are selected at the same time, only the searched images with tag information for both "bicycle" and "chari trip" will be selected from the image group. Among all the tag information added to all the images included in the image group, all the searched images with tag information of both "bicycle" and "chari trip" are added. The information is narrowed down to all tag information.
ユーザは、タグ情報の選択画面の上部に表示された下向きの矢印92を下方向へスワイプすることにより、いつでもタグ情報の選択画面を閉じることができる。タグ情報の選択画面が閉じられた場合、図13に示すように、タグ情報の選択画面によって覆われていた領域の画像の一覧画面が表示される。これにより、ユーザは、検索画像の一覧を閲覧することができる。 The user can close the tag information selection screen at any time by swiping downward on the downward arrow 92 displayed at the top of the tag information selection screen. When the tag information selection screen is closed, as shown in FIG. 13, a list screen of images of the area covered by the tag information selection screen is displayed. This allows the user to view a list of search images.
画像の一覧画面において、全てを表示できない数の検索画像が含まれている場合、ユーザは、画像の一覧画面に表示された検索画像を上下方向にスワイプして検索画像を上下方向へ移動させることにより、画像の一覧画面に表示された検索画像の一部を外側へ押し出し、かつ画像の一覧画面に表示されていない検索画像の一部を画像の一覧画面内へ移動して表示させることができる。 If the image list screen contains too many search images to display all of them, the user can swipe the search images displayed on the image list screen up or down to move the search images up or down. This allows you to push out a part of the search image displayed on the image list screen, and move a part of the search image that is not displayed on the image list screen into the image list screen for display. .
また、タグ情報の選択画面が閉じられた場合、図13に示すように、タグ情報の選択画面の上部には、上向きの矢印94が表示される。ユーザは、この上向きの矢印94を上方向へスワイプすることにより、いつでもタグ情報の選択画面を開くことができる。タグ情報の選択画面は、本実施形態の場合、図9~12に示す全開状態、図13に示す全閉状態、およびその中間位置の3段階に切り替えることができる。なお、タグ情報の選択画面を3段階以上の多段階に切り替えてもよい。 Furthermore, when the tag information selection screen is closed, an upward arrow 94 is displayed at the top of the tag information selection screen, as shown in FIG. The user can open the tag information selection screen at any time by swiping upward on this upward arrow 94. In this embodiment, the tag information selection screen can be switched to three stages: a fully open state shown in FIGS. 9 to 12, a fully closed state shown in FIG. 13, and an intermediate position. Note that the tag information selection screen may be switched to three or more stages.
また、ユーザは、画像の一覧画面が表示された状態で、「さがす」のボタンをタップすることにより、いつでもタグ情報の選択画面を表示させることができる。あるいは、ユーザは、「自転車」および「チャリ旅」の2つのタグ情報が選択された状態において、さらに他のタグ情報のボタンを追加で選択して、さらにタグ情報を絞り込むことにより、さらに画像を絞り込むこともできる。 Furthermore, the user can display the tag information selection screen at any time by tapping the "Search" button while the image list screen is displayed. Alternatively, with the two tag information "bicycle" and "chari trip" selected, the user can select the button for other tag information to further narrow down the tag information and view the image further. You can also narrow it down.
選択タグ情報として指定された「自転車」および「チャリ旅」の2つのタグ情報は、タグ情報指定部32により、ユーザからの指示に応じて、選択タグ情報としての指定が解除されるまで、選択タグ情報としての指定が維持される。
例えば、タグ情報の選択画面において「解除」のボタンを設けておき、ユーザが「解除」のボタンをタップすることにより、選択タグ情報として指定された「自転車」および「チャリ旅」の2つのタグ情報の選択を一括で解除できるようにしてもよい。
The two tag information "bicycle" and "chari trip" designated as the selected tag information are selected by the tag information specifying unit 32 until the designation as the selected tag information is canceled in response to an instruction from the user. The designation as tag information is maintained.
For example, if a "cancellation" button is provided on the tag information selection screen, and the user taps the "cancellation" button, the two tags "bicycle" and "chari trip" specified as the selected tag information can be removed. It may also be possible to cancel selection of information all at once.
また、ユーザは、タグ情報のボタンをタップする毎に、そのタグ情報の選択タグ情報としての選択と解除とを切り替えることができる。
この場合、タグ情報指定部32により、ユーザからの指示に応じて、ボタンが押下される毎に、ボタンに対応するタグ情報の選択タグ情報としての指定と、ボタンに対応するタグ情報の選択タグ情報としての指定の解除と、が切り替えられる。
Furthermore, each time the user taps a tag information button, the user can switch between selecting and canceling the tag information as selected tag information.
In this case, the tag information specifying unit 32 specifies the tag information corresponding to the button as the selected tag information and the selected tag of the tag information corresponding to the button each time the button is pressed, in accordance with an instruction from the user. You can switch between canceling the designation as information and canceling the designation as information.
言い換えると、タグ情報の選択は、解除されるまで維持されるため、タグ情報の選択が維持された状態で、つまり、選択されたタグ情報を用いて画像の検索が行われた後、他の表示画面へ切り替えられ、再びタグ情報の選択画面に切り替えられて戻ってきた場合、選択されたタグ情報を用いて検索された結果である検索画像をいつでも閲覧することができる。 In other words, the selection of tag information is maintained until it is canceled, so that when the tag information selection is maintained, that is, after the image search is performed using the selected tag information, other When the screen is switched to the display screen and then switched back to the tag information selection screen, the search image that is the search result using the selected tag information can be viewed at any time.
また、ユーザは、タグ情報がボタンとして表示部46に表示された状態において、1のタグ情報のボタンを長押し(ロングタップ)することにより、長押しされた1のボタンのタグ情報の上位概念のタグ情報を選択することができる。 In addition, in a state where the tag information is displayed as a button on the display unit 46, the user can press and hold (long tap) a button for tag information 1, thereby obtaining a superordinate concept of the tag information of the long-pressed button 1. tag information can be selected.
この場合、表示部46に表示されたタグ情報のボタンの中から、ユーザからの指示に応じて選択された1のタグ情報のボタンが一定時間以上押下された場合に、タグ情報指定部32により、押下された1のタグ情報のボタンに対応するタグ情報の上位概念のタグ情報に含まれる全ての下位概念のタグ情報が選択タグ情報として指定される。
例えば、「モンブラン」のタグ情報のボタンが長押しされた場合、「モンブラン」の上位概念である全ての「スイーツ」のタグ情報が選択される。
In this case, when one tag information button selected from among the tag information buttons displayed on the display section 46 in response to an instruction from the user is pressed for a certain period of time or more, the tag information specifying section 32 , all of the tag information of the subordinate concepts included in the tag information of the superordinate concept of the tag information corresponding to the pressed one tag information button is designated as the selected tag information.
For example, when a button for tag information of "Mont Blanc" is pressed for a long time, all tag information of "sweets" which is a superordinate concept of "Mont Blanc" is selected.
あるいは、タグ情報指定部32により、表示部46に表示されたタグ情報の中から、ユーザからの指示に応じて1のタグ情報が選択された場合に、既に指定されている他のタグ情報の指定を解除し、選択された1のタグ情報のみを選択タグ情報として指定してもよい。 Alternatively, when one piece of tag information is selected by the tag information specifying unit 32 from among the tag information displayed on the display unit 46 in response to an instruction from the user, other tag information that has already been specified is selected. The designation may be canceled and only the selected tag information may be designated as the selected tag information.
続いて、ユーザは、図14に指印56で示すように、画像の一覧画面に表示された検索画像の中から閲覧したい1の検索画像をタップすることにより、このタップされた1の検索画像のみを表示部46に表示させて閲覧することができる。 Subsequently, as shown by the finger mark 56 in FIG. 14, the user taps the first search image that he or she wishes to view from among the search images displayed on the image list screen, and selects only the tapped one search image. can be displayed on the display section 46 for viewing.
この場合、画像指定部40により、表示部46に表示された検索画像の中から、ユーザからの指示に応じて選択された1の検索画像が指定検索画像として指定され、画像表示部38により、指定検索画像のみが表示部46に表示される。 In this case, the image designation section 40 designates one search image selected from among the search images displayed on the display section 46 in response to an instruction from the user as a specified search image, and the image display section 38 specifies, Only the specified search images are displayed on the display section 46.
図15は、指定検索画像の閲覧画面を表す一実施形態の概念図である。指定検索画像の閲覧画面は、表示部46の全面に表示される。図15に示す指定検索画像の閲覧画面の左上部には、「×」のボタン58が表示され、左下部には、「カレンダー」のボタン82が表示され、右下部には、「情報」のボタン60が表示されている。指定検索画像の閲覧画面の下部には、「ゴミ箱」のボタン62、「共有」のボタン64および「その他」のボタン84が表示されている。
指定検索画像の閲覧画面は、その左下部に、「カレンダー」のボタン82が表示されていること以外、指定画像の閲覧画面と同じ構成である。
FIG. 15 is a conceptual diagram of an embodiment showing a viewing screen for designated search images. The viewing screen for the specified search image is displayed on the entire surface of the display unit 46. At the top left of the specified search image viewing screen shown in FIG. 15, an "x" button 58 is displayed, at the bottom left a "calendar" button 82, and at the bottom right, an "information" button 58 is displayed. A button 60 is displayed. At the bottom of the designated search image viewing screen, a "trash can" button 62, a "share" button 64, and an "other" button 84 are displayed.
The designated search image viewing screen has the same configuration as the designated image viewing screen, except that a "calendar" button 82 is displayed at the lower left.
例えば、ユーザは、「×」のボタン58をタップすることにより、指定検索画像の閲覧画面を閉じて、検索画像の一覧画面に戻ることができる。また、ユーザは、「ゴミ箱」のボタン62をタップして指定検索画像を削除したり、「共有」のボタン64をタップして指定検索画像を他のユーザと共有したり、「その他」のボタン84をタップしてその他の機能を実行したりすることができる。さらに、ユーザは、「情報」のボタン60をタップすることにより、指定検索画像の情報を閲覧することができる。 For example, by tapping the "X" button 58, the user can close the specified search image viewing screen and return to the search image list screen. The user can also tap the "trash can" button 62 to delete the specified search image, tap the "share" button 64 to share the specified search image with other users, or tap the "other" button 64 to share the specified search image with other users. 84 can be tapped to perform other functions. Further, the user can view information on the designated search image by tapping the "Information" button 60.
また、ユーザは、検索画像を1枚ずつ順次表示させて閲覧することができる。
この場合、指定検索画像のみが表示部46に表示された後、画像表示部38により、ユーザからの指示が入力される毎に、全ての検索画像の中から、指定検索画像の撮影時刻よりも前または後に撮影された1の検索画像のみが、指定検索画像の撮影時刻から時系列に撮影された検索画像の順に順次表示部46に表示される。
Furthermore, the user can view the searched images by sequentially displaying them one by one.
In this case, after only the designated search images are displayed on the display section 46, the image display section 38 selects from among all the search images a photographing time of the designated search image. Only one search image photographed before or after is sequentially displayed on the display unit 46 in the order of search images photographed in chronological order starting from the photographing time of the specified search image.
例えば、ユーザにより、指定検索画像が右側へスワイプされた場合、全ての検索画像の中から、指定検索画像よりも1つ前の撮影時刻に撮影された1の検索画像のみが表示される。これ以後、ユーザの指示に応じて検索画像が右側へスワイプされる毎に、指定検索画像の撮影時刻から時系列に撮影された検索画像の順に、1つずつ前の1の検索画像のみが順次表示される。 For example, when the user swipes the designated search image to the right, only one search image photographed at a shooting time one before the designated search image is displayed from among all the search images. From now on, every time the search image is swiped to the right according to the user's instructions, only the previous search image will be displayed one by one in the order of the search images taken in chronological order from the shooting time of the specified search image. Is displayed.
一方、ユーザにより、指定検索画像が左側へスワイプされた場合、全ての検索画像の中から、指定検索画像よりも1つ後の撮影時刻に撮影された1の検索画像のみが表示される。これ以後、ユーザの指示に応じて検索画像が左側へスワイプされる毎に、指定検索画像の撮影時刻から時系列に撮影された検索画像の順に、1つずつ後の1の検索画像のみが順次表示される。 On the other hand, when the user swipes the specified search image to the left, only one search image photographed at a shooting time one after the specified search image is displayed from among all the search images. From now on, every time the search image is swiped to the left according to the user's instructions, only the search image that is one after the other in the order of the search images taken in chronological order from the shooting time of the specified search image will be displayed. Is displayed.
また、ユーザは、図15に示すように、検索画像の閲覧画面に表示された「カレンダー」のボタン82をタップすることにより、画像群の中から、指定検索画像の撮影時刻の前後に撮影された画像を表示部46に表示させて閲覧することができる。
この場合、指定検索画像が指定された場合に、指定検索画像のみが表示部46に表示された後、画像表示部38により、ユーザからの指示に応じて、指定検索画像と、画像群に含まれる、指定検索画像の撮影時刻の前後に撮影された画像の少なくとも一部と、が時系列画像として時系列により表示部46に表示される。
In addition, as shown in FIG. 15, by tapping the "calendar" button 82 displayed on the search image viewing screen, the user can select images taken before and after the shooting time of the designated search image from among the images. The captured image can be displayed on the display unit 46 and viewed.
In this case, when a specified search image is specified, only the specified search image is displayed on the display unit 46, and then the image display unit 38 displays the specified search image and images included in the image group according to instructions from the user. At least some of the images photographed before and after the photographing time of the specified search image are displayed on the display unit 46 in chronological order as time-series images.
このように、ユーザは、1の検索画像の撮影時刻の前後に撮影された画像を表示させるために、一旦、ホーム画面等の画像の一覧画面に戻る必要はなく、ユーザからの指示に応じて、本実施形態の場合には、「カレンダー」のボタン82をタップするというワンアクションで、指定検索画像の撮影時刻の前後に撮影された画像を時系列に表示させて閲覧することができる。 In this way, the user does not have to return to the image list screen, such as the home screen, in order to display images taken before and after the shooting time of the first search image. In the case of the present embodiment, with a single action of tapping the "calendar" button 82, it is possible to display and view images photographed before and after the photographing time of the specified search image in chronological order.
ここで、ユーザからの指示に応じて、例えばホーム画面等の画像の一覧画面に戻って、指定検索画像の撮影時刻の前後に撮影された画像を時系列に表示させれば同じことができる。しかし、このような操作方法では、スマートフォンに数年分という大量の画像群が保存されている場合、ホーム画面等の画像の一覧画面において、所望の画像の撮影日まで何年分もの画像群の間を移動することをユーザに強いることになる。 Here, the same thing can be done by returning to the image list screen, such as the home screen, in response to an instruction from the user, and displaying images taken before and after the shooting time of the specified search image in chronological order. However, with this operating method, if a smartphone has a large number of images stored over several years, you can view the image list from many years ago on the image list screen such as the home screen until the shooting date of the desired image. This forces the user to move between
これに対し、本実施形態の画像処理装置を使用することにより、「カレンダー」のボタン82をタップするというワンアクションで、指定検索画像の撮影時刻の前後に撮影された画像を時系列に表示させて閲覧することが可能となり、従来の技術を使用して、前述のように、ホーム画面等の画像の一覧画面に戻って、指定検索画像の撮影時刻の前後に撮影された画像を時系列に表示させる場合と比較して大変便利である。 In contrast, by using the image processing device of this embodiment, images taken before and after the shooting time of the specified search image can be displayed in chronological order with a single action of tapping the "calendar" button 82. Using conventional technology, as described above, you can return to the image list screen such as the home screen and view images taken before and after the specified search image in chronological order. This is very convenient compared to displaying it.
図16は、時系列画像の一覧画面を表す一実施形態の概念図である。時系列画像の一覧画面は、メニュー領域52とナビゲーション領域54との間の領域に表示される。 FIG. 16 is a conceptual diagram of an embodiment showing a list screen of time-series images. A list screen of time-series images is displayed in an area between the menu area 52 and the navigation area 54.
同様に、ユーザは、時系列画像の一覧画面に表示された時系列画像の中から閲覧したい1の時系列画像をタップすることにより、このタップされた1の時系列画像のみを表示部46に表示させて閲覧することができる。
この場合、画像指定部40により、表示部46に表示された時系列画像の中から、ユーザからの指示に応じて選択された1の時系列画像が指定時系列画像として指定され、画像表示部38により、指定時系列画像のみが表示部46に表示される。
Similarly, by tapping the first time-series image that the user wants to view from among the time-series images displayed on the time-series image list screen, the user can display only the tapped one time-series image on the display unit 46. It can be displayed and viewed.
In this case, the image designation unit 40 designates one time-series image selected from among the time-series images displayed on the display unit 46 as a designated time-series image according to an instruction from the user, and 38, only the specified time-series images are displayed on the display unit 46.
また、指定時系列画像が指定された場合に、指定時系列画像のみが表示部46に表示された後、画像表示部38により、ユーザからの指示が入力される毎に、画像群の中から、指定時系列画像の撮影時刻よりも前または後に撮影された1の画像のみが、指定時系列画像の撮影時刻から時系列に撮影された画像の順に順次表示部46に表示される。
指定時系列画像が右側または左側へスワイプされた場合の動作は、指定検索画像が右側または左側へスワイプされる場合の動作と同様である。
Further, when designated time-series images are designated, after only the designated time-series images are displayed on the display section 46, the image display section 38 selects one of the images from among the images each time an instruction from the user is input. , only one image photographed before or after the photographing time of the designated time-series image is sequentially displayed on the display unit 46 in the order of images photographed in chronological order from the photographing time of the designated time-series image.
The operation when the specified time series image is swiped to the right or left is the same as the operation when the specified search image is swiped to the right or left.
なお、「カレンダー」のボタン82を設ける代わりに、特定のタッチ操作により「カレンダー」のボタン82と同等の機能が果たせるようにしてもよい。 Note that instead of providing the "calendar" button 82, the same function as the "calendar" button 82 may be performed by a specific touch operation.
ユーザは、時系列画像の一覧画面において、「ホーム」のボタンをタップすることにより、検索画像の一覧画面に戻ることができる。
前述の通り、タグ情報の選択は、解除されるまで維持されるため、検索画像の一覧画面に戻ってきた場合、選択されたタグ情報を用いて検索された結果である検索画像の一覧が検索画像の一覧画面に表示される。
The user can return to the search image list screen by tapping the "Home" button on the time series image list screen.
As mentioned above, the selection of tag information is maintained until it is canceled, so when you return to the search image list screen, the list of search images that are the search results using the selected tag information will be displayed. Displayed on the image list screen.
なお、時系列画像を表示部46に表示させる前において、画像群の中から画像を検索するための検索条件は、画像群の中から、画像の撮影時刻以外の条件により画像を検索するための条件であれば特に限定されない。
画像の撮影時刻の条件とは、画像の撮影時刻だけでなく、画像の撮影年、撮影月、撮影週、撮影日および撮影時刻等のように、画像の撮影時刻に関する各種の条件を含み、画像の撮影時刻以外の条件は、画像の撮影時刻に関する条件以外のあらゆる条件を含む。
検索条件としては、画像解析部22による画像の解析内容、および、タグ情報付与部26により付与されたタグ情報の名称等を使用することができ、画像に写っている被写体の名称(人物名およびオブジェクト名)、人物の表情の名称、人物の行動の名称、人物の感情の名称、シーン名、イベント名、ユーザの嗜好の名称、撮影場所名等を例示することができる。
Note that, before displaying the time-series images on the display unit 46, the search conditions for searching for an image from the image group are those for searching for an image from the image group based on conditions other than the shooting time of the image. There are no particular limitations as long as the conditions are met.
The conditions for the image capture time include not only the image capture time, but also various conditions related to the image capture time, such as the image capture year, capture month, capture week, capture date, and capture time. The conditions other than the photographing time include all conditions other than the conditions regarding the photographing time of the image.
As search conditions, the content of image analysis by the image analysis unit 22 and the name of tag information assigned by the tag information assignment unit 26 can be used, and the name of the subject in the image (person name and Examples include object names), names of people's facial expressions, names of people's actions, names of people's emotions, scene names, event names, names of user preferences, and names of shooting locations.
また、ユーザは、タグ情報の選択画面において、検索条件として使用したいタグ情報のボタンを見るけることができない場合、図17に指印56で示すように、「タグを検索」のボタン80をタップすることにより、キーワードを入力してタグ情報を検索することができる。 Furthermore, if the user cannot see the button for the tag information that he or she wants to use as a search condition on the tag information selection screen, the user taps the "Search for tags" button 80, as shown by the finger 56 in FIG. 17. This allows you to search for tag information by inputting keywords.
「タグを検索」のボタン80がタップされた場合、図18に示すように、タグ情報の検索画面が表示部46に表示される。 When the "Search tag" button 80 is tapped, a tag information search screen is displayed on the display unit 46, as shown in FIG.
タグ情報の検索画面は、画像の一覧画面の上側の一部の領域以外の領域の上層に重ねて下層の検索画像の一覧が一定の透過率で透過して見えるように表示される。タグ情報の検索画面の上部には、キーワードの入力欄86が表示されている。キーワードの入力欄86には、キーワードの入力を促すための「タグを検索」というメッセージが表示されている。キーワードの入力欄86内の右端部には、「×」のボタン88が表示され、キーワードの入力欄86の右側には、「キャンセル」のボタン90が表示されている。 The tag information search screen is displayed so that the list of search images in the lower layer can be seen through at a constant transmittance by being superimposed on an area other than a part of the upper part of the image list screen. A keyword input field 86 is displayed at the top of the tag information search screen. In the keyword input field 86, a message "Search for tags" is displayed to prompt the user to input a keyword. At the right end of the keyword input field 86, an "x" button 88 is displayed, and at the right side of the keyword input field 86, a "cancel" button 90 is displayed.
続いて、ユーザにより、キーワードの入力欄86にキーワードが入力されたとする。 Suppose that the user then inputs a keyword into the keyword input field 86.
この場合、タグ情報検索部36により、画像群に含まれる全ての画像に付与された全てのタグ情報の中から、ユーザの中からの指示に応じて入力されたキーワードと少なくとも一部が一致するタグ情報が検索タグ情報として検索される。
続いて、タグ情報表示部30により、検索タグ情報の少なくとも一部が表示部46に表示される。
続いて、タグ情報指定部32により、表示部46に表示された検索タグ情報の中から、ユーザからの指示に応じて選択された1の検索タグ情報が指定される。
続いて、画像抽出部34により、画像群の中から、1の検索タグ情報が付与された画像が検索画像として抽出される。
続いて、画像表示部38により、全ての検索画像の少なくとも一部が表示部46に表示される。
続いて、タグ情報表示部30により、全ての検索画像に付与された全てのタグ情報の少なくとも一部が表示部46に表示される。
In this case, the tag information search unit 36 determines that at least a portion of all the tag information added to all the images included in the image group matches the keyword input in response to an instruction from the user. Tag information is searched as search tag information.
Subsequently, the tag information display section 30 displays at least a portion of the search tag information on the display section 46.
Subsequently, the tag information specifying section 32 specifies one piece of search tag information selected from among the search tag information displayed on the display section 46 in response to an instruction from the user.
Subsequently, the image extraction unit 34 extracts an image to which one search tag information has been added from the image group as a search image.
Subsequently, the image display section 38 displays at least a portion of all the search images on the display section 46 .
Subsequently, the tag information display section 30 displays at least a portion of all the tag information added to all the search images on the display section 46.
例えば、図18に示すように、「アイスクリーム」のタグ情報を検索するために、キーワードの入力欄86に「あ」が入力された場合、部分一致検索が行われ、画像群に含まれる全ての画像に付与された全てのタグ情報の中から、「あ」に部分一致するタグ情報が検索タグ情報として検索される。 For example, as shown in FIG. 18, when "a" is entered in the keyword input field 86 to search for tag information of "ice cream," a partial match search is performed, and all Tag information that partially matches "a" is searched as search tag information from among all the tag information added to the image.
続いて、検索タグ情報の候補として、図18に示すように、タグ情報の検索画面において、例えば「あいちゃん」、「あーちゃん」、「あまおう」および「アイスクリーム」のタグ情報のボタンがこの順序で上側から下側へ向かって表示される。 Next, as shown in FIG. 18, as search tag information candidates, on the tag information search screen, for example, the tag information buttons of "Ai-chan", "A-chan", "Amaou", and "Ice cream" are selected in this order. are displayed from the top to the bottom.
タグ情報の検索画面において、全てを表示できない数の検索タグ情報が含まれている場合、ユーザは、タグ情報の検索画面に表示された検索タグ情報を上下方向にスワイプして検索タグ情報の候補の一覧を上下方向へ移動させることにより、タグ情報の検索画面に表示された検索タグ情報の一部を外側へ押し出し、かつタグ情報の検索画面に表示されていない検索タグ情報の一部をタグ情報の検索画面内へ移動して表示させることができる。 If the tag information search screen contains too many search tag information to display all of them, the user can swipe up or down the search tag information displayed on the tag information search screen to see search tag information candidates. By moving the list up and down, part of the search tag information displayed on the tag information search screen is pushed outward, and a part of the search tag information that is not displayed on the tag information search screen is pushed out. You can move to the information search screen and display it.
また、ユーザは、「×」のボタン88をタップすることにより、入力欄86に入力されたキーワードを一括で削除することができる。また、「キャンセル」のボタン90をタップすることにより、タグ情報の検索画面を閉じてタグ情報の選択画面へ戻ることができる。さらに、ユーザは、タグ情報の検索画面の上部に表示された下向きの矢印96をスワイプすることにより、いつでもタグ情報の検索画面を閉じることができる。 Further, the user can delete keywords input in the input field 86 all at once by tapping the "x" button 88. Furthermore, by tapping the "Cancel" button 90, the tag information search screen can be closed and the tag information selection screen can be returned. Further, the user can close the tag information search screen at any time by swiping the downward arrow 96 displayed at the top of the tag information search screen.
続いて、ユーザにより、図18に指印56で示すように、タグ情報の検索画面に表示された検索タグ情報の候補のボタンの中から、例えば「アイスクリーム」のタグ情報のボタンがタップされたとする。 Next, as shown by the finger mark 56 in FIG. 18, the user taps, for example, a button for tag information of "ice cream" from among the search tag information candidate buttons displayed on the tag information search screen. do.
この場合、図19に示すように、タグ情報の選択画面が表示部46に表示される。これ以降の動作は、タグ情報が何も選択されていない状態において、「自転車」のタグ情報のボタンが選択された後の状態の場合と同様である。 In this case, as shown in FIG. 19, a tag information selection screen is displayed on the display unit 46. The subsequent operations are the same as in the case after the "bicycle" tag information button is selected in a state where no tag information is selected.
つまり、「アイスクリーム」のタグ情報が選択タグ情報として指定され、図19に示すように、タグ情報の選択画面によって覆われていない画像の一覧画面の上部の領域の左側に「アイスクリーム」と表示される。
続いて、画像群の中から、選択タグ情報である「アイスクリーム」のタグ情報が付与された画像が検索画像として抽出され、検索画像が画像の一覧画面に表示される。
また、選択タグ情報である「アイスクリーム」のタグ情報が付与された検索画像に付与された全てのタグ情報がタグ情報の選択画面に表示される。
In other words, the tag information of "Ice Cream" is specified as the selected tag information, and as shown in FIG. Is displayed.
Subsequently, an image to which tag information of "ice cream", which is the selected tag information, is added is extracted from the image group as a search image, and the search image is displayed on the image list screen.
Furthermore, all the tag information added to the search image to which the tag information of "ice cream", which is the selected tag information, is added is displayed on the tag information selection screen.
これ以降の動作は、「自転車」のタグ情報のボタンが選択された状態において、さらに「チャリ旅」のタグ情報のボタンが追加でタップされる場合と同様であり、ユーザは、検索条件として使用したいタグ情報のボタンを追加で選択することができる。 The operation after this is the same as when the tag information button for "bicycle" is selected and the tag information button for "chari trip" is additionally tapped. You can select additional buttons for the tag information you want.
なお、ユーザにより、新たな画像が撮影されたり、画像に新たなタグ情報が付与されたり、あるいは、画像に既に付与されているタグ情報が削除されたりした場合、これらの新たな画像、新たなタグ情報、削除されたタグ情報等に基づいて、例えばAI(Artificial Intelligence:人工知能)等を利用した機械学習により、タグ情報の信頼度を向上させるようにしてもよい。 Furthermore, if the user takes a new image, adds new tag information to the image, or deletes the tag information already added to the image, these new images, new tag information, etc. Based on the tag information, deleted tag information, etc., the reliability of the tag information may be improved by, for example, machine learning using AI (Artificial Intelligence).
また、例えば画像の解析、評価値の付与、タグ情報の付与、重み付けの設定、画像の抽出およびタグ情報の検索等のようなクライアント14が備える機能の少なくとも一部をサーバ12が備え、サーバ12が少なくとも一部の機能を実行するようにしてもよい。 Further, the server 12 may include at least a part of the functions of the client 14, such as image analysis, assigning evaluation values, assigning tag information, setting weighting, extracting images, and searching tag information, and the server 12 may perform at least some of the functions.
本発明の装置において、例えば指示取得部18、画像解析部22、評価値付与部24、タグ情報付与部26、重み付け設定部28、タグ情報表示部30、タグ情報指定部32、画像抽出部34、タグ情報検索部36、画像表示部38、画像指定部40、画像情報表示部42および画像情報編集部44等の各種の処理を実行する処理部(Processing Unit)のハードウェア的な構成は、専用のハードウェアであってもよいし、プログラムを実行する各種のプロセッサまたはコンピュータであってもよい。 In the apparatus of the present invention, for example, an instruction acquisition section 18, an image analysis section 22, an evaluation value assignment section 24, a tag information assignment section 26, a weighting setting section 28, a tag information display section 30, a tag information specification section 32, an image extraction section 34 The hardware configuration of the processing unit that executes various processes, such as the tag information search section 36, image display section 38, image specification section 40, image information display section 42, and image information editing section 44, is as follows. It may be dedicated hardware, or it may be a variety of processors or computers that execute programs.
各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理をさせるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。 Various types of processors include CPUs (Central Processing Units) and FPGAs (Field Programmable Gate Arrays), which are general-purpose processors that execute software (programs) and function as various processing units.The circuit configuration can be changed after manufacturing. This includes programmable logic devices (PLDs), which are processors, and dedicated electric circuits, which are processors with circuit configurations specifically designed to perform specific processing, such as ASICs (Application Specific Integrated Circuits). .
1つの処理部を、これら各種のプロセッサのうちの1つで構成してもよいし、同種または異種の2つ以上のプロセッサの組み合わせ、例えば、複数のFPGAの組み合わせ、または、FPGAおよびCPUの組み合わせ等によって構成してもよい。また、複数の処理部を、各種のプロセッサのうちの1つで構成してもよいし、複数の処理部のうちの2以上をまとめて1つのプロセッサを用いて構成してもよい。 One processing unit may be configured with one of these various processors, or a combination of two or more processors of the same or different types, for example, a combination of multiple FPGAs, or a combination of an FPGA and a CPU. It may also be configured by Further, the plurality of processing units may be configured using one of various processors, or two or more of the plurality of processing units may be configured using one processor.
例えば、サーバおよびクライアント等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。また、システムオンチップ(System on Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。 For example, as typified by computers such as servers and clients, there is a configuration in which a single processor is configured by a combination of one or more CPUs and software, and this processor functions as a plurality of processing units. Furthermore, as typified by a system on chip (SoC), there is a form of using a processor that realizes the functions of an entire system including a plurality of processing units with one IC (Integrated Circuit) chip.
さらに、これらの各種のプロセッサのハードウェア的な構成は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(Circuitry)である。 Furthermore, the hardware configuration of these various processors is, more specifically, an electric circuit (Circuitry) that is a combination of circuit elements such as semiconductor elements.
また、本発明の方法は、例えば、その各々のステップをコンピュータに実行させるためのプログラムにより実施することができる。また、このプログラムが記録されたコンピュータ読み取り可能な記録媒体を提供することもできる。 Furthermore, the method of the present invention can be implemented, for example, by a program that causes a computer to execute each step. Further, a computer-readable recording medium on which this program is recorded can also be provided.
以上、本発明について詳細に説明したが、本発明は上記実施形態に限定されず、本発明の主旨を逸脱しない範囲において、種々の改良や変更をしてもよいのはもちろんである。 Although the present invention has been described in detail above, the present invention is not limited to the above embodiments, and it goes without saying that various improvements and changes may be made without departing from the gist of the present invention.
10 画像処理システム
12 サーバ
14 クライアント
16 ネットワーク
18 指示取得部
20 画像保持部
22 画像解析部
24 評価値付与部
26 タグ情報付与部
28 重み付け設定部
30 タグ情報表示部
32 タグ情報指定部
34 画像抽出部
36 タグ情報検索部
38 画像表示部
40 画像指定部
42 画像情報表示部
44 画像情報編集部
46 表示部
50 通知およびステータス領域
52 メニュー領域
54 ナビゲーション領域
56 指印
58、66、88 「×」のボタン
60 「情報」のボタン
62 「ゴミ箱」のボタン
64 「共有」のボタン
68 「編集」のボタン
70 「タグを追加」のボタン
72、78、90 「キャンセル」のボタン
74 「保存」のボタン
76 新規なタグ情報の入力欄
80 「タグを検索」のボタン
82 「カレンダー」のボタン
84 「その他」のボタン
86 キーワードの入力欄
92、94、96 矢印
10 Image processing system 12 Server 14 Client 16 Network 18 Instruction acquisition unit 20 Image holding unit 22 Image analysis unit 24 Evaluation value assignment unit 26 Tag information assignment unit 28 Weighting setting unit 30 Tag information display unit 32 Tag information specification unit 34 Image extraction unit 36 Tag information search section 38 Image display section 40 Image specification section 42 Image information display section 44 Image information editing section 46 Display section 50 Notification and status area 52 Menu area 54 Navigation area 56 Fingerprint 58, 66, 88 "X" button 60 "Information" button 62 "Trash" button 64 "Share" button 68 "Edit" button 70 "Add tag" button 72, 78, 90 "Cancel" button 74 "Save" button 76 New Tag information input field 80 "Search tag" button 82 "Calendar" button 84 "Other" button 86 Keyword input field 92, 94, 96 Arrows
Claims (9)
画像群の中から、前記ユーザからの指示に応じて入力された検索条件に一致する画像を検索画像として検索する画像検索部と、
前記画像群に含まれる画像を表示部に表示させる画像表示部と、
前記表示部に表示された画像の中から、前記ユーザからの指示に応じて選択された1の画像を指定する画像指定部と、を備え、
前記検索条件は、前記画像群の中から、撮影時刻以外の条件により画像を検索するための条件であり、
前記画像指定部は、前記表示部に表示された検索画像の中から、前記ユーザからの指示に応じて選択された1の検索画像を指定検索画像として指定し、
前記画像表示部は、前記指定検索画像が指定された場合に、前記指定検索画像のみを前記表示部に表示させた後、前記ユーザからのワンアクションでの指示に応じて、前記指定検索画像と、前記画像群に含まれる、前記指定検索画像の撮影時刻の前後に撮影された画像の少なくとも一部と、を時系列画像として時系列により前記表示部に表示させ、
前記ユーザからのワンアクションでの指示は、前記指定検索画像の閲覧画面に表示されたボタンを押すことにより入力される、画像処理装置。 an instruction acquisition unit that acquires instructions input by the user;
an image search unit that searches, as a search image, an image matching a search condition input in response to an instruction from the user from among the image group;
an image display unit that causes a display unit to display images included in the image group;
an image specifying section for specifying one image selected from among the images displayed on the display section according to an instruction from the user;
The search condition is a condition for searching for an image from the image group based on conditions other than shooting time,
The image designation unit designates one search image selected from among the search images displayed on the display unit in response to an instruction from the user as a specified search image;
When the specified search image is specified, the image display unit displays only the specified search image on the display unit, and then displays the specified search image and the specified search image in response to a one-action instruction from the user. , displaying at least some of the images included in the image group that were photographed before and after the photographing time of the specified search image as time-series images on the display unit in chronological order;
The image processing apparatus wherein the one-action instruction from the user is input by pressing a button displayed on the viewing screen of the specified search image.
前記画像表示部は、前記指定時系列画像が指定された場合に、前記指定時系列画像のみを前記表示部に表示させた後、前記ユーザからの指示が入力される毎に、前記画像群の中から、前記指定時系列画像の撮影時刻よりも前または後に撮影された1の画像のみを、前記指定時系列画像の撮影時刻から時系列に撮影された画像の順に順次前記表示部に表示させる、請求項1または2に記載の画像処理装置。 The image specifying unit specifies one time-series image selected from among the time-series images displayed on the display unit according to an instruction from the user as a specified time-series image,
The image display unit displays only the specified time-series images on the display unit when the specified time-series images are specified, and then displays the image group each time an instruction from the user is input. Among them, only one image photographed before or after the photographing time of the specified time-series image is displayed on the display unit in sequence in the order of images photographed in chronological order from the photographing time of the specified time-series image. , The image processing device according to claim 1 or 2.
前記画像群に含まれる画像に付与されたタグ情報を前記表示部に表示させるタグ情報表示部と、
前記表示部に表示されたタグ情報の中から、前記ユーザからの指示に応じて選択されたタグ情報を選択タグ情報として指定するタグ情報指定部と、
前記画像群の中から、前記選択タグ情報が付与された画像を前記検索画像として抽出する画像抽出部と、を備え、
前記タグ情報表示部は、前記画像群に含まれる全ての画像に付与された全てのタグ情報の少なくとも一部を前記表示部に表示させ、
前記タグ情報指定部は、前記表示部に表示されたタグ情報の中から、前記ユーザからの指示に応じて選択された1つ目のタグ情報を第1選択タグ情報として指定し、
前記画像抽出部は、前記画像群の中から、前記第1選択タグ情報が付与された画像を第1検索画像として抽出し、
前記画像表示部は、全ての前記第1検索画像の少なくとも一部を前記表示部に表示させ、
前記タグ情報表示部は、前記全ての第1検索画像に付与された全てのタグ情報の少なくとも一部を前記表示部に表示させる、請求項1ないし3のいずれか一項に記載の画像処理装置。 The image search unit includes:
a tag information display unit that causes the display unit to display tag information added to images included in the image group;
a tag information designation unit that designates tag information selected from among the tag information displayed on the display unit as selected tag information in response to an instruction from the user;
an image extraction unit that extracts an image to which the selection tag information is added from the image group as the search image;
The tag information display section causes the display section to display at least part of all tag information attached to all images included in the image group,
The tag information designation unit designates first tag information selected from among the tag information displayed on the display unit in response to an instruction from the user as first selected tag information,
The image extraction unit extracts an image to which the first selection tag information is attached from the image group as a first search image;
The image display unit displays at least a portion of all the first search images on the display unit,
The image processing device according to any one of claims 1 to 3, wherein the tag information display section causes the display section to display at least a part of all the tag information added to all the first search images. .
前記画像抽出部は、前記第1検索画像の中から、前記第2選択タグ情報が付与された第1検索画像を第2検索画像として抽出し、
前記画像表示部は、全ての前記第2検索画像の少なくとも一部を前記表示部に表示させ、
前記タグ情報表示部は、前記全ての第2検索画像に付与された全てのタグ情報の少なくとも一部を前記表示部に表示させる、請求項4に記載の画像処理装置。 In addition to the first selected tag information, the tag information specifying section may include second tag information selected from among the tag information displayed on the display section according to an instruction from the user. Specify at the same time as selected tag information,
The image extraction unit extracts a first search image to which the second selection tag information is attached from among the first search images as a second search image;
The image display unit displays at least a portion of all the second search images on the display unit,
The image processing device according to claim 4, wherein the tag information display section causes the display section to display at least a part of all the tag information added to all the second search images.
前記画像抽出部は、前記画像群の中から、前記2以上の選択タグ情報の全てが付与された画像を前記検索画像として抽出し、
前記画像表示部は、全ての前記検索画像の少なくとも一部を前記表示部に表示させ、
前記タグ情報表示部は、前記全ての検索画像に付与された全てのタグ情報の少なくとも一部を前記表示部に表示させる、請求項4または5に記載の画像処理装置。 The tag information designation unit simultaneously designates two or more pieces of tag information selected from among the tag information displayed on the display unit according to an instruction from the user as the selected tag information,
The image extraction unit extracts, from the image group, an image to which all of the two or more selection tag information is attached as the search image;
The image display unit displays at least a portion of all the search images on the display unit,
The image processing device according to claim 4 , wherein the tag information display unit displays at least a part of all the tag information added to all the search images on the display unit.
画像検索部が、画像群の中から、前記ユーザからの指示に応じて入力された検索条件に一致する画像を検索画像として検索するステップと、
画像表示部が、前記画像群に含まれる画像を表示部に表示させるステップと、
画像指定部が、前記表示部に表示された画像の中から、前記ユーザからの指示に応じて選択された1の画像を指定するステップと、を含み、
前記検索条件は、前記画像群の中から、撮影時刻以外の条件により画像を検索するための条件であり、
前記表示部に表示された検索画像の中から、前記ユーザからの指示に応じて選択された1の検索画像を指定検索画像として指定し、
前記指定検索画像が指定された場合に、前記指定検索画像のみを前記表示部に表示させた後、前記ユーザからのワンアクションでの指示に応じて、前記指定検索画像と、前記画像群に含まれる、前記指定検索画像の撮影時刻の前後に撮影された画像の少なくとも一部と、を時系列画像として時系列により前記表示部に表示させ、
前記ユーザからのワンアクションでの指示は、前記指定検索画像の閲覧画面に表示されたボタンを押すことにより入力される、画像処理方法。 a step in which the instruction acquisition unit acquires instructions input by the user;
a step in which the image search unit searches for an image matching the search condition input in response to an instruction from the user from among the image group as a search image;
an image display unit displaying an image included in the image group on a display unit;
an image specifying unit specifying one image selected from among the images displayed on the display unit in response to an instruction from the user;
The search condition is a condition for searching for an image from the image group based on conditions other than shooting time,
designating one search image selected from among the search images displayed on the display unit in response to an instruction from the user as a specified search image;
When the specified search image is specified, after displaying only the specified search image on the display unit, the specified search image and the images included in the image group are displayed in response to a one-action instruction from the user. displaying at least some of the images photographed before and after the photographing time of the designated search image as time-series images on the display unit in chronological order;
An image processing method , wherein the one-action instruction from the user is input by pressing a button displayed on the viewing screen of the specified search image.
A computer-readable recording medium on which a program for causing a computer to execute each step of the image processing method according to claim 7 is recorded.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022063222A JP7375091B2 (en) | 2019-02-22 | 2022-04-06 | Image processing device, image processing method, program and recording medium |
JP2023182949A JP7561946B2 (en) | 2019-02-22 | 2023-10-25 | Image processing device, image processing method, program, and recording medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019030933A JP7129931B2 (en) | 2019-02-22 | 2019-02-22 | Image processing device, image processing method, program and recording medium |
JP2022063222A JP7375091B2 (en) | 2019-02-22 | 2022-04-06 | Image processing device, image processing method, program and recording medium |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019030933A Division JP7129931B2 (en) | 2019-02-22 | 2019-02-22 | Image processing device, image processing method, program and recording medium |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023182949A Division JP7561946B2 (en) | 2019-02-22 | 2023-10-25 | Image processing device, image processing method, program, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022082696A JP2022082696A (en) | 2022-06-02 |
JP7375091B2 true JP7375091B2 (en) | 2023-11-07 |
Family
ID=72141649
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019030933A Active JP7129931B2 (en) | 2019-02-22 | 2019-02-22 | Image processing device, image processing method, program and recording medium |
JP2022063222A Active JP7375091B2 (en) | 2019-02-22 | 2022-04-06 | Image processing device, image processing method, program and recording medium |
JP2023182949A Active JP7561946B2 (en) | 2019-02-22 | 2023-10-25 | Image processing device, image processing method, program, and recording medium |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019030933A Active JP7129931B2 (en) | 2019-02-22 | 2019-02-22 | Image processing device, image processing method, program and recording medium |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023182949A Active JP7561946B2 (en) | 2019-02-22 | 2023-10-25 | Image processing device, image processing method, program, and recording medium |
Country Status (3)
Country | Link |
---|---|
US (2) | US11789995B2 (en) |
JP (3) | JP7129931B2 (en) |
CN (2) | CN116939359A (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102605070B1 (en) * | 2020-07-06 | 2023-11-24 | 한국전자통신연구원 | Apparatus for Learning Recognition Model, Apparatus for Analyzing Video and Apparatus for Providing Video Searching Service |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006031530A (en) | 2004-07-20 | 2006-02-02 | Konica Minolta Photo Imaging Inc | Retrieval system |
JP2006107260A (en) | 2004-10-07 | 2006-04-20 | Sony Corp | Content management system, content management method, and computer program |
JP2009124270A (en) | 2007-11-12 | 2009-06-04 | Canon Inc | Information processor and its control method, computer program |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5216591B2 (en) | 2005-09-30 | 2013-06-19 | ティーピー ビジョン ホールディング ビー ヴィ | Method and apparatus for enabling browsing of images |
JP2008165424A (en) | 2006-12-27 | 2008-07-17 | Sony Corp | Image retrieval device and method, imaging device and program |
JP2011054075A (en) * | 2009-09-04 | 2011-03-17 | Olympus Imaging Corp | Image control apparatus and program |
JP6351219B2 (en) | 2012-08-23 | 2018-07-04 | キヤノン株式会社 | Image search apparatus, image search method and program |
JP6031924B2 (en) | 2012-09-28 | 2016-11-24 | オムロン株式会社 | Image search apparatus, image search method, control program, and recording medium |
JP5998807B2 (en) | 2012-09-28 | 2016-09-28 | 株式会社メルコホールディングス | Information processing system, information processing apparatus, information processing method, and information processing program |
US20150116540A1 (en) | 2013-10-28 | 2015-04-30 | Jordan Gilman | Method and apparatus for applying a tag/identification to a photo/video immediately after capture |
US9778817B2 (en) * | 2013-12-31 | 2017-10-03 | Findo, Inc. | Tagging of images based on social network tags or comments |
US9886182B1 (en) | 2014-04-28 | 2018-02-06 | Sprint Spectrum L.P. | Integration of image-sifting with lock-screen interface |
US10176201B2 (en) * | 2014-10-17 | 2019-01-08 | Aaron Johnson | Content organization and categorization |
EP3065067A1 (en) | 2015-03-06 | 2016-09-07 | Captoria Ltd | Anonymous live image search |
US10277693B2 (en) * | 2015-06-04 | 2019-04-30 | Twitter, Inc. | Trend detection in a messaging platform |
JP6147825B2 (en) | 2015-09-29 | 2017-06-14 | 株式会社東芝 | Electronic apparatus and method |
JP2017067945A (en) * | 2015-09-29 | 2017-04-06 | 富士フイルム株式会社 | Image processing device, image processing method, program and recording medium |
-
2019
- 2019-02-22 JP JP2019030933A patent/JP7129931B2/en active Active
-
2020
- 2020-01-22 US US16/748,889 patent/US11789995B2/en active Active
- 2020-02-13 CN CN202310889876.5A patent/CN116939359A/en active Pending
- 2020-02-13 CN CN202010091881.8A patent/CN111614889B/en active Active
-
2022
- 2022-04-06 JP JP2022063222A patent/JP7375091B2/en active Active
-
2023
- 2023-09-11 US US18/464,410 patent/US20240004922A1/en active Pending
- 2023-10-25 JP JP2023182949A patent/JP7561946B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006031530A (en) | 2004-07-20 | 2006-02-02 | Konica Minolta Photo Imaging Inc | Retrieval system |
JP2006107260A (en) | 2004-10-07 | 2006-04-20 | Sony Corp | Content management system, content management method, and computer program |
JP2009124270A (en) | 2007-11-12 | 2009-06-04 | Canon Inc | Information processor and its control method, computer program |
Non-Patent Citations (3)
Title |
---|
AIX RISCシステム/6000 AIXWindows OSF/Motif プログラマーズ ガイド,日本,日本アイ・ビー・エム株式会社,2002年12月24日,リリース1.1,pp. 6-13 ~ 6-14,N:SC18-0891-00 |
ウィンドウズの最深部に切り込む 超絶レジストリカスタマイズ術,週刊アスキー,日本,株式会社アスキー・メディアワークス,2008年12月16日,通巻715号,p. 192 |
戸田 覚,戸田覚のLifehack デジタルツールの活用で仕事はこんなにスマートになる!,PC-Webzine,日本,PC-Webzine編集局,2018年06月25日,通巻第317号,pp. 52-53 |
Also Published As
Publication number | Publication date |
---|---|
US11789995B2 (en) | 2023-10-17 |
US20200272652A1 (en) | 2020-08-27 |
JP2023184586A (en) | 2023-12-28 |
JP2022082696A (en) | 2022-06-02 |
CN111614889A (en) | 2020-09-01 |
CN111614889B (en) | 2023-08-08 |
JP7561946B2 (en) | 2024-10-04 |
JP7129931B2 (en) | 2022-09-02 |
US20240004922A1 (en) | 2024-01-04 |
CN116939359A (en) | 2023-10-24 |
JP2020135658A (en) | 2020-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7034969B2 (en) | Image processing equipment, image processing methods, programs and recording media | |
US11741156B2 (en) | Method for proactive creation of image-based products | |
US8811775B1 (en) | Visualizing digital images on a map | |
JP5611829B2 (en) | Operation control system and operation control method for information processing apparatus | |
JP7561946B2 (en) | Image processing device, image processing method, program, and recording medium | |
US11935165B2 (en) | Proactive creation of personalized products | |
JP2010218371A (en) | Server system, terminal device, program, information storage medium, and image retrieval method | |
JP7309944B2 (en) | Image processing device, image processing method, program and recording medium | |
KR20080095324A (en) | Comic-strip production service system | |
CN104917953B (en) | Photo group generation and operation method and device using same | |
CN110968710B (en) | Image processing device, image processing method, and image processing program | |
JP6622662B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
JP2009003601A (en) | Object retrieval system | |
JP2020052447A (en) | Image presentation apparatus, image presentation method, program, and recording medium | |
JP2015011450A (en) | Image display method and system | |
US20240265597A1 (en) | Proactive creation of personalized products | |
CN112307238A (en) | Image management method and device and electronic equipment | |
JP2015212986A (en) | Method and program for screen transition | |
KR20110070505A (en) | Method for searching image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220413 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220413 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230315 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230322 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230512 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230711 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230908 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230926 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231025 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7375091 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |