JP2021140496A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2021140496A
JP2021140496A JP2020038140A JP2020038140A JP2021140496A JP 2021140496 A JP2021140496 A JP 2021140496A JP 2020038140 A JP2020038140 A JP 2020038140A JP 2020038140 A JP2020038140 A JP 2020038140A JP 2021140496 A JP2021140496 A JP 2021140496A
Authority
JP
Japan
Prior art keywords
image
user
subject
image processing
composition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020038140A
Other languages
Japanese (ja)
Inventor
敏夫 竹内
Toshio Takeuchi
敏夫 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020038140A priority Critical patent/JP2021140496A/en
Publication of JP2021140496A publication Critical patent/JP2021140496A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

To provide an image processing apparatus which presents a composition so that a user can reproduce the composition of a picture popular on social network, etc., an image processing method and a program.SOLUTION: A method of an image processing apparatus includes: recognizing an attribute of a subject included in an input image input by a user, and a situation in which the input image was captured; acquiring an image based on a preference of the user, from among images posted on a service on a network, having a predetermined value evaluated in the service; recognizing an attribute of a subject included in the acquired image and the situation where the image was captured; estimating whether the composition of the acquired image can be reproduced or not on the basis of a result of recognizing the input image and a result of recognizing the acquired image; and outputting a method for taking a picture in the composition of the acquired image, to the user, on the basis of a result of estimation.SELECTED DRAWING: Figure 5

Description

本発明は、写真撮影時に、最適な構図で写真を撮るための技術に関する。 The present invention relates to a technique for taking a picture with an optimum composition at the time of taking a picture.

デジタルカメラやスマートフォンの普及により、写真を撮ることが一般的になってきた。一般的に写真の構図として良いとされている構図は黄金分割構図、消失点構図、黄金螺旋構図等数多く存在する。しかし、ユーザがどの構図でとれば良いか判断するのは難しい課題だった。そこで、ユーザにどのような構図が良いか提示する技術が知られている。 With the spread of digital cameras and smartphones, it has become common to take pictures. There are many compositions that are generally considered to be good as a photographic composition, such as a golden section composition, a vanishing point composition, and a golden spiral composition. However, it was a difficult task for the user to decide which composition to take. Therefore, there is known a technique for presenting to the user what kind of composition is good.

例えば、特許文献1では、撮影状況を判断し、特定被写体を主被写体とした場合に推奨される推奨構図をユーザに知らせることができる。特許文献2、3も同様であり、被写体をもとに推奨構図を提示することができる。 For example, in Patent Document 1, it is possible to determine the shooting situation and inform the user of the recommended composition when a specific subject is the main subject. The same applies to Patent Documents 2 and 3, and a recommended composition can be presented based on the subject.

特開2010−213030JP-A-2010-21030 特開2014−192743JP-A-2014-192743 特開2013−102467JP 2013-102467

しかし、近年、SNS(写真投稿システム、短文投稿システム等)の普及により、デジタルカメラやスマートフォンで撮影した画像は、SNSにアップロードし、他の人から「いいね」という評価をもらうために用いられることが多くなってきた。そのため、ユーザが必要とする構図も、被写体や状況に応じた正しい構図から、現在人気がある写真・構図へと変化してきている。しかし、日々変更されるSNSの人気写真の構図を提示するような技術は存在していなかった。 However, in recent years, due to the spread of SNS (photo posting system, short text posting system, etc.), images taken with digital cameras and smartphones are uploaded to SNS and used to receive "like" evaluations from other people. Things are getting more and more. Therefore, the composition required by the user is also changing from the correct composition according to the subject and the situation to the currently popular photographs and compositions. However, there was no technology to present the composition of popular SNS photographs that change daily.

本発明はかかる問題に鑑みなされたものであり、ユーザが容易に、SNS等で人気のある写真の構図を再現できるように、その構図を提示する技術を提供することを目的とする。 The present invention has been made in view of such a problem, and an object of the present invention is to provide a technique for presenting a composition so that a user can easily reproduce a composition of a photograph popular in SNS or the like.

本発明に係る情報処理装置は、以下の構成を備えることを特徴とする。即ち、ユーザが入力した入力画像に写った被写体の属性と、前記入力画像を撮影した状況と、を認識する認識手段と、ネットワーク上のサービスに投稿された画像から、前記ユーザの嗜好に基づいた画像であって、前記サービスにおいて評価が所定値以上の画像を取得する取得手段と、前記取得した画像に写った被写体の属性と、当該画像を撮影した状況と、を認識する認識手段と、前記入力画像の認識結果と前記取得した画像の認識結果とに基づいて、前記取得した画像の構図を再現可能か推定する推定手段と、前記推定手段の推定結果に基づき、前記ユーザに、前記取得した画像の構図で写真を撮るための方法を出力する出力手段。 The information processing apparatus according to the present invention is characterized by having the following configurations. That is, based on the user's preference from the recognition means for recognizing the attribute of the subject reflected in the input image input by the user and the situation in which the input image was taken, and the image posted to the service on the network. An acquisition means for acquiring an image whose evaluation is equal to or higher than a predetermined value in the service, a recognition means for recognizing an attribute of a subject reflected in the acquired image, and a situation in which the image is taken, and the above-mentioned. Based on the recognition result of the input image and the recognition result of the acquired image, the estimation means for estimating whether the composition of the acquired image can be reproduced, and the estimation result of the estimation means, the user obtained the acquisition. An output means that outputs a method for taking a picture with the composition of an image.

本発明によれば、ユーザが容易にSNS等で人気写真の構図を再現できるようになる。 According to the present invention, a user can easily reproduce the composition of a popular photograph on SNS or the like.

類似画像を検索し再現性を判断する一例を示す図The figure which shows an example which searches a similar image and judges the reproducibility 再現性方法を提示する一例を示す図The figure which shows an example which presents the reproducibility method 実施形態1の画像処理装置の全体構成を示す図The figure which shows the whole structure of the image processing apparatus of Embodiment 1. 実施形態1の画像処理装置の内部構成を示すブロック図The block diagram which shows the internal structure of the image processing apparatus of Embodiment 1. 実施形態1の画像処理装置の処理を示すフローチャート図The flowchart which shows the processing of the image processing apparatus of Embodiment 1. 実施形態1のS504の動作を示すフローチャート図The flowchart which shows the operation of S504 of Embodiment 1.

以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせのすべてが本発明の解決手段に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. It should be noted that the following embodiments do not limit the present invention, and not all combinations of features described in the present embodiment are essential for the means for solving the present invention. The same configuration will be described with the same reference numerals.

[実施形態1]
まず、本実施形態の画像処理装置について説明する前に、本実施形態による効果について補足説明する。図1と図2は本実施形態の効果の一例を示す図である。
[Embodiment 1]
First, before explaining the image processing apparatus of this embodiment, the effect of this embodiment will be supplementarily described. 1 and 2 are diagrams showing an example of the effect of the present embodiment.

図1では、ユーザが撮影中の画像を利用して、SNSから再現性のある画像を取得する例である。SNSは、ネットワーク上のサービスであり、写真が投稿されている。図1(a)は、ユーザが撮影している画像である。図1(b)は、そこから被写体を抽出した例である。ここでは、人物1名とxxxビルを抽出している。図1(c)、図1(d)、図1(e)は、抽出された被写体を元にSNSから人気写真を検索した結果例である。人気があるとは、「いいね!」の数が所定値以上などの評価が高いことを示す。ここからさらに、再現性推定を行う。例えば、このケースでは、図1(c)は、人物が移動可能範囲にいないと推定し再現性NGと判断する。図1(d)は、建物が斜めになっているが、これはカメラを傾けることで再現できると推定し、再現性OKと判断する。図1(e)は、夜間に撮影されていることから、図1(a)を撮影している昼間には撮影できないと推定し、再現性NGと判断する。 FIG. 1 is an example of acquiring a reproducible image from an SNS by using an image being photographed by a user. SNS is a service on the network, and photos are posted. FIG. 1A is an image taken by the user. FIG. 1B is an example of extracting a subject from the subject. Here, one person and the xxx building are extracted. 1 (c), 1 (d), and 1 (e) are examples of results of searching popular photographs from SNS based on the extracted subject. "Popular" means that the number of "likes" is high, such as above a predetermined value. From here, reproducibility estimation is further performed. For example, in this case, FIG. 1C estimates that the person is not in the movable range and determines that the reproducibility is NG. In FIG. 1D, the building is slanted, but it is estimated that this can be reproduced by tilting the camera, and it is judged that the reproducibility is OK. Since FIG. 1 (e) is photographed at night, it is presumed that the photograph cannot be taken in the daytime when FIG. 1 (a) is photographed, and it is judged that the reproducibility is NG.

図2は、ユーザに再現方法を指示する手段の一例である。図1(d)の写真の画像を再現するための方法として、人物、ビルの位置の輪郭を枠線で重畳表示している。ユーザは、その輪郭にあうようにカメラの位置、人物の位置を調整することで、図1(d)の写真を再現できるようになる。 FIG. 2 is an example of means for instructing the user on the reproduction method. As a method for reproducing the image of the photograph of FIG. 1D, the outlines of the positions of people and buildings are superimposed and displayed with a frame line. The user can reproduce the photograph of FIG. 1 (d) by adjusting the position of the camera and the position of the person so as to match the contour.

では、本実施形態の画像処理装置について説明する。 Then, the image processing apparatus of this embodiment will be described.

図3は、画像処理装置の全体構成を示す図である。CPU302はシステム制御部であり画像処理装置全体を制御する。ROM303は画像処理プログラムや初期データなど変更を必要としないプログラムやパラメータを格納する読み取り専用のメモリである。RAM304は、入力情報や画像処理における演算結果などを一時的に記憶するためのメモリである。保持部305は、画像処理装置に固定して設置されたハードディスクやメモリカードあるいは、画像処理装置から着脱可能なメモリカードやフレキシブルディスク、ICカードなどである。入力検出部306は、所要のデータ入力を受け付ける。通信I/F307は、操作デバイスとクラウドなどの間でデータの送受信を行う。GPUボード308は、汎用グラフィックボードである。ディスプレイドライバ309は、表示部311を制御するためのソフトウェアである。映像入力部310は、外部からの映像を入力するセンターである。GPS取得部311は、GPS情報を取得する部品である。尚、本構成図はカメラを前提にしたものであり、スマートフォンなどの携帯端末は構成が異なる場合がある。本画像処理装置がスマートフォンの場合は、操作部312、表示部313を画像処理装置が有する。 FIG. 3 is a diagram showing the overall configuration of the image processing apparatus. The CPU 302 is a system control unit and controls the entire image processing device. The ROM 303 is a read-only memory for storing programs and parameters that do not require changes such as an image processing program and initial data. The RAM 304 is a memory for temporarily storing input information, calculation results in image processing, and the like. The holding unit 305 is a hard disk or memory card fixedly installed in the image processing device, or a memory card, flexible disk, IC card, etc. that can be attached to and detached from the image processing device. The input detection unit 306 receives the required data input. The communication I / F 307 transmits / receives data between the operating device and the cloud or the like. The GPU board 308 is a general-purpose graphic board. The display driver 309 is software for controlling the display unit 311. The video input unit 310 is a center for inputting video from the outside. The GPS acquisition unit 311 is a component that acquires GPS information. It should be noted that this configuration diagram is based on the premise of a camera, and the configuration of a mobile terminal such as a smartphone may be different. When the image processing device is a smartphone, the image processing device has an operation unit 312 and a display unit 313.

入力検出部306は、キーボードやマウス、タッチパネルからなり、自然な躍動感のある画像を作成するために必要な情報(例えば、人物領域に関する情報、衣服の種別や形状、素材に関する情報)や各種のコマンドを入力するものである。 The input detection unit 306 is composed of a keyboard, a mouse, and a touch panel, and includes information necessary for creating a natural and dynamic image (for example, information on a person area, information on a type and shape of clothes, information on a material) and various types of information. It is for inputting commands.

保持部305は、種々の情報の書き込みおよび読出しが可能な装置である。保持部305には、予め学習データとして各種被写体(人物、建物、自然物等の特徴)の学習データ、ユーザの嗜好リスト、被写体の属性(移動可否、大きさ、色等)、位置データ(地理上の位置、高さ等)リストが登録されている。 The holding unit 305 is a device capable of writing and reading various information. The holding unit 305 contains learning data of various subjects (characteristics of people, buildings, natural objects, etc.), user preference lists, subject attributes (movability, size, color, etc.), and position data (geographically) as learning data in advance. (Position, height, etc.) list is registered.

また、表示部313は、カメラの液晶画面やスマートフォンの表示デバイス等の電子ディスプレイデバイスから構成される。SNSから取得した再現可能画像や、ユーザに再現方法を表示するものである。 Further, the display unit 313 is composed of an electronic display device such as a liquid crystal screen of a camera or a display device of a smartphone. The reproducible image acquired from the SNS and the reproduction method are displayed to the user.

次に、本実施形態における画像処理装置の構成及び動作について説明する。 Next, the configuration and operation of the image processing device in this embodiment will be described.

画像処理装置の構成ブロック図を図4、動作フローチャートを図5に示す。以下、フローチャートは、CPUが制御プログラムを実行することにより実現されるものとする。 The block diagram of the image processing apparatus is shown in FIG. 4, and the operation flowchart is shown in FIG. Hereinafter, it is assumed that the flowchart is realized by the CPU executing the control program.

まず初めに、ステップS501において、画像データ取得部405は映像入力部310から取得した入力画像を、RAM304に保持する。次に、被写体検出部406は、被写体学習データリスト402をもとに、取得した画像の被写体を検出する。 First, in step S501, the image data acquisition unit 405 holds the input image acquired from the video input unit 310 in the RAM 304. Next, the subject detection unit 406 detects the subject of the acquired image based on the subject learning data list 402.

次にステップS502では、SNS検索条件作成部において、抽出された被写体を元にSNSへの検索条件を作成する。抽出した被写体を検索条件設定した上で、補正として、ユーザ嗜好学習データリスト403を元に、ユーザがどの被写体との類似性を重視するか、人気度の閾値はどの程度か等を元に、検索条件を補正する。その後、ネットワーク通信部307を利用して、ネットワークを介して通信し、SNS上に投稿されている写真から、画像を取得する。 Next, in step S502, the SNS search condition creation unit creates a search condition for the SNS based on the extracted subject. After setting the search conditions for the extracted subject, as a correction, based on the user preference learning data list 403, based on which subject the user attaches importance to, what is the threshold of popularity, etc. Correct the search conditions. After that, the network communication unit 307 is used to communicate via the network, and an image is acquired from the photograph posted on the SNS.

次にステップS503では、SNS上に投稿されている写真から取得した画像に対し、ステップS501と同様に、被写体検出部406を用いて、被写体を検出する。 Next, in step S503, the subject is detected by using the subject detection unit 406 in the same manner as in step S501 with respect to the image acquired from the photograph posted on the SNS.

次にステップS504では、再現性推定部408が、ステップS501、ステップS503で認識した被写体、状況認識、被写体属性、位置データリスト404、カメラの位置情報としてGPS情報取得部311などの認識結果を元に再現性を推定する。この処理の詳細は後述する。 Next, in step S504, the reproducibility estimation unit 408 is based on the recognition results of the subject recognized in steps S501 and S503, the situation recognition, the subject attribute, the position data list 404, the GPS information acquisition unit 311 as the camera position information, and the like. Estimate the reproducibility. The details of this process will be described later.

次に、ステップS505では、ユーザに画像表示部313に表示された再現可能画像の内、どの画像を再現したいかを操作部312を通してユーザに選択させる。 Next, in step S505, the user is made to select which image he / she wants to reproduce among the reproducible images displayed on the image display unit 313 through the operation unit 312.

次に、ステップS506では、再現方法作成部409において、再現対象にした画像から被写体の輪郭だけを取り出して、画面表示部313に重畳表示する。画面表示部に表示して構図を指示する以外にも、音声で指示を出力することもできる。 Next, in step S506, the reproduction method creation unit 409 extracts only the outline of the subject from the image to be reproduced, and superimposes and displays it on the screen display unit 313. In addition to displaying on the screen display and instructing the composition, it is also possible to output instructions by voice.

また、平行してステップS507を実行し、ユーザ嗜好解析部401において、ステップS505でユーザ選択した判断を元に、ユーザが何の被写体について優先度が高いと判断したかを、選ばれた画像と選ばれなかった画像を比較し推定する。そして、その推定結果を元にユーザ嗜好学習データリスト403を更新する。 Further, step S507 is executed in parallel, and the user preference analysis unit 401 determines which subject the user has determined to have high priority based on the determination selected by the user in step S505 with the selected image. Compare and estimate the unselected images. Then, the user preference learning data list 403 is updated based on the estimation result.

<再現性推定部>
次に、ステップS504における、再現性推定処理を図6のフローチャートを使って詳細に説明する。
<Reproducibility estimation unit>
Next, the reproducibility estimation process in step S504 will be described in detail using the flowchart of FIG.

ステップS601で、移動可能な被写体に対する再現性を推定する。移動可能な被写体に対し、数、種類が一致しているかを判定する。また、移動可能な被写体であっても、どこへでも移動できるわけではないので、ユーザが撮影した画像と比較して、被写体の地面からの高さの差が閾値範囲内、横方向の移動が閾値範囲内かを判定する。ここで全てOKと判定したら、S603に進む。もし1つでもNGであれば、S602に進む。 In step S601, the reproducibility for a movable subject is estimated. It is determined whether the number and type of the movable subject match. Also, even if the subject is movable, it cannot be moved anywhere, so the difference in height of the subject from the ground is within the threshold range and the movement in the lateral direction is within the threshold range compared to the image taken by the user. Determine if it is within the threshold range. If it is determined that everything is OK here, the process proceeds to S603. If even one is NG, proceed to S602.

ステップS602では、S601での判定でNGとなった場合でも、各判定を重みづけ処理した結果、差が閾値範囲内かを判定する。OKであればS603に進む。NGであれば、S608に進む。 In step S602, even if the determination in S601 is NG, it is determined whether the difference is within the threshold range as a result of weighting each determination. If it is OK, proceed to S603. If it is NG, proceed to S608.

ステップS603では、移動不可な被写体に対する再現性を推定する。移動不可な被写体に関し、カメラの向き・拡大率変更などで再現できる状態にできるかを判定する。まず地理上の位置を被写体属性、位置データリスト404を元に各移動不可な被写体の地理上の位置を取得する。次に、GPS取得部311により、カメラの地理上の位置を取得する。カメラの位置の地理上の位置を変更せずに、各移動不可な被写体を向き、拡大率変更によりカメラの撮影範囲内に収められるかを計算し、判定する。また、被写体の角度に関しても推定し、カメラの推定される高さと比較し、閾値範囲内かを計算し、判定する。ここで全てOKであればS605に進む。もし1つでもNGであれば、S604に進む。 In step S603, the reproducibility for a non-movable subject is estimated. It is determined whether or not the immovable subject can be reproduced by changing the direction and magnification of the camera. First, the geographical position is acquired based on the subject attribute and the position data list 404, and the geographical position of each immovable subject is acquired. Next, the GPS acquisition unit 311 acquires the geographical position of the camera. Without changing the geographical position of the camera position, each immovable subject is turned, and it is calculated and determined whether or not it can be within the shooting range of the camera by changing the magnification. In addition, the angle of the subject is also estimated, compared with the estimated height of the camera, and whether it is within the threshold range is calculated and determined. If everything is OK here, proceed to S605. If even one is NG, proceed to S604.

ステップS604では、S603での判定でNGとなった場合でも、各判定を重みづけ処理した結果、差が閾値範囲内かを判定する。OKであればS605に進む。NGであれば、S608に進む。 In step S604, even if the determination in S603 is NG, it is determined whether the difference is within the threshold range as a result of weighting each determination. If it is OK, proceed to S605. If it is NG, proceed to S608.

ステップS605では、撮影時間帯、天候が一致しているか判定する。撮影時間帯が同じくらいかを判定するために明るさや空の色をもとに差異を計算し、判定する。また、天候に関しても空の状態、地面の状態から天候を推定し、判定する。全てOKであればS607に進む。もし1つでもNGであればS606に進む。 In step S605, it is determined whether the shooting time zone and the weather match. The difference is calculated and judged based on the brightness and the color of the sky in order to judge whether the shooting time zones are the same. Also, regarding the weather, the weather is estimated and judged from the condition of the sky and the condition of the ground. If everything is OK, proceed to S607. If even one is NG, proceed to S606.

ステップS606では、S605での判定でNGとなった場合でも、各判定を重みづけ処理した結果、差が閾値範囲内かを判定する。OKであればS607に進む。NGであれば、S608に進む。 In step S606, even if the determination in S605 is NG, it is determined whether the difference is within the threshold range as a result of weighting each determination. If it is OK, proceed to S607. If it is NG, proceed to S608.

ステップS607に進んだ場合は、再現性OKと判断し、ユーザに再現可能画像として画像表示部313に表示する。 When the process proceeds to step S607, it is determined that the reproducibility is OK, and the image is displayed on the image display unit 313 as a reproducible image by the user.

ステップS608に進んだ場合は、再現性NGと判断し、ユーザに再現可能画像がなかったことを、画像表示部313に表示する。 When the process proceeds to step S608, it is determined that the reproducibility is NG, and the fact that the user does not have a reproducible image is displayed on the image display unit 313.

[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。すなわち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。また、本発明は、複数のプロセッサが連携して処理を行うことによっても実現できるものである。
[Other Embodiments]
The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiment is supplied to the system or device via a network or various storage media, and the computer (or CPU, MPU, etc.) of the system or device reads the program. This is the process to be executed. Further, the present invention can also be realized by performing processing in cooperation with a plurality of processors.

また、以上述べた実施形態はすべて本発明を例示的に示すものであって限定的に示すものではなく、本発明は他の種々の変形態様および変更態様で実施することができる。 In addition, all of the above-described embodiments are illustrative and not limited to the present invention, and the present invention can be carried out in various other modifications and modifications.

Claims (11)

ユーザが入力した入力画像に写った被写体の属性と、前記入力画像を撮影した状況と、を認識する認識手段と、
ネットワーク上のサービスに投稿された画像から、前記ユーザの嗜好に基づいた画像であって、前記サービスにおいて評価が所定値以上の画像を取得する取得手段と、
前記取得した画像に写った被写体の属性と、当該画像を撮影した状況と、を認識する認識手段と、
前記入力画像の認識結果と前記取得した画像の認識結果とに基づいて、前記取得した画像の構図を再現可能か推定する推定手段と、
前記推定手段の推定結果に基づき、前記ユーザに、前記取得した画像の構図で写真を撮るための方法を出力する出力手段を備える画像処理装置。
A recognition means for recognizing the attributes of the subject reflected in the input image input by the user and the situation in which the input image was taken.
An acquisition means for acquiring an image based on the user's preference from an image posted to a service on the network and having an evaluation of a predetermined value or more in the service.
A recognition means for recognizing the attributes of the subject reflected in the acquired image and the situation in which the image was taken.
An estimation means for estimating whether or not the composition of the acquired image can be reproduced based on the recognition result of the input image and the recognition result of the acquired image.
An image processing device including an output means for outputting to the user a method for taking a picture with the composition of the acquired image based on the estimation result of the estimation means.
前記被写体の属性は、人物、自然物、建物の少なくとも何れかの特徴が予め登録されたデータを参照して、認識することを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the attribute of the subject is recognized by referring to data in which at least one of the features of a person, a natural object, and a building is registered in advance. 前記状況として、予め登録された自然物、建物の位置情報と、画像が撮影された時間と、の少なくとも何れかであることを特徴とする請求項1または2に記載の画像処理装置。 The image processing apparatus according to claim 1 or 2, wherein the situation is at least one of a pre-registered position information of a natural object or a building and a time when an image is taken. 前記推定手段は、ユーザが入力画像を撮影中に、被写体の移動またはカメラの操作によって、前記取得した画像の構図を再現できるかを推定することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。 Any one of claims 1 to 3, wherein the estimation means estimates whether the composition of the acquired image can be reproduced by moving the subject or operating the camera while the user is capturing the input image. The image processing apparatus according to the section. 前記推定手段は、前記取得した画像の構図を再現する方法を推定することを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 4, wherein the estimation means estimates a method of reproducing the composition of the acquired image. 前記出力手段は、前記取得した画像における被写体の領域を示す情報を表示手段に表示することを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 5, wherein the output means displays information indicating an area of a subject in the acquired image on the display means. 前記表示手段には、前記取得した画像において前記被写体が存在する領域を、前記入力画像に枠線で重畳して示すことを特徴とする請求項6に記載の画像処理装置。 The image processing apparatus according to claim 6, wherein the display means shows a region in which the subject exists in the acquired image by superimposing it on the input image with a frame line. 前記ユーザの嗜好は、前記ユーザが重視する被写体についての情報、前記評価の閾値の情報の少なくとも何れかを含むことを特徴とする請求項1乃至7の何れか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 7, wherein the user's preference includes at least one of information about a subject that the user attaches great importance to and information about a threshold value for evaluation. 前記ユーザの嗜好は、保持手段に保持され、前記ユーザが前記出力手段による指示に従って写真を撮ったことと、撮らなかったことに基づいて、前記保持手段に保持されている前記ユーザの嗜好が更新されることを特徴とする請求項1乃至8の何れか1項に記載の画像処理装置。 The user's preference is held by the holding means, and the user's preference held by the holding means is updated based on that the user took a picture according to the instruction by the output means and did not take a picture. The image processing apparatus according to any one of claims 1 to 8, wherein the image processing apparatus is used. ユーザが入力した入力画像に写った被写体の属性と、前記入力画像を撮影した状況と、を認識する認識工程と、
ネットワーク上のサービスに投稿された画像から、前記ユーザの嗜好に基づいた画像であって、前記サービスにおいて評価が所定値以上の画像を取得する取得工程と、
前記取得した画像に写った被写体の属性と、当該画像を撮影した状況と、を認識する認識工程と、
前記入力画像の認識結果と前記取得した画像の認識結果とに基づいて、前記取得した画像の構図を再現可能か推定する推定工程と、
前記推定手段の推定結果に基づき、前記ユーザに、前記取得した画像の構図で写真を撮るための方法を出力する出力工程と、を備える画像処理方法。
A recognition process that recognizes the attributes of the subject in the input image input by the user and the situation in which the input image was taken.
An acquisition process of acquiring an image based on the user's preference from an image posted to a service on the network and having an evaluation of a predetermined value or more in the service.
A recognition process for recognizing the attributes of the subject reflected in the acquired image and the situation in which the image was taken.
An estimation step of estimating whether or not the composition of the acquired image can be reproduced based on the recognition result of the input image and the recognition result of the acquired image.
An image processing method comprising an output step of outputting to the user a method for taking a picture with the composition of the acquired image based on the estimation result of the estimation means.
コンピュータを、
ユーザが入力した入力画像に写った被写体の属性と、前記入力画像を撮影した状況と、を認識する認識手段と、
ネットワーク上のサービスに投稿された画像から、前記ユーザの嗜好に基づいた画像であって、前記サービスにおいて評価が所定値以上の画像を取得する取得手段と、
前記取得した画像に写った被写体の属性と、当該画像を撮影した状況と、を認識する認識手段と、
前記入力画像の認識結果と前記取得した画像の認識結果とに基づいて、前記取得した画像の構図を再現可能か推定する推定手段と、
前記推定手段の推定結果に基づき、前記ユーザに、前記取得した画像の構図で写真を撮るための方法を出力する出力手段と、として機能させるプログラム。
Computer,
A recognition means for recognizing the attributes of the subject reflected in the input image input by the user and the situation in which the input image was taken.
An acquisition means for acquiring an image based on the user's preference from an image posted to a service on the network and having an evaluation of a predetermined value or more in the service.
A recognition means for recognizing the attributes of the subject reflected in the acquired image and the situation in which the image was taken.
An estimation means for estimating whether or not the composition of the acquired image can be reproduced based on the recognition result of the input image and the recognition result of the acquired image.
A program that causes the user to function as an output means for outputting a method for taking a picture with the composition of the acquired image based on the estimation result of the estimation means.
JP2020038140A 2020-03-05 2020-03-05 Image processing apparatus, image processing method, and program Pending JP2021140496A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020038140A JP2021140496A (en) 2020-03-05 2020-03-05 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020038140A JP2021140496A (en) 2020-03-05 2020-03-05 Image processing apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2021140496A true JP2021140496A (en) 2021-09-16

Family

ID=77668718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020038140A Pending JP2021140496A (en) 2020-03-05 2020-03-05 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2021140496A (en)

Similar Documents

Publication Publication Date Title
US10264177B2 (en) Methods and systems to obtain desired self-pictures with an image capture device
RU2651240C1 (en) Method and device for processing photos
KR101788499B1 (en) Photo composition and position guidance in an imaging device
KR101605983B1 (en) Image recomposition using face detection
CN110100251B (en) Apparatus, method, and computer-readable storage medium for processing document
US9225947B2 (en) Image pickup apparatus, method of providing composition of image pickup and computer-readable recording medium
US20170285916A1 (en) Camera effects for photo story generation
EP2920758B1 (en) Rotation of an image based on image content to correct image orientation
US9582731B1 (en) Detecting spherical images
US8867088B2 (en) Information processing apparatus for selecting a template in which at least one image is to be arranged, control method of information processing apparatus for selecting a template in which at least one image is to be arranged, and storage medium storing a program for selecting a template in which at least one image is to be arranged
CN103916587A (en) Photographing device for producing composite image and method using the same
US10282862B2 (en) Digital image generation and capture hint data
US9953220B2 (en) Cutout object merge
US9424765B2 (en) Image processing apparatus, image processing method, and program
CN111415302B (en) Image processing method, device, storage medium and electronic equipment
US10122912B2 (en) Device and method for detecting regions in an image
CN110569835B (en) Image recognition method and device and electronic equipment
JP2014050022A (en) Image processing device, imaging device, and program
CN107147786B (en) Image acquisition control method and device for intelligent terminal
JP2021140496A (en) Image processing apparatus, image processing method, and program
EP2800349B1 (en) Method and electronic device for generating thumbnail image
JP2005316958A (en) Red eye detection device, method, and program
CN113056905B (en) System and method for photographing tele-like image
JP2017069911A (en) Imaging system, composition setting apparatus and composition setting program
KR102628714B1 (en) Photography system for surpporting to picture for mobile terminal and method thereof

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20200616