JP7533011B2 - Information processing device, program, and information processing method - Google Patents
Information processing device, program, and information processing method Download PDFInfo
- Publication number
- JP7533011B2 JP7533011B2 JP2020139493A JP2020139493A JP7533011B2 JP 7533011 B2 JP7533011 B2 JP 7533011B2 JP 2020139493 A JP2020139493 A JP 2020139493A JP 2020139493 A JP2020139493 A JP 2020139493A JP 7533011 B2 JP7533011 B2 JP 7533011B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- aspect ratio
- area
- region
- clipping range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 55
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000000034 method Methods 0.000 claims description 84
- 230000008569 process Effects 0.000 claims description 71
- 238000004364 calculation method Methods 0.000 claims description 25
- 238000001514 detection method Methods 0.000 claims description 14
- 238000010586 diagram Methods 0.000 description 20
- 238000004891 communication Methods 0.000 description 8
- 239000000284 extract Substances 0.000 description 5
- 241000282326 Felis catus Species 0.000 description 4
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 241000293841 Antirrhinum cyathiferum Species 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003442 weekly effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、情報処理装置、プログラム及び情報処理方法に関する。 The present invention relates to an information processing device, a program, and an information processing method.
特許文献1では、画像の幅、高さ及び解像度に基づいて予め設定されたルールに従ってレイアウト枠のサイズを決定し、決定したレイアウト枠に画像をはめ込むことにより、画像の表示サイズを自動調整する技術が開示されている。
特許文献1に開示された技術では、レイアウト枠のサイズを決定するためのルールを予め設定しておく必要があり、ルールを設定する際の処理負担が大きい。また、画像のアスペクト比とレイアウト枠のアスペクト比とが大きく異なる場合には、レイアウト枠にはめ込んだ画像に違和感が生じる虞がある。
The technology disclosed in
本発明は、このような事情に鑑みてなされたものであり、その目的とするところは、処理負担が増大することなく、被写体(対象物)を指定された表示サイズで適切に表示することが可能な情報処理装置等を提供することにある。 The present invention has been made in consideration of these circumstances, and its purpose is to provide an information processing device etc. that can properly display a subject (object) at a specified display size without increasing the processing load.
本発明の一態様に係る情報処理装置は、対象物を含む画像を取得する画像取得部と、前記対象物を表示する表示領域のアスペクト比を取得するアスペクト比取得部と、前記画像から前記対象物を検出し、検出した前記対象物の領域のアスペクト比及び前記表示領域のアスペクト比を比較する比較部と、前記対象物の領域のアスペクト比及び前記表示領域のアスペクト比が異なる場合に、前記表示領域のアスペクト比を有する前記対象物の領域を順次切り替える切替部と、切り替えた領域に基づいて切り出した画像と前記対象物との関連度に基づいて、切り替える領域を特定する特定部とを備える。 An information processing device according to one aspect of the present invention includes an image acquisition unit that acquires an image including an object, an aspect ratio acquisition unit that acquires the aspect ratio of a display area in which the object is displayed, a comparison unit that detects the object from the image and compares the aspect ratio of the detected object area with the aspect ratio of the display area, a switching unit that sequentially switches the object area having the aspect ratio of the display area when the aspect ratio of the object area differs from the aspect ratio of the display area, and an identification unit that identifies the area to be switched based on the relevance between the object and an image cut out based on the switched area.
本発明の一態様にあっては、処理負担が増大することなく、被写体(対象物)を指定された表示サイズで適切に表示することができる。 In one aspect of the present invention, a subject (object) can be appropriately displayed at a specified display size without increasing the processing load.
以下に、本開示の情報処理装置、プログラム及び情報処理方法について、その実施形態を示す図面に基づいて詳述する。 The information processing device, program, and information processing method disclosed herein are described in detail below with reference to drawings showing embodiments thereof.
(実施形態1)
被写体(対象物)を撮影した画像から、被写体に対する視認性が高い領域を抽出(クリッピング)して投稿用画像を生成する情報処理装置について説明する。図1は情報処理装置の構成例を示すブロック図ある。情報処理装置10は、種々の情報処理及び情報の送受信が可能な装置であり、例えばスマートフォン、タブレット端末、パーソナルコンピュータ、サーバコンピュータ等である。また情報処理装置10は、大型計算機上で動作する仮想マシン、クラウドコンピューティングシステム、量子コンピュータ等によって構成されてもよく、専用の端末によって構成されてもよい。本実施形態の情報処理装置10は、例えばSNS(Social Networking Service )に画像(撮影画像)を投稿する際に、画像から、被写体に対する視認性が高い領域をクリッピングして投稿用画像を生成する。なお、処理対象の画像はSNS投稿用の画像に限定されず、書籍、雑誌、週刊誌、パンフレット、カタログ、新聞、メニュー、チラシ等、任意の媒体用の画像であってもよく、また媒体は、紙媒体であっても、電子書籍等のデジタル型の媒体であってもよい。また、処理対象の画像は写真であっても、イラストであってもよい。
(Embodiment 1)
An information processing device that generates an image for posting by extracting (clipping) an area with high visibility to a subject from an image of a photographed subject (object) will be described. FIG. 1 is a block diagram showing an example of the configuration of an information processing device. The
情報処理装置10は、制御部11、記憶部12、通信部13、入力部14、表示部15、カメラ16、読み取り部17等を含み、これらの各部はバスを介して相互に接続されている。制御部11は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)又はGPU(Graphics Processing Unit)等の1又は複数のプロセッサを含む。制御部11は、記憶部12に記憶してある制御プログラム12Pを適宜実行することにより、本開示の情報処理装置が行うべき種々の情報処理及び制御処理を行う。
The
記憶部12は、RAM(Random Access Memory)、フラッシュメモリ、ハードディスク、SSD(Solid State Drive)等を含む。記憶部12は、制御部11が実行する制御プログラム12P及び制御プログラム12Pの実行に必要な各種のデータ等を予め記憶している。また記憶部12は、制御部11が制御プログラム12Pを実行する際に発生するデータ等を一時的に記憶する。更に記憶部12は、画像から投稿用画像を生成するための画像編集アプリケーションプログラム12AP(以下では、画像編集アプリ12APという)を記憶する。
The
通信部13は、有線通信又は無線通信によってインターネット等のネットワークに接続するためのインタフェースを有し、ネットワークを介して他の装置との間で情報の送受信を行う。入力部14は、情報処理装置10を操作するユーザによる操作入力を受け付け、操作内容に対応した制御信号を制御部11へ送出する。表示部15は、液晶ディスプレイ又は有機ELディスプレイ等であり、制御部11からの指示に従って各種の情報を表示する。入力部14及び表示部15は一体として構成されたタッチパネルであってもよい。
The
カメラ16は、レンズ及び撮像素子等を有する撮像装置であり、レンズを介して被写体像の画像データを取得する。カメラ16は、制御部11からの指示に従って撮影を行い、例えば1枚(1フレーム)の画像データ(静止画像)を取得し、取得した画像データを記憶部12に記憶する。なお、カメラ16は、情報処理装置10に内蔵される構成のほかに、情報処理装置10に外付けされる構成でもよい。この場合、情報処理装置10は、外部カメラの接続が可能な接続部又は外部カメラとの有線通信又は無線通信を行うためのカメラ通信部を備え、外部カメラが撮影した画像データを接続部又はカメラ通信部を介して取得する。本実施形態の情報処理装置10は、カメラ16を備えていなくてもよく、他の情報処理装置又はカメラで撮影された画像データをネットワーク経由又は可搬型記憶媒体1a経由で取得する構成でもよい。
The
読み取り部17は、CD(Compact Disc)-ROM、DVD(Digital Versatile Disc)-ROM、USB(Universal Serial Bus)メモリ、SD(Secure Digital)カード等を含む可搬型記憶媒体1aに記憶された情報を読み取る。記憶部12に記憶される制御プログラム12P、画像編集アプリ12AP及び各種のデータは、制御部11が読み取り部17を介して可搬型記憶媒体1aから読み取って記憶部12に記憶してもよい。また、記憶部12に記憶される制御プログラム12P、画像編集アプリ12AP及び各種のデータは、制御部11が通信部13を介して他の装置からダウンロードして記憶部12に記憶してもよい。
The
以下に、本実施形態の情報処理装置10が画像(撮影画像)から投稿用画像を生成する処理について説明する。図2は画像編集処理を説明するための模式図である。本実施形態の情報処理装置10は、編集対象の撮影画像と、編集後の投稿用画像のアスペクト比(画像の横方向の長さ:縦方向の長さ)とを入力データとし、撮影画像から、被写体の視認性が良好であり、且つ入力(設定)されたアスペクト比の領域を抽出して投稿用画像(出力データ)を生成する。よって、ユーザが撮影した画像から、被写体が見易い状態で表示される投稿用画像が生成される。
The process in which the
図3及び図4は画像編集処理手順の一例を示すフローチャート、図5~図7は画像編集処理を説明するための模式図である。図4に示すスコア算出処理は、図3に示す画像編集処理中の「スコア算出処理」である。以下の処理は、情報処理装置10の記憶部12に記憶してある制御プログラム12P及び画像編集アプリ12APに従って制御部11によって実行される。以下の処理の一部を専用のハードウェア回路で実現してもよい。
Figures 3 and 4 are flowcharts showing an example of an image editing process procedure, and Figures 5 to 7 are schematic diagrams for explaining the image editing process. The score calculation process shown in Figure 4 is the "score calculation process" during the image editing process shown in Figure 3. The following process is executed by the
本実施形態の情報処理装置10において、ユーザは、被写体(対象物)を撮影した画像をSNS等に投稿する際に、入力部14を介して所定の操作を行い、撮影画像と投稿用画像のアスペクト比とを指定し、投稿用画像の生成処理の実行指示を行う。なお、例えば投稿先のSNSに応じて予め投稿用画像のアスペクト比が設定されている場合、ユーザは、撮影画像のみを指定すればよい。情報処理装置10の制御部11(画像取得部)は、入力部14を介して投稿用画像の生成処理の実行指示を受け付けた場合、指定された撮影画像を取得する(S11)。例えば撮影画像が記憶部12に記憶してある場合、制御部11は、撮影画像を記憶部12から読み出す。撮影画像は、カメラ16で撮影された画像に限定されず、他の装置のカメラで撮影されてネットワーク経由又は可搬型記憶媒体1a経由で記憶部12に記憶された画像であってもよい。図5Aは撮影画像の一例を示す。なお、制御部11(アスペクト比取得部)は、入力部14を介して投稿用画像(画像の表示領域)のアスペクト比が指定された場合、指定された投稿用画像のアスペクト比を取得し、投稿先のSNSに対して投稿用画像のアスペクト比が設定されている場合、投稿先のSNSにおけるアスペクト比を取得する。以下では、投稿用画像のアスペクト比が1:1である場合を例に説明する。
In the
次に制御部11は、取得した撮影画像に対して物体検出処理を行い、画像中の被写体(対象物)を検出する(S12)。画像中の物体検出は、R-CNN(Regions with Convolutional Neural Network)、Fast R-CNN、Faster R-CNN、Mask R-CNN、YOLO(You only Look Once)、SSD(Single Shot Multibox Detector)等の学習モデルを用いて行うことができる。具体的には、制御部11は、上述したような学習モデルに撮影画像を入力し、学習モデルからの出力情報に基づいて、撮影画像中の対象物(被写体)を検出する。なお、学習モデルを用いた物体検出処理は公知であるため、詳細については説明を省略する。上述したような学習モデルは画像編集アプリ12APに組み込まれていてもよく、記憶部12に記憶されていてもよい。図5Bでは、図5Aに示す撮影画像に対して、学習モデルを用いた物体検出によって検出された被写体(ここでは犬)を示すバウンディングボックスが破線にて重畳表示されている。また画像中の物体検出は、テンプレートマッチング技術を用いて行われてもよい。この場合、検出すべき対象物の画像特徴量を示すテンプレートを予め記憶部12に記憶しておき、制御部11は、撮影画像中に、いずれかのテンプレートに一致する領域が存在するか否かに応じて、対象物が存在するか否かを検出できる。
Next, the
制御部11は、撮影画像から検出した被写体に基づいて、撮影画像から抽出すべきクリッピング範囲を設定する(S13)。例えば制御部11は、図5Bに破線矩形で示すように、学習モデルを用いて撮影画像から検出した被写体を囲むバウンディングボックス(外接矩形)の領域をクリッピング範囲に設定する。これにより、撮影画像中の被写体(対象物)を含む領域がクリッピング範囲に設定される。なお、制御部11は、バウンディングボックスを上下及び左右方向にそれぞれ所定領域(所定画素数)拡張した領域をクリッピング範囲に設定してもよい。
The
ユーザは、SNSに投稿する画像を撮影する場合、1つの被写体が画像中央に写るように撮影することが多い。この場合、制御部11は撮影画像から1つの被写体を検出するので、1つの被写体を含むクリッピング範囲が設定される。このほかに、撮影画像中に複数の被写体が含まれる場合、制御部11は撮影画像から複数の被写体を検出する。この場合、制御部11は、複数の被写体を含む外接矩形の領域をクリッピング範囲に設定してもよい。
When users take images to post on social media, they often take the image so that one subject is in the center of the image. In this case, the
制御部11(比較部)は、ステップS13で設定したクリッピング範囲のアスペクト比と、指定された投稿用画像のアスペクト比とを比較し、2つのアスペクト比が一致するか否かを判断する(S14)。具体的には、制御部11は、クリッピング範囲内の画像の左右方向(横方向)の画素数と、上下方向(縦方向)の画素数とを計数し、クリッピング範囲のアスペクト比(左右方向の画素数:上下方向の画素数)を算出する。そして制御部11は、算出したアスペクト比と投稿用画像のアスペクト比とが一致するか否かを判断する。アスペクト比が一致すると判断した場合(S14:YES)、制御部11(生成部)は、ステップS29の処理に移行し、ステップS11で取得した撮影画像から、ステップS13で設定したクリッピング範囲内の画像(画素)を抽出して投稿用画像(表示画像)を生成する(S29)。
The control unit 11 (comparison unit) compares the aspect ratio of the clipping range set in step S13 with the aspect ratio of the specified image for posting, and determines whether the two aspect ratios match (S14). Specifically, the
アスペクト比が一致しないと判断した場合(S14:NO)、制御部11は、ステップS13で設定したクリッピング範囲の調整方向を特定する(S15)。なお、制御部11は、クリッピング範囲のアスペクト比を、投稿用画像のアスペクト比に一致させるためにクリッピング範囲を調整すべき調整方向を特定する。図6及び図7はクリッピング範囲の調整方向の説明図であり、図6は横長のクリッピング範囲に対する調整方向を示し、図7は縦長のクリッピング範囲に対する調整方向を示す。図6A及び図7AはステップS13で設定したクリッピング範囲を破線矩形で示している。図6Aに示すクリッピング範囲は横方向に330画素、縦方向に270画素の画像サイズ(330×270画素)を有し、このクリッピング範囲のアスペクト比は11:9である。このようなクリッピング範囲を1:1のアスペクト比に一致させるためには、上下方向に拡張するか左右方向に縮小することが考えられる。よって、本実施形態では、図6Bに示すように、上方向に60画素拡張、上方向及び下方向にそれぞれ30画素拡張、及び、下方向に60画素拡張することによって330×330画素の画像サイズにそれぞれ拡張し、アスペクト比が1:1となるようにクリッピング範囲を調整(拡張)する。なお、このような拡張を行う際に、撮影画像中の画素が存在しない領域が発生した場合、画素が存在しない領域に黒画素を追加し、拡張後のクリッピング範囲の画像を生成してもよい。また、図6Cに示すように、左端側を60画素縮小、左右両端側をそれぞれ30画素縮小、及び、右端側を60画素縮小することによって270×270画素の画像サイズにそれぞれ縮小し、アスペクト比が1:1となるようにクリッピング範囲を調整(縮小)する。
If it is determined that the aspect ratios do not match (S14: NO), the
また、図7Aに示すクリッピング範囲は横方向に270画素、縦方向に330画素の画像サイズ(270×330画素)を有し、このクリッピング範囲のアスペクト比は9:11である。このようなクリッピング範囲を1:1のアスペクト比に一致させるためには、左右方向に拡張するか上下方向に縮小することが考えられる。よって、本実施形態では、図7Bに示すように、左方向に60画素拡張、左右方向にそれぞれ30画素拡張、及び、右方向に60画素拡張することによって330×330画素の画像サイズにそれぞれ拡張し、アスペクト比が1:1となるようにクリッピング範囲を調整(拡張)する。また、図7Cに示すように、上端側を60画素縮小、上下両端側をそれぞれ30画素縮小、及び、下端側を60画素縮小することによって270×270画素の画像サイズにそれぞれ縮小し、アスペクト比が1:1となるようにクリッピング範囲を調整(縮小)する。 The clipping range shown in FIG. 7A has an image size of 270 pixels horizontally and 330 pixels vertically (270×330 pixels), and the aspect ratio of this clipping range is 9:11. In order to make such a clipping range match the aspect ratio of 1:1, it is possible to expand it left and right or shrink it up and down. Therefore, in this embodiment, as shown in FIG. 7B, the clipping range is expanded to an image size of 330×330 pixels by expanding 60 pixels leftward, 30 pixels leftward, and 60 pixels rightward, and adjusted (expanded) so that the aspect ratio is 1:1. As shown in FIG. 7C, the clipping range is reduced to an image size of 270×270 pixels by reducing the top end by 60 pixels, the top and bottom ends by 30 pixels, and the bottom end by 60 pixels, and adjusted (reduced) so that the aspect ratio is 1:1.
制御部11は、クリッピング範囲の調整方向を特定した場合、特定した調整方向に従って、クリッピング範囲を拡張又は縮小する。これにより、制御部11(切替部)は、被写体を含み、投稿用画像のアスペクト比を有する領域(調整後のクリッピング範囲)を順次切り替えることができる。制御部11は、例えばクリッピング範囲を上方向又は左方向に拡張する(S16)。ここでは、制御部11は、クリッピング範囲が横長である場合、図6Bの左側に示すように上方向に拡張し、縦長である場合、図7Bの左側に示すように左方向に拡張する。そして制御部11は、拡張後のクリッピング範囲に従って撮影画像から切り出した画像に基づいて、この拡張後のクリッピング範囲に対して被写体との関連度に関するスコアの算出処理を行う(S17)。
When the
図4に示すスコア算出処理において、制御部11(割合スコア算出部)は、拡張後(調整後)のクリッピング範囲に基づいて撮影画像から切り出した画像に対する被写体領域の割合に応じたスコアを算出する。具体的には、制御部11(対象物検出部)は、ステップS12で撮影画像から検出した被写体の領域に基づいて、調整後のクリッピング範囲内の被写体の領域を特定する(S41)。図5Cの左側に示すクリッピング範囲では、図5Cの右側に白抜きで示す犬の領域(被写体領域)が特定されている。そして制御部11は、特定した被写体領域内の画素数を算出し(S42)、調整後のクリッピング範囲内の画素数に対する被写体領域内の画素数の割合を算出することにより、調整後のクリッピング範囲に対する被写体領域の面積に関するスコアを算出する(S43)。図5Cに示す例では、330×330画素のクリッピング範囲に対して55,806画素の被写体領域が検出されており、面積に関するスコアとして0.51が算出されている。これにより、クリッピング範囲内の被写体領域が大きいほど、面積に関するスコアとして高いスコアが算出される。
In the score calculation process shown in FIG. 4, the control unit 11 (proportion score calculation unit) calculates a score according to the proportion of the subject area to the image cut out from the captured image based on the expanded (adjusted) clipping range. Specifically, the control unit 11 (object detection unit) identifies the subject area within the adjusted clipping range based on the subject area detected from the captured image in step S12 (S41). In the clipping range shown on the left side of FIG. 5C, the area of the dog (subject area) shown in white on the right side of FIG. 5C is identified. The
次に制御部11(位置スコア算出部)は、調整後のクリッピング範囲に対する被写体領域の位置に応じたスコアを算出する。具体的には、制御部11は、調整後のクリッピング範囲の中心(画像中心)の座標値と、ステップS41で特定したクリッピング範囲内の被写体領域の中心(重心)の座標値とを算出する(S44)。クリッピング範囲内の各画素の座標値は、例えばクリッピング範囲の左上を原点(0,0)とし、原点から右方向への画素数と原点から下方向への画素数とによって表される。図5Dに示す例では、330×330画素のクリッピング範囲に対して、クリッピング範囲の中心(画像中心)の座標値として(165,165)が算出され、被写体領域の中心の座標値として(207,179)が算出されている。なお、被写体領域の中心は、例えば被写体領域内の全画素の座標値の平均値で表されてもよく、被写体領域の左端の画素及び右端の画素における左右方向の中央位置の座標値と、被写体領域の上端及び下端の画素における上下方向の中央位置の座標値とで表されてもよく、被写体領域の輪郭上の各画素の座標値の平均値で表されてもよい。次に制御部11は、調整後のクリッピング範囲における半対角線の長さを算出する(S45)。半対角線は、クリッピング範囲の画像中心とクリッピング範囲の4隅のいずれかとの間の線分であり、図5Dに示す例では、半角線の長さとして233.3が算出されている。また制御部11は、ステップS44で算出したクリッピング範囲の画像中心の座標値と、被写体領域の中心の座標値とに基づいて、クリッピング範囲の画像中心と、被写体領域の中心との距離(中心間距離)を算出する(S46)。図5Dに示す例では、中心間距離として44.3が算出されている。制御部11は、半対角線の長さ及び中心間距離に基づいて、調整後のクリッピング範囲に対する被写体領域の位置に関するスコアを算出する(S47)。例えば制御部11は、1.0-(中心間距離)/(半対角線の長さ)によって位置に関するスコアを算出し、図5Dに示す例では、位置に関するスコアとして0.81が算出されている。これにより、被写体領域がクリッピング範囲の中央に近いほど、位置に関するスコアとして高いスコアが算出される。
Next, the control unit 11 (position score calculation unit) calculates a score according to the position of the subject area relative to the adjusted clipping range. Specifically, the
制御部11は、ステップS43で算出した面積に関するスコアと、ステップS47で算出した位置に関するスコアとを、調整後のクリッピング範囲に対応付けて記憶する(S48)。例えば制御部11は、撮影画像に対する調整後のクリッピング範囲の位置を示す情報に対応付けて、面積に関するスコア及び位置に関するスコアを記憶する。なお、クリッピング範囲の位置は、例えば撮影画像においてクリッピング範囲の4隅の画素の座標値で表され、4隅の画素の座標値は、例えば撮影画像の左上を原点(0,0)とし、原点から右方向への画素数と原点から下方向への画素数とによって表される。また、クリッピング範囲の位置は、撮影画像においてクリッピング範囲の左上の画素の座標値と、クリッピング範囲の画像サイズとで表されてもよい。
The
制御部11は、図3に示す画像編集処理に戻り、ステップS13で設定したクリッピング範囲に対して、ステップS18~S19の処理を行う。具体的には、制御部11は、ステップS13で設定したクリッピング範囲を上下方向又は左右方向に拡張する(S18)。ここでは、制御部11は、クリッピング範囲が横長である場合、図6Bの中央に示すように上方向及び下方向に拡張し、縦長である場合、図7Bの中央に示すように左方向及び右方向に拡張する。そして制御部11は、拡張後のクリッピング範囲に応じて撮影画像から切り出した画像に基づいて、この拡張後のクリッピング範囲に対するスコアの算出処理を行う(S19)。ここでのスコア算出処理は、ステップS17と同様の処理であり、図4に示す処理である。これにより、ステップS18で拡張したクリッピング範囲についても面積に関するスコア及び位置に関するスコアが算出されて記憶される。
The
次に制御部11は、ステップS13で設定したクリッピング範囲に対して、ステップS20~S21の処理を行う。具体的には、制御部11は、ステップS13で設定したクリッピング範囲を下方向又は右方向に拡張する(S20)。ここでは、制御部11は、クリッピング範囲が横長である場合、図6Bの右側に示すように下方向に拡張し、縦長である場合、図7Bの右側に示すように右方向に拡張する。そして制御部11は、拡張後のクリッピング範囲内の画像に基づいて、この拡張後のクリッピング範囲に対するスコアの算出処理を行う(S21)。これにより、ステップS20で拡張したクリッピング範囲についても面積に関するスコア及び位置に関するスコアが算出されて記憶される。
Then, the
同様に制御部11は、ステップS13で設定したクリッピング範囲に対して、ステップS22~S27の処理を行う。なお、制御部11は、ステップS22において、クリッピング範囲に対して左側又は上側を縮小する。ここでは、制御部11は、クリッピング範囲が横長である場合、図6Cの左側に示すようにクリッピング範囲の左側を縮小し、縦長である場合、図7Cの左側に示すようにクリッピング範囲の上側を縮小する。また、ステップS24において、制御部11は、クリッピング範囲の左側及び右側、或いは、上側及び下側を縮小する。ここでは、制御部11は、クリッピング範囲が横長である場合、図6Cの中央に示すようにクリッピング範囲の左側及び右側をそれぞれ縮小し、縦長である場合、図7Cの中央に示すようにクリッピング範囲の上側及び下側をそれぞれ縮小する。更に、ステップS26において、制御部11は、クリッピング範囲の右側又は下側を縮小する。ここでは、制御部11は、クリッピング範囲が横長である場合、図6Cの右側に示すようにクリッピング範囲の右側を縮小し、縦長である場合、図7Cの右側に示すようにクリッピング範囲の下側を縮小する。制御部11は、それぞれ縮小後のクリッピング範囲内の画像に基づいて、縮小後のクリッピング範囲に対するスコアの算出処理を行う(S23,S25,S27)。これにより、ステップS22,S24,S26でそれぞれ縮小したクリッピング範囲について、面積に関するスコア及び位置に関するスコアが算出されて記憶される。
Similarly, the
上述した処理により、ステップS13で設定したクリッピング範囲に対して、図6B及び図6C、或いは、図7B及び図7Cに示すように拡張又は縮小することにより、投稿用画像を生成するためのクリッピング範囲の候補が生成される。そして、それぞれのクリッピング範囲の候補に対して、被写体領域の大きさ及び位置に関するスコアが算出される。制御部11(特定部)は、上述した処理によって算出したクリッピング範囲の各候補に対するスコアに基づいて、最適な(適切な)クリッピング範囲を特定する(S28)。例えば制御部11は、面積に関するスコアが最高のクリッピング範囲、位置に関するスコアが最高のクリッピング範囲、或いは、面積に関するスコア及び位置に関するスコアが共に最高のクリッピング範囲を最適なクリッピング範囲に特定してもよい。また制御部11は、面積に関するスコア及び位置に関するスコアのそれぞれに重み付けを行い、両方のスコアを加味した総合スコアを算出し、総合スコアが最高のクリッピング範囲を最適なクリッピング範囲に特定してもよい。最適なクリッピング範囲を特定する際のルールは予め設定されて記憶部12に記憶されている。
By the above-mentioned process, the clipping range set in step S13 is expanded or contracted as shown in FIG. 6B and FIG. 6C, or FIG. 7B and FIG. 7C, to generate clipping range candidates for generating an image to be posted. Then, for each clipping range candidate, a score for the size and position of the subject area is calculated. The control unit 11 (identification unit) identifies an optimal (appropriate) clipping range based on the score for each clipping range candidate calculated by the above-mentioned process (S28). For example, the
制御部11は、ステップS11で取得した撮影画像から、ステップS28で特定した最適なクリッピング範囲内の画像(画素)を抽出して投稿用画像を生成し(S29)、処理を終了する。上述した処理により、撮影画像から、指定されたアスペクト比を有すると共に、被写体の撮影領域がより画像中央に位置し、サイズがより大きい投稿用画像を生成することができる。これにより、被写体を見易い位置及びサイズで表示することができる画像をSNS等に投稿することが可能となる。また本実施形態では、撮影画像から、被写体が見易い状態の投稿用画像を自動的に生成するので画像編集を行うユーザの作業負担を軽減できる。
The
本実施形態では、撮影画像から検出した被写体に基づいて設定されたクリッピング範囲に対して、図6B及び図6C、或いは、図7B及び図7Cに示すように拡張及び縮小を行うことによってクリッピング範囲の候補を生成する構成を例に説明したが、この構成に限定されない。例えば、図6Aに示すクリッピング範囲に対して、上方向に30画素拡張し、右側を30画素縮小することによって300×300画素の画像サイズ(アスペクト比が1:1)のクリッピング範囲の候補を生成してもよい。また、図6Aに示すクリッピング範囲に対して、上方向及び下方向に15画素ずつ拡張し、左側及び右側を15画素ずつ縮小することによって300×300画素の画像サイズ(アスペクト比が1:1)のクリッピング範囲の候補を生成してもよい。このようにクリッピング範囲の候補は、各種の方法で生成することができる。なお、各候補に対して行うスコア算出処理による処理負荷を考慮し、適切な数の候補を生成し、各候補に対するスコアを算出して最適なクリッピング範囲を特定すればよい。 In this embodiment, the clipping range candidate is generated by expanding and reducing the clipping range set based on the subject detected from the captured image as shown in FIG. 6B and FIG. 6C or FIG. 7B and FIG. 7C, but the present invention is not limited to this configuration. For example, the clipping range candidate shown in FIG. 6A may be expanded by 30 pixels upward and reduced by 30 pixels on the right side to generate a clipping range candidate with an image size of 300×300 pixels (aspect ratio of 1:1). The clipping range shown in FIG. 6A may be expanded by 15 pixels upward and downward and reduced by 15 pixels on the left and right sides to generate a clipping range candidate with an image size of 300×300 pixels (aspect ratio of 1:1). In this way, clipping range candidates can be generated by various methods. In addition, it is sufficient to generate an appropriate number of candidates, calculate the score for each candidate, and identify the optimal clipping range, taking into account the processing load due to the score calculation process performed for each candidate.
本実施形態では、クリッピング範囲の各候補に対するスコアに基づいて最適なクリッピング範囲を所定のルールに従って自動的に特定して投稿用画像を生成する構成を例に説明したが、この構成に限定されない。例えば、スコアが高いクリッピング範囲の候補を複数特定してユーザに提示し、ユーザが複数の候補から最適なクリッピング範囲を選択する構成とすることができる。図8は画像編集処理手順の他の例を示すフローチャート、図9は画面例を示す模式図である。図8に示す処理は、図3に示す処理中のステップS27,S28の間にステップS51~S53を追加したものである。図3と同じステップについては説明を省略する。なお、図8では、図3中のステップS11~S25の図示を省略している。 In this embodiment, an example has been described in which an optimal clipping range is automatically identified according to a predetermined rule based on the score for each candidate clipping range, and an image to be posted is generated, but this is not a limitation. For example, a configuration is possible in which multiple clipping range candidates with high scores are identified and presented to the user, and the user selects the optimal clipping range from the multiple candidates. Figure 8 is a flowchart showing another example of the image editing process procedure, and Figure 9 is a schematic diagram showing an example screen. The process shown in Figure 8 is obtained by adding steps S51 to S53 between steps S27 and S28 in the process shown in Figure 3. Explanation of the same steps as in Figure 3 will be omitted. Note that steps S11 to S25 in Figure 3 are not shown in Figure 8.
図8に示す画像編集処理では、制御部11は、ステップS27の処理後、クリッピング範囲の各候補に対して算出したスコアに基づいて、スコアが高い複数のクリッピング範囲の候補を選択する(S51)。例えば制御部11は、面積に関するスコアが高い順に所定数のクリッピング範囲、位置に関するスコアが高い順に所定数のクリッピング範囲、或いは、面積に関するスコア及び位置に関するスコアが共に高い順に所定数のクリッピング範囲を選択してもよい。ここでも制御部11は、面積に関するスコア及び位置に関するスコアのそれぞれに重み付けを行い、両方のスコアを加味した総合スコアを算出し、総合スコアが高い順に所定数のクリッピング範囲を選択してもよい。スコアが高いクリッピング範囲の候補を選択する際のルールも予め設定されて記憶部12に記憶されている。
In the image editing process shown in FIG. 8, the
制御部11は、選択した複数のクリッピング範囲の候補を表示し、これらの候補から最適な(適切な)クリッピング範囲の選択を受け付けるための選択画面を生成して表示部15に表示する(S52)。図9は選択画面例を示しており、図9に示す画面は、3つのクリッピング範囲の候補について、それぞれのクリッピング範囲に基づいて生成された投稿用画像を表示する。なお、選択画面は、各クリッピング範囲の候補に対応する投稿用画像に対応付けて、それぞれ算出したスコア(面積に関するスコア及び位置に関するスコア)を表示してもよい。この場合、各クリッピング範囲の候補に対するスコアをユーザに提示でき、ユーザは、スコアに基づいて各投稿用画像の評価を行うことができる。選択画面は、表示された投稿用画像のうちの1つの選択を受け付けるように構成されており、選択された1つの投稿用画像での投稿を指示するための投稿ボタンを有する。なお、図9に示す画面では、左下の投稿用画像(クリッピング範囲)が選択された状態を示している。ユーザは、選択画面に表示された投稿用画像のいずれかを選択して投稿ボタンを操作することにより、選択した投稿用画像での投稿を指示する。
The
制御部11は、選択画面において入力部14を介していずれかのクリッピング範囲(投稿用画像)に対する選択を受け付けたか否かを判断しており(S53)、受け付けていないと判断した場合(S53:NO)、選択画面の表示を継続して待機する。いずれかのクリッピング範囲に対する選択を受け付けたと判断した場合(S53:YES)、制御部11は、選択されたクリッピング範囲を最適な(適切な)クリッピング範囲に特定し(S28)、特定したクリッピング範囲に基づいて投稿用画像を生成する(S29)。
The
上述した処理では、撮影画像から投稿用画像を生成するためのクリッピング範囲について、被写体の撮影位置及び撮影サイズに基づいて適切な候補を複数選択してユーザに提示できる。ユーザは、複数のクリッピング範囲(投稿用画像)の候補から任意のクリッピング範囲を選択することができる。よって、指定されたアスペクト比を有すると共に、被写体の撮影領域が画像中央に位置しサイズが大きい投稿用画像の候補から、ユーザの好みの投稿用画像が選択されてSNS等に投稿することが可能となる。 In the above-described process, multiple appropriate candidates for the clipping range for generating an image to post from a captured image can be selected based on the subject's shooting position and shooting size, and presented to the user. The user can select any clipping range from multiple clipping range (image to post) candidates. This makes it possible for the user to select a preferred image to post from candidates for images to post that have a specified aspect ratio, have the subject's shooting area located in the center of the image, and are large in size, and post the image to post on SNS, etc.
(実施形態2)
被写体(対象物)の撮影画像から投稿用画像を生成するためのクリッピング範囲を設定する際に、クリッピング範囲に含まれる被写体の各部位の領域を考慮する情報処理装置について説明する。本実施形態の情報処理装置は、実施形態1の情報処理装置10と同様の構成を有するので、構成についての詳細な説明は省略する。なお、本実施形態の情報処理装置10は、図1に示す実施形態1の構成に加えて、記憶部12に、被写体となる対象物に対して各対象物の部位に関する情報が登録された辞書DB(データベース)を記憶している。図示は省略するが、辞書DBは、例えば犬に対して、犬の手足、犬の目、犬の口、犬の鼻等の用語が予め登録されている。
(Embodiment 2)
An information processing device that considers the area of each part of a subject included in a clipping range when setting a clipping range for generating an image for posting from a photographed image of the subject (object) will be described. The information processing device of this embodiment has a configuration similar to that of the
本実施形態の情報処理装置10において、制御部11は、図3に示す処理と同様の処理を実行する。なお、図3に示す画像編集処理において、スコア算出処理は図4に示す処理と若干異なる。図10は実施形態2のスコア算出処理手順の一例を示すフローチャート、図11はスコア算出処理を説明するための模式図である。図10に示す処理は、図4に示す処理中のステップS41の前にステップS61~S62を追加したものである。図4と同じステップについては説明を省略する。
In the
本実施形態のスコア算出処理において、制御部11は、図3中のステップS16,S18,S20,S22,S24,S26で拡張又は縮小した後のクリッピング範囲(調整後のクリッピング範囲)について、クリッピング範囲に含まれる被写体の各部位に基づくスコアを算出する。具体的には、制御部11(部位検出部)は、クリッピング範囲内の画像に対してセグメンテーションを行い、被写体の部位毎に領域を分類(クラス分類)する(S61)。例えば制御部11は、図3中のステップS12において、Mask R-CNNを用いて撮影画像から被写体領域を検出すると共に、検出した被写体領域に対してセグメンテーションを行って被写体の部位毎にクラス分類していた場合、クラス分類結果に基づいて、クリッピング範囲内の画像における各部位の領域を特定できる。図11Aの左側に示すクリッピング範囲では、図11Aの右側に黒色(背景)以外で示す犬の各部位の領域(部位領域)が特定されている。図11Aでは、クリッピング範囲内に犬の手足、目、口、鼻、首、顔、胴体が検出されている。
In the score calculation process of this embodiment, the
制御部11は、クリッピング範囲内の画像における各部位領域に基づいて、被写体の部位に関するスコアを算出する(S62)。例えば制御部11は、クリッピング範囲に含まれる各部位領域が、辞書DBに被写体(対象物)に対応付けて記憶してある部位であるか否かを判断し、辞書DBに記憶してある部位について1を加算し、辞書DBに記憶されていない部位について1を減算してスコアを算出する。図11Aに示す例では、クリッピング範囲内に犬の手足、目、口及び鼻が含まれているので、被写体の部位に関するスコアとして4.0が算出される。図11Bに示す例では、犬の手足、口及び鼻がそれぞれ一部しか含まれておらず、クリッピング範囲内に犬の目のみが含まれているので、被写体の部位に関するスコアとして1.0が算出される。なお、被写体の各部位についてクリッピング範囲に一部しか含まれないか全部含まれているかの判断は、例えばクリッピング範囲の内側及び外側の画像に基づいて行われる。例えばクリッピング範囲の輪郭が、被写体の各部位領域上にある場合、この部位は一部のみがクリッピング範囲に含まれる部位であると判断できる。図11Cに示す例では、犬の手足、目、口及び鼻に加えて、画像の右下の領域(図11Cの右側の画像では閉曲線で囲んだ領域)に被写体(犬)以外のもの(ここでは猫)が含まれているので、被写体の部位に関するスコアとして3.0が算出される。これにより、クリッピング範囲内に含まれる被写体の部位の数が多いほど、また、被写体以外のものが含まれないほど、被写体の部位に関するスコアとして高いスコアが算出される。
The
その後、制御部11は、図4に示すステップS41~S48と同様の処理を行う。これにより、クリッピング範囲の各候補について、被写体の部位に関するスコア、被写体領域の面積に関するスコア、被写体領域の位置に関するスコアが算出される。よって、本実施形態では、制御部11は、ステップS62で算出した被写体の部位に関するスコアと、ステップS43で算出した面積に関するスコアと、ステップS47で算出した位置に関するスコアとを、調整後のクリッピング範囲に対応付けて記憶する(S48)。
Then, the
また本実施形態では、図3中のステップS28において、制御部11は、クリッピング範囲の各候補に対して算出した、被写体の部位に関するスコア、被写体領域の面積に関するスコア、被写体領域の位置に関するスコアに基づいて、最適な(適切な)クリッピング範囲を特定する(S28)。ここでは制御部11は、被写体の部位に関するスコアが最高のクリッピング範囲、面積に関するスコアが最高のクリッピング範囲、位置に関するスコアが最高のクリッピング範囲、或いは、3つのスコアが共に最高のクリッピング範囲を最適なクリッピング範囲に特定してもよい。また制御部11は、3つのスコアのそれぞれに重み付けを行い、3つのスコアを加味した総合スコアを算出し、総合スコアが最高のクリッピング範囲を最適なクリッピング範囲に特定してもよい。
In this embodiment, in step S28 in FIG. 3, the
上述した処理により、本実施形態の情報処理装置10では、撮影画像から、指定されたアスペクト比を有すると共に、被写体の部位を多く含み、被写体の撮影領域がより画像中央に位置し、サイズがより大きい投稿用画像を生成することができる。これにより、本実施形態においても、被写体を見易い状態で表示することができる画像をSNS等に投稿することが可能となる。また、本実施形態においても、図8及び図9に示した変形例の適用が可能であり、適用した場合には同様の効果が得られる。
By the above-mentioned processing, the
本実施形態では、上述した実施形態1と同様の効果が得られる。また本実施形態では、指定されたアスペクト比を有すると共に、被写体に設定された部位をより多く含み、被写体の撮影領域がより画像中央に位置し、サイズがより大きい投稿用画像を生成することができる。よって、被写体の各部位がより見易く表示された画像をSNS等に投稿することが可能となる。本実施形態においても、上述した各実施形態で適宜説明した変形例の適用が可能である。 In this embodiment, the same effects as those of the first embodiment described above can be obtained. Furthermore, in this embodiment, it is possible to generate an image for posting that has a specified aspect ratio, includes more of the body parts set on the subject, has the subject's shooting area positioned closer to the center of the image, and is larger in size. This makes it possible to post an image on SNS or the like in which each body part of the subject is more easily visible. In this embodiment as well, it is possible to apply the modified examples described in each of the above-mentioned embodiments as appropriate.
(実施形態3)
画像(画像データ)及び画像に対応付けられたテキスト(テキストデータ)に基づいて、テキストで述べられている対象物(被写体)に対する視認性が高い領域を画像から抽出(クリッピング)する情報処理装置について説明する。本実施形態の情報処理装置は、実施形態1の情報処理装置10と同様の構成を有するので、構成についての詳細な説明は省略する。
(Embodiment 3)
The following describes an information processing device that extracts (clips) an area from an image that has high visibility of an object (subject) described in a text based on the image (image data) and the text (text data) associated with the image. The information processing device of this embodiment has a similar configuration to the
以下に、本実施形態の情報処理装置10が、画像及びテキストをそれぞれのレイアウト枠にレイアウトしてページレイアウトを生成する処理について説明する。図12はレイアウト処理を説明するための模式図である。本実施形態の情報処理装置10は、レイアウト対象の画像及びテキストと、画像及びテキストを配置すべきレイアウト枠がそれぞれ設定されたレイアウトデータとを入力データとする。テキストは、画像の内容に関する情報が記載されたテキストである。本実施形態では、レイアウト対象を2つの画像及び1つのテキストとするが、画像及びテキストの数はこれらに限定されない。本実施形態の情報処理装置10は、レイアウト対象の画像のそれぞれから、テキストの内容に応じた被写体の視認性が良好であり、且つ、割り当てられたレイアウト枠のアスペクト比と同じアスペクト比の領域を抽出してレイアウト用画像を生成する。これにより、テキストに記載された内容に応じた被写体が見易い状態で表示されるレイアウト用画像が生成される。また情報処理装置10は、生成したレイアウト用画像とテキストとをそれぞれのレイアウト枠に配置することによりページレイアウト(出力データ)を生成する。よって、画像及びテキストをユーザが読み易い状態で配置したページレイアウトが生成される。
The following describes the process in which the
図13~図15はレイアウト処理手順の一例を示すフローチャート、図16~図19はレイアウト処理を説明するための模式図である。図15に示すスコア算出処理は、図14に示すレイアウト処理中の「スコア算出処理」である。図13~図14に示す処理は、図3に示す画像編集処理中のステップS11の前にステップS71~S75を追加し、ステップS29の代わりにステップS76~S78を追加したものである。また図15に示す処理は、図4に示す処理中のステップS41の前にステップS81~S82を追加したものである。図13~図15に示す処理において、図3~図4と同じステップについては説明を省略する。 Figures 13 to 15 are flow charts showing an example of a layout processing procedure, and Figures 16 to 19 are schematic diagrams for explaining the layout processing. The score calculation processing shown in Figure 15 is the "score calculation processing" during the layout processing shown in Figure 14. The processing shown in Figures 13 to 14 is obtained by adding steps S71 to S75 before step S11 during the image editing processing shown in Figure 3, and adding steps S76 to S78 instead of step S29. The processing shown in Figure 15 is obtained by adding steps S81 to S82 before step S41 during the processing shown in Figure 4. In the processing shown in Figures 13 to 15, explanations of the same steps as in Figures 3 to 4 will be omitted.
本実施形態の情報処理装置10では、ユーザは、画像及びテキストを含むページレイアウトを生成する場合、入力部14を介して所定の操作を行い、レイアウト対象の画像及びテキストとレイアウトデータとを指定し、ページレイアウトの生成処理の実行指示を行う。情報処理装置10の制御部11(テキスト取得部)は、入力部14を介してページレイアウトの生成処理の実行指示を受け付けた場合、指定されたテキストを取得する(S71)。例えばテキストが記憶部12に記憶してある場合、制御部11は、テキストを記憶部12から読み出す。テキストは、入力部14を介したユーザの操作によって生成されたテキストに限定されず、他の装置からネットワーク経由又は可搬型記憶媒体1a経由で記憶部12に記憶されたテキストであってもよい。
In the
制御部11(出現頻度算出部)は、取得したテキストに出現する各単語の出現頻度をそれぞれ算出する(S72)。例えば制御部11は、形態素解析等の手法を用いてテキストから各単語を抽出し、各単語について出現回数を計数する。そして制御部11は、各単語について、例えば以下の(1)式を用いて出現頻度を算出する。図16Aの上側にはテキストの一例を示しており、図16Aの下側にはテキストに含まれる各単語の出現頻度を示すグラフを示している。図16Aの下側のグラフの横軸はテキストに含まれる単語を示し、縦軸は各単語の出現頻度を示す。図16Aに示す例では、「犬」の出現頻度として0.7が算出され、「飼い主」「草原」「水」の出現頻度として0.1が算出されている。また図16Bに示す例では、「犬」の出現頻度として0.5が算出され、「猫」の出現頻度として0.3が算出され、「飼い主」「水」の出現頻度として0.1が算出されている。
The control unit 11 (occurrence frequency calculation unit) calculates the occurrence frequency of each word that appears in the acquired text (S72). For example, the
単語の出現頻度=単語の出現回数/全単語の総出現回数 …(1) Frequency of occurrence of a word = number of times a word occurs / total number of times all words occur … (1)
制御部11(対象物特定部)は、テキスト中の各単語の出現頻度に基づいて、テキストが示す画像中の対象物(被写体)を特定する(S73)。例えば制御部11は、出現頻度が、予め設定された閾値(例えば0.28)以上である単語を特定し、特定した単語が示す対象物を特定する。図16Aに示す例では、出現頻度が閾値以上である単語(対象物)は「犬」だけであり、制御部11は、「犬」を特定する。また図16Bに示す例では、出現頻度が閾値以上である単語(対象物)は「犬」及び「猫」であり、制御部11は「犬」及び「猫」を特定する。
The control unit 11 (object identification unit) identifies the object (subject) in the image indicated by the text based on the frequency of occurrence of each word in the text (S73). For example, the
また制御部11は、テキスト中に出現する各単語から、テキストが示す画像に関する用語を生成する(S74)。例えば制御部11は、係り受け解析等の手法を用いて、テキスト中に出現する各単語の内容を考慮して各単語を組み合わせることによって用語を生成する。図16Aに示すテキストの例では、図17に示すように「犬の手足」「犬の目」「犬の口」「犬の鼻」「飼い主」「草原」「水」等の用語が生成される。なお、用語は、例えば実施形態2の情報処理装置10が使用した辞書DBを用いて生成されてもよい。
The
そして制御部11は、生成した各用語に対して、各単語の出現頻度に基づく関連度を対応付ける(S75)。図16Aに示す例では、単語「犬」の出現頻度が0.7であるので、「犬の手足」「犬の目」「犬の口」「犬の鼻」等の犬に関する用語に対しては0.7の関連度を対応付ける。また、単語「飼い主」「草原」「水」の出現頻度はそれぞれ0.1であるので、これらの用語に対しては0.1の関連度を対応付ける。
The
その後、制御部11は、図3に示すステップS11~S28と同様の処理を行う。なお、本実施形態では、ステップS11において、制御部11は、指定されたレイアウト対象の画像を取得する。またステップS12において、制御部11(検知部)は、取得した画像に対して物体検出処理を行い、ステップS73で特定した対象物(被写体)を検知する。またステップS13において、制御部11は、レイアウト対象の画像に対して、ステップS12で検出した対象物を含むクリッピング範囲を設定する。これにより、本実施形態では、テキストの内容に関連する対象物の領域をクリッピング範囲に設定することができる。また本実施形態においても、図5B中に破線矩形で示すように、画像中の対象物を含む領域がクリッピング範囲に設定される。なお、図18Aに示すように、ステップS73で複数の対象物が特定された場合、制御部11は、図18Bに示すように、複数の対象物を含む外接矩形の領域をクリッピング範囲に設定する。この場合、テキストで述べられている複数の対象物を含む領域をクリッピング範囲に設定できる。またステップS14において、制御部11は、ステップS13で設定したクリッピング範囲のアスペクト比と、ここでのレイアウト対象の画像に対して指定されたレイアウト枠のアスペクト比とを比較する。
After that, the
図15に示す本実施形態のスコア算出処理において、制御部11は、図14中のステップS16,S18,S20,S22,S24,S26で拡張又は縮小した後(調整後)のクリッピング範囲について、レイアウト対象のテキストとの関連度に関するスコアを算出する。具体的には、制御部11は、クリッピング範囲内の画像に対してセグメンテーションを行い、対象物の部位毎に領域を分類(クラス分類)する(S81)。ステップS81の処理は、実施形態2で説明した図10中のステップS61の処理と同様である。
In the score calculation process of this embodiment shown in FIG. 15, the
そして制御部11(関連度算出部)は、クリッピング範囲内の画像における各部位領域に基づいて、このクリッピング範囲内の画像とテキストとの関連度に関するスコアを算出する(S82)。図19Aに示す例では、クリッピング範囲内に犬の手足、目、口及び鼻が含まれており、これらの部位の用語には0.7の関連度が対応付けられているので、図19Aに示すクリッピング範囲内の画像とテキストとの関連度に関するスコアとして2.8が算出される。図19Bに示す例では、犬の手足、口及び鼻がそれぞれ一部しか含まれておらず、クリッピング範囲内に犬の目のみが含まれており、「犬の目」の用語には0.7の関連度が対応付けられているので、図19Bに示すクリッピング範囲内の画像とテキストとの関連度に関するスコアとして0.7が算出される。図19Cに示す例では、犬の手足、目、口及び鼻に加えて、画像の右下の領域(図19Cの右側の画像では閉曲線で囲んだ領域)に対象物(犬)以外のもの(ここでは猫)が含まれており、対象物以外のものの用語には-1.0の関連度が対応付けられているので、図19Cに示すクリッピング範囲内の画像とテキストとの関連度に関するスコアとして1.8が算出される。これにより、クリッピング範囲内に含まれる、テキストから生成された用語の数が多いほど、また、対象物以外のものが含まれないほど、クリッピング範囲内の画像とテキストとの関連度に関するスコアとして高いスコアが算出される。 Then, the control unit 11 (relevance calculation unit) calculates a score for the relevance between the image within the clipping range and the text based on each part area in the image within the clipping range (S82). In the example shown in FIG. 19A, the dog's paws, eyes, mouth, and nose are included in the clipping range, and a relevance of 0.7 is associated with the terms for these parts, so a score of 2.8 is calculated for the relevance between the image within the clipping range and the text shown in FIG. 19A. In the example shown in FIG. 19B, only a portion of the dog's paws, mouth, and nose are included in the clipping range, and only the dog's eyes are included in the clipping range, so a relevance of 0.7 is associated with the term "dog's eyes", so a score of 0.7 is calculated for the relevance between the image within the clipping range and the text shown in FIG. 19B. In the example shown in FIG. 19C, in addition to the dog's paws, eyes, mouth, and nose, the lower right area of the image (the area surrounded by a closed curve in the image on the right side of FIG. 19C) contains things other than the target object (dog) (here, a cat), and since a relevance score of -1.0 is associated with terms other than the target object, a score of 1.8 is calculated for the relevance between the image and text within the clipping range shown in FIG. 19C. As a result, the more terms generated from the text that are included within the clipping range, and the fewer things other than the target object are included, the higher the score calculated for the relevance between the image and text within the clipping range.
その後、制御部11は、図4に示すステップS41~S48と同様の処理を行う。これにより、クリッピング範囲の各候補について、クリッピング範囲内の画像とテキストとの関連度に関するスコア、被写体領域(対象物領域)の面積に関するスコア、被写体領域の位置に関するスコアが算出される。よって、本実施形態では、制御部11は、ステップS82で算出したテキストとの関連度に関するスコアと、ステップS43で算出した面積に関するスコアと、ステップS47で算出した位置に関するスコアとを、調整後のクリッピング範囲に対応付けて記憶する(S48)。
Then, the
また本実施形態では、図14中のステップS28において、制御部11は、クリッピング範囲の各候補に対して算出した、テキストとの関連度に関するスコア、被写体領域の面積に関するスコア、被写体領域の位置に関するスコアに基づいて、最適な(適切な)クリッピング範囲を特定する(S28)。ここでは制御部11は、テキストとの関連度に関するスコアが最高のクリッピング範囲、面積に関するスコアが最高のクリッピング範囲、位置に関するスコアが最高のクリッピング範囲、或いは、3つのスコアが共に最高のクリッピング範囲を最適なクリッピング範囲に特定してもよい。また制御部11は、3つのスコアのそれぞれに重み付けを行い、3つのスコアを加味した総合スコアを算出し、総合スコアが最高のクリッピング範囲を最適なクリッピング範囲に特定してもよい。
In this embodiment, in step S28 in FIG. 14, the
本実施形態では、ステップS28の処理後、ステップS11で取得したレイアウト対象の画像から、ステップS28で特定した最適なクリッピング範囲内の画像(画素)を抽出してレイアウト用画像を生成する(S76)。制御部11は、生成したレイアウト用画像を記憶部12に記憶しておく。そして制御部11は、編集処理が未処理の画像が有るか否かを判断し(S77)、未処理の画像が有ると判断した場合(S77:YES)、ステップS11の処理に戻り、未処理のレイアウト対象の画像を取得し(S11)、取得した画像に対して、ステップS12~S28及びS76の処理を行う。これにより、レイアウト対象の画像のそれぞれからレイアウト用画像を生成できる。
In this embodiment, after the processing of step S28, an image (pixels) within the optimal clipping range identified in step S28 is extracted from the image to be laid out obtained in step S11 to generate an image for layout (S76). The
未処理の画像がないと判断した場合(S77:NO)、制御部11は、指定されたレイアウトデータに基づいて、レイアウト対象のテキストと、ステップS76で生成したレイアウト用画像とを配置してページレイアウトを生成する(S78)。具体的には、制御部11は、レイアウト用画像のそれぞれを対応するレイアウト枠にはめ込み、レイアウト対象のテキストを対応するレイアウト枠にはめ込むことによりページレイアウトを生成する。なお、テキストを所定のレイアウト枠にはめ込む場合、文字サイズの変更及び改行の挿入等を適宜行ってもよい。
If it is determined that there are no unprocessed images (S77: NO), the
上述した処理により、レイアウト対象の画像から、レイアウトデータで指定されたアスペクト比を有すると共に、テキストの内容に関連する対象物(被写体)の領域がより画像中央に位置し、サイズがより大きいレイアウト用画像を生成することができる。これにより、テキストで述べられている対象物が見易い位置及びサイズで表示された画像を生成することができ、このような画像を各種の媒体で使用することにより視認性が高く読み易いページレイアウトを生成することができる。 The above-described process makes it possible to generate a layout image from the image to be laid out, which has the aspect ratio specified in the layout data, and in which the area of the object (subject) related to the content of the text is located closer to the center of the image and is larger in size. This makes it possible to generate an image in which the object mentioned in the text is displayed in a position and size that makes it easy to see, and by using such an image in various media, it is possible to generate page layouts that are highly visible and easy to read.
本実施形態では、上述した各実施形態と同様の効果が得られる。また本実施形態では、画像及びテキストを含むページレイアウトを生成する際に、画像から、テキストの内容に沿ったクリッピング範囲のレイアウト用画像を生成することができる。よって、テキストの内容に適した対象物がより見易く表示された画像を各種の媒体で使用することが可能となる。また本実施形態では、レイアウト対象の画像から、対象物が見易い状態のレイアウト用画像を自動的に生成するので画像編集を行うユーザの作業負担を軽減できる。本実施形態においても、上述した各実施形態で適宜説明した変形例の適用が可能である。 In this embodiment, the same effects as those of the above-mentioned embodiments can be obtained. In addition, in this embodiment, when generating a page layout including images and text, a layout image with a clipping range that matches the content of the text can be generated from the image. This makes it possible to use images in which objects suitable for the content of the text are displayed more easily in various media. In addition, in this embodiment, a layout image in which the objects are easily visible is automatically generated from the image to be laid out, thereby reducing the workload of the user who edits the images. In this embodiment, the modified examples described as appropriate in each of the above-mentioned embodiments can also be applied.
上述した各実施形態において、情報処理装置10が画像から投稿用画像又はレイアウト用画像を生成する処理を、ネットワークに接続された所定のサーバで行うように構成してもよい。この場合、情報処理装置10の制御部11は、処理対象の画像、或いは、レイアウト対象の画像及びテキストをネットワーク経由で所定のサーバへ送信し、所定のサーバで生成された投稿用画像又はレイアウト用画像を取得してもよい。このような構成におけるサーバは、サーバコンピュータ又はパーソナルコンピュータを用いて実現されてもよく、1台のサーバ内に設けられた複数の仮想マシンを用いて実現されてもよく、クラウドサーバを用いて実現されてもよい。
In each of the above-described embodiments, the
今回開示された実施の形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed herein are illustrative in all respects and should not be considered limiting. The scope of the present invention is indicated by the claims, not by the meaning described above, and is intended to include all modifications within the scope and meaning equivalent to the claims.
10 情報処理装置
11 制御部
12 記憶部
13 通信部
14 入力部
15 表示部
16 カメラ
REFERENCE SIGNS
Claims (9)
前記対象物を表示する表示領域のアスペクト比を取得するアスペクト比取得部と、
前記画像から前記対象物を検出し、検出した前記対象物の領域のアスペクト比及び前記表示領域のアスペクト比を比較する比較部と、
前記対象物の領域のアスペクト比及び前記表示領域のアスペクト比が異なる場合に、前記表示領域のアスペクト比を有する前記対象物の領域を順次切り替える切替部と、
切り替えた領域に基づいて切り出した画像と前記対象物との関連度に基づいて、切り替える領域を特定する特定部と
を備える情報処理装置。 an image acquisition unit for acquiring an image including an object;
an aspect ratio acquisition unit that acquires an aspect ratio of a display area that displays the object;
a comparison unit that detects the object from the image and compares an aspect ratio of a region of the detected object with an aspect ratio of the display region;
a switching unit that, when an aspect ratio of the object region and an aspect ratio of the display region are different, sequentially switches between the object regions having the aspect ratio of the display region;
and a specifying unit that specifies the area to be switched based on a degree of association between an image cut out based on the switched area and the object.
前記切り出した画像に対して、検出した前記対象物の領域の割合に応じたスコアを算出する割合スコア算出部とを備え、
前記特定部は、算出した前記割合に応じたスコアに基づいて、切り替える領域を特定する
請求項1に記載の情報処理装置。 an object detection unit that detects an area of the object from an image cut out based on the switched area;
a ratio score calculation unit that calculates a score according to a ratio of an area of the detected object to the cut-out image,
The information processing device according to claim 1 , wherein the specifying unit specifies the area to be switched based on a score corresponding to the calculated ratio.
前記切り出した画像に対して、検出した前記対象物の領域の位置に応じたスコアを算出する位置スコア算出部とを備え、
前記特定部は、算出した前記位置に応じたスコアに基づいて、切り替える領域を特定する
請求項1又は2に記載の情報処理装置。 an object detection unit that detects an area of the object from an image cut out based on the switched area;
a position score calculation unit that calculates a score according to a position of the detected object region for the cut-out image,
The information processing device according to claim 1 , wherein the specifying unit specifies the area to be switched based on the calculated score according to the position.
前記特定部は、検出した前記対象物の各部位の領域に基づいて、切り替える領域を特定する
請求項1から3までのいずれかひとつに記載の情報処理装置。 a part detection unit that detects the area of each part of the object from the image cut out based on the switched area;
The information processing device according to claim 1 , wherein the specifying unit specifies the area to be switched based on an area of each part of the detected object.
取得した前記テキストデータに出現する単語が示す対象物を特定する対象物特定部と、
取得した前記画像から、前記テキストデータに出現する対象物を検知する検知部とを備え、
前記比較部は、前記検知部が検知した対象物の領域のアスペクト比及び前記表示領域のアスペクト比を比較する
請求項1から4までのいずれかひとつに記載の情報処理装置。 a text acquisition unit that acquires text data corresponding to an image including an object;
an object identification unit that identifies an object indicated by a word appearing in the acquired text data;
a detection unit that detects an object appearing in the text data from the acquired image,
The information processing device according to claim 1 , wherein the comparison unit compares an aspect ratio of the region of the object detected by the detection unit with an aspect ratio of the display region.
前記対象物の出現頻度と、切り替えた領域に基づいて切り出した画像に含まれる前記対象物とに基づいて、前記テキストデータに出現する対象物と、切り替えた領域に基づいて切り出した画像との関連度を算出する関連度算出部とを備え、
前記特定部は、算出した関連度に基づいて、切り替える領域を特定する
請求項5に記載の情報処理装置。 an occurrence frequency calculation unit that calculates an occurrence frequency of an object that appears in the text data;
a relevance calculation unit that calculates a relevance between an object appearing in the text data and an image cut out based on the switched region based on an appearance frequency of the object and the object included in the image cut out based on the switched region,
The information processing device according to claim 5 , wherein the specifying unit specifies the area to be switched based on the calculated relevance.
を備える請求項1から6までのいずれかひとつに記載の情報処理装置。 The information processing device according to claim 1 , further comprising: a generation unit configured to generate a display image by cutting out the region of the object from the acquired image when the aspect ratio of the region of the object and the aspect ratio of the display region are the same.
前記対象物を表示する表示領域のアスペクト比を取得し、
前記画像から前記対象物を検出し、検出した前記対象物の領域のアスペクト比及び前記表示領域のアスペクト比を比較し、
前記対象物の領域のアスペクト比及び前記表示領域のアスペクト比が異なる場合に、前記表示領域のアスペクト比を有する前記対象物の領域を順次切り替え、
切り替えた領域に基づいて切り出した画像と前記対象物との関連度に基づいて、切り替える領域を特定する
処理をコンピュータに実行させるプログラム。 Acquire an image including the object;
Obtaining an aspect ratio of a display area for displaying the object;
Detecting the object from the image, and comparing an aspect ratio of the region of the detected object with an aspect ratio of the display region;
when the aspect ratio of the object region and the aspect ratio of the display region are different, sequentially switching the object region having the aspect ratio of the display region;
A program for causing a computer to execute a process of identifying a region to be switched based on a degree of association between an image cut out based on the switched region and the object.
前記対象物を表示する表示領域のアスペクト比を取得し、
前記画像から前記対象物を検出し、検出した前記対象物の領域のアスペクト比及び前記表示領域のアスペクト比を比較し、
前記対象物の領域のアスペクト比及び前記表示領域のアスペクト比が異なる場合に、前記表示領域のアスペクト比を有する前記対象物の領域を順次切り替え、
切り替えた領域に基づいて切り出した画像と前記対象物との関連度に基づいて、切り替える領域を特定する
処理をコンピュータが実行する情報処理方法。 Acquire an image including the object;
Obtaining an aspect ratio of a display area for displaying the object;
Detecting the object from the image, and comparing an aspect ratio of the region of the detected object with an aspect ratio of the display region;
when the aspect ratio of the object region and the aspect ratio of the display region are different, sequentially switching the object region having the aspect ratio of the display region;
The information processing method includes a process of identifying an area to be switched based on a degree of association between the object and an image cut out based on the switched area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020139493A JP7533011B2 (en) | 2020-08-20 | 2020-08-20 | Information processing device, program, and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020139493A JP7533011B2 (en) | 2020-08-20 | 2020-08-20 | Information processing device, program, and information processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022035280A JP2022035280A (en) | 2022-03-04 |
JP7533011B2 true JP7533011B2 (en) | 2024-08-14 |
Family
ID=80443355
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020139493A Active JP7533011B2 (en) | 2020-08-20 | 2020-08-20 | Information processing device, program, and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7533011B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117455799B (en) * | 2023-12-21 | 2024-09-06 | 荣耀终端有限公司 | Image processing method, electronic equipment and storage medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010026630A (en) | 2008-07-16 | 2010-02-04 | Seiko Epson Corp | Image retrieval device and image retrieval method |
JP2012019387A (en) | 2010-07-08 | 2012-01-26 | Kddi Corp | Image layout setting method and device |
JP2014053040A (en) | 2013-11-20 | 2014-03-20 | Canon Inc | Information processing device, information processing method, and program |
JP2014143673A (en) | 2012-12-26 | 2014-08-07 | Canon Inc | Image processing device, image capturing apparatus, image processing method and recording medium |
-
2020
- 2020-08-20 JP JP2020139493A patent/JP7533011B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010026630A (en) | 2008-07-16 | 2010-02-04 | Seiko Epson Corp | Image retrieval device and image retrieval method |
JP2012019387A (en) | 2010-07-08 | 2012-01-26 | Kddi Corp | Image layout setting method and device |
JP2014143673A (en) | 2012-12-26 | 2014-08-07 | Canon Inc | Image processing device, image capturing apparatus, image processing method and recording medium |
JP2014053040A (en) | 2013-11-20 | 2014-03-20 | Canon Inc | Information processing device, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2022035280A (en) | 2022-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3454250B1 (en) | Facial image processing method and apparatus and storage medium | |
EP3940589A1 (en) | Layout analysis method, electronic device and computer program product | |
US20070071319A1 (en) | Method, apparatus, and program for dividing images | |
JP2007087346A (en) | Information processing device, control method therefor, computer program, and memory medium | |
JP2007087345A (en) | Information processing device, control method therefor, computer program, and memory medium | |
CN112712906A (en) | Video image processing method and device, electronic equipment and storage medium | |
CN110795925A (en) | Image-text typesetting method based on artificial intelligence, image-text typesetting device and electronic equipment | |
US11163821B2 (en) | Image extraction apparatus, image extraction method, and recording medium storing an image extraction program | |
JP7533011B2 (en) | Information processing device, program, and information processing method | |
JP2005134966A (en) | Face image candidate area retrieval method, retrieval system and retrieval program | |
CN115689882A (en) | Image processing method and device and computer readable storage medium | |
JP7385416B2 (en) | Image processing device, image processing system, image processing method, and image processing program | |
US8533590B2 (en) | Information processing apparatus and layout processing method | |
US11367296B2 (en) | Layout analysis | |
CN114708363A (en) | Game live broadcast cover generation method and server | |
JP6294572B2 (en) | Image processing apparatus, image processing method, and program | |
CN112183253A (en) | Data processing method and device, electronic equipment and computer readable storage medium | |
CN112309181A (en) | Dance teaching auxiliary method and device | |
US20130104014A1 (en) | Viewer unit, server unit, display control method, digital comic editing method and non-transitory computer-readable medium | |
WO2023017723A1 (en) | Information processing device, information processing system, information processing method, and program | |
JP7459151B2 (en) | Information processing device, information processing system, information processing method, and program | |
JP6927540B1 (en) | Information processing equipment, information processing system, information processing method and program | |
JP6805375B2 (en) | Information processing equipment, information processing methods and information processing programs | |
JP3257116B2 (en) | Electronic filing system | |
JP2010224706A (en) | Portrait creating system, control server, client terminal, portrait creating method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230626 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240409 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240417 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240702 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240715 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7533011 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |