JP2014096057A - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
JP2014096057A
JP2014096057A JP2012247612A JP2012247612A JP2014096057A JP 2014096057 A JP2014096057 A JP 2014096057A JP 2012247612 A JP2012247612 A JP 2012247612A JP 2012247612 A JP2012247612 A JP 2012247612A JP 2014096057 A JP2014096057 A JP 2014096057A
Authority
JP
Japan
Prior art keywords
image
information
processing apparatus
displayed
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012247612A
Other languages
Japanese (ja)
Inventor
Mitsuhiro Haneda
充宏 羽田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2012247612A priority Critical patent/JP2014096057A/en
Publication of JP2014096057A publication Critical patent/JP2014096057A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To adjust a position of information to be additionally displayed by augmented reality so as not to hide information which is considered to be important to a viewer.SOLUTION: An image processing apparatus includes: acquiring means for acquiring a captured image; specifying means for specifying an object included in the image acquired by the acquiring means; determination means for determining whether the object specified by the specifying means is to be displayed preferentially or not; and generation means for generating information for displaying the image by combining the image with information on the object specified by the specifying means. The generation means displays the information on the object specified by the specifying means in a position which does not overlap the object determined by the determination means to be displayed preferentially.

Description

本発明は、画像処理装置に関し、特に、取得した画像情報に情報を付加して表示するための画像情報を生成する画像処理装置に関する。   The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus that generates image information for display by adding information to acquired image information.

従来、カメラによって撮影された画像や他の装置から取得した画像を、情報を付加して表示させる、いわゆる拡張現実と言われる技術が提供されている。   2. Description of the Related Art Conventionally, a technique called augmented reality has been provided in which an image captured by a camera or an image acquired from another device is displayed with information added thereto.

たとえば、非特許文献1(「Sekai Camera Web」、[平成24年10月30日検索]、インターネット<URL:http://sekaicamera.com>)および非特許文献2(セカイカメラ for AndroidのHOWTO - セカイカメラ サポートセンター」、[平成24年10月30日検索]、インターネット<URL:http://support.sekaicamera.com/ja/how-to/sekaicamera-android>)に開示されるアプリケーション「セカイカメラ」は、その一例である。「セカイカメラ」によれば、ユーザは、カメラのファインダ画像にエアタグを表示させ、当該エアタグをファインダ画像と合わせて記録することができる。   For example, Non-Patent Document 1 ("Sekai Camera Web", [October 30, 2012 search], Internet <URL: http://sekaicamera.com>) and Non-Patent Document 2 (Sekai Camera for Android HOWTO- “Sekai Camera Support Center”, [October 30, 2012 search], Internet <URL: http://support.sekaicamera.com/en/how-to/sekaicamera-android>) Is an example. According to “Sekai Camera”, a user can display an air tag on a finder image of the camera and record the air tag together with the finder image.

さらにこのような技術において、特許文献1(特開2012−60240号公報)には、撮像装置により撮像される入力画像に第1のユーザと第2のユーザが含まれる場合、各ユーザについての撮像装置からの距離に応じたパラメータに基づいて、第1のユーザに関連付けられる第1の表示情報及び第2のユーザに関連付けられる第2の表示情報のいずれを前面に重畳するかを決定する画像処理装置が開示されている。   Furthermore, in such a technique, in Patent Document 1 (Japanese Patent Laid-Open No. 2012-60240), when the first user and the second user are included in the input image captured by the imaging device, imaging for each user is performed. Image processing for determining which of the first display information associated with the first user and the second display information associated with the second user is to be superimposed on the front based on a parameter corresponding to the distance from the device An apparatus is disclosed.

特開2012−60240号公報JP 2012-60240 A

「Sekai Camera Web」、[平成24年10月30日検索]、インターネット<URL:http://sekaicamera.com>“Sekai Camera Web”, [October 30, 2012 search], Internet <URL: http://sekaicamera.com> 「セカイカメラ for AndroidのHOWTO - セカイカメラ サポートセンター」、[平成24年10月30日検索]、インターネット<URL:http://support.sekaicamera.com/ja/how-to/sekaicamera-android>"Sekai Camera for Android HOWTO-Sekai Camera Support Center", [October 30, 2012 search], Internet <URL: http://support.sekaicamera.com/en/how-to/sekaicamera-android>

しかしながら、特許文献1では、追加的に表示される2以上の情報(エアタグ)の前後関係が検討されているのみであって、当該エアタグが画像内のどの位置に表示されるかについては検討がなされていなかった。拡張現実において、撮影された画像がエアタグを追加されて表示された場合、当該情報によって、画像内の人物の顔が隠れたりする場合があり、当該撮影者が当該人物を注視することで当該人物に不快感を与えることが想定される。また、エアタグが表示されることによって画像内の重要な対象物が隠されることにより、拡張現実の表示を見た者は重要な情報を取得できない場合がある。たとえば、撮影された画像に警察署の建物が含まれているにも関わらず、拡張現実の表示において当該警察署の建物がエアタグによって隠された場合、当該撮影者が撮影を継続させることによって理由なく当該警察署に対する不審者として取り扱われる場合も想定される。   However, in Patent Document 1, only the context of two or more pieces of information (air tag) to be additionally displayed is examined, and the position in the image where the air tag is displayed is examined. It wasn't done. In augmented reality, when a captured image is displayed with an air tag added, the person's face in the image may be hidden depending on the information. It is assumed that the user feels uncomfortable. In addition, when an air tag is displayed, an important object in an image is hidden, so that a person who sees an augmented reality display may not obtain important information. For example, if a police station building is included in the captured image but the police station building is hidden by an air tag in the augmented reality display, the photographer will continue to take the reason. In some cases, it may be treated as a suspicious person against the police station.

本発明は、かかる実情に鑑み考え出されたものであり、その目的は、拡張現実によって追加的に表示される情報の位置を、見る者にとって重要であると考えられる情報を隠さないように調整することである。   The present invention has been devised in view of such circumstances, and its purpose is to adjust the position of information additionally displayed by augmented reality so as not to hide information considered to be important to the viewer. It is to be.

ある局面に従うと、撮影された画像を取得する取得手段と、取得手段が取得した画像に含まれる対象物を特定する特定手段と、特定手段が特定した対象物について、当該対象物が優先して表示されるべきものであるか否かを判断する判断手段と、画像と、特定手段が特定した対象物に関する情報とを組み合わせることにより、当該画像を表示するための情報を生成する生成手段とを備える画像処理装置が提供される。生成手段は、特定手段が特定した対象物に関する情報を、判断手段が優先して表示されるべきであると判断した対象物と重ならない位置に表示させる。   According to a certain aspect, the acquisition unit that acquires the captured image, the identification unit that identifies the target included in the image acquired by the acquisition unit, and the target identified by the identification unit are given priority. Judgment means for judging whether or not the image should be displayed, and generation means for generating information for displaying the image by combining the image and information on the object identified by the identification means. An image processing apparatus is provided. The generating means displays information related to the object specified by the specifying means at a position that does not overlap with the object determined by the determining means to be displayed with priority.

好ましくは、取得手段は、画像が撮影された位置と、当該画像が撮影されたときの撮影方向とをさらに取得し、特定手段は、取得手段が取得した位置および撮影方向に基づいて、対象物を特定する。   Preferably, the acquisition unit further acquires a position where the image was shot and a shooting direction when the image was shot, and the specifying unit is based on the position and the shooting direction acquired by the acquisition unit. Is identified.

好ましくは、特定手段は、取得手段が取得した画像に対する画像認識を行うことにより、画像に含まれる対象物を特定する。   Preferably, the specifying unit specifies an object included in the image by performing image recognition on the image acquired by the acquiring unit.

好ましくは、判断手段は、優先して表示される対象物を特定する情報を記憶し、特定手段が特定した対象物が当該記憶している対象物に該当するか否かに基づいて、特定手段が特定した対象物が優先して表示されるべきものであるか否かを判断する。   Preferably, the determination means stores information for specifying an object displayed with priority, and the specifying means is based on whether the object specified by the specifying means corresponds to the stored object. It is determined whether the object specified by is to be displayed with priority.

好ましくは、生成手段は、特定手段が特定した対象物に関する情報を、判断手段が優先して表示されるべきであると判断した対象物と重ならない位置に表示できない場合には、画像に注意すべき対象物が含まれることを示す情報を表示させる。   Preferably, the generation unit pays attention to the image when information relating to the object specified by the specifying unit cannot be displayed at a position that does not overlap with the object determined by the determination unit to be displayed with priority. Information indicating that the target object should be included is displayed.

好ましくは、生成手段は、特定手段が特定した対象物に関する情報を、判断手段が優先して表示されるべきであると判断した対象物の特定の部位に重ならない位置に表示させる。   Preferably, the generation unit displays information related to the object specified by the specifying unit at a position that does not overlap a specific part of the object determined by the determining unit to be displayed with priority.

他の局面に従うと、画像処理方法が提供される。画像処理方法は、撮影された画像を取得するステップと、取得した画像に含まれる対象物を特定するステップと、特定した対象物について、当該対象物が優先して表示されるべきものであるか否かを判断するステップと、画像と、特定手段が特定した対象物に関する情報とを組み合わせることにより、当該画像を表示するための情報を生成するステップとを備える。当該画像を表示するための情報を生成するステップは、特定した対象物に関する情報を、優先して表示されるべきであると判断した対象物と重ならない位置に表示させる。   According to another aspect, an image processing method is provided. In the image processing method, a step of acquiring a captured image, a step of specifying a target object included in the acquired image, and whether the target object should be displayed with priority for the specified target object A step of determining whether or not, and a step of generating information for displaying the image by combining the image and information related to the object specified by the specifying means. In the step of generating information for displaying the image, information on the identified object is displayed at a position that does not overlap with the object determined to be displayed with priority.

さらに他の局面に従うと、画像処理装置のコンピュータによって実行されるプログラムが提供される。プログラムは、画像処理装置に、撮影された画像を取得するステップと、取得した画像に含まれる対象物を特定するステップと、特定した対象物について、当該対象物が優先して表示されるべきものであるか否かを判断するステップと、画像と、特定手段が特定した対象物に関する情報とを組み合わせることにより、当該画像を表示するための情報を生成するステップとを実行させる。当該画像を表示するための情報を生成するステップは、特定した対象物に関する情報を、優先して表示されるべきであると判断した対象物と重ならない位置に表示させる。   According to yet another aspect, a program executed by a computer of an image processing apparatus is provided. The program includes a step of acquiring a captured image, a step of specifying a target object included in the acquired image, and the target object to be displayed with priority on the specified target object on the image processing apparatus. And a step of generating information for displaying the image by combining the image and information related to the object specified by the specifying means. In the step of generating information for displaying the image, information on the identified object is displayed at a position that does not overlap with the object determined to be displayed with priority.

本発明によれば、撮影された画像に、優先して表示されるべき対象物が含まれる場合には、当該優先して表示されるべき対象物と重ならないように、上記画像に含まれる対象物の情報が表示される。   According to the present invention, when an object to be displayed with priority is included in the captured image, the object included in the image is not overlapped with the object to be displayed with priority. Information about the object is displayed.

これにより、拡張現実によって追加的に表示される情報の位置を、見る者にとって重要であると考えられる情報を隠さないように調整することができる。   Thereby, the position of the information additionally displayed by augmented reality can be adjusted so as not to hide the information considered important for the viewer.

画像処理装置の外観の一例を示す図である。It is a figure which shows an example of the external appearance of an image processing apparatus. 画像処理装置のハードウェア構成の具体例を示す図である。It is a figure which shows the specific example of the hardware constitutions of an image processing apparatus. 画像処理装置において実行される処理の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the process performed in an image processing apparatus. 画像処理装置の機能ブロックの具体例を示す図である。It is a figure which shows the specific example of the functional block of an image processing apparatus. 拡張現実を表示する画像を生成するために実行される処理の一例のフローチャートである。It is a flowchart of an example of the process performed in order to produce | generate the image which displays an augmented reality. 透過画像として表示される拡張現実を含む表示例を説明するための図である。It is a figure for demonstrating the example of a display containing the augmented reality displayed as a transparent image. 比較例における拡張現実の表示画面の一例を示す図である。It is a figure which shows an example of the display screen of the augmented reality in a comparative example.

以下、本発明の画像処理装置の実施の形態について、図面を参照して説明する。なお、以下の説明において、同一の機能および作用を有する要素については、同じ各図を通して同じ符号を付し、重複する説明を繰返さない。   Embodiments of an image processing apparatus according to the present invention will be described below with reference to the drawings. In the following description, elements having the same function and action are denoted by the same reference numerals throughout the same drawings, and redundant description will not be repeated.

[画像処理装置の外観]
図1は、画像処理装置の外観の一例を示す図である。図1に示されるように、本実施の形態の画像処理装置1は、シャッタボタン25Aと、表示装置30とを含む。画像処理装置は、たとえばデジタルカメラ、タブレット端末、携帯電話機、高機能携帯電話機(スマートフォン)等の種々の情報処理装置によって実現され得る。なお、画像処理装置1は、少なくとも撮影された画像を処理することができればよく、撮像装置は画像処理装置1の必須要素ではない。画像処理装置1は、自機が備えるカメラ等の撮像装置が撮影した画像を処理する場合もあれば、他の機器から取得した画像を処理する場合もある。
[Appearance of image processing device]
FIG. 1 is a diagram illustrating an example of the appearance of the image processing apparatus. As shown in FIG. 1, the image processing apparatus 1 of the present embodiment includes a shutter button 25 </ b> A and a display device 30. The image processing apparatus can be realized by various information processing apparatuses such as a digital camera, a tablet terminal, a mobile phone, and a high-function mobile phone (smart phone). Note that the image processing apparatus 1 is only required to process at least a captured image, and the imaging apparatus is not an essential element of the image processing apparatus 1. The image processing apparatus 1 may process an image captured by an imaging apparatus such as a camera included in the image processing apparatus, or may process an image acquired from another device.

[画像処理装置のハードウェア構成]
図2は、画像処理装置1のハードウェア構成の具体例を示す図である。
[Hardware configuration of image processing apparatus]
FIG. 2 is a diagram illustrating a specific example of the hardware configuration of the image processing apparatus 1.

図2を参照して、画像処理装置1は、全体を制御するための演算装置であるCPU(Central Processing Unit)20と、CPU20で実行されるプログラムなどを記憶するためのROM21と、CPU20でプログラムを実行する際の作業領域として機能するためのRAM22と、磁気センサを含んで当該画像処理装置1の向きを検出するための電子コンパス23と、GPS(Global Positioning System)信号または基地局からの位置信号を受信して当該携帯端末の位置情報を取得するためのGPSコントローラ24と、操作入力を受付けるための操作部25と、カメラ26と、外部の機器と通信するための通信装置27と、画像処理装置1に対して着脱可能な記録媒体100に対する情報の書き込みおよび読み取りを行うメディアコントローラ28と、表示装置30とを含む。表示装置30は、たとえば液晶ディスプレイやプラズマディスプレイなどによって実現され、操作部25と一体的にタッチパネルとして実現される場合もあり得る。電子コンパス23およびGPSコントローラ24は、取得した当該画像処理装置1の向きや位置情報を示す信号をCPU20に入力する。   Referring to FIG. 2, the image processing apparatus 1 includes a CPU (Central Processing Unit) 20 that is an arithmetic device for controlling the whole, a ROM 21 for storing a program executed by the CPU 20, and a program executed by the CPU 20. RAM 22 for functioning as a work area when executing the operation, an electronic compass 23 for detecting the orientation of the image processing apparatus 1 including a magnetic sensor, a GPS (Global Positioning System) signal, or a position from a base station A GPS controller 24 for receiving a signal and acquiring position information of the portable terminal, an operation unit 25 for receiving operation input, a camera 26, a communication device 27 for communicating with an external device, an image A media controller 28 for writing and reading information to and from the recording medium 100 detachable from the processing apparatus 1; Display device 30. The display device 30 is realized by, for example, a liquid crystal display or a plasma display, and may be realized as a touch panel integrally with the operation unit 25. The electronic compass 23 and the GPS controller 24 input the acquired signal indicating the orientation and position information of the image processing apparatus 1 to the CPU 20.

[画像処理装置における処理の概要]
図3は、画像処理装置1において実行される処理の概要を説明するための図である。図3の(A)は、カメラ26によって撮影された画像の一例を示す。図3の(B)は、図3の(A)の画像31から抽出された対象物に関する情報の一例を示す。図3の(C)は、図3の(A)の画像31に、図3の(B)に示された情報が組み合わされることによって生成された拡張現実の表示画面の一例を示す。
[Outline of processing in image processing apparatus]
FIG. 3 is a diagram for explaining an outline of processing executed in the image processing apparatus 1. FIG. 3A shows an example of an image photographed by the camera 26. FIG. 3B shows an example of information relating to the object extracted from the image 31 of FIG. FIG. 3C shows an example of an augmented reality display screen generated by combining the information shown in FIG. 3B with the image 31 of FIG.

図3の(A)の画像31から、画像処理装置1は、パターン認識等の画像認識によって、被写体501と被写体502を抽出する。そして、画像処理装置1は、被写体501,502のそれぞれについて、たとえばネットワーク経由で、情報の取得を試みる。   From the image 31 of FIG. 3A, the image processing apparatus 1 extracts the subject 501 and the subject 502 by image recognition such as pattern recognition. Then, the image processing apparatus 1 tries to acquire information on each of the subjects 501 and 502 via, for example, a network.

情報の取得態様の一例を説明する。画像処理装置1は、画像31が撮影されたときの画像処理装置1の向きと位置情報とに基づいて、当該位置情報によって特定される位置で、当該向きによって特定される方向で撮影が行なわれた場合に撮影の対象となる領域を特定する。そして、画像処理装置1は、上記領域に、所定の確率以上の確度で、被写体501,502の外観と近似する外観を有する物体を特定する。そして、当該物体に関する情報を取得する。なお、このような情報の取得は、セカイカメラ等における公知の技術を採用することが可能である。ここでは、公知技術については、詳細な説明を繰り返さない。   An example of an information acquisition mode will be described. Based on the orientation and position information of the image processing apparatus 1 when the image 31 is photographed, the image processing apparatus 1 is photographed at the position identified by the position information in the direction identified by the orientation. In this case, the area to be imaged is specified. Then, the image processing apparatus 1 identifies an object having an appearance that approximates the appearance of the subjects 501 and 502 with an accuracy equal to or higher than a predetermined probability in the region. And the information regarding the said object is acquired. In addition, the acquisition of such information can employ a known technique in the Sekai camera or the like. Here, the detailed description of the known technology will not be repeated.

画像31内の被写体についての情報を取得すると、画像処理装置1は、たとえば図3の(B)に示されるように、当該情報の画像を生成する。本明細書では、画像処理装置1が、被写体501についての情報を取得した例が説明される。図3の(B)において、吹出し903は、被写体501についての情報を表示する画像である。   When the information about the subject in the image 31 is acquired, the image processing apparatus 1 generates an image of the information as shown in FIG. 3B, for example. In this specification, an example in which the image processing apparatus 1 acquires information about the subject 501 is described. In FIG. 3B, a balloon 903 is an image that displays information about the subject 501.

画像処理装置1は、画像31と吹出し903とを組み合わせることにより、拡張現実を表示する画像を生成する。なお、画像31の、吹出し903に対応する位置には、画像認識によって抽出された被写体502が位置する。被写体502は、後述するように、優先して表示されるべき被写体として登録されている。そして、画像処理装置1は、図3の(C)において画像33として示されるように、吹出し903を、被写体502の領域に重ならないように画像31と組み合わせることにより、拡張現実を表示する画像を生成する。図3の(C)において、破線で示された領域503Aは、図3の(B)に示されたような、吹出し903のデフォルトの表示位置を示している。そして、吹出し503は、吹出し903の実際の表示位置を示す。画像処理装置1は、画像31における被写体の位置に応じて、拡張現実の表示において、吹出しを表示する位置を、デフォルト位置から適宜変更する。本明細書において、吹出し903は「拡張現実の画像」の一例であり、画像33は「拡張現実を表示する画像」の一例である。   The image processing apparatus 1 generates an image displaying augmented reality by combining the image 31 and the balloon 903. It should be noted that the subject 502 extracted by image recognition is located at a position corresponding to the balloon 903 in the image 31. As will be described later, the subject 502 is registered as a subject to be displayed with priority. Then, the image processing apparatus 1 combines the balloon 903 with the image 31 so as not to overlap the area of the subject 502, as shown as an image 33 in FIG. Generate. In FIG. 3C, a region 503A indicated by a broken line indicates a default display position of the balloon 903 as shown in FIG. A balloon 503 indicates an actual display position of the balloon 903. The image processing apparatus 1 appropriately changes the position for displaying the balloon from the default position in the augmented reality display according to the position of the subject in the image 31. In this specification, the balloon 903 is an example of an “augmented reality image”, and the image 33 is an example of an “augmented reality image”.

なお、被写体によっては、当該被写体における場所によって、吹出しによって隠されることによる不快感の度合いが異なる場合がある。たとえば、被写体が人間である場合、顔が吹出しによって隠された場合には不快感は大きいが、それ以外の部位(たとえば、脚部)が吹出しによって隠されてもさほど不快感を生じないことが考えられる。画像処理装置1は、被写体の種類(建物、人間、人間以外の動物、等)を特定でき、当該被写体の部位を特定でき、さらに、被写体の部位に応じて吹出しによって隠されることについての不快感を生じることが予測される度合いが設定されている場合には、当該度合いが低い位置に、吹出しを表示させる場合もあり得る。   Depending on the subject, the degree of discomfort caused by being hidden by the blowing may vary depending on the location of the subject. For example, when the subject is a human being, the discomfort is great when the face is hidden by the blowout, but the discomfort does not occur so much even if other parts (for example, legs) are hidden by the blowout. Conceivable. The image processing apparatus 1 can specify the type of the subject (building, human, non-human animal, etc.), can specify the part of the subject, and further discomfort about being hidden by the blowout according to the part of the subject. When the degree at which it is predicted that the occurrence of the above is set is set, the balloon may be displayed at a position where the degree is low.

[画像処理装置の機能構成]
図4は、画像処理装置1の機能ブロック図である。画像処理装置1は、その機能として、画像取得部51と、位置情報取得部52と、方位情報取得部53と、注視不可対象判別部54と、拡張現実生成部55と、出力画像生成部50とを含む。
[Functional configuration of image processing apparatus]
FIG. 4 is a functional block diagram of the image processing apparatus 1. The image processing apparatus 1 functions as an image acquisition unit 51, a position information acquisition unit 52, an orientation information acquisition unit 53, a gaze impossibility target determination unit 54, an augmented reality generation unit 55, and an output image generation unit 50. Including.

画像取得部51は、処理対象の画像を取得する。画像取得部51は、たとえばカメラ26によって実現されるが、他の機器から画像を受信する通信装置27によって実現される場合もあり得る。   The image acquisition unit 51 acquires an image to be processed. The image acquisition unit 51 is realized by, for example, the camera 26, but may be realized by the communication device 27 that receives an image from another device.

位置情報取得部52は、処理対象の画像が撮影されたときの撮像装置の位置情報を取得する。位置情報取得部52は、たとえば電子コンパス23によって実現されるが、他の機器から受信した画像とともに受信される情報から上記のような位置情報を抽出する処理を実行するCPU20によって実現される場合もあり得る。方位情報取得部53は、処理対象の画像が撮影されたときの撮像装置の撮影方向を取得する。方位情報取得部53は、たとえばGPSコントローラ24によって実現されるが、他の機器から受信した画像とともに受信される情報から上記のような撮影方向を抽出する処理を実行する、CPU20によって実現される場合もあり得る。   The position information acquisition unit 52 acquires position information of the imaging device when the processing target image is captured. The position information acquisition unit 52 is realized by the electronic compass 23, for example. However, the position information acquisition unit 52 may be realized by the CPU 20 that executes the process of extracting the position information as described above from information received together with an image received from another device. possible. The azimuth information acquisition unit 53 acquires the shooting direction of the imaging device when the processing target image is shot. The azimuth information acquisition unit 53 is realized by, for example, the GPS controller 24, but is realized by the CPU 20 that executes processing for extracting the shooting direction as described above from information received together with an image received from another device. There is also a possibility.

注視不可対象判別部54は、処理対象の画像から被写体を抽出し、各被写体が、注視することを不可とされる被写体(特定の被写体)であるか否かを判別する。この判別は、各被写体が優先して表示させるべき被写体であるか否かの判断の一例に相当する。拡張現実生成部55は、処理対象の画像から被写体を抽出し、各被写体についての情報を取得し、当該情報を表示するための画像を生成する。出力画像生成部50は、処理対象の画像と、拡張現実生成部55が生成した画像とを組み合わせることにより、拡張現実を表示するための画像を生成し、表示装置30へ出力する。これにより、表示装置30は、図3の(C)に示されたような画像を表示する。   The gaze impossibility target determination unit 54 extracts a subject from the processing target image, and determines whether or not each subject is a subject (specific subject) that cannot be watched. This determination corresponds to an example of determining whether or not each subject is a subject to be displayed with priority. The augmented reality generation unit 55 extracts a subject from the processing target image, acquires information about each subject, and generates an image for displaying the information. The output image generation unit 50 generates an image for displaying augmented reality by combining the image to be processed and the image generated by the augmented reality generation unit 55, and outputs the generated image to the display device 30. As a result, the display device 30 displays an image as shown in FIG.

出力画像生成部50は、表示位置決定部57を含む。表示位置決定部57は、拡張現実を表示する画像の中の、拡張現実生成部55が生成した画像を表示する位置を、注視不可対象判別部54による判別の結果に基づいて決定する。より具体的には、図3の(A)〜(C)を参照して説明したように、処理対象の画像(画像31)に含まれる被写体が、特定の被写体であると判断された場合には、表示位置決定部57は、拡張現実を表示する画像の中で、拡張現実生成部55が生成した画像を、当該被写体に重ならない位置に表示させる。   The output image generation unit 50 includes a display position determination unit 57. The display position determination unit 57 determines the position at which the image generated by the augmented reality generation unit 55 is displayed in the image displaying the augmented reality based on the determination result by the gaze impossibility target determination unit 54. More specifically, as described with reference to FIGS. 3A to 3C, when it is determined that the subject included in the image to be processed (image 31) is a specific subject. The display position determination unit 57 displays the image generated by the augmented reality generation unit 55 in the image that displays the augmented reality at a position that does not overlap the subject.

注視不可対象判別部54、拡張現実生成部55、および、出力画像生成部50は、たとえば、所定のプログラムを実行するCPU20によって実現される。なお、これらのうちの少なくとも一つが、専用のハードウェア要素によって実現される場合もあり得る。   The gaze impossibility target determination unit 54, the augmented reality generation unit 55, and the output image generation unit 50 are realized by, for example, the CPU 20 that executes a predetermined program. Note that at least one of these may be realized by a dedicated hardware element.

[処理の概要]
図5は、拡張現実を表示する画像を生成するために画像処理装置1のCPU10が実行する処理の一例のフローチャートである。図5を参照して、当該処理の内容を説明する。
[Process overview]
FIG. 5 is a flowchart of an example of processing executed by the CPU 10 of the image processing apparatus 1 to generate an image displaying augmented reality. The contents of the process will be described with reference to FIG.

まずステップS10で、CPU10は、処理対象の画像と、当該画像の撮影時の位置情報と方位情報とを取得して、ステップS20へ処理を進める。CPU10は、たとえばカメラ26から処理対象の画像を取得し、電子コンパス23から位置情報を取得し、そして、GPSコントローラ24から方位情報を取得する。   First, in step S10, the CPU 10 acquires an image to be processed, position information and orientation information at the time of shooting the image, and advances the process to step S20. For example, the CPU 10 acquires an image to be processed from the camera 26, acquires position information from the electronic compass 23, and acquires orientation information from the GPS controller 24.

ステップS20では、CPU10は、ステップS10で取得した処理対象の画像から、被写体を抽出し、抽出した被写体についての情報を取得し、取得した情報に基づいて、図3の吹出し903のような拡張現実の情報を生成して、ステップS30へ処理を進める。   In step S20, the CPU 10 extracts a subject from the processing target image acquired in step S10, acquires information about the extracted subject, and based on the acquired information, augmented reality such as the balloon 903 in FIG. Is generated, and the process proceeds to step S30.

ステップS30では、CPU10は、ステップS10で取得した処理対象の画像から抽出された被写体が、注視不可対象(特定の被写体)を含むか否かを判断する。そして、CPU10は、特定の被写体を含むと判断するとステップS40へ処理を進め、含まないと判断するとステップS80へ処理を進める。   In step S <b> 30, the CPU 10 determines whether or not the subject extracted from the processing target image acquired in step S <b> 10 includes a gaze impossible target (specific subject). If the CPU 10 determines that the specific subject is included, the process proceeds to step S40. If the CPU 10 determines that the specific subject is not included, the process proceeds to step S80.

ステップS40では、CPU10は、ステップS20で生成した拡張現実の情報の、拡張現実を表示する画面におけるデフォルトの表示位置が、ステップS30において特定の被写体と判断された被写体に重なるかどうかを判断する。拡張現実のデフォルトの表示位置の一例としては、たとえば、当該拡張現実(吹出し903)が対応する被写体(被写体501)に対して予め定められた関係の位置(右側に1cm離れた位置)を挙げることができる。そして、CPU10は、デフォルトの表示位置が特定の被写体に重なると判断すると、ステップS50へ処理を進め、重ならないと判断するとステップS80へ処理を進める。   In step S40, the CPU 10 determines whether or not the default display position of the augmented reality information generated in step S20 on the augmented reality display screen overlaps the subject determined as the specific subject in step S30. As an example of the default display position of augmented reality, for example, a position (a position 1 cm away on the right side) having a predetermined relationship with the subject (subject 501) to which the augmented reality (speech 903) corresponds is given. Can do. If the CPU 10 determines that the default display position overlaps the specific subject, the process proceeds to step S50. If the CPU 10 determines that the default display position does not overlap, the process proceeds to step S80.

ステップS50では、CPU10は、ステップS40で特定の被写体と重なると判断された拡張現実の位置を変更可能かどうかを判断する。そして、CPU10は、可能であると判断するとステップS60へ処理を進め、変更できないと判断するとステップS70へ処理を進める。ステップS50の判断は、たとえば、処理対象の画像の、「特定の被写体」とされた被写体が占める領域以外に、ステップS20で生成した拡張現実を表示する領域が残されているか否かの判断である。CPU10は、残されていれば、拡張現実の位置を変更可能と判断し、残されていなければ、拡張現実の位置を変更できないと判断する。   In step S50, the CPU 10 determines whether or not the augmented reality position determined to overlap with the specific subject in step S40 can be changed. If the CPU 10 determines that the change is possible, the process proceeds to step S60. If the CPU 10 determines that the change cannot be made, the process proceeds to step S70. The determination in step S50 is, for example, a determination of whether or not there is an area for displaying the augmented reality generated in step S20 other than the area occupied by the subject that is the “specific subject” in the processing target image. is there. If it is left, the CPU 10 determines that the augmented reality position can be changed, and if not, determines that the augmented reality position cannot be changed.

ステップS60では、CPU10は、ステップS20で生成した拡張現実の表示位置を、処理対象の画像における特定の被写体が占める領域以外の領域へと変更して、ステップS80へ処理を進める。これにより、図3の(C)に示されるように、拡張現実を表示する画面において、吹出しの表示位置は、領域503Aから吹出し503へと変更される。   In step S60, the CPU 10 changes the augmented reality display position generated in step S20 to a region other than the region occupied by the specific subject in the processing target image, and proceeds to step S80. As a result, as shown in FIG. 3C, the display position of the balloon is changed from the area 503 </ b> A to the balloon 503 on the screen displaying the augmented reality.

ステップS70では、CPU10は、拡張現実を、可能な限り透過するデザインへと変更して、ステップS80へ処理を進める。   In step S70, the CPU 10 changes the augmented reality to a design that is as transparent as possible, and advances the process to step S80.

ステップS80では、CPU10は、拡張現実を表示する画面として表示装置30に出力する画像を生成して、処理を終了する。   In step S80, CPU10 produces | generates the image output to the display apparatus 30 as a screen which displays an augmented reality, and complete | finishes a process.

[画像処理装置における処理のまとめ]
以上、図5を参照して説明した処理によれば、画像処理装置1は、処理対象の画像に特定の被写体が含まれると判断すると、当該処理対象の画像に含まれる他の被写体の拡張現実が特定の被写体に重ならないように、拡張現実の位置で表示する。図7は、比較例における拡張現実の表示画面の一例を示す図である。
[Summary of processing in image processing apparatus]
As described above, according to the processing described with reference to FIG. 5, when the image processing apparatus 1 determines that the specific subject is included in the processing target image, the augmented reality of the other subject included in the processing target image. Is displayed at an augmented reality position so that it does not overlap a specific subject. FIG. 7 is a diagram illustrating an example of an augmented reality display screen in the comparative example.

図7では、(A)は、処理対象の画像である画像91を示し、(B)は、画像91内の被写体901の拡張現実である吹出し903を示し、(C)は、画像91と吹出し903とが組み合わされることによって生成される拡張現実の表示画面の一例を示す。この例では、画像91から、被写体901と被写体902が抽出される。図7の(C)では、被写体901の拡張現実である吹出し903は、被写体902に重ねられて表示されている。これにより、拡張現実の表示画面である画像93を視認した者は、当該画像93において被写体902を確認できない場合がある。   7A shows an image 91 that is an image to be processed, FIG. 7B shows a balloon 903 that is an augmented reality of the subject 901 in the image 91, and FIG. 7C shows an image 91 and a balloon An example of an augmented reality display screen generated by combining with 903 is shown. In this example, a subject 901 and a subject 902 are extracted from the image 91. In FIG. 7C, a balloon 903 that is an augmented reality of the subject 901 is displayed superimposed on the subject 902. As a result, a person who has viewed the image 93 that is the augmented reality display screen may not be able to confirm the subject 902 in the image 93.

一方、図3の(C)の画像33では、吹出し503は、被写体502に重ならないように、配置されている。これにより、画像33を視認した者は、被写体501の拡張現実である吹出しとともに、被写体502を確認できる。   On the other hand, in the image 33 in FIG. 3C, the balloon 503 is arranged so as not to overlap the subject 502. Thereby, the person who has visually recognized the image 33 can confirm the subject 502 together with the balloon that is the augmented reality of the subject 501.

なお、ステップS70として示されたように、特定の被写体以外の領域で拡張現実を表示できない場合の対処の一例として、拡張現実を可能な限り透過して表示する。図6は、透過画像として表示される拡張現実を含む表示例を説明するための図である。   As shown in step S70, augmented reality is displayed as transparently as possible as an example of a case where augmented reality cannot be displayed in a region other than a specific subject. FIG. 6 is a diagram for explaining a display example including augmented reality displayed as a transparent image.

図6では、(A)は、処理対象の画像34を示し、(B)は、画像34内の被写体501の拡張現実である吹出し503を示し、(C)は、画像34と吹出し503とが組み合わされることによって生成される拡張現実の表示画面の一例を示す。この例では、画像34から、被写体501と被写体502と被写体510が抽出される。   6A shows an image 34 to be processed, FIG. 6B shows a balloon 503 that is an augmented reality of the subject 501 in the image 34, and FIG. 6C shows an image 34 and a balloon 503. An example of a display screen of augmented reality generated by being combined is shown. In this example, a subject 501, a subject 502, and a subject 510 are extracted from the image 34.

図6の(A)と(B)から理解されるように、画像34には、被写体501,502,510以外の領域に、吹出し503を表示できるたけのスペースが含まれない。この場合、画像処理装置1は、吹出し503を、透過画像として、表示させる。これにより、図6の(C)の画像36では、吹出し503の奥に位置する被写体510の外形が視認可能である。   As understood from FIGS. 6A and 6B, the image 34 does not include a space that can display the balloon 503 in an area other than the subjects 501, 502, and 510. In this case, the image processing apparatus 1 displays the balloon 503 as a transmission image. Thereby, in the image 36 in FIG. 6C, the outer shape of the subject 510 located behind the balloon 503 can be visually recognized.

なお、ステップS70において、拡張現実を透過画像とし、さらに、ステップS80において、当該透過画像を処理対象の画像と組み合わせる場合に、画像処理装置1は、当該透過画像の配置を、処理対象の画像に含まれる2以上の被写体の間での優先順位に応じて決定してもよい。つまり、図6の(C)の画像36における吹出し503の配置を決定するときに、CPU10は、吹出し503が対応する被写体501以外の被写体、つまり、被写体502と被写体510の間での優先順位を特定する。そして、画像処理装置1は、優先順位が高い順に、優先して吹出しが重ならない位置で、当該吹出しの配置を決定する。図6の例では、被写体502は、被写体510よりも優先順位が高い。これにより、画像処理装置1は、図6の(C)の画像36において、被写体502に重なる領域503Aの位置を避けて、透過処理された吹出し503を配置している。   In step S70, the augmented reality is made a transparent image, and when the transparent image is combined with the processing target image in step S80, the image processing apparatus 1 changes the arrangement of the transparent image to the processing target image. It may be determined according to the priority order between two or more included subjects. That is, when determining the arrangement of the balloons 503 in the image 36 in FIG. 6C, the CPU 10 sets priorities between subjects other than the subject 501 corresponding to the balloons 503, that is, between the subjects 502 and 510. Identify. Then, the image processing apparatus 1 determines the arrangement of the balloons at positions where the balloons do not overlap with priority in descending order of priority. In the example of FIG. 6, the subject 502 has a higher priority than the subject 510. Thereby, the image processing apparatus 1 arranges the balloon 503 subjected to the transmission processing while avoiding the position of the region 503A overlapping the subject 502 in the image 36 of FIG.

かかる優先順位としては、たとえば、被写体として特定された物体の種類に基づいて設定される。より具体的には、たとえば、被写体が特定された物体が、「人物」である場合が最も優先順位が高く、つづいて、「動物」「建物」の順が設定される。優先順位を特定する情報は、たとえば、ROM21やRAM22や記録媒体100に格納される。   The priority order is set based on, for example, the type of object specified as the subject. More specifically, for example, when the object whose subject is specified is “person”, the highest priority is given, followed by “animal” and “building”. Information specifying the priority order is stored in, for example, the ROM 21, the RAM 22, or the recording medium 100.

なお、拡張現実の表示スペースを確保できないと判断した場合、画像処理装置1は、ステップS70での透過処理後の画像を組み合わせる代わりに、拡張現実の表示を含めることなく処理対象の画像を表示させてもよい。ただし、この場合、画像処理装置1は、拡張現実を行わなかったことを表示等により報知することが好ましい。   If it is determined that the augmented reality display space cannot be secured, the image processing apparatus 1 displays the image to be processed without including the augmented reality display instead of combining the images after the transparent process in step S70. May be. However, in this case, it is preferable that the image processing apparatus 1 notifies the user that the augmented reality has not been performed by display or the like.

また、画像処理装置1は、ステップS70での透過処理後の画像を組み合わせる代わりに、図7の(C)に示されたように、拡張現実の画像を被写体902に重ねて表示してもよい。ただし、この場合には、画像処理装置1は、被写体902が、拡張現実の画像(吹出し903)が重ねられたことにより視認が困難になっていることを報知することが好ましい。   Further, the image processing apparatus 1 may display the augmented reality image superimposed on the subject 902 as shown in FIG. 7C instead of combining the images after the transmission processing in step S70. . However, in this case, it is preferable that the image processing apparatus 1 informs the subject 902 that it is difficult to visually recognize the augmented reality image (the balloon 903).

また、被写体として特定された物体が、信号機や道路標識など、見落とすことによって危険を生じるような重要な一定の種類の物体である場合には、特に優先的に、当該物体を表示させることが好ましい。つまり、処理対象の画像においてこのような物体が特定された場合には、特に、拡張現実の画像の位置を当該物体とは重ならないように調整することが好ましい。   In addition, when an object specified as a subject is an important certain type of object that causes danger when it is overlooked, such as a traffic light or a road sign, it is preferable to display the object particularly preferentially. . That is, when such an object is specified in the processing target image, it is particularly preferable to adjust the position of the augmented reality image so as not to overlap the object.

なお、本実施の形態における「拡張現実の画像の位置」の変更や調整には、図3の(B)と(C)を参照して説明したような、単なる位置の変更だけでなく、拡張現実の画像を縮小することによる、当該画像の外縁の位置の変更も含む。   Note that the change or adjustment of “augmented reality image position” in the present embodiment is not limited to a simple position change as described with reference to FIGS. It also includes changing the position of the outer edge of the image by reducing the actual image.

今回開示された実施の形態およびその変形例はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。実施の形態およびその変形例において開示された技術は、可能な限り単独でも組み合わせても実施され得ることが意図される。   It should be thought that embodiment disclosed this time and its modification are illustrations in all the points, and are not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims. It is intended that the techniques disclosed in the embodiments and the modifications thereof can be implemented alone or in combination as much as possible.

1 画像処理装置、23 電子コンパス、24 コントローラ、25 操作部、25A シャッタボタン、26 カメラ、27 通信装置、30 表示装置、50 出力画像生成部、51 画像取得部、52 位置情報取得部、53 方位情報取得部、54 注視不可対象判別部、55 拡張現実生成部、57 表示位置決定部。   DESCRIPTION OF SYMBOLS 1 Image processing apparatus, 23 Electronic compass, 24 Controller, 25 Operation part, 25A Shutter button, 26 Camera, 27 Communication apparatus, 30 Display apparatus, 50 Output image generation part, 51 Image acquisition part, 52 Position information acquisition part, 53 Direction Information acquisition unit, 54 gaze impossibility target determination unit, 55 augmented reality generation unit, 57 display position determination unit.

Claims (5)

撮影された画像を取得する取得手段と、
前記取得手段が取得した画像に含まれる対象物を特定する特定手段と、
前記特定手段が特定した対象物について、当該対象物が優先して表示されるべきものであるか否かを判断する判断手段と、
前記画像と、前記特定手段が特定した対象物に関する情報とを組み合わせることにより、当該画像を表示するための情報を生成する生成手段とを備え、
前記生成手段は、前記特定手段が特定した対象物に関する情報を、前記判断手段が優先して表示されるべきであると判断した対象物と重ならない位置に表示させる、画像処理装置。
An acquisition means for acquiring a captured image;
Specifying means for specifying an object included in the image acquired by the acquiring means;
Determination means for determining whether the object should be displayed with priority for the object specified by the specifying means;
Generating means for generating information for displaying the image by combining the image and information on the object specified by the specifying means;
The image processing apparatus, wherein the generation unit displays information on the object specified by the specifying unit at a position that does not overlap with the object determined by the determination unit to be displayed with priority.
前記取得手段は、前記画像が撮影された位置と、当該画像が撮影されたときの撮影方向とをさらに取得し、
前記特定手段は、前記取得手段が取得した位置および撮影方向に基づいて、対象物を特定する、請求項1に記載の画像処理装置。
The acquisition means further acquires a position where the image is captured and a photographing direction when the image is photographed,
The image processing apparatus according to claim 1, wherein the specifying unit specifies an object based on the position and the shooting direction acquired by the acquiring unit.
前記特定手段は、前記取得手段が取得した画像に対する画像認識を行うことにより、前記画像に含まれる対象物を特定する、請求項1または請求項2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the specifying unit specifies an object included in the image by performing image recognition on the image acquired by the acquiring unit. 前記判断手段は、
優先して表示される対象物を特定する情報を記憶し、
前記特定手段が特定した対象物が当該記憶している対象物に該当するか否かに基づいて、前記特定手段が特定した対象物が優先して表示されるべきものであるか否かを判断する、請求項1〜請求項3のいずれか1項に記載の画像処理装置。
The determination means includes
Stores information that identifies objects that are displayed with priority,
Based on whether the object specified by the specifying means corresponds to the stored object, it is determined whether the object specified by the specifying means should be displayed with priority. The image processing device according to any one of claims 1 to 3.
前記生成手段は、前記特定手段が特定した対象物に関する情報を、前記判断手段が優先して表示されるべきであると判断した対象物と重ならない位置に表示できない場合には、前記画像に注意すべき対象物が含まれることを示す情報を表示させる、請求項1〜請求項4のいずれか1項に記載の画像処理装置。   The generating means is cautionary about the image when information relating to the object specified by the specifying means cannot be displayed at a position that does not overlap with the object determined by the determining means to be preferentially displayed. The image processing apparatus according to claim 1, wherein information indicating that an object to be included is included is displayed.
JP2012247612A 2012-11-09 2012-11-09 Image processing apparatus Pending JP2014096057A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012247612A JP2014096057A (en) 2012-11-09 2012-11-09 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012247612A JP2014096057A (en) 2012-11-09 2012-11-09 Image processing apparatus

Publications (1)

Publication Number Publication Date
JP2014096057A true JP2014096057A (en) 2014-05-22

Family

ID=50939073

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012247612A Pending JP2014096057A (en) 2012-11-09 2012-11-09 Image processing apparatus

Country Status (1)

Country Link
JP (1) JP2014096057A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017100206A (en) * 2015-11-30 2017-06-08 株式会社デンソーウェーブ Robot safety system
WO2021248493A1 (en) * 2020-06-12 2021-12-16 深圳传音控股股份有限公司 Message display method, mobile terminal, and computer-readable storage medium
JP2022153361A (en) * 2020-12-04 2022-10-12 マクセル株式会社 Video apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017100206A (en) * 2015-11-30 2017-06-08 株式会社デンソーウェーブ Robot safety system
WO2021248493A1 (en) * 2020-06-12 2021-12-16 深圳传音控股股份有限公司 Message display method, mobile terminal, and computer-readable storage medium
JP2022153361A (en) * 2020-12-04 2022-10-12 マクセル株式会社 Video apparatus
JP7397918B2 (en) 2020-12-04 2023-12-13 マクセル株式会社 Video equipment

Similar Documents

Publication Publication Date Title
CN110189340B (en) Image segmentation method and device, electronic equipment and storage medium
CN111602140B (en) Method of analyzing objects in images recorded by a camera of a head-mounted device
US9807300B2 (en) Display apparatus for generating a background image and control method thereof
US9569898B2 (en) Wearable display system that displays a guide for a user performing a workout
US9924226B2 (en) Method and device for processing identification of video file
KR20150003591A (en) Smart glass
JP2016533686A (en) Method and apparatus for generating an omnifocal image
JP2017503198A (en) Trim content to project onto a target
JP6092761B2 (en) Shopping support apparatus and shopping support method
EP3460633A1 (en) Head-mounted display apparatus and processing method thereof
US11625904B2 (en) Method and electronic device for processing images
KR20200051591A (en) Information processing apparatus, information processing method, and program
JP2009088903A (en) Mobile communication device
CN110570460A (en) Target tracking method and device, computer equipment and computer readable storage medium
EP3640840B1 (en) Tracking method and apparatus for smart glasses, smart glasses and storage medium
CN112749613A (en) Video data processing method and device, computer equipment and storage medium
CN110675473B (en) Method, device, electronic equipment and medium for generating GIF dynamic diagram
JP7078568B2 (en) Display device, display control method, and display system
JP2007249527A (en) Image editing device, image editing method and image editing program
JP2014096057A (en) Image processing apparatus
JP2004257872A (en) Position information acquiring system, position information acquiring device, position information acquiring method and program
TWI603225B (en) Viewing angle adjusting method and apparatus of liquid crystal display
KR20180116044A (en) Augmented reality device and method for outputting augmented reality therefor
JP6699709B2 (en) Information processing device and program
JP2014164572A (en) Information processing device and program