JP2014096057A - Image processing apparatus - Google Patents
Image processing apparatus Download PDFInfo
- Publication number
- JP2014096057A JP2014096057A JP2012247612A JP2012247612A JP2014096057A JP 2014096057 A JP2014096057 A JP 2014096057A JP 2012247612 A JP2012247612 A JP 2012247612A JP 2012247612 A JP2012247612 A JP 2012247612A JP 2014096057 A JP2014096057 A JP 2014096057A
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- processing apparatus
- displayed
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、画像処理装置に関し、特に、取得した画像情報に情報を付加して表示するための画像情報を生成する画像処理装置に関する。 The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus that generates image information for display by adding information to acquired image information.
従来、カメラによって撮影された画像や他の装置から取得した画像を、情報を付加して表示させる、いわゆる拡張現実と言われる技術が提供されている。 2. Description of the Related Art Conventionally, a technique called augmented reality has been provided in which an image captured by a camera or an image acquired from another device is displayed with information added thereto.
たとえば、非特許文献1(「Sekai Camera Web」、[平成24年10月30日検索]、インターネット<URL:http://sekaicamera.com>)および非特許文献2(セカイカメラ for AndroidのHOWTO - セカイカメラ サポートセンター」、[平成24年10月30日検索]、インターネット<URL:http://support.sekaicamera.com/ja/how-to/sekaicamera-android>)に開示されるアプリケーション「セカイカメラ」は、その一例である。「セカイカメラ」によれば、ユーザは、カメラのファインダ画像にエアタグを表示させ、当該エアタグをファインダ画像と合わせて記録することができる。 For example, Non-Patent Document 1 ("Sekai Camera Web", [October 30, 2012 search], Internet <URL: http://sekaicamera.com>) and Non-Patent Document 2 (Sekai Camera for Android HOWTO- “Sekai Camera Support Center”, [October 30, 2012 search], Internet <URL: http://support.sekaicamera.com/en/how-to/sekaicamera-android>) Is an example. According to “Sekai Camera”, a user can display an air tag on a finder image of the camera and record the air tag together with the finder image.
さらにこのような技術において、特許文献1(特開2012−60240号公報)には、撮像装置により撮像される入力画像に第1のユーザと第2のユーザが含まれる場合、各ユーザについての撮像装置からの距離に応じたパラメータに基づいて、第1のユーザに関連付けられる第1の表示情報及び第2のユーザに関連付けられる第2の表示情報のいずれを前面に重畳するかを決定する画像処理装置が開示されている。 Furthermore, in such a technique, in Patent Document 1 (Japanese Patent Laid-Open No. 2012-60240), when the first user and the second user are included in the input image captured by the imaging device, imaging for each user is performed. Image processing for determining which of the first display information associated with the first user and the second display information associated with the second user is to be superimposed on the front based on a parameter corresponding to the distance from the device An apparatus is disclosed.
しかしながら、特許文献1では、追加的に表示される2以上の情報(エアタグ)の前後関係が検討されているのみであって、当該エアタグが画像内のどの位置に表示されるかについては検討がなされていなかった。拡張現実において、撮影された画像がエアタグを追加されて表示された場合、当該情報によって、画像内の人物の顔が隠れたりする場合があり、当該撮影者が当該人物を注視することで当該人物に不快感を与えることが想定される。また、エアタグが表示されることによって画像内の重要な対象物が隠されることにより、拡張現実の表示を見た者は重要な情報を取得できない場合がある。たとえば、撮影された画像に警察署の建物が含まれているにも関わらず、拡張現実の表示において当該警察署の建物がエアタグによって隠された場合、当該撮影者が撮影を継続させることによって理由なく当該警察署に対する不審者として取り扱われる場合も想定される。 However, in Patent Document 1, only the context of two or more pieces of information (air tag) to be additionally displayed is examined, and the position in the image where the air tag is displayed is examined. It wasn't done. In augmented reality, when a captured image is displayed with an air tag added, the person's face in the image may be hidden depending on the information. It is assumed that the user feels uncomfortable. In addition, when an air tag is displayed, an important object in an image is hidden, so that a person who sees an augmented reality display may not obtain important information. For example, if a police station building is included in the captured image but the police station building is hidden by an air tag in the augmented reality display, the photographer will continue to take the reason. In some cases, it may be treated as a suspicious person against the police station.
本発明は、かかる実情に鑑み考え出されたものであり、その目的は、拡張現実によって追加的に表示される情報の位置を、見る者にとって重要であると考えられる情報を隠さないように調整することである。 The present invention has been devised in view of such circumstances, and its purpose is to adjust the position of information additionally displayed by augmented reality so as not to hide information considered to be important to the viewer. It is to be.
ある局面に従うと、撮影された画像を取得する取得手段と、取得手段が取得した画像に含まれる対象物を特定する特定手段と、特定手段が特定した対象物について、当該対象物が優先して表示されるべきものであるか否かを判断する判断手段と、画像と、特定手段が特定した対象物に関する情報とを組み合わせることにより、当該画像を表示するための情報を生成する生成手段とを備える画像処理装置が提供される。生成手段は、特定手段が特定した対象物に関する情報を、判断手段が優先して表示されるべきであると判断した対象物と重ならない位置に表示させる。 According to a certain aspect, the acquisition unit that acquires the captured image, the identification unit that identifies the target included in the image acquired by the acquisition unit, and the target identified by the identification unit are given priority. Judgment means for judging whether or not the image should be displayed, and generation means for generating information for displaying the image by combining the image and information on the object identified by the identification means. An image processing apparatus is provided. The generating means displays information related to the object specified by the specifying means at a position that does not overlap with the object determined by the determining means to be displayed with priority.
好ましくは、取得手段は、画像が撮影された位置と、当該画像が撮影されたときの撮影方向とをさらに取得し、特定手段は、取得手段が取得した位置および撮影方向に基づいて、対象物を特定する。 Preferably, the acquisition unit further acquires a position where the image was shot and a shooting direction when the image was shot, and the specifying unit is based on the position and the shooting direction acquired by the acquisition unit. Is identified.
好ましくは、特定手段は、取得手段が取得した画像に対する画像認識を行うことにより、画像に含まれる対象物を特定する。 Preferably, the specifying unit specifies an object included in the image by performing image recognition on the image acquired by the acquiring unit.
好ましくは、判断手段は、優先して表示される対象物を特定する情報を記憶し、特定手段が特定した対象物が当該記憶している対象物に該当するか否かに基づいて、特定手段が特定した対象物が優先して表示されるべきものであるか否かを判断する。 Preferably, the determination means stores information for specifying an object displayed with priority, and the specifying means is based on whether the object specified by the specifying means corresponds to the stored object. It is determined whether the object specified by is to be displayed with priority.
好ましくは、生成手段は、特定手段が特定した対象物に関する情報を、判断手段が優先して表示されるべきであると判断した対象物と重ならない位置に表示できない場合には、画像に注意すべき対象物が含まれることを示す情報を表示させる。 Preferably, the generation unit pays attention to the image when information relating to the object specified by the specifying unit cannot be displayed at a position that does not overlap with the object determined by the determination unit to be displayed with priority. Information indicating that the target object should be included is displayed.
好ましくは、生成手段は、特定手段が特定した対象物に関する情報を、判断手段が優先して表示されるべきであると判断した対象物の特定の部位に重ならない位置に表示させる。 Preferably, the generation unit displays information related to the object specified by the specifying unit at a position that does not overlap a specific part of the object determined by the determining unit to be displayed with priority.
他の局面に従うと、画像処理方法が提供される。画像処理方法は、撮影された画像を取得するステップと、取得した画像に含まれる対象物を特定するステップと、特定した対象物について、当該対象物が優先して表示されるべきものであるか否かを判断するステップと、画像と、特定手段が特定した対象物に関する情報とを組み合わせることにより、当該画像を表示するための情報を生成するステップとを備える。当該画像を表示するための情報を生成するステップは、特定した対象物に関する情報を、優先して表示されるべきであると判断した対象物と重ならない位置に表示させる。 According to another aspect, an image processing method is provided. In the image processing method, a step of acquiring a captured image, a step of specifying a target object included in the acquired image, and whether the target object should be displayed with priority for the specified target object A step of determining whether or not, and a step of generating information for displaying the image by combining the image and information related to the object specified by the specifying means. In the step of generating information for displaying the image, information on the identified object is displayed at a position that does not overlap with the object determined to be displayed with priority.
さらに他の局面に従うと、画像処理装置のコンピュータによって実行されるプログラムが提供される。プログラムは、画像処理装置に、撮影された画像を取得するステップと、取得した画像に含まれる対象物を特定するステップと、特定した対象物について、当該対象物が優先して表示されるべきものであるか否かを判断するステップと、画像と、特定手段が特定した対象物に関する情報とを組み合わせることにより、当該画像を表示するための情報を生成するステップとを実行させる。当該画像を表示するための情報を生成するステップは、特定した対象物に関する情報を、優先して表示されるべきであると判断した対象物と重ならない位置に表示させる。 According to yet another aspect, a program executed by a computer of an image processing apparatus is provided. The program includes a step of acquiring a captured image, a step of specifying a target object included in the acquired image, and the target object to be displayed with priority on the specified target object on the image processing apparatus. And a step of generating information for displaying the image by combining the image and information related to the object specified by the specifying means. In the step of generating information for displaying the image, information on the identified object is displayed at a position that does not overlap with the object determined to be displayed with priority.
本発明によれば、撮影された画像に、優先して表示されるべき対象物が含まれる場合には、当該優先して表示されるべき対象物と重ならないように、上記画像に含まれる対象物の情報が表示される。 According to the present invention, when an object to be displayed with priority is included in the captured image, the object included in the image is not overlapped with the object to be displayed with priority. Information about the object is displayed.
これにより、拡張現実によって追加的に表示される情報の位置を、見る者にとって重要であると考えられる情報を隠さないように調整することができる。 Thereby, the position of the information additionally displayed by augmented reality can be adjusted so as not to hide the information considered important for the viewer.
以下、本発明の画像処理装置の実施の形態について、図面を参照して説明する。なお、以下の説明において、同一の機能および作用を有する要素については、同じ各図を通して同じ符号を付し、重複する説明を繰返さない。 Embodiments of an image processing apparatus according to the present invention will be described below with reference to the drawings. In the following description, elements having the same function and action are denoted by the same reference numerals throughout the same drawings, and redundant description will not be repeated.
[画像処理装置の外観]
図1は、画像処理装置の外観の一例を示す図である。図1に示されるように、本実施の形態の画像処理装置1は、シャッタボタン25Aと、表示装置30とを含む。画像処理装置は、たとえばデジタルカメラ、タブレット端末、携帯電話機、高機能携帯電話機(スマートフォン)等の種々の情報処理装置によって実現され得る。なお、画像処理装置1は、少なくとも撮影された画像を処理することができればよく、撮像装置は画像処理装置1の必須要素ではない。画像処理装置1は、自機が備えるカメラ等の撮像装置が撮影した画像を処理する場合もあれば、他の機器から取得した画像を処理する場合もある。
[Appearance of image processing device]
FIG. 1 is a diagram illustrating an example of the appearance of the image processing apparatus. As shown in FIG. 1, the image processing apparatus 1 of the present embodiment includes a
[画像処理装置のハードウェア構成]
図2は、画像処理装置1のハードウェア構成の具体例を示す図である。
[Hardware configuration of image processing apparatus]
FIG. 2 is a diagram illustrating a specific example of the hardware configuration of the image processing apparatus 1.
図2を参照して、画像処理装置1は、全体を制御するための演算装置であるCPU(Central Processing Unit)20と、CPU20で実行されるプログラムなどを記憶するためのROM21と、CPU20でプログラムを実行する際の作業領域として機能するためのRAM22と、磁気センサを含んで当該画像処理装置1の向きを検出するための電子コンパス23と、GPS(Global Positioning System)信号または基地局からの位置信号を受信して当該携帯端末の位置情報を取得するためのGPSコントローラ24と、操作入力を受付けるための操作部25と、カメラ26と、外部の機器と通信するための通信装置27と、画像処理装置1に対して着脱可能な記録媒体100に対する情報の書き込みおよび読み取りを行うメディアコントローラ28と、表示装置30とを含む。表示装置30は、たとえば液晶ディスプレイやプラズマディスプレイなどによって実現され、操作部25と一体的にタッチパネルとして実現される場合もあり得る。電子コンパス23およびGPSコントローラ24は、取得した当該画像処理装置1の向きや位置情報を示す信号をCPU20に入力する。
Referring to FIG. 2, the image processing apparatus 1 includes a CPU (Central Processing Unit) 20 that is an arithmetic device for controlling the whole, a
[画像処理装置における処理の概要]
図3は、画像処理装置1において実行される処理の概要を説明するための図である。図3の(A)は、カメラ26によって撮影された画像の一例を示す。図3の(B)は、図3の(A)の画像31から抽出された対象物に関する情報の一例を示す。図3の(C)は、図3の(A)の画像31に、図3の(B)に示された情報が組み合わされることによって生成された拡張現実の表示画面の一例を示す。
[Outline of processing in image processing apparatus]
FIG. 3 is a diagram for explaining an outline of processing executed in the image processing apparatus 1. FIG. 3A shows an example of an image photographed by the
図3の(A)の画像31から、画像処理装置1は、パターン認識等の画像認識によって、被写体501と被写体502を抽出する。そして、画像処理装置1は、被写体501,502のそれぞれについて、たとえばネットワーク経由で、情報の取得を試みる。
From the
情報の取得態様の一例を説明する。画像処理装置1は、画像31が撮影されたときの画像処理装置1の向きと位置情報とに基づいて、当該位置情報によって特定される位置で、当該向きによって特定される方向で撮影が行なわれた場合に撮影の対象となる領域を特定する。そして、画像処理装置1は、上記領域に、所定の確率以上の確度で、被写体501,502の外観と近似する外観を有する物体を特定する。そして、当該物体に関する情報を取得する。なお、このような情報の取得は、セカイカメラ等における公知の技術を採用することが可能である。ここでは、公知技術については、詳細な説明を繰り返さない。
An example of an information acquisition mode will be described. Based on the orientation and position information of the image processing apparatus 1 when the
画像31内の被写体についての情報を取得すると、画像処理装置1は、たとえば図3の(B)に示されるように、当該情報の画像を生成する。本明細書では、画像処理装置1が、被写体501についての情報を取得した例が説明される。図3の(B)において、吹出し903は、被写体501についての情報を表示する画像である。
When the information about the subject in the
画像処理装置1は、画像31と吹出し903とを組み合わせることにより、拡張現実を表示する画像を生成する。なお、画像31の、吹出し903に対応する位置には、画像認識によって抽出された被写体502が位置する。被写体502は、後述するように、優先して表示されるべき被写体として登録されている。そして、画像処理装置1は、図3の(C)において画像33として示されるように、吹出し903を、被写体502の領域に重ならないように画像31と組み合わせることにより、拡張現実を表示する画像を生成する。図3の(C)において、破線で示された領域503Aは、図3の(B)に示されたような、吹出し903のデフォルトの表示位置を示している。そして、吹出し503は、吹出し903の実際の表示位置を示す。画像処理装置1は、画像31における被写体の位置に応じて、拡張現実の表示において、吹出しを表示する位置を、デフォルト位置から適宜変更する。本明細書において、吹出し903は「拡張現実の画像」の一例であり、画像33は「拡張現実を表示する画像」の一例である。
The image processing apparatus 1 generates an image displaying augmented reality by combining the
なお、被写体によっては、当該被写体における場所によって、吹出しによって隠されることによる不快感の度合いが異なる場合がある。たとえば、被写体が人間である場合、顔が吹出しによって隠された場合には不快感は大きいが、それ以外の部位(たとえば、脚部)が吹出しによって隠されてもさほど不快感を生じないことが考えられる。画像処理装置1は、被写体の種類(建物、人間、人間以外の動物、等)を特定でき、当該被写体の部位を特定でき、さらに、被写体の部位に応じて吹出しによって隠されることについての不快感を生じることが予測される度合いが設定されている場合には、当該度合いが低い位置に、吹出しを表示させる場合もあり得る。 Depending on the subject, the degree of discomfort caused by being hidden by the blowing may vary depending on the location of the subject. For example, when the subject is a human being, the discomfort is great when the face is hidden by the blowout, but the discomfort does not occur so much even if other parts (for example, legs) are hidden by the blowout. Conceivable. The image processing apparatus 1 can specify the type of the subject (building, human, non-human animal, etc.), can specify the part of the subject, and further discomfort about being hidden by the blowout according to the part of the subject. When the degree at which it is predicted that the occurrence of the above is set is set, the balloon may be displayed at a position where the degree is low.
[画像処理装置の機能構成]
図4は、画像処理装置1の機能ブロック図である。画像処理装置1は、その機能として、画像取得部51と、位置情報取得部52と、方位情報取得部53と、注視不可対象判別部54と、拡張現実生成部55と、出力画像生成部50とを含む。
[Functional configuration of image processing apparatus]
FIG. 4 is a functional block diagram of the image processing apparatus 1. The image processing apparatus 1 functions as an
画像取得部51は、処理対象の画像を取得する。画像取得部51は、たとえばカメラ26によって実現されるが、他の機器から画像を受信する通信装置27によって実現される場合もあり得る。
The
位置情報取得部52は、処理対象の画像が撮影されたときの撮像装置の位置情報を取得する。位置情報取得部52は、たとえば電子コンパス23によって実現されるが、他の機器から受信した画像とともに受信される情報から上記のような位置情報を抽出する処理を実行するCPU20によって実現される場合もあり得る。方位情報取得部53は、処理対象の画像が撮影されたときの撮像装置の撮影方向を取得する。方位情報取得部53は、たとえばGPSコントローラ24によって実現されるが、他の機器から受信した画像とともに受信される情報から上記のような撮影方向を抽出する処理を実行する、CPU20によって実現される場合もあり得る。
The position
注視不可対象判別部54は、処理対象の画像から被写体を抽出し、各被写体が、注視することを不可とされる被写体(特定の被写体)であるか否かを判別する。この判別は、各被写体が優先して表示させるべき被写体であるか否かの判断の一例に相当する。拡張現実生成部55は、処理対象の画像から被写体を抽出し、各被写体についての情報を取得し、当該情報を表示するための画像を生成する。出力画像生成部50は、処理対象の画像と、拡張現実生成部55が生成した画像とを組み合わせることにより、拡張現実を表示するための画像を生成し、表示装置30へ出力する。これにより、表示装置30は、図3の(C)に示されたような画像を表示する。
The gaze impossibility
出力画像生成部50は、表示位置決定部57を含む。表示位置決定部57は、拡張現実を表示する画像の中の、拡張現実生成部55が生成した画像を表示する位置を、注視不可対象判別部54による判別の結果に基づいて決定する。より具体的には、図3の(A)〜(C)を参照して説明したように、処理対象の画像(画像31)に含まれる被写体が、特定の被写体であると判断された場合には、表示位置決定部57は、拡張現実を表示する画像の中で、拡張現実生成部55が生成した画像を、当該被写体に重ならない位置に表示させる。
The output
注視不可対象判別部54、拡張現実生成部55、および、出力画像生成部50は、たとえば、所定のプログラムを実行するCPU20によって実現される。なお、これらのうちの少なくとも一つが、専用のハードウェア要素によって実現される場合もあり得る。
The gaze impossibility
[処理の概要]
図5は、拡張現実を表示する画像を生成するために画像処理装置1のCPU10が実行する処理の一例のフローチャートである。図5を参照して、当該処理の内容を説明する。
[Process overview]
FIG. 5 is a flowchart of an example of processing executed by the
まずステップS10で、CPU10は、処理対象の画像と、当該画像の撮影時の位置情報と方位情報とを取得して、ステップS20へ処理を進める。CPU10は、たとえばカメラ26から処理対象の画像を取得し、電子コンパス23から位置情報を取得し、そして、GPSコントローラ24から方位情報を取得する。
First, in step S10, the
ステップS20では、CPU10は、ステップS10で取得した処理対象の画像から、被写体を抽出し、抽出した被写体についての情報を取得し、取得した情報に基づいて、図3の吹出し903のような拡張現実の情報を生成して、ステップS30へ処理を進める。
In step S20, the
ステップS30では、CPU10は、ステップS10で取得した処理対象の画像から抽出された被写体が、注視不可対象(特定の被写体)を含むか否かを判断する。そして、CPU10は、特定の被写体を含むと判断するとステップS40へ処理を進め、含まないと判断するとステップS80へ処理を進める。
In step S <b> 30, the
ステップS40では、CPU10は、ステップS20で生成した拡張現実の情報の、拡張現実を表示する画面におけるデフォルトの表示位置が、ステップS30において特定の被写体と判断された被写体に重なるかどうかを判断する。拡張現実のデフォルトの表示位置の一例としては、たとえば、当該拡張現実(吹出し903)が対応する被写体(被写体501)に対して予め定められた関係の位置(右側に1cm離れた位置)を挙げることができる。そして、CPU10は、デフォルトの表示位置が特定の被写体に重なると判断すると、ステップS50へ処理を進め、重ならないと判断するとステップS80へ処理を進める。
In step S40, the
ステップS50では、CPU10は、ステップS40で特定の被写体と重なると判断された拡張現実の位置を変更可能かどうかを判断する。そして、CPU10は、可能であると判断するとステップS60へ処理を進め、変更できないと判断するとステップS70へ処理を進める。ステップS50の判断は、たとえば、処理対象の画像の、「特定の被写体」とされた被写体が占める領域以外に、ステップS20で生成した拡張現実を表示する領域が残されているか否かの判断である。CPU10は、残されていれば、拡張現実の位置を変更可能と判断し、残されていなければ、拡張現実の位置を変更できないと判断する。
In step S50, the
ステップS60では、CPU10は、ステップS20で生成した拡張現実の表示位置を、処理対象の画像における特定の被写体が占める領域以外の領域へと変更して、ステップS80へ処理を進める。これにより、図3の(C)に示されるように、拡張現実を表示する画面において、吹出しの表示位置は、領域503Aから吹出し503へと変更される。
In step S60, the
ステップS70では、CPU10は、拡張現実を、可能な限り透過するデザインへと変更して、ステップS80へ処理を進める。
In step S70, the
ステップS80では、CPU10は、拡張現実を表示する画面として表示装置30に出力する画像を生成して、処理を終了する。
In step S80, CPU10 produces | generates the image output to the
[画像処理装置における処理のまとめ]
以上、図5を参照して説明した処理によれば、画像処理装置1は、処理対象の画像に特定の被写体が含まれると判断すると、当該処理対象の画像に含まれる他の被写体の拡張現実が特定の被写体に重ならないように、拡張現実の位置で表示する。図7は、比較例における拡張現実の表示画面の一例を示す図である。
[Summary of processing in image processing apparatus]
As described above, according to the processing described with reference to FIG. 5, when the image processing apparatus 1 determines that the specific subject is included in the processing target image, the augmented reality of the other subject included in the processing target image. Is displayed at an augmented reality position so that it does not overlap a specific subject. FIG. 7 is a diagram illustrating an example of an augmented reality display screen in the comparative example.
図7では、(A)は、処理対象の画像である画像91を示し、(B)は、画像91内の被写体901の拡張現実である吹出し903を示し、(C)は、画像91と吹出し903とが組み合わされることによって生成される拡張現実の表示画面の一例を示す。この例では、画像91から、被写体901と被写体902が抽出される。図7の(C)では、被写体901の拡張現実である吹出し903は、被写体902に重ねられて表示されている。これにより、拡張現実の表示画面である画像93を視認した者は、当該画像93において被写体902を確認できない場合がある。
7A shows an
一方、図3の(C)の画像33では、吹出し503は、被写体502に重ならないように、配置されている。これにより、画像33を視認した者は、被写体501の拡張現実である吹出しとともに、被写体502を確認できる。
On the other hand, in the
なお、ステップS70として示されたように、特定の被写体以外の領域で拡張現実を表示できない場合の対処の一例として、拡張現実を可能な限り透過して表示する。図6は、透過画像として表示される拡張現実を含む表示例を説明するための図である。 As shown in step S70, augmented reality is displayed as transparently as possible as an example of a case where augmented reality cannot be displayed in a region other than a specific subject. FIG. 6 is a diagram for explaining a display example including augmented reality displayed as a transparent image.
図6では、(A)は、処理対象の画像34を示し、(B)は、画像34内の被写体501の拡張現実である吹出し503を示し、(C)は、画像34と吹出し503とが組み合わされることによって生成される拡張現実の表示画面の一例を示す。この例では、画像34から、被写体501と被写体502と被写体510が抽出される。
6A shows an
図6の(A)と(B)から理解されるように、画像34には、被写体501,502,510以外の領域に、吹出し503を表示できるたけのスペースが含まれない。この場合、画像処理装置1は、吹出し503を、透過画像として、表示させる。これにより、図6の(C)の画像36では、吹出し503の奥に位置する被写体510の外形が視認可能である。
As understood from FIGS. 6A and 6B, the
なお、ステップS70において、拡張現実を透過画像とし、さらに、ステップS80において、当該透過画像を処理対象の画像と組み合わせる場合に、画像処理装置1は、当該透過画像の配置を、処理対象の画像に含まれる2以上の被写体の間での優先順位に応じて決定してもよい。つまり、図6の(C)の画像36における吹出し503の配置を決定するときに、CPU10は、吹出し503が対応する被写体501以外の被写体、つまり、被写体502と被写体510の間での優先順位を特定する。そして、画像処理装置1は、優先順位が高い順に、優先して吹出しが重ならない位置で、当該吹出しの配置を決定する。図6の例では、被写体502は、被写体510よりも優先順位が高い。これにより、画像処理装置1は、図6の(C)の画像36において、被写体502に重なる領域503Aの位置を避けて、透過処理された吹出し503を配置している。
In step S70, the augmented reality is made a transparent image, and when the transparent image is combined with the processing target image in step S80, the image processing apparatus 1 changes the arrangement of the transparent image to the processing target image. It may be determined according to the priority order between two or more included subjects. That is, when determining the arrangement of the
かかる優先順位としては、たとえば、被写体として特定された物体の種類に基づいて設定される。より具体的には、たとえば、被写体が特定された物体が、「人物」である場合が最も優先順位が高く、つづいて、「動物」「建物」の順が設定される。優先順位を特定する情報は、たとえば、ROM21やRAM22や記録媒体100に格納される。
The priority order is set based on, for example, the type of object specified as the subject. More specifically, for example, when the object whose subject is specified is “person”, the highest priority is given, followed by “animal” and “building”. Information specifying the priority order is stored in, for example, the
なお、拡張現実の表示スペースを確保できないと判断した場合、画像処理装置1は、ステップS70での透過処理後の画像を組み合わせる代わりに、拡張現実の表示を含めることなく処理対象の画像を表示させてもよい。ただし、この場合、画像処理装置1は、拡張現実を行わなかったことを表示等により報知することが好ましい。 If it is determined that the augmented reality display space cannot be secured, the image processing apparatus 1 displays the image to be processed without including the augmented reality display instead of combining the images after the transparent process in step S70. May be. However, in this case, it is preferable that the image processing apparatus 1 notifies the user that the augmented reality has not been performed by display or the like.
また、画像処理装置1は、ステップS70での透過処理後の画像を組み合わせる代わりに、図7の(C)に示されたように、拡張現実の画像を被写体902に重ねて表示してもよい。ただし、この場合には、画像処理装置1は、被写体902が、拡張現実の画像(吹出し903)が重ねられたことにより視認が困難になっていることを報知することが好ましい。 Further, the image processing apparatus 1 may display the augmented reality image superimposed on the subject 902 as shown in FIG. 7C instead of combining the images after the transmission processing in step S70. . However, in this case, it is preferable that the image processing apparatus 1 informs the subject 902 that it is difficult to visually recognize the augmented reality image (the balloon 903).
また、被写体として特定された物体が、信号機や道路標識など、見落とすことによって危険を生じるような重要な一定の種類の物体である場合には、特に優先的に、当該物体を表示させることが好ましい。つまり、処理対象の画像においてこのような物体が特定された場合には、特に、拡張現実の画像の位置を当該物体とは重ならないように調整することが好ましい。 In addition, when an object specified as a subject is an important certain type of object that causes danger when it is overlooked, such as a traffic light or a road sign, it is preferable to display the object particularly preferentially. . That is, when such an object is specified in the processing target image, it is particularly preferable to adjust the position of the augmented reality image so as not to overlap the object.
なお、本実施の形態における「拡張現実の画像の位置」の変更や調整には、図3の(B)と(C)を参照して説明したような、単なる位置の変更だけでなく、拡張現実の画像を縮小することによる、当該画像の外縁の位置の変更も含む。 Note that the change or adjustment of “augmented reality image position” in the present embodiment is not limited to a simple position change as described with reference to FIGS. It also includes changing the position of the outer edge of the image by reducing the actual image.
今回開示された実施の形態およびその変形例はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。実施の形態およびその変形例において開示された技術は、可能な限り単独でも組み合わせても実施され得ることが意図される。 It should be thought that embodiment disclosed this time and its modification are illustrations in all the points, and are not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims. It is intended that the techniques disclosed in the embodiments and the modifications thereof can be implemented alone or in combination as much as possible.
1 画像処理装置、23 電子コンパス、24 コントローラ、25 操作部、25A シャッタボタン、26 カメラ、27 通信装置、30 表示装置、50 出力画像生成部、51 画像取得部、52 位置情報取得部、53 方位情報取得部、54 注視不可対象判別部、55 拡張現実生成部、57 表示位置決定部。 DESCRIPTION OF SYMBOLS 1 Image processing apparatus, 23 Electronic compass, 24 Controller, 25 Operation part, 25A Shutter button, 26 Camera, 27 Communication apparatus, 30 Display apparatus, 50 Output image generation part, 51 Image acquisition part, 52 Position information acquisition part, 53 Direction Information acquisition unit, 54 gaze impossibility target determination unit, 55 augmented reality generation unit, 57 display position determination unit.
Claims (5)
前記取得手段が取得した画像に含まれる対象物を特定する特定手段と、
前記特定手段が特定した対象物について、当該対象物が優先して表示されるべきものであるか否かを判断する判断手段と、
前記画像と、前記特定手段が特定した対象物に関する情報とを組み合わせることにより、当該画像を表示するための情報を生成する生成手段とを備え、
前記生成手段は、前記特定手段が特定した対象物に関する情報を、前記判断手段が優先して表示されるべきであると判断した対象物と重ならない位置に表示させる、画像処理装置。 An acquisition means for acquiring a captured image;
Specifying means for specifying an object included in the image acquired by the acquiring means;
Determination means for determining whether the object should be displayed with priority for the object specified by the specifying means;
Generating means for generating information for displaying the image by combining the image and information on the object specified by the specifying means;
The image processing apparatus, wherein the generation unit displays information on the object specified by the specifying unit at a position that does not overlap with the object determined by the determination unit to be displayed with priority.
前記特定手段は、前記取得手段が取得した位置および撮影方向に基づいて、対象物を特定する、請求項1に記載の画像処理装置。 The acquisition means further acquires a position where the image is captured and a photographing direction when the image is photographed,
The image processing apparatus according to claim 1, wherein the specifying unit specifies an object based on the position and the shooting direction acquired by the acquiring unit.
優先して表示される対象物を特定する情報を記憶し、
前記特定手段が特定した対象物が当該記憶している対象物に該当するか否かに基づいて、前記特定手段が特定した対象物が優先して表示されるべきものであるか否かを判断する、請求項1〜請求項3のいずれか1項に記載の画像処理装置。 The determination means includes
Stores information that identifies objects that are displayed with priority,
Based on whether the object specified by the specifying means corresponds to the stored object, it is determined whether the object specified by the specifying means should be displayed with priority. The image processing device according to any one of claims 1 to 3.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012247612A JP2014096057A (en) | 2012-11-09 | 2012-11-09 | Image processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012247612A JP2014096057A (en) | 2012-11-09 | 2012-11-09 | Image processing apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014096057A true JP2014096057A (en) | 2014-05-22 |
Family
ID=50939073
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012247612A Pending JP2014096057A (en) | 2012-11-09 | 2012-11-09 | Image processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014096057A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017100206A (en) * | 2015-11-30 | 2017-06-08 | 株式会社デンソーウェーブ | Robot safety system |
WO2021248493A1 (en) * | 2020-06-12 | 2021-12-16 | 深圳传音控股股份有限公司 | Message display method, mobile terminal, and computer-readable storage medium |
JP2022153361A (en) * | 2020-12-04 | 2022-10-12 | マクセル株式会社 | Video apparatus |
-
2012
- 2012-11-09 JP JP2012247612A patent/JP2014096057A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017100206A (en) * | 2015-11-30 | 2017-06-08 | 株式会社デンソーウェーブ | Robot safety system |
WO2021248493A1 (en) * | 2020-06-12 | 2021-12-16 | 深圳传音控股股份有限公司 | Message display method, mobile terminal, and computer-readable storage medium |
JP2022153361A (en) * | 2020-12-04 | 2022-10-12 | マクセル株式会社 | Video apparatus |
JP7397918B2 (en) | 2020-12-04 | 2023-12-13 | マクセル株式会社 | Video equipment |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110189340B (en) | Image segmentation method and device, electronic equipment and storage medium | |
CN111602140B (en) | Method of analyzing objects in images recorded by a camera of a head-mounted device | |
US9807300B2 (en) | Display apparatus for generating a background image and control method thereof | |
US9569898B2 (en) | Wearable display system that displays a guide for a user performing a workout | |
US9924226B2 (en) | Method and device for processing identification of video file | |
KR20150003591A (en) | Smart glass | |
JP2016533686A (en) | Method and apparatus for generating an omnifocal image | |
JP2017503198A (en) | Trim content to project onto a target | |
JP6092761B2 (en) | Shopping support apparatus and shopping support method | |
EP3460633A1 (en) | Head-mounted display apparatus and processing method thereof | |
US11625904B2 (en) | Method and electronic device for processing images | |
KR20200051591A (en) | Information processing apparatus, information processing method, and program | |
JP2009088903A (en) | Mobile communication device | |
CN110570460A (en) | Target tracking method and device, computer equipment and computer readable storage medium | |
EP3640840B1 (en) | Tracking method and apparatus for smart glasses, smart glasses and storage medium | |
CN112749613A (en) | Video data processing method and device, computer equipment and storage medium | |
CN110675473B (en) | Method, device, electronic equipment and medium for generating GIF dynamic diagram | |
JP7078568B2 (en) | Display device, display control method, and display system | |
JP2007249527A (en) | Image editing device, image editing method and image editing program | |
JP2014096057A (en) | Image processing apparatus | |
JP2004257872A (en) | Position information acquiring system, position information acquiring device, position information acquiring method and program | |
TWI603225B (en) | Viewing angle adjusting method and apparatus of liquid crystal display | |
KR20180116044A (en) | Augmented reality device and method for outputting augmented reality therefor | |
JP6699709B2 (en) | Information processing device and program | |
JP2014164572A (en) | Information processing device and program |