JP5621421B2 - 画像処理装置、プログラム及び画像処理方法 - Google Patents
画像処理装置、プログラム及び画像処理方法 Download PDFInfo
- Publication number
- JP5621421B2 JP5621421B2 JP2010198987A JP2010198987A JP5621421B2 JP 5621421 B2 JP5621421 B2 JP 5621421B2 JP 2010198987 A JP2010198987 A JP 2010198987A JP 2010198987 A JP2010198987 A JP 2010198987A JP 5621421 B2 JP5621421 B2 JP 5621421B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- display
- display information
- information
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000003384 imaging method Methods 0.000 claims description 46
- 238000002834 transmittance Methods 0.000 claims description 45
- 230000007423 decrease Effects 0.000 claims description 6
- 230000015572 biosynthetic process Effects 0.000 claims description 3
- 238000000034 method Methods 0.000 description 33
- 238000004891 communication Methods 0.000 description 30
- 230000008569 process Effects 0.000 description 28
- 238000010586 diagram Methods 0.000 description 18
- 238000006073 displacement reaction Methods 0.000 description 16
- 230000003190 augmentative effect Effects 0.000 description 7
- 230000008921 facial expression Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 5
- 239000013598 vector Substances 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 3
- 230000035699 permeability Effects 0.000 description 3
- 230000005484 gravity Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Description
1.システムの概要
2.第1の実施形態の説明
2−1.画像処理装置の構成例
2−2.表示オブジェクトの属性
2−3.出力画像の例
2−4.処理の流れ
2−5.第1の実施形態のまとめ
3.第2の実施形態の説明
3−1.画像処理装置の構成例
3−2.出力画像の例
3−3.処理の流れ
3−4.第2の実施形態のまとめ
まず、図1を用いて、本発明の一実施形態に係る画像処理システムの概要を説明する。図1は、本発明の一実施形態に係る画像処理システム1の概要を示す模式図である。図1を参照すると、画像処理システム1は、画像処理装置100、データベース102、撮像装置104及び表示装置106を含む。
[2−1.画像処理装置の構成例]
図3は、本発明の第1の実施形態に係る画像処理装置100の構成の一例を示すブロック図である。図3を参照すると、画像処理装置100は、画像取得部110、音声取得部120、認識部130、情報取得部150及び出力画像生成部170を備える。また、認識部130は、画像認識部134、音声認識部138及び個人認識部142を含む。
画像取得部110は、撮像装置104により撮像される一連の入力画像を取得する。そして、画像取得部110は、取得した入力画像を認識部130の画像認識部134及び出力画像生成部170へ出力する。
音声取得部120は、ユーザから発せされる音声を入力音声として取得する。音声取得部120による音声の取得は、例えば、ユーザが保持する端末装置105から送信される音声信号を受信することにより行われてもよい。その代わりに、例えば、スクリーン107の周囲にマイクロフォンが設置されてもよい。後者の場合には、音声取得部120は、設置されるマイクロフォンを介して入力音声を取得する。そして、音声取得部120は、取得した入力音声を認識部130の音声認識部138へ出力する。
画像認識部134は、画像取得部110から入力される入力画像に公知の顔認識の手法(例えば、特開2008−131405号公報参照)を適用し、入力画像に映るユーザの顔領域を検出する。また、画像認識部134は、検出した顔領域を対象とし、個人を特定するために使用される特徴量(以下、画像特徴量という)を算出する。そして、画像認識部134は、算出した画像特徴量を個人認識部142へ出力する。
音声認識部138は、音声取得部120から入力される入力音声に公知の音声認識の手法を適用し、ユーザにより発話された内容をテキストデータ(以下、発話データという)として抽出する。そして、音声認識部138は、抽出した発話データをユーザIDと対応付けて情報取得部150へ出力する。
個人認識部142は、撮像装置104により撮像される入力画像に映る1人以上のユーザがそれぞれ誰であるかを認識する。より具体的には、個人認識部142は、例えば、データベース102に予め登録されている既知のユーザの顔の画像特徴量と、画像認識部134から入力される画像特徴量とを照合する(照合の手法については、例えば特開2009−53916号公報参照)。そして、個人認識部142は、照合の結果として、画像認識部134により認識された各顔領域と、特定したユーザのユーザIDとを対応付ける。また、個人認識部142は、例えば、データベース102に予め登録されている既知のユーザの声の音声特徴量と、音声認識部138から入力される音声特徴量とを照合してもよい。
情報取得部150は、認識部130により認識される各ユーザと関連付けて表示すべき表示情報を取得する。本実施形態において、各ユーザと関連付けて表示すべき表示情報とは、例えば、当該ユーザの属性情報及び当該ユーザにより入力される入力情報を含み得る。
出力画像生成部170は、情報取得部150により取得される表示情報を画像取得部110から入力される入力画像に重畳することにより、出力画像を生成する。より具体的には、出力画像生成部170は、まず、情報取得部150により取得される表示情報を表示する表示オブジェクトの属性を決定する。表示オブジェクトの属性は、例えば、表示オブジェクトの形状、色、サイズ、表示位置、透過率、及びレイヤなどに関するデータを含む。このうち、レイヤとは、表示オブジェクト間の重畳の順序を表す。例えば、複数の表示オブジェクトが互いに重なる場合に、レイヤが小さい表示オブジェクトがより前面に重畳される。出力画像生成部170は、これら表示オブジェクトの属性を各表示情報について決定した後、決定した属性に従って各表示オブジェクトの画像を生成する。出力画像生成部170による表示オブジェクトの属性の決定の基準について、次項でより詳細に説明する。そして、出力画像生成部170は、生成した表示オブジェクトの画像を入力画像に重畳することにより出力画像を生成し、生成した出力画像を表示装置106へ順次出力する。
(1)属性の例
図5は、出力画像生成部170により決定される属性値を含む表示オブジェクトデータ180の構成の一例を示す説明図である。図5を参照すると、表示オブジェクトデータ180は、オブジェクトID181、ユーザID182、形状183、色184、サイズ185、表示位置186、透過率187、レイヤ188及び表示情報189という9つのデータ項目を有する。
オブジェクトID181は、1つの画像内に重畳される各表示オブジェクトを一意に特定するための識別子である。ユーザID182は、オブジェクトID181により識別される表示オブジェクトが関連付けられるユーザを表すユーザIDである。例えば、表示オブジェクトデータ180の第1レコード190a及び第2レコード190bから、2つの表示オブジェクトD01A及びD02AがユーザUaと関連付けられることが理解される。また、第3レコード190cから、表示オブジェクトD01BがユーザUbと関連付けられること、及び第4レコード190dから、表示オブジェクトD01CがユーザUcと関連付けられること、が理解される。
形状183は、当該表示オブジェクトの形状を表す。図5の例では、表示オブジェクトの形状は、予め定義される表示オブジェクトのタイプObj1、Obj2、…のいずれかを指定することにより特定される。
図5における色184は、当該表示オブジェクトの色(又は当該表示オブジェクト内の表示情報のテキストの色)を表す。出力画像生成部170は、情報取得部150により取得される各ユーザの属性情報を参照し、例えばユーザの性別又は年齢層などの属性値に応じて、各表示オブジェクトの色を変化させてもよい。
サイズ185は、当該表示オブジェクトのサイズを表す。図5の例では、表示オブジェクトのサイズは、既定のサイズからの倍率(%)により表されている。出力画像生成部170は、例えば、各ユーザの撮像装置104からの距離に応じて、各ユーザに関連付けられる表示情報を表示するための表示オブジェクトのサイズを決定する。本実施形態において、出力画像生成部170は、撮像装置104からの距離そのものを測定する代わりに、撮像装置104からの距離に応じたパラメータとして、各ユーザの顔領域のサイズを使用することができる。顔領域のサイズは、例えば、顔領域に属すると認識された画素数により表されてもよく、又は顔領域を囲むバウンディングボックスの面積により表されてもよい。より具体的には、出力画像生成部170は、例えば、顔領域のサイズがより大きいユーザと関連付けられる表示情報のための表示オブジェクトのサイズをより大きく設定する。但し、表示オブジェクトのサイズの上限値が予め定義されてよい。その場合、出力画像生成部170は、所定の距離以上撮像装置104に近付いたユーザの表示オブジェクトのサイズがその上限値を超えないように、表示オブジェクトのサイズを設定する。
表示位置186は、当該表示オブジェクトの表示位置、即ち、当該表示オブジェクトが重畳される画像内の位置を表す2次元座標である。本実施形態では、出力画像生成部170は、ユーザの顔領域を基準点として、予め定義されるオフセットを有する位置に各表示オブジェクトの中心(又は所定のコーナーなど)を配置する。
図5における透過率187は、当該表示オブジェクトの透過率を表す。表示オブジェクトに透過率が設定されることで、複数の表示オブジェクトが重ねて重畳される場合にも、ユーザは背面の表示オブジェクトを視認することができる。本実施形態において、出力画像生成部170は、認識部130により認識される各ユーザについて、入力画像内に映っている時間の長さ(以下、滞在時間という)又は移動速度を計測する。そして、出力画像生成部170は、表示情報を表示する表示オブジェクトの透過率を、当該表示情報に関連付けられるユーザについて計測した滞在時間又は移動速度に応じて設定する。
図5におけるレイヤ188は、当該表示オブジェクトの表示オブジェクト間の重畳の順序を表す。図5の例では、表示オブジェクトD01A及びD02Aのレイヤは1、表示オブジェクトD01Bのレイヤは2、表示オブジェクトD01Cのレイヤは3である。従って、出力画像生成部170は、表示オブジェクトD01A及びD02Aを最前面のレイヤに、表示オブジェクトD01Bを次のレイヤに、表示オブジェクトD01Cを最背面のレイヤに重畳する。
図10は、本実施形態において画像処理装置100から出力される出力画像の一例を示す説明図である。図10を参照すると、一例としての出力画像Im11が示されている。出力画像Im11には、3人のユーザUa、Ub及びUcが映っている。また、ユーザUaの近傍には、表示オブジェクト12a及び13aが重畳されている。ユーザUbの近傍には、表示オブジェクト12bが重畳されている。ユーザUcの近傍には、表示オブジェクト12cが重畳されている。しかし、画像内でユーザUa、Ub及びUcが互いに近くに位置しているため、点線枠に囲まれた領域内で表示オブジェクトが混雑し、表示オブジェクト13a、12b及び12cが互いに重なっている。
図11は、本実施形態に係る画像処理装置100による画像処理の主な流れの一例を示すフローチャートである。
ここまで、図1〜図11を用いて、本発明の第1の実施形態について説明した。本実施形態によれば、各ユーザに関連付けられる情報を入力画像に重畳することにより出力画像が生成される拡張現実の画像内で、情報が混雑する状況において、各ユーザの撮像装置からの距離に応じて表示情報の奥行き方向の配置が決定される。それにより、距離感に合わせた自然な表示が実現されるため、ユーザは、どの表示情報がどのユーザに関する情報であるかを容易に理解することができる。また、コミュニケーションに関与したいユーザをより画面の近くに導くことが可能となり、コミュニケーションがより活性化することが期待される。
上述した第1の実施形態では、画像内で表示情報が混雑する状況において、複数の表示情報が互いに重なる場合にも分かり易く情報が呈示される。第1の実施形態では、各表示情報は、原則として既定の表示位置に表示される。これに対し、本節で説明する第2の実施形態では、表示情報の表示位置を適応的に決定することにより、表示情報の重なりによる視認性の低下を抑制する。
図12は、本発明の第2の実施形態に係る画像処理装置200の構成の一例を示すブロック図である。図12を参照すると、画像処理装置200は、画像取得部110、音声取得部120、認識部130、情報取得部150、重み決定部260、及び出力画像生成部270を備える。第1の実施形態に係る画像処理装置100と同様、認識部130は、画像認識部134、音声認識部138及び個人認識部142を含む。
重み決定部260は、認識部130により認識されるユーザごとの重みを決定する。本実施形態において、ユーザの「重み」とは、そのユーザの表示上の優先度に類似する概念であり、「重み」が大きいユーザについての表示情報ほど、優先的に既定の表示位置の近くに配置される。例えば、重み決定部260は、入力画像内に映っている時間の長さ、即ち滞在時間に応じて、ユーザごとの重みを決定してもよい。また、重み決定部260は、ユーザの属性情報を用いてユーザごとの重みを決定してもよい。より具体的には、例えば、重み決定部260は、特定の性別(女性など)又は特定の年齢層(10歳未満の子供又は70歳を超える高齢者など)に属するユーザの重みが他のユーザの重みよりも大きくなるように、ユーザごとの重みを決定してもよい。
出力画像生成部270は、情報取得部150により取得される表示情報を画像取得部110から入力される入力画像に重畳することにより、出力画像を生成する。より具体的には、出力画像生成部270は、まず、情報取得部150により取得される表示情報を表示する表示オブジェクトの属性を決定する。表示オブジェクトの属性は、図5の例と同様、形状、色、サイズ、表示位置、透過率、及びレイヤなどに関するデータを含む。表示オブジェクトの形状、色、サイズ、透過率、及びレイヤの決定の考え方は、上述した第1の実施形態と同様であってよい。
図14A〜図14Cは、出力画像生成部270による表示位置決定処理の第1の例について説明するための説明図である。表示位置決定処理の第1の例において、出力画像生成部270は、各表示情報についての上記斥力と上記引力とが平衡するように、各表示情報を表示する表示オブジェクトの表示位置を決定する。
図15は、出力画像生成部270による表示位置決定処理の第2の例について説明するための説明図である。表示位置決定処理の第2の例において、出力画像生成部270は、例えば、複数の表示オブジェクトに作用する引力が平衡するように、当該複数の表示オブジェクトの表示位置を決定する。この場合、上述した斥力の概念は利用されない。
なお、出力画像生成部270は、上述した表示位置決定処理により決定した表示オブジェクトの新たな表示位置が表示上の制約を満たさない場合には、表示オブジェクトの表示位置をさらに変更し、又は表示オブジェクトの表示位置を既定の表示位置に設定してもよい。表示上の制約とは、例えば、表示オブジェクトが画面外にはみださないこと、及び表示オブジェクトがユーザ(全てのユーザ、又は所定の閾値以上の重みを有するユーザなど)の顔に重ならないこと、などを含む。例えば、表示オブジェクトを既定の表示位置に重畳する場合には、複数の表示オブジェクトが互いに重なる可能性が高まる。しかし、複数の表示オブジェクトが互いに重なる場合には、第1の実施形態において説明した手法に従って出力画像生成部270が表示情報のサイズ、奥行き方向の配置及び透明度などを制御するため、表示情報の分かり易さの低下は軽減される。
図16は、本実施形態において画像処理装置200から出力される出力画像の一例を示す説明図である。図16を参照すると、一例としての出力画像Im21が示されている。出力画像Im21には、3人のユーザUa、Ub及びUcが映っている。図16の例において、ユーザUa及びUbは入力画像内に比較的長い時間映っており、互いにコミュニケーションを続けているものとする。一方、ユーザUcは、一時的に通りかかったユーザであるとする。
図17は、本実施形態に係る画像処理装置200による画像処理の主な流れの一例を示すフローチャートである。
ここまで、図12〜図19を用いて、本発明の第2の実施形態について説明した。本実施形態によれば、ユーザの表示上の優先度に類似する重みが例えば滞在時間又はユーザの属性情報などに応じて決定され、その重みに基づいて、各ユーザに関連付けられる表示情報の表示位置が決定される。それにより、優先度の高いユーザの表示情報が他のユーザの表示情報から阻害又は干渉されないように、表示情報間の重なりを回避することができる。その結果、拡張現実の画像内で情報が混雑する状況において、より分かり易く情報を呈示することが可能となる。
100,200 画像処理装置
130 認識部
150 情報取得部
260 重み決定部
170,270 出力画像生成部
Claims (12)
- 撮像装置により撮像される入力画像に映る複数のユーザを認識する認識部と、
前記認識部により認識される各ユーザと関連付けて表示すべき表示情報を取得する情報取得部と、
前記情報取得部により取得される前記表示情報を表示するための画像を生成する生成部と、
を備え、
前記生成部は、前記撮像装置からの距離がより小さい第1のユーザに関連付けられる第1の表示情報を、前記距離がより大きい第2のユーザに関連付けられる第2の表示情報よりも前面に重畳すると決定し、
前記生成部は、前記表示情報の透過率を、
当該表示情報に関連付けられるユーザについて計測される前記入力画像内に映っている時間の長さがより長いほどより低く設定し、
当該表示情報に関連付けられるユーザについて計測される移動速度がより小さいほどより低く設定し、又は、
当該表示情報に関連付けられるユーザが所定のジェスチャを行ったと認識された場合に一時的に減少させる、
画像処理装置。 - 前記生成部は、前記第1の表示情報と前記第2の表示情報とが出力画像内で重なる場合に、前記第1の表示情報を前記第2の表示情報の前面に重畳する、請求項1に記載の画像処理装置。
- 前記認識部は、前記入力画像に映る各ユーザの顔領域のサイズをさらに認識し、
前記生成部は、前記認識部により認識される各ユーザの顔領域のサイズを用いて、各ユーザの前記撮像装置からの距離を判定する、
請求項1に記載の画像処理装置。 - 前記認識部は、各ユーザのジェスチャ、表情又は発話状態を認識し、
前記生成部は、所定のジェスチャ若しくは所定の表情をしているユーザ、又は発話中のユーザに関連付けられる表示情報を、前記撮像装置からの距離に関わらず一時的に前面に表示する、
請求項1に記載の画像処理装置。 - 前記生成部は、各ユーザの前記撮像装置からの距離がより小さいほど、各ユーザに関連付けられる前記表示情報の表示サイズをより大きく決定する、請求項1に記載の画像処理装置。
- 前記情報取得部は、テキスト入力装置を介して入力されるテキストを第1のタイプの表示情報として取得し、音声入力装置を介して入力される音声についての音声認識結果を第2のタイプの表示情報として取得し、
前記生成部は、前記第1のタイプの表示情報を表示するオブジェクトの形状を思考を象徴する形状に設定し、前記第2のタイプの表示情報を表示するオブジェクトの形状を発話を象徴する形状に設定する、
請求項1に記載の画像処理装置。 - 前記情報取得部は、テキスト入力装置又は音声入力装置を介して入力される情報を前記表示情報として取得し、
前記生成部は、
前記情報取得部により取得される前記表示情報の内容を解析することにより、前記表示情報を、ユーザの思考に対応する第3のタイプの表示情報又はユーザの発話に対応する第4のタイプの表示情報に分類し、
前記第3のタイプの表示情報を表示するオブジェクトの形状を思考を象徴する形状に設定し、前記第4のタイプの表示情報を表示するオブジェクトの形状を発話を象徴する形状に設定する、
請求項1に記載の画像処理装置。 - 前記情報取得部は、ユーザにより入力される情報を第5のタイプの表示情報として取得し、及びユーザにより入力される情報又は当該ユーザの属性情報に基づいて外部の情報源から取得される情報を第6のタイプの表示情報として取得し、
前記生成部は、前記第5のタイプの表示情報と前記第6のタイプの表示情報とを互いに異なる形状を有するオブジェクトで表示する、
請求項1に記載の画像処理装置。 - 画像処理装置を制御するコンピュータを、
撮像装置により撮像される入力画像に映る複数のユーザを認識する認識部と、
前記認識部により認識される各ユーザと関連付けて表示すべき表示情報を取得する情報取得部と、
前記情報取得部により取得される前記表示情報を表示するための画像を生成する生成部と、
として機能させるためのプログラムであって、
前記生成部は、前記撮像装置からの距離がより小さい第1のユーザに関連付けられる第1の表示情報を、前記距離がより大きい第2のユーザに関連付けられる第2の表示情報よりも前面に重畳すると決定し、
前記生成部は、前記表示情報の透過率を、
当該表示情報に関連付けられるユーザについて計測される前記入力画像内に映っている時間の長さがより長いほどより低く設定し、
当該表示情報に関連付けられるユーザについて計測される移動速度がより小さいほどより低く設定し、又は、
当該表示情報に関連付けられるユーザが所定のジェスチャを行ったと認識された場合に一時的に減少させる、
プログラム。 - 前記生成部は、前記第1の表示情報と前記第2の表示情報とが出力画像内で重なる場合に、前記第1の表示情報を前記第2の表示情報の前面に重畳する、請求項9に記載のプログラム。
- 前記認識部は、前記入力画像に映る各ユーザの顔領域のサイズをさらに認識し、
前記生成部は、前記認識部により認識される各ユーザの顔領域のサイズを用いて、各ユーザの前記撮像装置からの距離を判定する、
請求項9に記載のプログラム。 - 撮像装置により撮像される入力画像に映る複数のユーザを認識するステップと、
認識された各ユーザと関連付けて表示すべき表示情報を取得するステップと、
前記撮像装置からの距離がより小さい第1のユーザに関連付けられる第1の表示情報を、前記距離がより大きい第2のユーザに関連付けられる第2の表示情報よりも前面に重畳すると決定するステップと、
前記表示情報の透過率を設定するステップと、
前記表示情報を表示するための画像を生成するステップと、
を含み、
前記表示情報の透過率は、
当該表示情報に関連付けられるユーザについて計測される前記入力画像内に映っている時間の長さがより長いほどより低く、
当該表示情報に関連付けられるユーザについて計測される移動速度がより小さいほどより低く、又は、
当該表示情報に関連付けられるユーザが所定のジェスチャを行ったと認識された場合に一時的に減少するように、
設定される、
画像処理方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010198987A JP5621421B2 (ja) | 2010-09-06 | 2010-09-06 | 画像処理装置、プログラム及び画像処理方法 |
US13/219,062 US9865068B2 (en) | 2010-09-06 | 2011-08-26 | Image processing device, and image procesing method |
CN201110259540.8A CN102385697B (zh) | 2010-09-06 | 2011-08-30 | 图像处理装置、程序和图像处理方法 |
EP12196733.5A EP2570994B1 (en) | 2010-09-06 | 2011-08-30 | Image processing device, program, and image processing method |
EP11179328A EP2426646B1 (en) | 2010-09-06 | 2011-08-30 | Image processing device, program, and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010198987A JP5621421B2 (ja) | 2010-09-06 | 2010-09-06 | 画像処理装置、プログラム及び画像処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012060240A JP2012060240A (ja) | 2012-03-22 |
JP5621421B2 true JP5621421B2 (ja) | 2014-11-12 |
Family
ID=44651204
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010198987A Expired - Fee Related JP5621421B2 (ja) | 2010-09-06 | 2010-09-06 | 画像処理装置、プログラム及び画像処理方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9865068B2 (ja) |
EP (2) | EP2426646B1 (ja) |
JP (1) | JP5621421B2 (ja) |
CN (1) | CN102385697B (ja) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5740972B2 (ja) * | 2010-09-30 | 2015-07-01 | ソニー株式会社 | 情報処理装置および情報処理方法 |
US9721388B2 (en) | 2011-04-20 | 2017-08-01 | Nec Corporation | Individual identification character display system, terminal device, individual identification character display method, and computer program |
KR20140034612A (ko) * | 2012-09-12 | 2014-03-20 | 삼성전자주식회사 | 멀티 유저를 위한 디스플레이 장치 및 그 제어 방법 |
US20140160157A1 (en) * | 2012-12-11 | 2014-06-12 | Adam G. Poulos | People-triggered holographic reminders |
TWI499289B (zh) * | 2013-01-25 | 2015-09-01 | Wistron Corp | 媒體內容推薦方法及媒體播放系統 |
CN103440603A (zh) * | 2013-08-30 | 2013-12-11 | 苏州跨界软件科技有限公司 | 基于增强现实的点菜系统 |
US9361733B2 (en) | 2013-09-02 | 2016-06-07 | Lg Electronics Inc. | Portable device and method of controlling therefor |
KR102161510B1 (ko) * | 2013-09-02 | 2020-10-05 | 엘지전자 주식회사 | 포터블 디바이스 및 그 제어 방법 |
JP6187054B2 (ja) * | 2013-09-03 | 2017-08-30 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP2015056855A (ja) * | 2013-09-13 | 2015-03-23 | 株式会社リコー | 配信管理装置、及び配信管理システム |
AU2013273829A1 (en) | 2013-12-23 | 2015-07-09 | Canon Kabushiki Kaisha | Time constrained augmented reality |
US20170178107A1 (en) * | 2014-03-27 | 2017-06-22 | Nec Corporation | Information processing apparatus, information processing method, recording medium and pos terminal apparatus |
CN104023111A (zh) * | 2014-06-27 | 2014-09-03 | 深圳市中兴移动通信有限公司 | 一种防小孩误拨的移动终端及方法 |
US11250201B2 (en) * | 2016-06-14 | 2022-02-15 | Amazon Technologies, Inc. | Methods and devices for providing optimal viewing displays |
JP2018018004A (ja) * | 2016-07-29 | 2018-02-01 | カシオ計算機株式会社 | 表示装置、表示制御方法及びプログラム |
KR102559407B1 (ko) * | 2016-10-19 | 2023-07-26 | 삼성전자주식회사 | 영상을 표시하기 위한 전자 장치 및 컴퓨터 판독 가능한 기록 매체 |
JP6969577B2 (ja) * | 2017-01-20 | 2021-11-24 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP7171212B2 (ja) * | 2018-04-02 | 2022-11-15 | キヤノン株式会社 | 情報処理装置、画像表示方法、コンピュータプログラム、及び記憶媒体 |
CN109472225A (zh) * | 2018-10-26 | 2019-03-15 | 北京小米移动软件有限公司 | 会议控制方法及装置 |
CN109377566B (zh) * | 2018-10-29 | 2023-08-11 | 北京西潼科技有限公司 | 基于增强现实的显示系统、图像处理方法及装置 |
WO2020188721A1 (ja) * | 2019-03-18 | 2020-09-24 | マクセル株式会社 | ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム |
KR102656461B1 (ko) * | 2019-03-20 | 2024-04-12 | 삼성전자주식회사 | 사용자의 움직임에 기반하여 객체의 속성을 제어하는 전자 장치 및 그 제어 방법 |
CN112702643B (zh) * | 2019-10-22 | 2023-07-21 | 上海哔哩哔哩科技有限公司 | 弹幕信息显示方法、装置、移动终端 |
JP7360775B2 (ja) * | 2020-11-16 | 2023-10-13 | Kddi株式会社 | スマートグラス、プログラム及び表示制御方法 |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10295934A (ja) * | 1997-04-25 | 1998-11-10 | Sega Enterp Ltd | ビデオゲーム装置及びモデルのテクスチャの変化方法 |
JP4701479B2 (ja) | 2000-07-05 | 2011-06-15 | ソニー株式会社 | リンク情報表示装置及びその表示方法 |
JP4443012B2 (ja) * | 2000-07-27 | 2010-03-31 | 株式会社バンダイナムコゲームス | 画像生成装置、方法および記録媒体 |
JP3979209B2 (ja) * | 2002-07-23 | 2007-09-19 | オムロン株式会社 | データ入力方法およびデータ入力装置 |
US7386799B1 (en) | 2002-11-21 | 2008-06-10 | Forterra Systems, Inc. | Cinematic techniques in avatar-centric communication during a multi-user online simulation |
SG123618A1 (en) * | 2004-12-15 | 2006-07-26 | Chee Khin George Loo | A method and system for verifying the identity of a user |
JP4599244B2 (ja) * | 2005-07-13 | 2010-12-15 | キヤノン株式会社 | 動画データから字幕を作成する装置及び方法、プログラム、並びに記憶媒体 |
JP2007194948A (ja) * | 2006-01-19 | 2007-08-02 | Fujifilm Corp | 画像編集装置及び画像編集プログラム |
US20080101575A1 (en) * | 2006-10-31 | 2008-05-01 | Erick Simon Amador | Participant prioritization on telephone conference calls |
JP4264663B2 (ja) * | 2006-11-21 | 2009-05-20 | ソニー株式会社 | 撮影装置、画像処理装置、および、これらにおける画像処理方法ならびに当該方法をコンピュータに実行させるプログラム |
JP2008158788A (ja) * | 2006-12-22 | 2008-07-10 | Fujifilm Corp | 情報処理装置および情報処理方法 |
EP1986421A3 (en) * | 2007-04-04 | 2008-12-03 | Nikon Corporation | Digital camera |
KR101405929B1 (ko) * | 2007-06-29 | 2014-06-12 | 엘지전자 주식회사 | 단말기 및 이를 위한 방송 제공 방법 |
JP4946730B2 (ja) | 2007-08-27 | 2012-06-06 | ソニー株式会社 | 顔画像処理装置及び顔画像処理方法、並びにコンピュータ・プログラム |
JP4569613B2 (ja) | 2007-09-19 | 2010-10-27 | ソニー株式会社 | 画像処理装置および画像処理方法、並びにプログラム |
US8245155B2 (en) * | 2007-11-29 | 2012-08-14 | Sony Corporation | Computer implemented display, graphical user interface, design and method including scrolling features |
JP2009194857A (ja) * | 2008-02-18 | 2009-08-27 | Sharp Corp | 通信会議システム、通信装置、通信会議方法、コンピュータプログラム |
JP4955596B2 (ja) * | 2008-03-21 | 2012-06-20 | 富士フイルム株式会社 | 画像出力方法、装置およびプログラム |
JP2010062853A (ja) * | 2008-09-03 | 2010-03-18 | Fujifilm Corp | 情報処理装置、方法およびプログラム |
JP2010073002A (ja) * | 2008-09-19 | 2010-04-02 | Hoya Corp | 画像処理装置およびカメラ |
KR101527408B1 (ko) * | 2008-11-04 | 2015-06-17 | 삼성전자주식회사 | 얼굴 표정 검출 방법 및 시스템 |
JP2010198987A (ja) | 2009-02-26 | 2010-09-09 | Sumitomo Chemical Co Ltd | 蓄電デバイスの製造方法および蓄電デバイス |
JP4643735B1 (ja) * | 2009-08-31 | 2011-03-02 | 株式会社東芝 | 電子機器及び映像処理方法 |
JP5257386B2 (ja) | 2010-03-11 | 2013-08-07 | ソニー株式会社 | リンク情報表示装置、その表示方法およびリンク情報処理システム |
-
2010
- 2010-09-06 JP JP2010198987A patent/JP5621421B2/ja not_active Expired - Fee Related
-
2011
- 2011-08-26 US US13/219,062 patent/US9865068B2/en active Active
- 2011-08-30 EP EP11179328A patent/EP2426646B1/en not_active Not-in-force
- 2011-08-30 CN CN201110259540.8A patent/CN102385697B/zh not_active Expired - Fee Related
- 2011-08-30 EP EP12196733.5A patent/EP2570994B1/en not_active Not-in-force
Also Published As
Publication number | Publication date |
---|---|
CN102385697B (zh) | 2016-08-10 |
EP2570994B1 (en) | 2018-10-24 |
JP2012060240A (ja) | 2012-03-22 |
EP2426646A1 (en) | 2012-03-07 |
EP2426646B1 (en) | 2013-01-23 |
CN102385697A (zh) | 2012-03-21 |
US20120057794A1 (en) | 2012-03-08 |
US9865068B2 (en) | 2018-01-09 |
EP2570994A1 (en) | 2013-03-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5621421B2 (ja) | 画像処理装置、プログラム及び画像処理方法 | |
JP2012058838A (ja) | 画像処理装置、プログラム及び画像処理方法 | |
JP6898165B2 (ja) | 人流分析方法、人流分析装置及び人流分析システム | |
CN108369482B (zh) | 信息处理设备、信息处理方法和程序 | |
TW202119362A (zh) | 一種擴增實境資料呈現方法、電子設備及儲存介質 | |
US8810513B2 (en) | Method for controlling interactive display system | |
US8723796B2 (en) | Multi-user interactive display system | |
US9349131B2 (en) | Interactive digital advertising system | |
KR101691985B1 (ko) | 개인 정보 통신기 | |
JP2019197499A (ja) | プログラム、記録媒体、拡張現実感提示装置及び拡張現実感提示方法 | |
WO2019177181A1 (ko) | 뉴럴 네트워크를 이용하여 상황을 인지하는 증강 현실 제공 장치, 제공 방법 및 상기 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램 | |
JP2009116510A (ja) | 注目度算出装置、注目度算出方法、注目度算出プログラム、情報提供システム、及び、情報提供装置 | |
KR102148151B1 (ko) | 디지털 커뮤니케이션 네트워크에 기반한 지능형 채팅 | |
US9503632B2 (en) | Guidance based image photographing device and method thereof for high definition imaging | |
JP2019179390A (ja) | 注視点推定処理装置、注視点推定モデル生成装置、注視点推定処理システム、注視点推定処理方法、プログラム、および注視点推定モデル | |
US20170371524A1 (en) | Information processing apparatus, picture processing method, and program | |
JP6907721B2 (ja) | 表示制御装置、表示制御方法及びプログラム | |
JP2014010605A (ja) | 情報処理装置、情報表示装置、情報処理方法およびプログラム | |
EP3438939A1 (en) | Information processing device, information processing method, and program | |
JP2019075126A (ja) | 情報処理装置及びプログラム | |
CN102446210B (zh) | 图像处理装置和图像处理方法 | |
WO2023095660A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
Zor et al. | Assistive Technologies For Individuals With Visual Impairment: Contribution Of Design In The Field Of Clothing | |
JP7418709B2 (ja) | コンピュータプログラム、方法及びサーバ装置 | |
WO2024127816A1 (ja) | 情報処理装置、情報処理方法および記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130821 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140404 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140415 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140603 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140826 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140908 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5621421 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |