JPWO2012144389A1 - 個人識別キャラクター表示システム、端末装置、個人識別キャラクター表示方法、及びコンピュータプログラム - Google Patents

個人識別キャラクター表示システム、端末装置、個人識別キャラクター表示方法、及びコンピュータプログラム Download PDF

Info

Publication number
JPWO2012144389A1
JPWO2012144389A1 JP2013510960A JP2013510960A JPWO2012144389A1 JP WO2012144389 A1 JPWO2012144389 A1 JP WO2012144389A1 JP 2013510960 A JP2013510960 A JP 2013510960A JP 2013510960 A JP2013510960 A JP 2013510960A JP WO2012144389 A1 JPWO2012144389 A1 JP WO2012144389A1
Authority
JP
Japan
Prior art keywords
terminal device
image
character
personal identification
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013510960A
Other languages
English (en)
Other versions
JP6020446B2 (ja
Inventor
伸 三国
伸 三国
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Publication of JPWO2012144389A1 publication Critical patent/JPWO2012144389A1/ja
Application granted granted Critical
Publication of JP6020446B2 publication Critical patent/JP6020446B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42202Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] environmental sensors, e.g. for detecting temperature, luminosity, pressure, earthquakes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/16Use of wireless transmission of display information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Abstract

端末装置は、AR制御部にキャラクター定義として、自己端末ユーザのキャラクター画像、及びARデータベースサーバ(または他端末装置)から取得した他端末ユーザのキャラクター画像を保持する。また、他端末装置の位置と、カメラ部が向いている方向を取得することができる。撮影者の端末装置は、取得した前記方向に、探している他端末装置のユーザが居るか否かを、他端末装置の特定ユーザの顔画像を画像認識手段を用いて識別することで判定し、他端末装置の特定ユーザが居る場合には、その他端末装置の特定ユーザのキャラクター画像を、カメラ部が得た画像の顔画像領域の近傍に、合成して表示する。

Description

本発明は個人識別キャラクター表示システム、端末装置、個人識別キャラクター表示方法、及びコンピュータプログラムに係り、特に、撮影して得られた撮像データから特定の個人を識別すると共に、特定の個人を撮影した撮像の近傍に、撮影された個人を視認できる個人識別キャラクターを併せて表示することができる個人識別キャラクター表示システム、端末装置、個人識別キャラクター表示方法、及びコンピュータプログラムに関する。
近年、撮影者がカメラ等で撮影した現実世界の撮像に、コンピュータグラフィック(CG)を使って、CG描画した画像を合成して表示装置に表示する技術が開発されている。特に、撮影した現実世界の個人の撮像データに、予め登録(設定)され、かつ指定したCG画像データを合成する技術が注目されている。
この分野の公知技術情報としては、例えば、非特許文献1に開示されたものが有る。
非特許文献1では、平行四辺形の各頂点に配置されたマーカーを用いて、物体の3次元位置及び姿勢を計測して現実世界の映像に仮想物体を合成する方法について記載している。
また、特許文献1には、複合現実感表示装置及び方法、記憶媒体、並びにコンピュータプログラムについて示されている。そして具体的には、現実世界の特定の場所に、模様を描いたマーカーや点滅するLED光源を設置することで、カメラを通して撮影した画像にCG画像を合成して表示することができる。これによれば、例えば、現実世界の特定の場所に家具を設置した場合の風景をシミュレーションして表示装置によって視認することできる。そして、上記の複合現実感表示方法を、家具や家電製品の現実空間への配置シミュレーションとして応用することを示している。
また、特許文献2には、ポータブル拡張現実感デバイスおよびその方法が示されてされており、上記の表示システムを携帯ゲーム装置に適用した実施例が述べられている。
特許文献3には、エンタテイメント装置、システム、及び方法が示されており、上記の固有の物体としてサイコロ状の物体を使用する実施例が開示されている。
また、特許文献4には、目標位置探索装置、目標位置探索方法及びプログラムについて記載されている。これは本件出願人の先願特許技術であり、AR(Augmented Reality:拡張現実感)による個人及び目的施設等の検索表示システムについて記載されている。
具体的には、検索対象による区別を行なわない、単純な図形による表示方法によって、現実の映像に対象とする物の位置を表す図形を合成表示するものである。
特許4032776号公報 特表2008‐510254号公報 特開2010‐049690号公報 特許3729161号公報
加藤博一、Mark Billinghurst、浅野浩一、橘啓八郎共著の論文『マーカー追跡に基づく拡張現実感システムとそのキャリブレーション』(日本バーチャルリアリティ学会論文誌, Vol.4, No.4, 1999)
上記の背景技術で示した文献の個人識別キャラクター表示システムには、例えば、特許文献1〜4において開示された技術において、下記の問題点が有った。
前述の特許文献1に開示された技術では、画像を配置する位置に固有の物体を設置することが必要である。
即ち、この技術では、画像を合成する場所を指定するためのマーカーとして特別な物体(マーカー物体)を用意する必要がある。また、多くの種類の合成CG画像を制御するためには、無数の種類のマーカー物体が必要になるため、予め準備されたマーカーによって表示できるCG画像の種類は非常に限られたものになる。
また、特許文献2,3による技術では、特許文献1に示された技術と同様に、画像を合成する場所を指定するためのマーカーとして、特別な物体を用意する必要が有り、また、多くの種類の合成CG画像を制御するためには、対応する無数の種類のマーカー物体が必要になる。このため、予め用意したマーカー(マーカー物体に対応したマーカー)によって表示できるCG画像の種類は非常に限られたものにならざるを得ない。これらは、本発明とは異なり、個人がカスタマイズした無数の画像のマーカーを用意して、端末装置間でデータ共有することなどは不可能であった。
前述の特許文献4に開示された技術では、AR合成技術によって、風景の中の遠方にいる個人の距離と方向を表示することができる。しかし、これによって合成される画像は相手が誰であっても固定され、演出力が不足している。
また、特許文献4に開示された技術では、予め探す個人を特定して表示することしかできない。これによると、合成に用いる画像を、特定個人を表す画像データとしてカスタマイズすることができないので、風景の中に存在している仲間の存在に気づいたり、その気づいた中から個人を特定して、撮影者がその個人の元にまで辿り着くといった用途には使用することができなかった。
本発明は、上に述べた従来の問題点に鑑みてなされたものであって、画像認識技術を使用することで、撮影者が撮影した撮像から特定の個人を識別することを可能にすると共に、前記特定の個人の撮像の近傍にその個人を視認できる個人識別キャラクターを併せて表示することができる個人識別キャラクター表示システムを提供することを目的としている。
上記課題を解決するために、本発明に係る個人識別キャラクター表示システムは、端末装置に搭載したカメラで撮影した現実世界の画像にCG描画した画像を合成描画する個人識別キャラクター表示システムであって、
前記カメラで撮影した現実世界の画像データから、前記画像データを表示する画像領域において所定の被写体の特徴を有する部分領域を、パターンマッチング法で認識して検出する検出部と、前記現実世界の画像の前記検出した部分領域に、前記部分領域で特徴付けられた前記被写体に対応して予め保持されている所定のCG画像を合成描画する合成描画部と、前記合成された画像領域を含む前記現実世界の画像を表示する画像表示部と、を備えたことを特徴とする。
また、本発明に係る端末装置は、前記端末装置が搭載するカメラで撮影した現実世界の画像にCG描画した画像を合成描画する端末装置であって、前記カメラで撮影した現実世界の画像データから、前記画像データを表示する画像領域において所定の被写体の特徴を有する部分領域を、パターンマッチング法で認識して検出する検出部と、前記現実世界の画像の前記検出した部分領域に、前記部分領域で特徴付けられた前記被写体に対応して予め保持されている所定のCG画像を合成描画する合成描画部と、前記合成された画像領域を含む前記現実世界の画像を表示する画像表示部と、を備えたことを特徴とする。
また、本発明に係る個人識別キャラクター表示方法は、端末装置に搭載したカメラで撮影した現実世界の画像にCG描画した画像を合成描画する個人識別キャラクター表示方法であって、前記カメラで撮影した現実世界の画像データから、前記画像データを表示する画像領域において所定の被写体の特徴を有する部分領域を、パターンマッチング法で認識して検出するステップと、前記現実世界の画像の前記検出した部分領域に、前記部分領域で特徴付けられた前記被写体に対応して予め保持されている所定のCG画像を合成描画するステップと、前記合成された画像領域を含む前記現実世界の画像を表示するステップと、を有することを特徴とする。
さらに、本発明に係るコンピュータプログラムは、搭載するカメラで撮影した現実世界の画像にCG描画した画像を合成描画する端末装置を制御するためのコンピュータプログラムであって、前記カメラで撮影した現実世界の画像データから、前記画像データを表示する画像領域において所定の被写体の特徴を有する部分領域を、パターンマッチング法で認識して検出するステップと、前記現実世界の画像の前記検出した部分領域に、前記部分領域で特徴付けられた前記被写体に対応して予め保持されている所定のCG画像を合成描画するステップと、前記合成された画像領域を含む前記現実世界の画像を表示するステップと、を有することを特徴とする。
以上説明したように、本発明の個人識別キャラクター表示システムによれば、特定の個人を検出し、その個人の顔部分をマーカーにして、個人毎にカスタマイズされたARキャラクターを合成描画することができるため、例えば、主人公とその主人公に従う従者とを登場人物とするアニメーション作品と、現実世界とを融合表現した画像を提供することができる。
本発明の第一の実施形態に係る個人識別キャラクター表示システムの全体構成を示す構成図である。 本発明の第一の実施形態に係る個人識別キャラクター表示システムの携帯電話端末の外観を示す構成図である。 図1に示されたARキャラクタデータベースが格納する個人レコードのデータ構成の詳細を示すデータ構成図である。 ARキャラクター定義と画像との対応例を示す説明図である。 ARキャラクター定義と画像との対応例を示す説明図である。 ARキャラクター定義と画像との対応例を示す説明図である。 ARキャラクター定義と画像との対応例を示す説明図である。 撮影対象のユーザが遠距離である場合のユーザ間の位置関係の1例として示す説明図である。 撮影対象のユーザが遠距離である場合の表示部の表示例を示す説明図である。 撮影対象のユーザが近距離である場合のユーザ間の位置関係の1例として示す説明図である。 撮影対象のユーザが近距離である場合の表示部の表示例を示す説明図である。 本発明の第一の実施形態に係る個人識別キャラクター表示システムの通信相手発見機能における表示画面の推移を示す説明図である。 本発明の第一の実施形態に係る個人識別キャラクター表示システムにおいて、ユーザが端末装置を操作して自己ARキャラクターデータの定義を行うときの動作手順を示すフローチャート図である。 本発明の第一の実施形態に係る個人識別キャラクター表示システムにおいて、他者の端末装置からキャラクター定義データを取得する場合の動作手順を示すフローチャート図である。 本発明の第一の実施形態に係る個人識別キャラクター表示システムにおいて、通信相手の相手端末装置が近接している場合にARキャラクターを表示する場合の動作手順を示すフローチャート図である。 本発明の第一の実施形態に係る個人識別キャラクター表示システムにおいて、相手端末装置が近接している場合に顔起点AR表示する場合の動作手順を示すフローチャート図である。 本発明の第一の実施形態に係る個人識別キャラクター表示システムにおいて、撮影範囲を検索した時にARキャラクターを表示する場合の動作手順を示すフローチャート図である。 本発明の第一の実施形態に係る個人識別キャラクター表示システムにおいて、相手端末装置が近接していない場合にARキャラクターを表示する場合の動作手順を示すフローチャート図である。 本発明の第一の実施形態に係る個人識別キャラクター表示システムにおける通信相手発見機能を実現する場合の動作手順を示すフローチャート図である。 本発明の第二の実施形態に係る個人識別キャラクター表示システムの全体構成を示す構成図である。 本発明の第二の実施形態に係る個人識別キャラクター表示システムにおける個人レコードデータの1例としての構成を示すデータ構成図である。 本発明の第二の実施形態に係る個人識別キャラクター表示システムにおけるARデータベースサーバのデータ転送時の動作手順を示すフローチャート図である。 本発明の第二の実施形態に係る個人識別キャラクター表示システムにおいて、端末装置側からARデータベースサーバへデータを転送する時の端末装置の動作手順を示すフローチャート図である。
本発明の一実施形態においては、個人の顔の画像上での特徴を抽出する画像認識部により、特定の個人を認識すると共に、その個人と強く結び付けられた合成すべき画像(ARキャラクター)を、その個人の近辺画像に併せて表示する。
これにより、個人毎にカスタマイズされた無数のARキャラクターを制御することが可能となる。例えば、主人公に従う従者を持つアニメーション作品と、現実に撮影された人物とを融合表現するような画像を提供するサービスの実施が可能となる。また、眼前の風景にいるユーザをカスタマイズされた図形を羅列して表示することを可能にすると共に、その中から特定の個人を指定する操作を実行することができる。
本発明の一実施形態における個人識別キャラクター表示システムは、
(1) 複数の端末装置(例えば、携帯電話端末装置)と、データベースサーバとがネットワーク接続される構成において、複数の端末装置の各々は、カメラ部、測位部、方位測定部を備えおり、
(2) 少なくとも撮影者の端末装置は、キャラクター定義部の中に、端末ユーザのキャラクター画像、及びデータベースサーバ(或いは、他の端末)から取得した他の端末ユーザのキャラクター画像を保持することができ、
(3) 少なくとも撮影者の端末装置は、カメラ部から眼前の画像を取得して表示し、また、前記撮影者の端末装置の位置を取得することができる。
さらに、本発明の一実施形態の個人識別キャラクター表示システムにおいては、
(4) 少なくとも撮影者の端末装置は、カメラ部が向いている方向を取得することができ、
(5) 少なくとも撮影者の端末装置は、取得した前記方向に、探している他の端末装置のユーザが居るか否かを、撮影者の端末装置とは異なる他の端末装置の特定ユーザの顔画像を画像認識部を用いて識別することで判定し、前記他の端末装置の特定ユーザが居る場合には、前記他の端末装置までの距離を表示すると共に、前記他の端末装置の前記特定ユーザのキャラクター画像を、カメラ部が得た画像に合成して表示する。なお、より具体的には、合成するキャラクター画像は、前記他の端末装置の特定ユーザの顔から画像認識部を用いて抽出した特徴情報により選択されるように構成する。
すなわち、本発明の一実施形態においては、撮影した撮像データにおいて特定の個人を識別すると共に、その特定の個人と強く関連付けられた(即ち、特定の個人をカスタマイズしたAR(Augmented Reality):拡張現実感)キャラクターを、前記特定の個人の撮像画像の近傍に表示できるようにするシステムであり、個人を特定するためには、例えば顔認識機能を使用し、この認識した顔部分を画像の合成場所を指定するマーカーにして、上記の個人に関連付けられたARキャラクターを併せて描画する。
通常、ARキャラクターデータの配信は、撮影した個人が所有する撮影者の携帯端末装置がARデータサーバとなって行われる。
他のユーザ(他の登録会員個人)の携帯端末装置が前記撮影者の端末装置と近接する場合(近距離無線通信手段等が使用できる範囲の場合)は、近距離無線通信手段等により、前記他のユーザの携帯端末装置が直接ARデータサーバとして動作する。
また、他のユーザの携帯端末装置が撮影者の端末装置と近接しない場合(近距離無線通信手段等が使用できない範囲の場合)は、ネットワーク通信により、中央サーバと通信して携帯端末装置からデータを取得したサーバがデータを直接配信するか、若しくは携帯端末装置に中継接続して間接的に配信する。
撮影者の端末装置が、他のユーザの他の携帯端末装置と近接しなくても、近傍に他のユーザが居る場合は、他のユーザの概略の位置を示したり、近傍に複数の他のユーザがいることを示すことができ、示されたキャラクターを指定することによって他の個人を指定することができる。
なお、撮影した登録会員個人が所有する携帯端末装置に保持されている撮影者のARキャラクターデータは、特殊には、撮影者個人が自分で撮影者自身の顔を撮影する場合に参照するように構成することも可能であるが、一般には、前記撮影した登録会員とは別の他の登録会員個人の携帯端末装置から参照されるものである。
これにより、登録会員のユーザに、AR環境で特定のアニメキャラクターの周囲を飛ぶ妖精や小動物のようなキャラクターをARキャラクターデータとして撮影者の装置に設定することで、アニメーション作品と現実とを融合した画像を表示するサービスを提供することができる。
さらに、カメラに写った前記の妖精や小動物を指定して、被写体となった本人のいる場所まで撮影者が辿り着くことができるシステムも提供できる。
以下、本発明に係わる個人識別キャラクター表示システム、端末装置、及びコンピュータプログラムの実施形態について、第一の実施形態、第二の実施形態の順に図面を参照して詳細に説明する。
なお、それぞれの実施形態の説明では、本発明に係る個人識別キャラクター表示システム、個人識別キャラクター表示方法、及び端末装置について詳述するが、本発明に係るコンピュータプログラムについては、前記端末装置を動作させるためのプログラムであることから、その説明は以下の説明に含まれる。
〔第一の実施形態〕
図1は、本発明の第一の実施形態に係る個人識別キャラクター表示システムの全体構成を示す構成図である。
図1に示す本実施形態に係る個人識別キャラクター表示システムは、携帯電話端末装置である携帯電話端末1及び携帯電話端末2(いずれも本発明の実施形態に係る端末装置)と、ARデータベースサーバ3と、を備えいる。
但し、本発明における係る個人識別キャラクター表示システムでは、一般に、2台以上の端末装置とデータベースサーバ装置によって構成することが可能である。本発明の実施形態に係る端末装置として、携帯電話端末装置1と、携帯電話端末2とを備える構成としたが、端末装置の構成は上記の構成に限定されるものではなく、従って、その台数は任意の複数でもよい。
また、本発明の実施形態に係る端末装置は、携帯電話端末装置やスマートフォンとは限らず、他の装置、例えば、ゲーム機、タブレットPC、ノートPCでもよい。
以下の説明では、一例として、携帯電話端末装置1(端末装置1)と、携帯電話端末2(端末装置2)とは、同じ構成であるものとするが、携帯電話端末装置1と携帯電話端末2の機能が同じであれば、本発明の実施形態に係る複数の端末装置の各々が、他と異なる構成であっても良い。
携帯電話端末装置1は、カメラ部11と、画像メモリ部12と、顔認識部13と、タッチパネルで構成された表示部14と、GPS/磁気センサ15と、AR制御部16と、通信部17と、を備える。
AR制御部16は、制御プログラム161と、自己ARキャラクター定義162と、他者ARキャラクター定義163と、を備える。
通信部17は、ネット通信部171と、近距離通信部172と、を備える。
携帯電話端末装置2は、カメラ部21と、画像メモリ部22と、顔認識部23と、タッチパネルで構成された表示部24と、GPS/磁気センサ25と、AR制御部26と、通信部27と、を備える。
携帯電話端末2におけるAR制御部26は、制御プログラム261と、自己ARキャラクター定義262と、他者ARキャラクター定義263と、を備える。
通信部27は、ネット通信部271と、近距離通信部272と、を備える。
ARデータベースサーバ3は、端末通信部31と、登録制御部32と、検索制御部33と、ARデータキャラクタデータベース34と、備える。
ARデータキャラクタデータベース34は個人レコード1(341)と、個人レコード2(342)と、個人レコード3(343)…と、個人レコードn(34n)と、を備える(但し、前記のnは登録されたレコード数である)。
図2は、本発明の第一の実施形態に係る個人識別キャラクター表示システムの携帯電話端末1及び携帯電話端末2の外観を示す構成図である。
図2では、カメラ部11の一部と、表示部14の構成要素である表示画面141と、GPS/磁気センサ部16の構成要素であるGPS151及び磁気センサ152と、を示している。
以下、図1,2を参照して、本実施形態に係る個人識別キャラクター表示システムの機能を説明する。
なお、以下の説明では、携帯電話端末1の機能も併せて説明するが、携帯電話端末2の機能も携帯電話端末1の機能と同様であり、よって、以下の説明に含まれるものとする。
カメラ部11で撮影された画像は画像メモリ12に保持される。
画像メモリ12には顔認識部13が接続されている。この顔認識部13は、カメラ部11で撮影された画像中の人物の顔部分を切り出して、その大きさと位置を取得する手段と、切り出した顔の特徴を数値化する手段とを具備している。
また、画像メモリ12は、AR制御部16からもアクセスが可能であり、ここに図形を描画することで現実の風景に図形を合成描画して表示することを可能にしている。
この描画の際には、制御プログラム161は、顔の特徴数値に関連付けられた図形を、切り出された顔領域の大きさに応じて拡大縮小し、顔領域の近傍に表示する。
また、時刻をキーに相対位置を変化させることで検出された顔領域の上方周囲を飛翔するようなアニメーション表現をも可能にしている。
AR制御部16のキャラクター定義部(携帯電話端末1における自己ARキャラクター定義162及び他者ARキャラクター定義163)を備えており、制御プログラム161はキャラクター定義に定義されたデータを参照して画像メモリ12に図形を描画する。
キャラクター定義としては、本システムへの登録ユーザである携帯電話端末1の使用者のための定義であり、本システムへの他の登録ユーザの端末装置(例えば携帯電話端末2)において表示が行われることになる携帯電話端末1の使用者の自己ARキャラクター定義を1つ(ここでは携帯電話端末1の自己ARキャラクター定義162)と、本システムへの他の登録ユーザの1つ以上のARキャラクタ(携帯電話端末1で表示する)を定義するARキャラクター定義を1つ(ここでは他者ARキャラクター定義163)とを具備する。
さらに、AR制御部16は、携帯電話端末1で表示するための複数の他者ARキャラクター定義を格納する手段を具備している。
携帯電話端末1の自己ARキャラクター定義162の定義データは通信部17による参照が可能となっており、通信部17に具備された近距離通信部172(無線通信部)などによる近距離通信によって端末装置の間(例えば、携帯電話端末1と携帯電話端末2)でデータ交換が可能であるか、若しくは同じく通信部17に具備されたネット通信部171によってネットワークに設置されたARデータベースサーバ3に定義データをアップロードすることが可能である。
上記と逆の動作として、通信部17は、近距離通信部172及び/またはネット通信部171を介して、ARデータベースサーバ3にアップロードされた携帯電話端末2の定義データを携帯電話端末1のARキャラクター定義部163にダウンロードすることができる。
また、携帯電話端末1のGPS/磁気センサ15は、GPSによる端末位置の測位部及び磁気センサーによる方位測定部として搭載されている。なお、AR制御部16の制御プログラム161からも測位結果を参照することができる。
ARデータベースサーバ3は、携帯電話端末1との通信手段として端末通信部31を備えており、携帯電話端末1から端末通信部31を介して送られて来たキャラクター定義データを格納する手段としてARキャラクタデータベース34を備える。
また、ARデータベースサーバ3は、携帯電話端末1からARデータベースサーバ3に格納されているデータの検索要求を受ける手段として検索制御部33を備えている。
この検索制御部33は、端末通信部31を介して検索結果を携帯電話端末1にネットワーク送信する手段を備えている。
さらに、ARデータベースサーバ3は、一人当たり少なくとも1レコードで構成されるARキャラクターをARキャラクタデータベース34に登録する手段として、登録制御部32を備える。
図1に示すように、ARキャラクタデータベース34が格納する1レコード分のデータには、端末装置を識別する端末IDとユーザ名、端末装置1の持ち主の顔認識を行った際に算出される特徴値である顔キー、個人毎にカスタマイズされた図形情報であるキャラクター定義、及びGPS等で計測される端末装置の現在位置が格納されている。
但し、前記端末装置の現在位置は、複数の登録ユーザの複数の端末装置間で交信される現在位置取得要求を、ARキャラクタデータベース34が中継した時に取得されるものである。
なお、後述の第2実施形態でも説明するが、このデータの格納方法は、端末IDとユーザ名、及び端末の現在位置情報だけを保持して、顔キーとキャラクター定義情報はデータが格納される対象の端末装置に情報取得要求をリダイレクトして前記データが格納される端末装置自身が情報を配信するように構成することもできる。
図3は、ARキャラクタデータベース34が格納する個人レコードのデータ構成の詳細を1例として示すデータ構成図であり、図3は個人レコードの全体構成と個人レコードのキャラクター定義の詳細構成を例示するものである。
図3に例示するARキャラクタデータベース34が格納する個人レコードのデータは、端末装置の電話番号や通信MACアドレスなどの端末装置を識別できる端末ID、端末IDと関連付けるユーザの氏名データ、顔キー、キャラクター定義データ、端末の現在位置のデータで構成されている。
図3に例示する個人レコードのキャラクター定義には、キャラクターの種別、パーツの形状及び色や模様、キャラクターの名称などが含まれており、キャラクターの種別や模様は、図4A〜図4Dに示すようなコードが定義されていて、本システムのユーザは、これらを自由に組み合わせて独自のキャラクターを定義することができる。
図4A〜図4Dは、ARキャラクター定義と画像との対応例を示す説明図である。
図4Aは、種別コードが1(トンボ)、図4Bは種別コードが2(蝶)の場合を示している。
図4Cは、前羽の模様=1、図4Dは前羽の模様=2の場合を示している。
図4A〜図4Dでは、簡便にするために昆虫の例で示したが、もっと複雑なキャラクターにしても構わない。
図5は、ユーザAと撮影対象のユーザBが遠距離である場合のユーザ間の位置関係を1例として示す説明図である。ユーザAの位置座標は(X1,Y1,Z1)として示されている。また、ユーザBの位置座標は(X2,Y2,Z2)と示されている。
図6は、撮影対象のユーザBが遠距離である場合の端末装置1における表示部14の表示例を示す説明図である。
前述のキャラクター定義レコードにより、ユーザとカスタマイズ定義された図形とが対応付けされるので、例えば、図5に示すようなユーザAとユーザBの位置を、現実の風景に合成して表示する動作において、撮影対象のユーザを端的に表す小さいキャラクター図形を用いて図6に示すような表示をすることが可能となる。
もしも、同時に二人を表示する場合であっても、図6に示すように小さいキャラクター図形を用いているため、同時に二人分のキャラクター図形を端末装置の表示部に表示することが可能であり、よって、キャラクターとユーザとの関連が既知であれば、どの辺りに、どちらの人が居るかを一目で視認できる表示をすることが可能となる。
図6に示す距離を表す数値に関しては、選択したキャラクターとの距離を数値で表すようにすることも可能である。
例えば、図6では、太い実線の吹き出し内の図形の方が選択したキャラクターを表しており、図5に示すユーザBからユーザAまでの距離の表示を例示している。
図7は、撮影対象のユーザBがユーザAと近距離である場合のユーザ間の位置関係を1例として示す説明図である。
図7は、図5に示すユーザBが、ユーザAとの間で近距離通信が可能な距離に近づいたときの様子を例示したものである。
ユーザAとユーザBとの距離が近距離通信が可能な距離に近づいたか否かは、ユーザAとユーザB間の距離と、予め設定された閾値とを比較することで決定され、ユーザAが使用する端末装置1から、この状態に至ったことが通知される。この場合、ユーザAは、自己が使用する端末装置1とARデータベースサーバ3とを介して、この状態に至ったことをユーザBに通知し、ユーザBの端末装置2を近距離通信モードに切り換えさせることができる。
図8は、撮影対象のユーザが近距離である場合の表示部14の表示例を示す説明図である。
図7は、図5に示すユーザBが、ユーザAに近づいたときの様子を例示したものであったが、この場合、端末装置1(ここでは携帯電話端末1の表示部14)の表示画面は、例えば図8に示すようになる。
ここでは、顔認識した領域をマーカーとして、その相対位置に領域の大きさに合わせたキャラクターを表示しているため、図9に示すように、ユーザの上方周囲をキャラクターが飛翔している表現になっている。
図8の右側半分に示すように、撮影対象のユーザBがさらにユーザAに近づいた場合は、撮影対象のユーザBの顔領域の大きさが大きくなり、それに従ってキャラクター図形も拡大するように構成するので、自然に感じられる合成結果を得ることができる。
図8に示す表示状態については、撮影対象のユーザBが、初めからユーザAに対して近距離に位置した状態で本システムを起動した場合でも同様に表示可能である。この場合は、端末装置1の近距離通信部171が備える近距離通信手段によって撮影対象のユーザBの端末装置2(ここでは携帯電話端末2)と、ARキャラクター定義を交換し合って表示を行うことができる。
撮影者の携帯電話端末1が一度取得したキャラクター定義は、(少なくとも後述する検索機能などを使わない限りは)他者ARキャラクター定義163に格納されているので、撮影対象のユーザの端末装置とは毎回通信を行わなくても表示することが可能である。
以上は表示する相手が分かっていて表示する相手を指定したか、若しくは目の前に表示する相手が存在する場合の動作であったが、ユーザAの目の前の空間に撮影対象のユーザB(携帯電話端末2)が居るかどうか分からない場合において本システムを動作させるのが、図9に画面例を示す通信相手発見機能である。
図9は、本発明の第一の実施形態に係る個人識別キャラクター表示システムの通信相手発見機能における表示画面の推移を示す説明図である。
図9において、左端の図が通信相手発見機能を起動した直後の画面である。
この場合、操作者ユーザAが端末装置1のカメラを向けた方向と、端末装置1の位置の測定データとから、前方にいる登録ユーザをネット通信部17を介してARデータベースサーバ3に問い合わせた検索結果のキャラクターを並べて表示部14に表示している。
このような表示方法は、多数の検索結果が出たときに、その中から特定の個人を選択する操作をし易くするためである。
ここで図9の左側に示すように、表示部14に表示された中から、目的のキャラクターをタッチ指定することで図9の中央(即ち前述の図6で示した状態を示す画面と同じ画面)に遷移させることができる。
操作者(携帯電話端末1の操作者)は、この画面表示に従って歩行することで、特定された個人である相手の居る場所に到達することが可能となり、図9の右側(即ち、前述の図8の左側半分で示した状態を示す画面と同じ画面)に遷移する。
なお、ここまでで述べた例では、図9の左側は携帯電話端末1の登録ユーザの全てが検索対象となっているが、後述する第二の実施形態で示すように、ARキャラクター定義の定義要素の中にグループID定義を導入し、グループIDが一致した人物だけを表示するようにすれば、人が集まった場所にグループIDが一致した仲間が来ているかどうかを調べることができるようになる。
また、グループIDを導入した場合には、グループIDを指定した場合にのみ、キャラクターをタッチする指定が可能になり、グループIDを指定しない場合はキャラクターをタッチ指定することができないようにして、グループIDを指定しないことで本システムに加入するユーザがどれくらい来ているかを見てみたり、他の人の定義したキャラクターを鑑賞するといった表示のさせ方を実現することも可能である。
以下では、前述の第一の実施形態の個人識別キャラクター表示システムの機能を纏める。
本発明における一形態においては、人物が写った映像から顔を認識し、顔部分の特徴を数値化して、その数値と関連付けられた図形としてユーザ個人がカスタマイズした独自図形を定義し、定義情報と顔部分の特徴数値をそのユーザの端末に保存して、無線による近接通信、あるいはネットワーク上のサーバーを経由して他のユーザの端末との間で交換することができるように構成している。よって、本システムのユーザは、無数の種類の合成画像と、無数の種類のマーカーを運用することができる。
キャラクター図形を配置する際には、認識された顔の画像の大きさと位置とを使用するので、対象となる特定の個人との関連を自然な表現で表示し、視認させることができる。
また、キャラクター図形の取得先として、ARデータベースサーバ3を経由する場合は、さらにデータ所有者の位置情報を取得することが可能となり、この取得情報を基に、カメラの映像範囲内に実在している特定のメンバーの有無が、カスタマイズされたキャラクター図形で表示されるので、特定のメンバーの有無を容易に視認することが可能となる。
また、特定の個人を示すキャラクター図形を指定することで、前記特定の個人にまで辿り着くことができる手段を備える。
さらに、ユーザが、その特定の個人の前記顔領域を切り出せる近傍に至った際には、個人を特定する画像が、アイコン的な表示の状態から、個人の近くにARキャラクター図形が表示される状態に自然な形で状態遷移できるので、個人と画像との関連性の世界観を損なうことなく、撮影対象ユーザが遠距離に居る場合と近距離に居る場合との両方のケースで、特定の個人に独自な図形を扱うことができるようになる。
図10Aは、本発明の第一の実施形態に係る個人識別キャラクター表示システムにおいて、ユーザが端末装置を操作してユーザの携帯電話端末1における自己ARキャラクターデータの定義を行う場合と、他のユーザの端末装置2から前記他のユーザの端末装置における前記他のユーザのキャラクター定義データを取得する場合との動作を示すフローチャート図である。
まず、ユーザが端末装置1を操作して自己ARキャラクターデータの定義を行うときの動作を説明する。
(ステップS1)
ステップS1では、カメラ部11が操作者によって起動される(ユーザ自身を撮影する準備)。
(ステップS2)
ステップS2では、カメラ部11を介して操作しているユーザ自身が撮影される。
(ステップS3)
ステップS3では、顔認識部13が、顔認識用の特徴抽出を行って顔キーの特徴データを作成し、端末装置1の自己ARキャラクター定義162の1項目である顔キー(図3参照)に登録する。
このとき、正面だけではなく、必要に応じて、左右方向からの撮影を行うようにしても良い。
(ステップS4)
ステップS4では、図4A〜図4Dに示したような定義のバリエーション(種別、色、模様等)が前記操作者によって指定され、自己ARキャラクターの見かけが定義される。
(ステップS5)
ステップS5では、AR制御部16が、ステップS4で定義されたARキャラクターを、自己ARキャラクター定義162の各項目に登録する(登録内容は表示部14に表示される)。
(ステップS6)
ステップS6では、操作者は、表示部14の表示画面を視認して、登録の確認を行う。
(ステップS7)
ステップS7では、AR制御部16が、登録がOKであったか否かを検証し、登録がOKの場合はステップS8に進み、登録がOKではない場合にはステップS4に戻る。
即ち、ここでは、操作者は、定義に従った表示を行ってみて、気に入れば登録を実行し、気に入らなければバリエーションの指定をし直すことができる。
(ステップS8)
ステップS8では、AR制御部16が、ネット通信部171を介してARデータベースサーバ3にステップS4で定義されたARキャラクターを登録させ、処理を終了する。
即ち、ここでは、ARデータベースサーバ3にもキャラクター定義を置くことにしているため、OKの場合はネットワーク通信によってARデータベースサーバ3に指定結果を登録するが、ARデータベースサーバ3がリダイレクト動作をして、毎回端末データを取得する制御方法にする場合はARデータベースサーバ3への登録は省略できる。
なお、端末装置の現在位置を、適宜ARデータベースサーバ3にアップロードして該サーバに保持させる処理は、本システムの特徴的な処理ではなく、既存の動作であるので、ここでの説明は省略する。
次に、図10Bを使って、ユーザが他の登録ユーザの端末装置から他の登録ユーザのARキャラクターデータの定義を取得する場合の動作を説明する。
(ステップS21)
ステップS21では、操作者によって、データを取得する他者の端末装置2からの入力指定が示される。
(ステップS22)
ステップS22では、通信部17が、自己端末装置とデータを取得する他者の端末装置との間の距離が、前述のとおり予め設定された所定の閾値より、近いか否かを判定し、上記距離が近い場合はステップS26に移り、上記距離が近くない場合はステップS23に進む。
(ステップS23)
ステップS23では、端末装置1の通信部17は、ネット通信部171を介してARデータベースサーバ3にアクセスし、データを取得する他者の端末装置由来のARキャラクター定義を検索させる。
(ステップS24)
ステップS24では、通信部17は、ARデータベースサーバ3から、データを取得する他者の端末装置由来のARキャラクター定義と、前記他者の端末装置の位置情報とを取得する。
(ステップS25)
ステップS25では、通信部17は、前記取得した他者ARキャラクター定義と、該他者の端末装置の位置情報とを、他者ARキャラクター定義163に格納し、処理を終了する。
なお、遠距離通信による取得であれば、その後にGPSを使って相手(他者)の距離と方向を表示する必要があるので、上記のように、前記他者の端末装置位置情報も取得するものである。
(ステップS26)
ステップS26では、通信部17は、近距離通信部172を起動して、前記他者の端末装置と接続する。
(ステップS27)
ステップS27では、通信部17は、前記他者の端末装置から、他者の端末装置由来のARキャラクター定義を取得し、その後、ステップS25に移る。
図11Aと図11Bは、本発明の第一の実施形態に係る個人識別キャラクター表示システムにおいて、通信相手の相手端末装置が近接している場合にARキャラクターを表示する場合の動作を示すフローチャート図である。
図11Aに示した動作は、図7に示すシチュエーション(状況)で実行するものである。
この動作を実行する時点では、図10Bに示す他者データ取得処理は終了している状態であるものとする。
(ステップA1)
ステップA1では、操作者によって端末装置1のカメラ部11が操作され、撮影した撮像データが取得される。
(ステップA2)
ステップA2では、顔認識部13が、撮像データから、人間の顔として認識できるデータを検出する。
(ステップA3)
ステップA3では、顔認識部13が、人間の顔として認識できるデータを検出したか否かを検証し、人間の顔として認識できるデータを検出した場合はステップA4に進み、人間の顔として認識できるデータを検出しなかった場合は処理を終了する。
(ステップA4)
ステップA4では、顔認識部13が、人間の顔として認識できるデータが複数検出された場合には、最初の処理対象として、例えば一番左上に位置する検出結果を選択する。
(ステップA5)
ステップA5では、顔認識部13が、顔認識用の特徴データを抽出する。例えば、目と口の距離や目の間隔との比率などの顔の特徴データを抽出する。
(ステップA6)
ステップA6では、顔認識部13が、他者ARキャラクター定義163の顔キーのデータに一致する(あるいは近い)ものがあるか否かを検索する。
(ステップA7)
ステップA7では、顔認識部13が、上記検索により、他者ARキャラクター定義163の顔キーのデータに近い特徴データが存在していたか否かを検証し、上記特徴データが存在する場合はステップS9にて後述の顔基点AR表示処理を行い、その後、ステップA8に戻る。また、上記特徴データが存在しない場合は直ちにステップA8に進む。
(ステップA8)
ステップA8では、顔認識部13が、人間の顔として認識されたデータの全てについて、上記の処理が完了したか否かを検証し、未処理のデータが有ればステップA10に移り、また、全データについての上記処理が完了した場合は処理を終了する。
(ステップA9)
ステップA9(サブルーチン)の処理は後述する。
(ステップA10)
ステップA10では、顔認識部13が、人間の顔として認識された次のデータを選択し、ステップA5に戻る。
以下、図11Bでは、図11Aに示すフローチャートおいて、ステップA9で実行するサブルーチン(顔基点AR表示処理)での動作手順を説明する。
(ステップA21)
ステップA21では、顔認識部13が、パターンマッチング法を用いて、所与の画像から、所定の特徴を有する顔画像を認識して検出し、顔認識枠の位置と大きさとを取得する。
(ステップA22)
ステップA22では、顔認識部13が、顔認識枠の大きさによってARキャラクター画像の拡大(拡大率の決定)または縮小(縮小率の決定)を行う。
(ステップA23)
ステップA23では、顔認識部13が、現在時刻をパラメータとして、顔認識枠からの相対座標(即ち相対描画位置)を決定する。
なお、現在時刻をパラメータとして前記の相対描画位置を変化させることで、顔の周囲を飛翔したり、肩のあたりで上下して羽ばたくようなアニメーション表示も可能となる。
(ステップA24)
ステップA24では、顔認識部13が、ARキャラクター画像を、上記で決定した位置と大きさで、画像メモリ12に描画し、呼び出し元に復帰する。
これにより、現実の映像にカスタマイズされたキャラクターが合成された映像が表示される。
複数の顔が検出されていた場合は、検出された次の顔領域に対して特徴抽出処理以降の処理を繰り返すものとする。
これにより、端末装置1の表示部14の画面内にいる複数の人の周囲に、それぞれの人物に対応して、それぞれ定義したARキャラクターを飛翔させることができる。
図12は、本発明の第一の実施形態に係る個人識別キャラクター表示システムにおいて、撮影範囲を検索した時にARキャラクターを表示する場合の動作手順を示すフローチャート図である。
図12に示すフローチャートは、図9の左端に示す画像の表示を行う場合の動作を示す。
(ステップB1)
ステップB1では、操作者によって端末装置1のカメラ部11が操作され、表示のベースとなる眼前の景色の撮像データが取得される。
(ステップB2)
ステップB2では、操作者によってGPS/磁気センサ15が起動され、端末装置1の位置が確定され、その位置が取得される。
(ステップB3)
ステップB3では、操作者によって起動されたGPS/磁気センサ15を介して、カメラ部11のカメラが向いている方向が取得される。
(ステップB4)
ステップB4では、カメラ部11が、カメラ撮影範囲の位置を算出する。
(ステップB5)
ステップB5では、ネット通信部171が、ARデータベースサーバ3と接続する。
(ステップB6)
ステップB6では、ネット通信部171が、ARデータベースサーバ3にアクセスし、ARキャラクタデータベース34内に、端末装置1の現在位置がカメラ撮影範囲に含まれる他者の端末装置から登録された個人レコードが存在するか否かを検索させる。
ここでは、例えば、カメラの画角が対角60度程度あり、前方80mまでを範囲とする場合は、自己の位置からカメラが向いている方向に40m先の、半径30mの円内に存在する端末装置のユーザを検索するようにARデータベースサーバ3に指示する。
より正確には、20m先の半径10mの円内に含まれる端末装置と、40m先の半径20m、及び60m先の半径30mの円内に含まれる端末装置を検索させる。
(ステップB7)
ステップB7では、ネット通信部171が、ARデータベースサーバ3から、上記個人レコードの存在が応答されたか否かを検証し、上記個人レコードの存在が応答された場合はステップB8に進み、上記個人レコードの存在が応答されなかった場合は処理を終了する。
(ステップB8)
ステップB8では、ネット通信部171が、ARデータベースサーバ3から存在が応答された他者の個人レコードを全て取得し、AR制御部16に送出する。
(ステップB9)
ステップB9では、AR制御部16が、存在した他者の個人レコードについて、画像メモリ12に、取得したARキャラクターを全てタイル状に並べて描画し、表示部14の画面上に表示すると共に、どの位置にどのARキャラクターを並べたかを記憶しておく(これは、後で表示画面がタッチされた時に、どのARキャラクターが選択されたのかを判断する必要があるからである)。
図13は、本発明の第一の実施形態に係る個人識別キャラクター表示システムにおいて、相手端末装置が近接していない場合にARキャラクターを表示する場合の動作手順を示すフローチャート図である。
図13に示すフローチャートの動作は、図5に示すシチュエーション(ユーザAとユーザBが離れている状況)で、図6の表示を行う場合に実行されるものである。
ここでは、ARキャラクターの表示対象の指定は、端末装置1の他者ARキャラクター定義163に格納された他の個人であるものとしている。
(ステップC1)
ステップC1では、カメラ部11のカメラが、操作者によって操作され、表示のベースとなる映像が撮影されて、画像メモリ12に撮影された画像データが取得される。
(ステップC2)
ステップC2では、操作者によって起動されたGPS/磁気センサ15を介して、端末装置1が存在する位置の位置情報が取得される。
(ステップC3)
ステップC3では、操作者によって起動されたGPS/磁気センサ15を介して、端末装置1の方向が取得される。
(ステップC4)
ステップC4では、AR制御部16が、相手端末装置の位置を更新するために、図10Bに示した他者データ取得処理を実行して他者の個人レコードを再取得する。
このとき、ARデータベースサーバ3との通信手段としては、ネット通信部17を介したネットワーク通信手段が用いられる。但し、相手端末装置の位置情報以外の情報は既に保持しているため、相手端末装置の位置情報だけを取得するようにしても構わない。
(ステップC5)
ステップC5では、AR制御部16が、表示部14の表示画面上の、端末装置1から見た相手端末装置の方向を算出する。
(ステップC6)
ステップC6では、AR制御部16が、端末装置1と相手端末装置との間の距離を算出する。
(ステップC7)
ステップC7では、AR制御部16が、画像メモリ12内に相手端末装置に対応するARキャラクターと吹き出し図形とを合成し、表示部14の表示画面上の大体の場所に表示し、処理を終了する。これにより、図6に例示する画面表示が出力される。
図14は、本発明の第一の実施形態に係る個人識別キャラクター表示システムにおける通信相手発見機能を実現する場合の動作手順を示すフローチャート図である。
(ステップC21)
ステップC21では、AR制御部16が、図12に示した範囲指定AR表示処理を実行する。これにより、図9の左側に示す画像が表示される。
(ステップC22)
ステップC22では、操作者が、図9の左側に表示された画像において、表示されている1つのARキャラクターの描画位置を指定する。
AR制御部16は、図12のステップB9の処理でARキャラクターの描画位置を記憶していたので、AR制御部16は、上記の指定により、どのARキャラクターが選択されたかが判り、他者ARキャラクター定義部163に格納されている、どの定義レコードであるかを判明することができる。
(ステップC23)
ステップC23では、AR制御部16が、上記で選択された定義だけを残して他の定義を消去する。
(ステップC24)
ステップC24では、AR制御部16が、図13に示す遠距離AR表示処理を実行する。
これにより、表示部14の表示画面は、図9に示す中央部の図形の表示状態に遷移するので、操作者は、この表示を見ながら歩行して相手端末装置に接近することができる。
(ステップC25)
ステップC25では、AR制御部16が、図13に示すステップC6の処理で計算された端末装置1と相手端末装置との距離が5m以内になったか否かを検証し、距離が5m以内の場合はステップC26に進み、また、前記の距離が5m以内でない場合はステップC24に戻る。
(ステップC26)
ステップC26では、AR制御部16が、図7に示すように、例えば相手との距離が5m以内になると、顔認識部13を起動し、カメラ部11から取得した画像中に、指定した定義に格納されているキーに近い顔画像が有るか否かを検索する。
(ステップC27)
ステップC27では、AR制御部16は、ステップC25の処理で、前記キーに近い顔画像が検索されたか否かを検証し、前記キーに近い顔画像が検索されたならステップC28に進み、前記キーに近い顔画像が検索されていない場合はステップC24に戻る。
(ステップC28)
ステップC28では、AR制御部16は、図11Aに示す近距離AR表示処理を実行する。
これにより、表示部14の表示画面は、図9の右側に示す表示状態に遷移する。
なお、図14のフローチャートに示す動作手順では、操作者が検索対象に近づいたときの動作として、5m以内に近づいた場合に顔認識部13を起動し、顔画像が検出できたことを確認した上で、図11Aに示す近距離AR表示処理を実行するものとしたが、この顔画像の検出処理を省略して、いきなり図11Aに示す近距離AR表示処理を動作させるようにしても構わない。
但し、この場合は、表示部14の表示画面から、一時的にキャラクター表示が消える可能性が有るが、その代わりに、顔画像の認識処理を、ステップC24の遠距離AR表示処理に続いて実行する必要が無くなり、処理が簡便で軽くなるというメリットが有る。
この実施形態の個人識別キャラクター表示システムによれば、使用者が撮影した画像に対して顔画像認識処理を実行することで特定個人を検出し、検出された個人の顔部分をマーカーにして、個人毎にカスタマイズされたARキャラクターを合成描画することができるため、例えば、主人公とその主人公に従う従者とを登場人物とするアニメーション作品と、現実世界とを融合表現した画像を提供することができる効果が有る。
また、キャラクターデータの配信手段として、個人持ちの携帯端末装置をARデータサーバとすることもできる構成としたので、カスタマイズの操作が容易であるだけでなく、使用者個人によるカスタマイズが即時効果を発揮すると共に、他の端末装置から見た映像にも反映できるようになる。
さらに、端末装置同士が近接しない場合に備えて、ネット通信部17のネットワーク通信手段により、ARデータベースサーバ3と連携してARキャラクターデータの配信を行えるように構成したので、端末装置同士が近接していなくても、自己端末装置の近傍に他の登録ユーザが居る場合は、この他の登録ユーザの概略の位置を示すことが可能となり、また、自己端末装置の近傍に複数の他の登録ユーザが居る場合は、これら複数の登録ユーザのことを他の登録ユーザが設定したARキャラクター画像で示すことができる。
さらに、この時、この他の登録ユーザが設定した複数のARキャラクターの1つを指で指定することによって、特定の個人だけを指定して追跡することができるようになる。
〔第二の実施形態〕
前述の第一の実施形態では、連携するサーバ装置(即ちARデータベースサーバ3)にも、ARキャラクター定義データが保持されている場合を示したが、本発明は、一般に、連携するサーバ装置には、端末IDとユーザ名、及び端末装置の現在位置のみを保持し、顔キー及びキャラクター定義については、本システムに加入している個々のユーザの端末装置に取得要求をリダイレクトして取得するように構成することも可能である。
さらに、連携するサーバ装置には、個々の端末装置の現在位置を示す位置情報も保持しないものとし、ユーザ名と端末IDのみを保持するようにして、そのサーバ装置から遠隔制御によって端末装置の現在位置を取得させ、キー及びキャラクター定義データと共に、現在位置を取得した端末装置からARキャラクター定義データの一部を取得するようにしても良い。
この場合、サーバ装置の保持するデータ量が削減できる効果だけではなく、ARキャラクター定義データや、端末装置の位置への追従精度が向上するという効果が得られる。
しかしながら、この場合、相手端末装置が通信可能な場所に居る必要が有るという制約が発生する。
そこで、以下で説明する本発明の第二の実施形態では、上記の制約を緩和できるようにすることを意図し、具体的には、本システムに加入しているユーザの個々の端末装置に保持するARキャラクター定義データと、連携サーバ(ここでもARデータベースサーバ3とする)が保持するARキャラクター定義データには、それぞれグループIDを付加するものとしている。
以下、図を参照しながら、本発明の第二の実施形態について説明する。
図15は、本発明の第二の実施形態に係る個人識別キャラクター表示システムの全体構成を示す構成図である。
図15に示す本発明の第二の実施形態に係る個人識別キャラクター表示システムの全体構成は、図1に示す本発明の第一の実施形態に係る個人識別キャラクター表示システムの全体構成と同じであるが、ARデータベースサーバ3のARキャラクタデータベース34に格納されている、顔キー、キャラクター定義、及び端末現在位置については、括弧付きで示している点だけが、図1に示す本発明の第一の実施形態に係る個人識別キャラクター表示システムとの相違点である。
このような表現の意図するところは、ARデータベースサーバ3のARキャラクタデータベース34には、実際には前記のデータが保持されておらず、前記のデータについては、指定された他の端末装置から取得したデータを転送するだけであることを示すことである。
図16は、本発明の第二の実施形態に係る個人識別キャラクター表示システムにおける個人レコードデータの1例としての構成を示すデータ構成図である。
図16に示す個人レコードデータは、本システムに加入しているユーザの個々の端末装置が保持する個人のレコードデータを表したものであり、ARデータベースサーバ3にも、同様に端末ID、氏名、及びグループIDが保持されているものとする。
以下、第二の実施形態に係る個人識別キャラクター表示システムの動作を、ARデータベースサーバ3の機能を中心にして説明する。
加入ユーザの端末装置の1つから、ARデータベースサーバ3に対してARキャラクター定義データの送信要求が発信されると、ARデータベースサーバ3は、その通信要求で指定された加入ユーザの端末装置に対してARキャラクター定義データの送信を要求する。
これにより、指定された端末装置が応答すれば、その指定された端末装置からARキャラクター定義データを取得して、最初の要求元である加入ユーザの端末装置に対して、指定された端末装置におけるARキャラクター定義データを転送するが、前記通信要求で指定された加入ユーザの端末装置が通信できない状態であった場合には、ARキャラクタデータベース34上で、このユーザのグループIDと同じグループIDを持つ他の端末装置を検索し、この検索がヒットした端末装置に対して接続を試みる。
この端末装置が応答し、かつ該当ユーザのARキャラクター定義データを、この端末装置の他者ARキャラクター定義に保持している場合は、その保持されているARキャラクター定義データを送信させ、最初の要求元である加入ユーザの端末装置に対して転送する。
このように構成したことにより、同じグループIDを持つ端末装置間であれば、要求された端末装置のARキャラクター定義データを保持している可能性が高いので、要求されたユーザのARキャラクター定義データを取得できる可能性を高めることができる。
図17は、本発明の第二の実施形態に係る個人識別キャラクター表示システムにおけるARデータベースサーバ3のデータ転送時の動作手順を示すフローチャート図である。
(ステップD1)
ステップD1では、ARデータベースサーバ3は、第1実施形態における図10Bの他者データ取得処理と同様の処理によって、例えば携帯電話端末1から、指定された相手端末装置のユーザのARキャラクター定義データを要求される。
(ステップD2)
ステップD2では、ARデータベースサーバ3の検索制御部33は、前記ARキャラクター定義データの要求において氏名で指定された加入ユーザの端末IDを、ARキャラクタデータベース34上で検索し、端末通信部31を介して、検索結果の端末IDを有する端末装置との通信が可能か否かをテストする。
(ステップD3)
ステップD3では、検索制御部33は、前記指定された加入ユーザの端末装置との通信が可能か否かのステップD2におけるテストの結果により、前記加入ユーザの端末装置との通信が可能か否か検証し、前記指定された加入ユーザの端末装置との通信が可能な場合はステップD4に進み、前記指定された加入ユーザの端末装置との通信が不可能の場合はステップD6に移る。
(ステップD4)
ステップD4では、検索制御部33は、前記加入ユーザの端末装置のARキャラクター定義に格納されたARキャラクター定義データを取得する。
(ステップD5)
ステップD5では、検索制御部33は、ステップD4の処理で取得したARキャラクター定義データを、端末通威信部31を介して元の要求元の端末装置(ここでは携帯電話端末1)に転送する。
(ステップD6)
ステップD6では、検索制御部33は、前記要求において通信対象として定義されたグループIDを有する他の端末装置を、ARキャラクタデータベース34上で検索する。
(ステップD7)
ステップD7では、検索制御部33は、ステップD6の検索処理の結果として、前記グループIDを有する他の端末装置が検索されたか否かを検証し、前記グループIDを有する他の端末装置が検索された場合はステップD8に進み、前記グループIDを有する他の端末装置が検索されなかった場合はステップD13に移る。
(ステップD8)
ステップD8では、検索制御部33は、検索結果の端末IDを有する端末装置との通信が可能か否かをテストする。
(ステップD9)
ステップD9では、検索制御部33は、ステップD8におけるテストの結果により、前記検索結果の端末IDを有する端末装置との通信が可能か否か検証し、該端末装置との通信が可能な場合はステップD10に進み、該端末装置との通信が不可能の場合はステップD6に戻る。
(ステップD10)
ステップD10では、検索制御部33は、前記検索結果の端末IDを有する端末装置のARキャラクター定義に格納されている、前記要求において氏名で指定された加入ユーザの端末装置のデータを取得する。
(ステップD11)
ステップD11では、検索制御部33は、前記データの取得が成功したか否かを検証し、前記データの取得に成功した場合はステップD12に進み、前記データの取得に成功しなかった場合はステップD6に戻る。
(ステップD12)
ステップD12では、検索制御部33は、前記検索結果の端末IDを有する端末装置のARキャラクター定義に格納されている、前記要求において氏名で指定された加入ユーザの端末装置のARキャラクター定義データを取得し、その後、ステップD5に移る。
(ステップD13)
ステップD13では、検索制御部33は、最初の要求元の端末装置(ここでは携帯電話端末1)に対して、「氏名で指定された人物のARキャラクター定義データは取得できなかった」という旨の信号を応答する。
図18は、本発明の第二の実施形態に係る個人識別キャラクター表示システムにおいて、端末装置側からARデータベースサーバ3へデータを転送する時の端末装置の動作手順を示すフローチャート図である。
(ステップE1)
ステップE1では、例えば携帯電話端末1のネット通信部171が、ARデータベースサーバ3から、データを転送すべき端末装置2(携帯電話端末2)が発信した端末IDの送信要求を受信する。
(ステップE2)
ステップE2では、端末装置1のAR制御部16が、自己ARキャラクター定義162の格納データが要求されたか否かを判断し、自己ARキャラクター定義162の格納データが要求された場合はステップE7に移り、自己ARキャラクター定義162の格納データが要求されていない場合にはステップE3に進む。
(ステップE3)
ステップE3では、端末装置1のAR制御部16が、他者ARキャラクター定義163の中に、受信した端末IDのデータが格納されているか否かを検証する。
(ステップE4)
ステップE4では、端末装置1のAR制御部16が、ステップE3の検証によって、他者ARキャラクター定義163の中に、該当する端末IDのデータが格納されていたか否かを判断し、他者ARキャラクター定義163の中に、該当する端末IDのデータが格納されていた場合はステップE5に進み、また、該当する端末IDのデータが格納されていなかった場合はステップEに移る。
(ステップE5)
ステップE5では、AR制御部16が、他者ARキャラクター定義163に格納されている受信した端末IDのデータを取得し、ネット通信部171を介してARデータベースサーバ3に送信し、処理を終了する。
(ステップE6)
ステップE6では、AR制御部16が、該当する端末IDのデータは格納されていなかった旨の信号を、ネット通信部171を介してARデータベースサーバ3に送信し、処理を終了する。
(ステップE7)
ステップE7では、AR制御部16が、自己ARキャラクター定義162に格納されている該当端末IDのデータを取得し、ネット通信部171を介してARデータベースサーバ3に送信し、処理を終了する。
このような動作の処理により、同じグループIDを持つ複数の端末装置群とARデータベースサーバ3とが、データキャッシュサーバの役割を果たすようになり、最初にARキャラクター定義データを要求した端末装置(ここでは携帯電話端末1)は、高い確度で、要求したデータを入手することができる。
なお、上記の構成において、図9で示したように、特定の範囲内に存在するユーザのARキャラクター画像を指タッチで指定する場合には、指タッチしたARキャラクター画像が、同じグループIDを持っていない人物のARキャラクター画像である場合には、指タッチによる指定が実行されてもその人物の探索はできないように制御することも可能となる。
この場合、本システムの加入ユーザは、ARキャラクター画像の指タッチで指定した本システムの他の加入ユーザが、どの程度の眼前に居るかを調べることができても、他の加入ユーザの個人情報は保護されることになる。
さらに、この表示を行う際に、ARデータベースサーバ3に対して、同じグループIDを持つ人物のみを検索するように予め指定しておくことも可能である。
なお、上記のグループIDを参照する各処理においては、グループIDの文字列自体ではなく、その文字列から計算されるハッシュコードを通信時に交換することで、グループIDの設定が他者に漏洩することを防ぐことができる。
なお、本発明に係る個人識別キャラクター表示システムの各構成要素の処理の少なくとも一部をコンピュータ制御により実行するものとし、かつ、上記処理を、図10A〜図14及び図17、図18のフローチャートで示した動作手順により、コンピュータに実行させるためのコンピュータプログラムは、半導体メモリを始め、CD−ROMや磁気テープなどのコンピュータ読み取り可能な記録媒体に格納して配付しても良い。そして、少なくともマイクロコンピュータ、パーソナルコンピュータ、汎用コンピュータを範疇に含むコンピュータが、上記の記録媒体から上記コンピュータプログラムを読み出して、実行するものとしても良い。
本願は、2011年4月20日に、日本に出願された特願2011−093810号に基づき優先権を主張し、その内容をここに援用する。
特定の個人の撮像の近傍に該個人を視認できる個人識別キャラクターを併せて表示することができる個人識別キャラクター表示システムを提供することができる。
1 携帯電話端末
2 携帯電話端末
3 ARデータベースサーバ
11 カメラ部
12 画像メモリ
13 顔認識部
14 表示部
15 GPS/磁気センサ
16 AR制御部
17 通信部
31 端末通信部
32 登録制御部
33 検索制御部
34 ARキャラクタデータベース
161 制御プログラム
162 自己ARキャラクター定義
163 他者ARキャラクター定義
171 ネット通信部
172 近距離通信部

Claims (10)

  1. 端末装置に搭載したカメラで撮影した現実世界の画像にCG描画した画像を合成描画する個人識別キャラクター表示システムであって、
    前記カメラで撮影した現実世界の画像データから、該画像データを表示する画像領域において所定の被写体の特徴を有する部分領域を、パターンマッチング法で認識して検出する検出手段と、
    前記現実世界の画像の前記検出した部分領域に、該部分領域で特徴付けられた前記被写体に対応して予め保持されている所定のCG画像を合成描画する合成描画部と、
    前記合成された画像領域を含む前記現実世界の画像を表示する画像表示部と、
    を備えた個人識別キャラクター表示システム。
  2. 登録ユーザ個人が使用する端末装置には、他の登録ユーザも含めた登録ユーザ個人毎の情報を記録した個人レコードを保持すると共に、前記登録ユーザ個人毎の個人レコードの内訳は、前記ARキャラクター画像の形状を定義する情報、及び前記所定の被写体の特徴を示す情報である請求項1記載の個人識別キャラクター表示システム。
  3. 登録ユーザ個人毎の情報を記録した個人レコードを保持するネットワーク上のARデータベースサーバをさらに備えると共に、前記登録ユーザ個人毎の個人レコードの内訳は、前記ARキャラクター画像の形状を定義する情報、及び前記所定の被写体の特徴を示す情報である請求項2記載の個人識別キャラクター表示システム。
  4. 前記端末装置と前記他の登録ユーザが使用する他の端末装置とが各々保持する前記登録ユーザ個人毎の個人レコードの情報は、前記端末装置と前記他の端末装置間の直接の近接通信部、若しくは前記ARデータベースサーバが前記ネットワークを介して中継する通信部により、前記端末装置と前記他の端末装置の間で互いに交換して参照する請求項3記載の個人識別キャラクター表示システム。
  5. 前記ARデータベースサーバが保持する前記登録ユーザ個人毎の個人レコードの情報は、前記いずれの端末装置においてもダウンロードして該端末装置において参照する請求項3または請求項4記載の個人識別キャラクター表示システム。
  6. 前記ネットワーク上の前記ARデータベースサーバには、さらに、登録ユーザ個人が所有する端末装置の現在の位置情報の登録が可能であり、該位置情報は、前記ARデータベースサーバからの前記ダウンロードの際に前記端末装置に送信され、前記合成された画像領域を含む前記現実世界の画像の表示に反映される請求項5記載の個人識別キャラクター表示システム。
  7. 前記ネットワーク上の前記ARデータベースサーバに、現在位置が前記カメラの撮影範囲に含まれる他の登録ユーザの端末装置が存在し、かつ該他の登録ユーザの端末装置から登録された前記登録ユーザ個人毎の個人レコードの情報が存在するか否かを検索させる請求項2乃至6のいずれか1項に記載の個人識別キャラクター表示システム。
  8. 自己が搭載するカメラで撮影した現実世界の画像にCG描画した画像を合成描画する端末装置であって、
    前記カメラで撮影した現実世界の画像データから、該画像データを表示する画像領域において所定の被写体の特徴を有する部分領域を、パターンマッチング法で認識して検出する検出部と、
    前記現実世界の画像の前記検出した部分領域に、該部分領域で特徴付けられた前記被写体に対応して予め保持されている所定のCG画像を合成描画する合成描画部と、
    前記合成された画像領域を含む前記現実世界の画像を表示する画像表示部と、
    を備えた端末装置。
  9. 端末装置に搭載したカメラで撮影した現実世界の画像にCG描画した画像を合成描画する個人識別キャラクター表示方法であって、
    前記カメラで撮影した現実世界の画像データから、該画像データを表示する画像領域において所定の被写体の特徴を有する部分領域を、パターンマッチング法で認識して検出するステップと、
    前記現実世界の画像の前記検出した部分領域に、該部分領域で特徴付けられた前記被写体に対応して予め保持されている所定のCG画像を合成描画するステップと、
    前記合成された画像領域を含む前記現実世界の画像を表示するステップと、
    を有する個人識別キャラクター表示方法。
  10. 搭載するカメラで撮影した現実世界の画像にCG描画した画像を合成描画する端末装置を制御するためのコンピュータプログラムであって、
    前記カメラで撮影した現実世界の画像データから、該画像データを表示する画像領域において所定の被写体の特徴を有する部分領域を、パターンマッチング法で認識して検出するステップと、
    前記現実世界の画像の前記検出した部分領域に、該部分領域で特徴付けられた前記被写体に対応して予め保持されている所定のCG画像を合成描画するステップと、
    前記合成された画像領域を含む前記現実世界の画像を表示するステップと、
    を有するコンピュータプログラム。
JP2013510960A 2011-04-20 2012-04-11 画像表示システム、画像表示装置、画像表示方法及びプログラム Expired - Fee Related JP6020446B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011093810 2011-04-20
JP2011093810 2011-04-20
PCT/JP2012/059911 WO2012144389A1 (ja) 2011-04-20 2012-04-11 個人識別キャラクター表示システム、端末装置、個人識別キャラクター表示方法、及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JPWO2012144389A1 true JPWO2012144389A1 (ja) 2014-07-28
JP6020446B2 JP6020446B2 (ja) 2016-11-02

Family

ID=47041500

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013510960A Expired - Fee Related JP6020446B2 (ja) 2011-04-20 2012-04-11 画像表示システム、画像表示装置、画像表示方法及びプログラム

Country Status (4)

Country Link
US (1) US9721388B2 (ja)
EP (1) EP2701123B1 (ja)
JP (1) JP6020446B2 (ja)
WO (1) WO2012144389A1 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8988574B2 (en) 2012-12-27 2015-03-24 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information using bright line image
US9608725B2 (en) 2012-12-27 2017-03-28 Panasonic Intellectual Property Corporation Of America Information processing program, reception program, and information processing apparatus
JP5603523B1 (ja) 2012-12-27 2014-10-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 制御方法、情報通信装置およびプログラム
US10303945B2 (en) * 2012-12-27 2019-05-28 Panasonic Intellectual Property Corporation Of America Display method and display apparatus
EP2940901B1 (en) 2012-12-27 2019-08-07 Panasonic Intellectual Property Corporation of America Display method
US10523876B2 (en) 2012-12-27 2019-12-31 Panasonic Intellectual Property Corporation Of America Information communication method
US9341014B2 (en) 2012-12-27 2016-05-17 Panasonic Intellectual Property Corporation Of America Information communication method using change in luminance
US10951310B2 (en) 2012-12-27 2021-03-16 Panasonic Intellectual Property Corporation Of America Communication method, communication device, and transmitter
US10530486B2 (en) 2012-12-27 2020-01-07 Panasonic Intellectual Property Corporation Of America Transmitting method, transmitting apparatus, and program
US9087349B2 (en) 2012-12-27 2015-07-21 Panasonic Intellectual Property Corporation Of America Information communication method
US8922666B2 (en) 2012-12-27 2014-12-30 Panasonic Intellectual Property Corporation Of America Information communication method
CN103105993B (zh) * 2013-01-25 2015-05-20 腾讯科技(深圳)有限公司 基于增强现实技术实现互动的方法和系统
JP2014174589A (ja) * 2013-03-06 2014-09-22 Mega Chips Corp 拡張現実システム、プログラムおよび拡張現実提供方法
FR3008210B1 (fr) * 2013-07-03 2016-12-09 Snecma Procede et systeme de realite augmentee pour la supervision
KR102258490B1 (ko) 2014-05-29 2021-05-31 삼성전자주식회사 전자 장치 및 전자 장치에서 무선 네트워크 접속 방법
JP5989725B2 (ja) * 2014-08-29 2016-09-07 京セラドキュメントソリューションズ株式会社 電子機器及び情報表示プログラム
KR102278460B1 (ko) * 2014-10-17 2021-07-19 삼성전자주식회사 컨텐츠 공유 방법 및 디바이스, 컨텐츠 공유 시스템
US20160227267A1 (en) * 2015-01-30 2016-08-04 The Directv Group, Inc. Method and system for viewing set top box content in a virtual reality device
US10636175B2 (en) * 2016-12-22 2020-04-28 Facebook, Inc. Dynamic mask application
JP6475776B2 (ja) * 2017-04-27 2019-02-27 株式会社メガチップス 拡張現実システムおよび拡張現実提供方法
CN107566911B (zh) * 2017-09-08 2021-06-29 广州方硅信息技术有限公司 一种直播方法、装置、系统及电子设备
CN108693548B (zh) * 2018-05-18 2021-10-22 中国科学院光电研究院 一种基于场景目标识别的导航方法及系统
CN109064416B (zh) * 2018-07-10 2021-06-15 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及电子设备
JP7160707B2 (ja) * 2019-01-31 2022-10-25 株式会社スクウェア・エニックス 仮想キャラクタを含む画像を提供するための方法
JP7280492B2 (ja) * 2019-03-25 2023-05-24 株式会社Mixi 情報処理装置、情報処理方法およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002077592A (ja) * 2000-04-13 2002-03-15 Fuji Photo Film Co Ltd 画像処理方法
JP2009076060A (ja) * 2007-08-29 2009-04-09 Casio Comput Co Ltd 画像合成装置および画像合成処理プログラム
WO2010084242A1 (en) * 2009-01-23 2010-07-29 Nokia Corporation Method, system, computer program, and apparatus for augmenting media based on proximity detection
JP2012060240A (ja) * 2010-09-06 2012-03-22 Sony Corp 画像処理装置、プログラム及び画像処理方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7106887B2 (en) 2000-04-13 2006-09-12 Fuji Photo Film Co., Ltd. Image processing method using conditions corresponding to an identified person
JP3729161B2 (ja) 2001-08-07 2005-12-21 カシオ計算機株式会社 目標位置探索装置、目標位置探索方法及びプログラム
JP4032776B2 (ja) 2002-03-04 2008-01-16 ソニー株式会社 複合現実感表示装置及び方法、記憶媒体、並びにコンピュータ・プログラム
US8547401B2 (en) 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
US20060182433A1 (en) * 2005-02-15 2006-08-17 Nikon Corporation Electronic camera
US8644842B2 (en) * 2007-09-04 2014-02-04 Nokia Corporation Personal augmented reality advertising
JP4508257B2 (ja) * 2008-03-19 2010-07-21 ソニー株式会社 構図判定装置、構図判定方法、プログラム
US8199966B2 (en) * 2008-05-14 2012-06-12 International Business Machines Corporation System and method for providing contemporaneous product information with animated virtual representations
EP2157545A1 (en) 2008-08-19 2010-02-24 Sony Computer Entertainment Europe Limited Entertainment device, system and method
US8116749B2 (en) * 2008-09-08 2012-02-14 Proctor Jr James Arthur Protocol for anonymous wireless communication
WO2012003844A1 (en) * 2010-07-05 2012-01-12 Sony Ericsson Mobile Communications Ab Method for displaying augmentation information in an augmented reality system
JP5730518B2 (ja) * 2010-08-27 2015-06-10 株式会社日立国際電気 特定人物検知システムおよび特定人物検知方法
US9317530B2 (en) * 2011-03-29 2016-04-19 Facebook, Inc. Face recognition based on spatial and temporal proximity

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002077592A (ja) * 2000-04-13 2002-03-15 Fuji Photo Film Co Ltd 画像処理方法
JP2009076060A (ja) * 2007-08-29 2009-04-09 Casio Comput Co Ltd 画像合成装置および画像合成処理プログラム
WO2010084242A1 (en) * 2009-01-23 2010-07-29 Nokia Corporation Method, system, computer program, and apparatus for augmenting media based on proximity detection
JP2011521489A (ja) * 2009-01-23 2011-07-21 ノキア コーポレイション 近接検出に基づいてメディアを拡張するための方法、システム、コンピュータプログラム、および装置
JP2012060240A (ja) * 2010-09-06 2012-03-22 Sony Corp 画像処理装置、プログラム及び画像処理方法

Also Published As

Publication number Publication date
US20140035952A1 (en) 2014-02-06
EP2701123B1 (en) 2018-10-17
WO2012144389A1 (ja) 2012-10-26
EP2701123A1 (en) 2014-02-26
EP2701123A4 (en) 2014-12-17
US9721388B2 (en) 2017-08-01
JP6020446B2 (ja) 2016-11-02

Similar Documents

Publication Publication Date Title
JP6020446B2 (ja) 画像表示システム、画像表示装置、画像表示方法及びプログラム
KR102417645B1 (ko) Ar 장면 이미지 처리 방법, 장치, 전자 기기 및 저장 매체
US10636185B2 (en) Information processing apparatus and information processing method for guiding a user to a vicinity of a viewpoint
US20150379777A1 (en) Augmented reality providing system, recording medium, and augmented reality providing method
JP5934368B2 (ja) 可搬装置、仮想現実システムおよび方法
CN104641399B (zh) 用于创建环境并用于共享环境中基于位置的体验的系统和方法
US10241565B2 (en) Apparatus, system, and method of controlling display, and recording medium
TWI615776B (zh) 移動物件的虛擬訊息建立方法、搜尋方法與應用系統
JP6348741B2 (ja) 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法
CN108548300B (zh) 空调送风方法及装置、电子设备
US10868977B2 (en) Information processing apparatus, information processing method, and program capable of adaptively displaying a video corresponding to sensed three-dimensional information
CN111179435A (zh) 增强现实处理方法及装置、系统、存储介质和电子设备
JP6720385B1 (ja) プログラム、情報処理方法、及び情報処理端末
KR102197615B1 (ko) 증강 현실 서비스를 제공하는 방법 및 증강 현실 서비스를 제공하기 위한 서버
JP7150894B2 (ja) Arシーン画像処理方法及び装置、電子機器並びに記憶媒体
CN110873963A (zh) 内容显示方法、装置、终端设备及内容显示系统
KR20180120456A (ko) 파노라마 영상을 기반으로 가상현실 콘텐츠를 제공하는 장치 및 그 방법
CN112740284A (zh) 动画合成装置、动画合成方法以及记录介质
JP6640294B1 (ja) 複合現実システム、プログラム、携帯端末装置、及び方法
TW201823929A (zh) 移動物件的虛擬訊息遠距管理方法與應用系統
WO2021093703A1 (zh) 基于光通信装置的交互方法和系统
JPWO2019026919A1 (ja) 画像処理システム、画像処理方法、及びプログラム
CN108092950B (zh) 一种基于位置的ar或mr社交方法
WO2019127320A1 (zh) 信息处理方法、装置、云处理设备及计算机程序产品
CN113760088A (zh) 增强现实显示装置以及记录介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150306

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150714

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151215

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160208

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160524

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160810

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160819

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160919

R150 Certificate of patent or registration of utility model

Ref document number: 6020446

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees