JP5801690B2 - Image processing apparatus and image processing method - Google Patents
Image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP5801690B2 JP5801690B2 JP2011236478A JP2011236478A JP5801690B2 JP 5801690 B2 JP5801690 B2 JP 5801690B2 JP 2011236478 A JP2011236478 A JP 2011236478A JP 2011236478 A JP2011236478 A JP 2011236478A JP 5801690 B2 JP5801690 B2 JP 5801690B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- captured image
- unit
- identification
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
Description
本発明は、撮像画像中に映っている被写体の情報を提示するための技術に関する。 The present invention relates to a technique for presenting information on a subject shown in a captured image.
近年、カメラ等で撮影した現実環境の画像に、現実環境中の物体の属性情報や、CG(Computer Graphics)を用いたバーチャルな物体を、付加、合成するAR(Augmented Reality:拡張現実)技術が盛んである。例えば、カメラをかざすと、GPS(Global Positioning System)による位置情報から現実の映像上に関連するタグ情報を重ね合わせて表示する携帯電話用拡張現実ソフトウェアなども登場している。 In recent years, AR (Augmented Reality) technology that adds and synthesizes virtual object using CG (Computer Graphics) and attribute information of objects in the real environment to images of the real environment taken with cameras etc. It is thriving. For example, augmented reality software for mobile phones has appeared that displays related tag information superimposed on real images from GPS (Global Positioning System) position information over a camera.
このようなARシステムにおいて、被写体の近傍に被写体に関連した情報を表示することが望まれている。すなわち、撮影画像中に様々な被写体が含まれている場合、被写体に関連するそれぞれの情報が、どの被写体の情報であるのかをユーザがわかるような形で表示することが望ましい。またこのためには、撮影画像中から被写体を一意に特定すること、そして特定した被写体と被写体の近傍に表示すべき情報とを結びつけることが必要である。 In such an AR system, it is desired to display information related to the subject in the vicinity of the subject. In other words, when various subjects are included in the photographed image, it is desirable to display in such a way that the user can know which subject information each piece of information related to the subject is. For this purpose, it is necessary to uniquely identify the subject from the captured image, and to link the identified subject and information to be displayed in the vicinity of the subject.
特許文献1には、撮影画像に被写体が所有する無線タグが報知した情報を付属情報として付加する技術が開示されている。より詳しくは、無線タグの報知情報には無線タグ所有者の顔等を識別できる画像特徴情報が含まれており、撮影画像と比較することで被写体の特定を行うことができる画像検索装置を開示している。 Patent Document 1 discloses a technique for adding information notified by a wireless tag owned by a subject to attached images as attached information. More specifically, an image retrieval apparatus that includes image feature information that can identify the face of the wireless tag owner and the like in the notification information of the wireless tag and that can identify the subject by comparing with the captured image is disclosed. doing.
特許文献2は、RFタグを持つ被写体が指向性アンテナのエリアを通過する際、画角が指向性アンテナエリアと連動したカメラにて撮影を行い、撮影画像にRFタグの所有者である被写体が存在することを検出可能な映像属性自動付与装置を開示している。 In Patent Document 2, when a subject having an RF tag passes through the area of the directional antenna, the subject is photographed with a camera whose angle of view is linked to the directional antenna area. An apparatus for automatically assigning video attributes that can be detected is disclosed.
特許文献3は、制御装置が被写体の存在する場所をカメラに通知し、カメラは、被写体とカメラとの相対位置を算出することで、被写体の場所を特定する方法を開示している。 Patent Document 3 discloses a method in which a control device notifies a camera of a location where a subject exists, and the camera calculates a relative position between the subject and the camera to identify the location of the subject.
しかしながら、複数の被写体が近接している場合や、被写体の向きによっては、被写体を個別に特定することが困難となる場合がある。 However, when a plurality of subjects are close to each other or depending on the orientation of the subject, it may be difficult to specify the subject individually.
例えば、特許文献1に開示されている技術では、被写体が後ろを向いた撮影画像の場合、被写体を顔等の画像特徴情報から特定することは難しい。また、特許文献2や特許文献3に開示されている技術では、被写体が繁華街のような同一のエリアに多数存在する場合、近接する被写体同士の区別が難しい。 For example, in the technique disclosed in Patent Document 1, it is difficult to specify a subject from image feature information such as a face when the subject is a captured image facing backward. Also, with the techniques disclosed in Patent Document 2 and Patent Document 3, when there are many subjects in the same area such as a downtown area, it is difficult to distinguish between adjacent subjects.
本発明はこのような問題に鑑みてなされたものであり、被写体の特徴情報から該被写体を特定できない場合であっても、該被写体を一意に特定するための技術を提供することを目的とする。 The present invention has been made in view of such a problem, and an object of the present invention is to provide a technique for uniquely identifying a subject even when the subject cannot be identified from feature information of the subject. .
上述の目的を達成するために、本発明の画像処理装置は、撮像画像を取得する手段と、
センサによりユーザをセンシングすることで得られた、該ユーザの状態を表すセンサ情報を受信する受信手段と、
前記ユーザの属性情報と、前記撮像画像中における前記ユーザを識別するための識別パラメータと、を取得する取得手段と、
前記受信手段が受信したセンサ情報と、前記取得手段が取得した識別パラメータと、に基づいて、前記撮像画像中の被写体の中から、前記ユーザを識別する識別手段と、
前記取得手段が取得した属性情報を、前記識別手段による識別の結果に応じた前記撮像画像上の位置に合成して出力する出力手段と
を有することを特徴とする。
In order to achieve the above-described object, the image processing apparatus of the present invention includes means for acquiring a captured image,
Receiving means for receiving sensor information representing the state of the user obtained by sensing the user with a sensor;
Acquisition means for acquiring the attribute information of the user and an identification parameter for identifying the user in the captured image;
An identification unit for identifying the user from among subjects in the captured image based on the sensor information received by the reception unit and the identification parameter acquired by the acquisition unit;
And output means for combining and outputting the attribute information acquired by the acquisition means at a position on the captured image corresponding to a result of identification by the identification means.
本発明の構成により、被写体の特徴情報から該被写体を特定できない場合であっても、該被写体を一意に特定することができる。 According to the configuration of the present invention, even when the subject cannot be identified from the feature information of the subject, the subject can be uniquely identified.
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。 Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.
[第1の実施形態]
本実施形態に係る画像処理装置は、撮像画像上に、該撮像画像中に映っている被写体の属性情報を合成して表示するデジタルカメラである。図1に、このデジタルカメラを含むシステムの構成を示す。
[First Embodiment]
The image processing apparatus according to the present embodiment is a digital camera that synthesizes and displays attribute information of a subject appearing in the captured image on the captured image. FIG. 1 shows the configuration of a system including this digital camera.
デジタルカメラ101は、被写体を撮像することで撮像画像の生成、記録、表示を行う機能に加え、IEEE802.11に則った無線LAN機能を有する。図1では、デジタルカメラ101の周囲には人物102,104,106が存在しており、人物102,104,106はそれぞれ、携帯電話103,105,107を手に把持している。携帯電話103、105,107の何れも、IEEE802.11に則った無線LAN機能を有する機器であり、デジタルカメラ101との無線通信を可能にする。携帯電話103,105,107は何れも携帯端末の一例であり、携帯電話103,105,107が行うものとして後述する各処理を実行可能な機器であれば、如何なる携帯端末を携帯電話103,105,107に適用してもよい。また、図1では、デジタルカメラ101の周囲には3台の携帯電話が存在するものとしているが、その台数はこれに限るものではない。
The
携帯電話103,105,107は何れも、自機に関する情報及び自機の所有者(ユーザ)に関する情報を含む識別情報を定期的若しくは不定期的に、無線LAN機能によってデジタルカメラ101に送信する。なお、この識別情報の送信は、デジタルカメラ101からの送信要求を受けたことに応じて行ってもよい。この識別情報は、IEEE802.11に則ったフレームの一要素として付与され、送信されるものとする。この識別情報について詳しくは後述する。
Each of the
デジタルカメラ101はまた、インターネットなどのネットワーク108を介して、外部装置としてのサーバ109とのデータ通信を行うことができる。然るにデジタルカメラ101は、携帯電話103,105,107のそれぞれから受信した識別情報を用いて、携帯電話103、105,107のそれぞれの所有者である人物102,104,106に係る後述の様々な情報をサーバ109から取得する。そしてデジタルカメラ101は、この取得した情報や上記識別情報を用いて、自身が撮像した撮像画像中の被写体(人物102,104,106のうち1以上)を識別すると共に、この識別した被写体に関する情報をこの撮像画像上に重畳して表示する。
The
次に、デジタルカメラ101の機能構成例について、図3のブロック図を用いて説明する。制御部320は、記憶部312に格納されているコンピュータプログラムやデータを用いて各種の処理を実行すると共に、デジタルカメラ101を構成する各部の動作制御を行う。
Next, a functional configuration example of the
無線通信制御部301は、携帯電話103,105,107との間で無線信号の送受信を行うためのアンテナや回路、それらを制御することで無線通信を制御する制御部、を有する。
The wireless
シャッターボタン302は、撮像を開始時するためのボタンであり、デジタルカメラ101のユーザがシャッターボタン302を押下すると、制御部320による制御により、撮像部303において撮像処理が開始される。
The
撮像部303は、レンズやRGBセンサ、赤外線センサ(熱センサ)、X線センサ、A/D変換器、それらを制御する制御部、を有し、撮像部303が撮像処理を行うことで、撮像画像を生成することができる。
The
表示部304は、撮像部303が撮像した撮像画像や、その他の情報(画像情報や文字情報)を表示するための表示領域を有しており、液晶ディスプレイやそれを制御する制御部を有する。識別情報取得部305は、無線通信制御部301を制御することで、携帯電話103,105,107のそれぞれから識別情報を受信する。
The
顔特徴情報取得部306は無線通信制御部301を制御し、識別情報取得部305が携帯電話103,105,107のそれぞれから取得した識別情報を用いて、サーバ109に携帯電話103,105,107のそれぞれの所有者の顔の特徴量を問い合わせる。なお、本実施形態では、所有者を識別するために使用可能な識別パラメータの一例として顔の特徴量を用いるが、所有者を識別するために使用可能なパラメータであれば、顔の特徴量以外のパラメータを採用してもよい。
The face feature
属性情報取得部307は無線通信制御部301を制御し、識別情報取得部305が携帯電話103,105,107のそれぞれから取得した識別情報を用いて、サーバ109に携帯電話103,105,107のそれぞれの所有者の属性情報を問い合わせる。本実施形態ではこの属性情報は所有者の名前とするが、他の属性を表す情報であってもよい。
The attribute
被写体特定部308は、顔特徴情報取得部306が取得したそれぞれの所有者の顔の特徴量を用いて、撮像部303により生成された撮像画像中の被写体を識別する。なお、この識別が失敗した場合、被写体特定部308は、識別情報から得られる後述の様々な情報を用いて再度、撮像部303により生成された撮像画像中の被写体を識別する。
The
加速度情報取得部309は、3軸方向の加速度を取得する加速度センサと、該加速度センサを制御する制御部と、を有する。位置情報取得部311は、デジタルカメラ101の現在位置を特定するための緯度、経度、方位、高度、上下などの情報を取得するGPSおよび3軸の地磁気センサ、ジャイロセンサ等と、これを制御する制御部と、を有する。
The acceleration
記憶部312は、RAMやROM等により構成されており、無線通信制御部301が携帯電話103,105,107から受信した識別情報や、サーバ109から受信した様々な情報を一時的に記憶するためのエリアを有する。更に記憶部312は、制御部320による実行対象となるコンピュータプログラムやデータを一時的に記憶するためのエリア、制御部320が各種の処理を実行する際に用いるワークエリアを有する。即ち、記憶部312は、各種のエリアを適宜に提供することができる。
The
姿勢情報取得部316は、位置情報取得部311から取得した3軸の方位情報と、加速度情報取得部309から取得した3軸の加速度情報と、から、ピッチ角、ロール角、ヨー角を抽出する。ここで、ピッチ角とは、X軸を軸とする回転角のことであり、ロール角とは、Y軸を軸とする回転角のことであり、ヨー角とは、Z軸を軸とする回転角のことである。即ち、デジタルカメラ101の姿勢を算出する。そして更に、姿勢情報取得部316は、3軸の加速度情報と、ロール角・ピッチ角・ヨー角と、からデジタルカメラ101の動き情報を求める。
The posture
画像合成部310は、被写体特定部308が識別した所有者に関する情報を、撮像部303が生成した撮像画像上に合成して出力する。合成位置については特に限定するものではなく、被写体特定部308が識別した所有者の画像領域の近傍に位置に合成してもよいし、撮像画像上の規定の位置に合成してもよい。また、画像合成部310による画像の出力先については特に限定するものではなく、表示部304に対して出力してもよいし、記憶部312に対して出力してもよい。
The
次に、携帯電話103,105,107の機能構成例について、図4のブロック図を用いて説明する。無線通信制御部401は、デジタルカメラ101との間で無線信号の送受信を行うためのアンテナや回路、それらを制御することで無線通信を制御する制御部、を有する。
Next, functional configuration examples of the
識別情報発信部402は、無線通信制御部401を制御することで、自機に固有の識別情報をデジタルカメラ101に対して送信する。携帯電話制御部403は、自機を構成する各部の動作制御を行うと共に、自機が行うものとして後述する各処理を実行する。
The identification
位置情報取得部404は、自機の位置を特定するための緯度、経度、方位、高度などの情報を取得するGPSおよび3軸の地磁気センサ等と、これらを制御する制御部と、を有する。加速度情報取得部405は、3軸方向の加速度を取得する加速度センサと、加速度センサを制御する制御部と、を有する。
The position
姿勢情報取得部406は、位置情報取得部404が取得した3軸の方位情報と、加速度情報取得部405が取得した3軸の加速度情報と、から、ピッチ角、ロール角、ヨー角を抽出する。ここで、ピッチ角とは、X軸を軸とする回転角のことであり、ロール角とは、Y軸を軸とする回転角のことであり、ヨー角とは、Z軸を軸とする回転角のことである。即ち、自機の姿勢を算出する。そして更に、姿勢情報取得部406は、3軸の加速度情報と、ロール角・ピッチ角・ヨー角と、から自機の動き情報を求める。生体情報取得部407は、心拍センサ、音声センサ、体温センサ等の生体情報を収集するセンサを備え、自機の所有者の心拍数、音声、体温等の生体情報を取得する。
The posture
ここで、識別情報発信部402が送信する識別情報の構成例について、図6を用いて説明する。図6は、携帯電話103,105,107のそれぞれが送信する識別情報の構成をテーブル形式で示している。
Here, a configuration example of identification information transmitted by the identification
識別情報は、識別子(列601)、端末位置(列602)、時刻(列603)、動き(列604)、心拍数(列605)、体温(列606)、音(列607)、の情報を含む。 The identification information includes information on an identifier (column 601), terminal position (column 602), time (column 603), movement (column 604), heart rate (column 605), body temperature (column 606), and sound (column 607). including.
「識別子」は、携帯電話の所有者を一意に決定するためのユニークな値として無線通信制御部401で使用するイーサネット(登録商標)MACアドスであり、携帯電話に対して適宜設定されたものである。「端末位置」は、携帯電話の所有者が該携帯電話を把持している場所である。「時刻」は、識別情報が生成されたときの時刻(携帯電話制御部403が計時)である。
The “identifier” is an Ethernet (registered trademark) MAC address used by the wireless
「動き」は、姿勢情報取得部406が求めた加速度情報若しくは該加速度情報から得られる動きがどの程度の動きであるのかを表す情報である。図6では、加速度情報が表す動きが、「静止している」、「歩いている」、「走っている」の何れであるのかを「動き」としている。これは例えば、加速度情報が表す動き(加速度)が第1の閾値以下であれば「静止している」とし、第1の閾値よりも大きく第2の閾値以下であれば「歩いている」とし、第2の閾値よりも大きければ「走っている」としている。
“Movement” is information indicating the degree of movement obtained from the acceleration information obtained by the posture
なお、この「動き」を、図10に示す如く、加速度情報をそれぞれの携帯電話を原点とし、方位および上下、時間を軸とした4次元関数へのフーリエ変換した関数としてもよい。 As shown in FIG. 10, this “movement” may be a function obtained by Fourier transforming acceleration information into a four-dimensional function with each mobile phone as the origin and the azimuth, up and down, and time as axes.
「心拍数」は、生体情報取得部407が取得した携帯電話の所有者の心拍数である。「体温」は、生体情報取得部407が取得した携帯電話の所有者の体温である。「音」は、生体情報取得部407が取得した携帯電話の所有者の音声情報であり、この音声情報は適宜圧縮してもよい。
“Heart rate” is the heart rate of the owner of the mobile phone acquired by the biometric
次に、サーバ109が保持する情報について、図2を用いて説明する。サーバ109が管理するデータベースには、図2に示す如く、携帯電話の所有者(人物102,104,106)ごとに、該所有者に対する「識別子、名前、コメント、顔の特徴量」のセットが登録されている。
Next, information held by the
「識別子」は、携帯電話側に設定されている上記の「識別子」に対応しており、例えば、図6の携帯電話103の「識別子」は図2の人物102の「識別子」と同じとなっている。
The “identifier” corresponds to the above “identifier” set on the mobile phone side. For example, the “identifier” of the
「名前」は、携帯電話の所有者の属性情報としての名前である。然るに、携帯電話の所有者の属性情報には、名前以外にも住所や所属先など様々なものが考え得るので、他の属性情報を登録してもよい。「コメント」は、適宜入力されたコメントである。なお、「名前」や「コメント」については、例えば、テキスト形式のデータとして登録しておけばよい。 “Name” is a name as attribute information of the owner of the mobile phone. However, as the attribute information of the owner of the mobile phone, various things such as an address and affiliation can be considered in addition to the name, and other attribute information may be registered. “Comment” is a comment entered as appropriate. Note that “name” and “comment” may be registered as data in text format, for example.
「顔の特徴量」は、携帯電話の所有者の顔が画像中に映っている場合に、この顔の識別処理で用いる識別パラーメータの一例である。「顔の特徴量」は、例えば、バイナリ形式のデータとして登録しておけばよい。 The “face feature amount” is an example of an identification parameter used in the face identification process when the face of the owner of the mobile phone is shown in the image. The “face feature amount” may be registered as binary data, for example.
次に、デジタルカメラ101、携帯電話103,105,107、サーバ109のそれぞれによる処理シーケンスについて、図5を用いて説明する。デジタルカメラ101のユーザがシャッターボタン302を押下すると、ステップS501において制御部320はこれを検知して撮像開始を撮像部303に指示する。これにより撮像部303は被写体(人物102,104,106を含む)の撮像を行い、撮像画像を生成する。この撮像画像は記憶部312などに格納される。
Next, processing sequences by the
ステップS502では、制御部320は、無線通信制御部301を制御し、識別情報の取得要求を示す無線信号を発する。より具体的には、無線通信制御部301により、IEEE802.11に則ったプローブ・リクエスト・フレームをブロードキャストで送信する。図1の場合、デジタルカメラ101の周囲には携帯電話103,105,107が存在しているために、結果的には、これらの携帯電話103,105,107に対して識別情報の取得要求を送信することになる。
In step S502, the
なお、上記のとおり、識別情報は、それぞれの携帯電話が定期的若しくは不定期的に送信しても良く、その場合は、識別情報の取得要求を送信する必要はなく、デジタルカメラ101はそれぞれの携帯電話から送信された識別情報を受信するだけでよい。
As described above, the identification information may be transmitted periodically or irregularly by each mobile phone. In that case, there is no need to transmit an acquisition request for the identification information, and the
ステップS503,S504,S505のそれぞれは、携帯電話103,105,107において識別情報を生成する処理である。携帯電話103,105,107のそれぞれの無線通信制御部401が識別情報の取得要求を受信すると、携帯電話制御部403は、位置情報取得部404、加速度情報取得部405、姿勢情報取得部406、生体情報取得部407を動作させる。これにより、図6や図10に示すような識別情報に含める情報を収集することができる。
Steps S503, S504, and S505 are processes for generating identification information in the
ステップS506では、携帯電話103,105,107のそれぞれの識別情報発信部402は無線通信制御部401を制御して、識別情報をデジタルカメラ101に対して送信する。この送信は、プローブ・レスポンス・フレームでそれぞれ応答するようにしてもよい。
In step S <b> 506, the identification
これによりデジタルカメラ101は、携帯電話103,105,107のそれぞれから送信された識別情報を取得することができる。なお、識別情報の受信は、識別情報取得部305が無線通信制御部301を制御することで行い、識別情報取得部305は、この受信したそれぞれの携帯電話の識別情報を記憶部312に格納する。
As a result, the
ステップS507では、顔特徴情報取得部306は、携帯電話103,105,107のそれぞれから受信した識別情報中の識別子をサーバ109に対して送信することで、該識別子に対応する顔の特徴量の取得要求を行う。更に、属性情報取得部307は、携帯電話103,105,107のそれぞれから受信した識別情報中の識別子をサーバ109に対して送信することで、該識別子に対応する名前の取得要求を行う。
In step S507, the facial feature
ステップS508では、サーバ109は、ステップS507で送信された識別子を受信すると、この識別子とセットにして登録されている名前及び顔の特徴量を、自身が管理するデータベースから取得する。
In step S508, when the
そしてステップS509ではサーバ109は、ステップS507で送信された識別子とセットにしてデータベース内で管理している名前及び顔の特徴量を、デジタルカメラ101に対して送信する。
In step S509, the
これによりデジタルカメラ101は、サーバ109に対して送信した識別子に対応する名前及び顔の特徴量を受信することができる。なお、顔の特徴量の受信は顔特徴情報取得部306が行い、名前の受信は属性情報取得部307が行う。
As a result, the
ステップS510では、被写体特定部308は、サーバ109から取得した顔の特徴量を用いて、人物102,104,106が、ステップS501で生成して記憶部312に格納した撮像画像中のどの被写体であるのかを識別する。ステップS510における処理の詳細については後述する。
In step S <b> 510, the
次にステップS511では、画像合成部310は、被写体特定部308が識別した所有者の名前を、ステップS501で生成して記憶部312に格納した撮像画像上に合成して、表示部304に出力する。
In step S <b> 511, the
次に、上記のステップS510における処理の詳細について、図7のフローチャートを用いて説明する。ステップS701では被写体特定部308は、サーバ109から取得した顔の特徴量を用いて、人物102,104,106が、ステップS501で生成して記憶部312に格納した撮像画像中のどの被写体であるのかを識別する。この識別処理は一般的な技術であるために説明は省略する。
Next, details of the processing in step S510 will be described using the flowchart of FIG. In step S <b> 701, the
ステップS702では被写体特定部308は、撮像画像から人物102,104,106の全てが識別されたか否かを判断する。この判断の結果、撮像画像から人物102,104,106の何れかが識別されなかった場合は処理はステップS703に進み、全て識別された場合は、処理はステップS705に進む。ステップS705では、被写体特定部308は、被写体の識別処理は成功したと判断して、図7のフローチャートの処理を終える。
In step S702, the
ステップS703で被写体特定部308は、携帯電話103,105,107のそれぞれから受信した識別情報中の情報を用いて、撮像画像中の被写体のうち人物102,104,106の何れとも識別されなかった被写体について識別処理を行う。この識別処理では、識別情報中の「動き」の情報を用いた識別処理、識別情報中の生体情報(「心拍数」や「体温」)を用いた識別処理、識別情報中の「音」の情報を用いた識別処理、の何れかを実行する。ステップS703における処理の詳細については後述する。
In step S703, the
ステップS704では、被写体特定部308は、ステップS703での識別処理により、撮像画像から人物102,104,106の全てが識別されたか否かを判断する。この判断の結果、撮像画像から人物102,104,106の何れかが識別されなかった場合は処理はステップS706に進み、全て識別された場合は、処理はステップS705に進む。ステップS706では、被写体特定部308は、被写体の識別処理は失敗したと判断して、図7のフローチャートの処理を終える。
In step S704, the
次に、上記のステップS703において行う「識別情報中の「動き」の情報を用いた識別処理」について、同処理のフローチャートを示す図9を用いて説明する。なお、以下では、撮像画像中には人物106は映ってはいるものの、この人物106が図1に示す如く背面をデジタルカメラ101に向けた状態であったが故に、撮像画像には人物106の顔が映っていない場合を想定する。
Next, the “identification process using the“ motion ”information in the identification information” performed in step S703 will be described with reference to FIG. 9 showing a flowchart of the process. In the following description, although the
即ち、携帯電話103の識別子に対応する顔の特徴量を用いて撮像画像中のどの被写体が人物102であるのか、携帯電話105の識別子に対応する顔の特徴量を用いて撮像画像中のどの被写体が人物104であるのか、の識別は成功している。しかし、携帯電話107の識別子に対応する顔の特徴量を用いて撮像画像中のどの被写体が人物106であるのか、の識別は失敗している。
That is, which subject in the captured image is the
ステップS901では、被写体特定部308は、撮像画像から、人と推定されるオブジェクト(人型オブジェクト)を検出する(識別済みの人型オブジェクトは省く)。この検出処理は、一般の認識処理で実現できるため、これに係る説明は省略する。
In step S <b> 901, the
ここで、撮像部303は、ユーザによるシャッターボタン302の押下が無くても、画像記録を行わないだけで、常に撮像画像は生成している。然るにステップS902では、被写体特定部308は、ステップS901の処理の後に連続して生成されるそれぞれの撮像画像から、ステップS901と同様にして、人型オブジェクトを検出する。
Here, the
ステップS903で被写体特定部308は、次のような処理を行う。即ち、ステップS901で検出した人型オブジェクトの撮像画像上の位置と、ステップS902で検出した人型オブジェクトの撮像画像上の位置と、を用いて、撮像時刻が隣接している撮像画像間で人型オブジェクトの位置の差分(移動量)を求める。
In step S903, the
この時、携帯電話107は端末位置が頭部と通知示していることより、画像中の人型のオブジェクトに対して、各オブジェクトの頭部のみの移動量の特定としてもよい。また、移動量を判定するためにさらに複数の画像データに対して人型オブジェクトの移動量を画像処理より特定しても良い。また、画像中の人型のオブジェクトの移動量を判定するに当たって、デジタルカメラ101の移動および回転を姿勢情報取得部316から取得し、人型オブジェクトの移動量がデジタルカメラ101の移動または回転に影響されないよう考慮してもよい。
At this time, the
ステップS904では、被写体特定部308は、ステップS903で求めたそれぞれの移動量を時系列に並べたときの移動量の変化量から、撮像画像内における人型オブジェクトの加速度情報を求める。そしてこの加速度情報が表す動きが、「静止している」、「歩いている」、「走っている」の何れであるのかを特定する。
In step S904, the
ステップS905では、人型オブジェクトごとに、該人型オブジェクトについて求めた加速度情報から特定された動きをテーブルに登録する。ここで、撮像画像から人型オブジェクトA,B,Cが検出された場合にステップS905において生成されるテーブルの構成例を図8に示す。 In step S905, for each humanoid object, the movement specified from the acceleration information obtained for the humanoid object is registered in the table. Here, FIG. 8 shows a configuration example of the table generated in step S905 when the humanoid objects A, B, and C are detected from the captured image.
図8では、人型オブジェクトごとに、該人型オブジェクトについて求めた加速度情報から特定された動きとして、「静止している」、「歩いている」、「走っている」の何れかが登録されている。 In FIG. 8, for each humanoid object, any one of “still”, “walking”, and “running” is registered as the movement specified from the acceleration information obtained for the humanoid object. ing.
そしてステップS905では更に、被写体特定部308は、ステップS905で生成したテーブルのうち、人物106の識別子とセットになって識別情報に登録されている「動き」(「歩いている」)と一致(合致)する人型オブジェクトを特定する。そしてこの特定した人型オブジェクトが人物106であると識別する。図8の場合、人型オブジェクトCの「動き」が「歩いている」であるため、人型オブジェクトCが人物106であると識別する。
In step S905, the
なお、ステップS904では、加速度情報を、姿勢情報取得部316から取得した方位情報を用いてデジタルカメラ101を原点とし、方位および上下を軸としたベクトル情報に変換し、方位、上下、時間を軸とした4次元関数にフーリエ変換してもよい。この場合にステップS905で生成されるテーブルの構成は図11に示したようなものとなる。
In step S904, the acceleration information is converted into vector information using the azimuth information acquired from the posture
図11のテーブルは、撮像画像から人型オブジェクトA,B,Cが検出された場合にステップS905で生成されるテーブルであり、人型オブジェクトごとに、該人型オブジェクトについて求めた加速度情報から生成された4次元関数の絶対値が登録されている。 The table in FIG. 11 is a table generated in step S905 when the humanoid objects A, B, and C are detected from the captured image, and is generated from the acceleration information obtained for the humanoid object for each humanoid object. The absolute value of the obtained four-dimensional function is registered.
この場合、ステップS905では、被写体特定部308は、ステップS905で生成したテーブルのうち、人物106の識別子とセットになって識別情報に登録されている4次元関数の絶対値と一致する人型オブジェクトを特定する。そしてこの特定した人型オブジェクトが人物106であると識別する。
In this case, in step S905, the
次に、上記のステップS703において行う「識別情報中の生体情報を用いた識別処理」について説明する。記憶部312には、図12に例示するような構成を有するテーブルが登録されている。このテーブルには、「静止状態」、「歩き状態」、「走り状態」のそれぞれの動き状態に対する、心拍数、体温、のセットが登録されている。このセットは、予め測定されたものであってもよいし、ユーザが作成したものであってもよい。
Next, the “identification process using the biological information in the identification information” performed in step S703 will be described. A table having a configuration illustrated in FIG. 12 is registered in the
この場合、被写体特定部308は、図9のフローチャートに従って図8に例示するような、人型オブジェクトごとに、該人型オブジェクトについて求めた加速度情報から特定された動きが登録されたテーブルを生成する。
In this case, the
次に被写体特定部308は、図12のテーブルから、人物106の識別子とセットになって識別情報に登録されている「心拍数」に対応する動き状態を特定する。図6の場合、人物106の識別子とセットになって識別情報に登録されている「心拍数」は120であるため、図12のテーブルから、この心拍数に対応する動き状態は「歩き状態」となる。そして図8のテーブルにおいて、この「歩き状態」に対応する人型オブジェクトは人型オブジェクトCであるため、人型オブジェクトCが人物106であると識別する。
Next, the
また被写体特定部308は、心拍数の代わりに、「体温」を用いて判定処理を行ってもよい。この場合、図12のテーブルから、人物106の識別子とセットになって識別情報に登録されている「体温」に対応する動き状態を特定する。図6の場合、携帯電話107の識別子とセットになって識別情報に登録されている「体温」は37.5であるため、図12のテーブルから、この体温に対応する動き状態は「歩き状態」となる。そして図8のテーブルにおいて、この「歩き状態」に対応する人型オブジェクトは人型オブジェクトCであるため、人型オブジェクトCが人物106であると識別する。
The
なお、生体情報として「心拍数」や「体温」以外の情報を用いてもかまわず、その場合、図12のテーブルには、それぞれの動き状態に対応する生体情報を登録しておく必要があるし、識別情報にも、それに対応する生体情報を含める必要がある。 Note that information other than “heart rate” and “body temperature” may be used as the biological information. In this case, it is necessary to register biological information corresponding to each movement state in the table of FIG. However, it is necessary to include biometric information corresponding to the identification information.
また、図1に示す如く、人物104がデジタルカメラ101から比較的遠方に位置しているが為に、画像処理によって顔特徴の判定を得るために必要な解像度が確保できない場合において、被写体を特定する方法を説明する。
Further, as shown in FIG. 1, the subject 104 is specified when the
人物104は遠方に位置するため、ステップS701では被写体を特定することができない。図7で説明した通り、人物104に関してはステップS701の被写体特定を行う。人物104はこれまで説明した動き状態による被写体判定、加速度による被写体判定、生体状態による被写体判定の何れも適用可能であるが、人物106とは異なり、デジタルカメラ101に対して正面を向いているため、音声情報による被写体判定も可能である。以下の説明では、携帯電話105の識別子に対応する顔の特徴量を用いて撮像画像中のどの被写体が人物104であるのか、の識別は失敗しているとする。
Since the
この場合、人型オブジェクトごとに、撮像画像から口の形を認識し、認識した口の形から発生している音(口の動き)が何であるのかを認識する。この認識処理も周知の技術であるためにこれについての説明は省略する。そして、人型オブジェクトごとに、該人型オブジェクトが発生している音を示す情報をテーブルに登録する。ここで、撮像画像から人型オブジェクトA,B,Cが検出された場合に生成されるテーブルの構成例を図13に示す。 In this case, the shape of the mouth is recognized from the captured image for each humanoid object, and the sound (movement of the mouth) generated from the recognized mouth shape is recognized. Since this recognition process is also a well-known technique, a description thereof will be omitted. For each humanoid object, information indicating the sound generated by the humanoid object is registered in the table. Here, FIG. 13 shows a configuration example of a table generated when the humanoid objects A, B, and C are detected from the captured image.
図13では、人型オブジェクトごとに、該人型オブジェクトが発生している音を示す情報が登録されており、人型オブジェクトAに対しては音を示す情報として「ん」、人型オブジェクトBに対しては音を示す情報として「あ」が登録されている。人型オブジェクトCに対しては、認識処理が失敗したなどが原因で音を示す情報が得られなかったため、「不明」が登録されている。 In FIG. 13, information indicating the sound generated by the humanoid object is registered for each humanoid object. For the humanoid object A, “n” is displayed as information indicating the sound, and the humanoid object B Is registered as information indicating sound. For the humanoid object C, “unknown” is registered because information indicating a sound was not obtained because the recognition process failed.
そして、被写体特定部308は、このテーブルから、人物104の識別子とセットになって識別情報に登録されている「音」(「あ」)と一致する人型オブジェクトを特定する。そしてこの特定した人型オブジェクトが人物104であると識別する。図13の場合、人型オブジェクトBの「音」が「あ」であるため、人型オブジェクトBが人物104であると識別する。
Then, the
なお、図3,4に示した各機能部は何れもハードウェアで構成してもよいが、部分的にソフトウェア(コンピュータプログラム)で構成してもよい。その場合、このコンピュータプログラムは、記憶部312や携帯電話のメモリ内に格納されることになる。
Each of the functional units shown in FIGS. 3 and 4 may be configured with hardware, but may be partially configured with software (computer program). In this case, the computer program is stored in the
上述のようにして、画像処理により得られた結果だけでなく、センサによりユーザをセンシングすることで得られたセンサ情報も利用して特定のユーザを識別するので、特定のユーザの識別精度が向上する。従って、撮像画像中における特定のユーザの近傍に特定のユーザに関する情報を提示できる可能性を高めることができる。 As described above, a specific user is identified using not only the result obtained by image processing but also sensor information obtained by sensing the user with a sensor, so that the identification accuracy of the specific user is improved. To do. Therefore, it is possible to increase the possibility that information related to a specific user can be presented in the vicinity of the specific user in the captured image.
[第2の実施形態]
以下では、本実施形態が第1の実施形態と異なる点のみについて説明する。本実施形態では、上記のステップS703において、赤外線画像データを用いる。然るに本実施形態に係るデジタルカメラ101には、赤外線画像データを取得するための構成を加える必要がある。
[Second Embodiment]
In the following, only the differences of the present embodiment from the first embodiment will be described. In the present embodiment, infrared image data is used in step S703 described above. However, it is necessary to add a configuration for acquiring infrared image data to the
なお、以下では、撮像画像中には人物106は映ってはいるもの、この人物106が図1に示す如く背面をデジタルカメラ101に向けた状態であったが故に、撮像画像には人物106の顔が映っていない場合を想定する。
In the following, although the
即ち、携帯電話103の識別子に対応する顔の特徴量を用いて撮像画像中のどの被写体が人物102であるのか、携帯電話105の識別子に対応する顔の特徴量を用いて撮像画像中のどの被写体が人物104であるのか、の識別は成功している。しかし、携帯電話107の識別子に対応する顔の特徴量を用いて撮像画像中のどの被写体が人物106であるのか、の識別は失敗している。
That is, which subject in the captured image is the
この場合、被写体特定部308は、撮像部303による撮像画像から上記の如く人型オブジェクトを検出し、更に別途取得した赤外線画像データを画像処理して取得したサーモグラフィーデータから該人型オブジェクトの温度情報を取得する。そして図14に例示する如く、人型オブジェクトごとに、該人型オブジェクトの温度情報を登録したテーブルを生成する。然るに、図14において、携帯電話107の識別子とセットになって識別情報に登録されている「体温」(37.5)に最も近い体温の人型オブジェクトは人型オブジェクトB(37.6)であるので、人型オブジェクトBが人物106であると識別する。
In this case, the
[第3の実施形態]
上記の実施形態では、静止画像に対する処理であったが、この処理を動画像を構成する各フレームについて行うようにしてもよい。
[Third Embodiment]
In the above embodiment, the process is performed on a still image. However, this process may be performed on each frame constituting a moving image.
また、識別情報の発信や取得などに関わる通信は、IEEE802.11に則った無線LANの通信に限らず、Bluetooth(登録商標)やパッシブ/アクティブ型のRFIDなどでもよい。無線LANとパッシブ型RFIDなど複数の無線通信インタフェースで同時に、識別情報に関する通信を行ってもよい。また、ミリ波などの指向性のある無線方式を利用して識別情報の発信、取得をしてもよい。 Further, communication related to transmission and acquisition of identification information is not limited to wireless LAN communication conforming to IEEE 802.11, but may be Bluetooth (registered trademark), passive / active RFID, or the like. Communication regarding identification information may be simultaneously performed by a plurality of wireless communication interfaces such as a wireless LAN and a passive RFID. Further, the identification information may be transmitted and acquired using a directional wireless system such as millimeter wave.
また、第1、2の実施形態では各識別子は人物に紐づけられていたが、人物である必要はなく、動物や自動車、またはやある特定の物体などに紐づけられていてもよい。 In the first and second embodiments, each identifier is associated with a person. However, the identifier does not have to be a person, and may be associated with an animal, a car, or a specific object.
また、第1,2の実施形態において、動き状態による被写体判定、加速度による被写体判定、生体状態による被写体判定、音声情報による被写体判定の方法を説明したが、それぞれの判定において時刻の一致を条件としてもよい。すなわち、撮像部303から得られた画像データの時刻情報と、携帯電話103、105、107が通知する識別情報の時刻が近接していない場合、オブジェクトの一致判定を「否」と判定してもよい。
In the first and second embodiments, the method of subject determination based on the motion state, subject determination based on the acceleration, subject determination based on the biological state, and subject determination based on the audio information have been described. Also good. That is, when the time information of the image data obtained from the
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
Claims (8)
センサによりユーザをセンシングすることで得られた、該ユーザの状態を表すセンサ情報を受信する受信手段と、
前記ユーザの属性情報と、前記撮像画像中における前記ユーザを識別するための識別パラメータと、を取得する取得手段と、
前記受信手段が受信したセンサ情報と、前記取得手段が取得した識別パラメータと、に基づいて、前記撮像画像中の被写体の中から、前記ユーザを識別する識別手段と、
前記取得手段が取得した属性情報を、前記識別手段による識別の結果に応じた前記撮像画像上の位置に合成して出力する出力手段と
を有することを特徴とする画像処理装置。 Means for acquiring a captured image;
Receiving means for receiving sensor information representing the state of the user obtained by sensing the user with a sensor;
Acquisition means for acquiring the attribute information of the user and an identification parameter for identifying the user in the captured image;
An identification unit for identifying the user from among subjects in the captured image based on the sensor information received by the reception unit and the identification parameter acquired by the acquisition unit;
An image processing apparatus comprising: output means for combining and outputting the attribute information acquired by the acquisition unit at a position on the captured image corresponding to a result of identification by the identification unit.
前記撮像画像中の被写体の動きを求め、前記受信手段が受信したセンサ情報に含まれている前記ユーザの動きと一致する動きの被写体を前記ユーザとして識別することを特徴とする請求項1又は2に記載の画像処理装置。 When the identification unit cannot identify the user from the captured image using the identification parameter acquired by the acquisition unit,
Obtains a motion of the subject in the captured image, according to claim 1 or 2 subject movement matching the motion of the user which the receiving means is included in the received sensor information, wherein the identifying as the user An image processing apparatus according to 1.
前記撮像画像中の被写体の動きを求め、前記受信手段が受信したセンサ情報に含まれている前記ユーザの生体情報に対して予め対応づけられている動きと一致する動きの被写体を前記ユーザとして識別することを特徴とする請求項1又は2に記載の画像処理装置。 When the identification unit cannot identify the user from the captured image using the identification parameter acquired by the acquisition unit,
The movement of the subject in the captured image is obtained, and the subject having the movement that matches the movement previously associated with the biological information of the user included in the sensor information received by the receiving unit is identified as the user. The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記撮像画像中の被写体の口の動きを求め、前記受信手段が受信したセンサ情報に含まれている前記ユーザの口の動きと一致する口の動きの被写体を前記ユーザとして識別することを特徴とする請求項1又は2に記載の画像処理装置。 When the identification unit cannot identify the user from the captured image using the identification parameter acquired by the acquisition unit,
The movement of the mouth of the subject in the captured image is obtained, and the subject having the mouth movement that matches the movement of the user's mouth included in the sensor information received by the receiving unit is identified as the user. The image processing apparatus according to claim 1 or 2.
赤外線画像を取得して該赤外線画像から被写体の温度を求め、前記受信手段が受信したセンサ情報に含まれている前記ユーザの温度にもっとも近い温度の被写体を前記ユーザとして識別することを特徴とする請求項1又は2に記載の画像処理装置。 When the identification unit cannot identify the user from the captured image using the identification parameter acquired by the acquisition unit,
An infrared image is acquired, a temperature of a subject is obtained from the infrared image, and a subject having a temperature closest to the user's temperature included in sensor information received by the receiving unit is identified as the user. The image processing apparatus according to claim 1.
撮像画像を取得する工程と、
センサによりユーザをセンシングすることで得られた、該ユーザの状態を表すセンサ情報を受信する受信工程と、
前記ユーザの属性情報と、前記撮像画像中における前記ユーザを識別するための識別パラメータと、を取得する取得工程と、
前記受信工程で受信したセンサ情報と、前記取得工程で取得した識別パラメータと、に基づいて、前記撮像画像中の被写体の中から、前記ユーザを識別する識別工程と、
前記取得工程で取得した属性情報を、前記識別工程による識別の結果に応じた前記撮像画像上の位置に合成して出力する出力工程と
を有することを特徴とする画像処理方法。 An image processing method performed by an image processing apparatus,
Obtaining a captured image;
A receiving step of receiving sensor information representing the state of the user obtained by sensing the user with a sensor;
An acquisition step of acquiring the attribute information of the user and an identification parameter for identifying the user in the captured image;
An identification step for identifying the user from among subjects in the captured image based on the sensor information received in the reception step and the identification parameter acquired in the acquisition step;
An image processing method comprising: an output step of combining and outputting the attribute information acquired in the acquisition step at a position on the captured image corresponding to a result of identification in the identification step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011236478A JP5801690B2 (en) | 2011-10-27 | 2011-10-27 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011236478A JP5801690B2 (en) | 2011-10-27 | 2011-10-27 | Image processing apparatus and image processing method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2013098588A JP2013098588A (en) | 2013-05-20 |
JP2013098588A5 JP2013098588A5 (en) | 2014-12-11 |
JP5801690B2 true JP5801690B2 (en) | 2015-10-28 |
Family
ID=48620146
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011236478A Active JP5801690B2 (en) | 2011-10-27 | 2011-10-27 | Image processing apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5801690B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9400943B2 (en) * | 2013-08-02 | 2016-07-26 | Qualcomm Incorporated | Identifying IoT devices/objects/people using out-of-band signaling/metadata in conjunction with optical images |
JP2019070887A (en) * | 2017-10-06 | 2019-05-09 | 株式会社バサイ | Object recognition device for recognizing place and object by two steps |
EP4328516A4 (en) * | 2021-12-24 | 2024-08-21 | Wuhu Midea Kitchen & Bath Appliances Mfg Co Ltd | Control device, water heater system and control method and apparatus therefor, and storage medium |
-
2011
- 2011-10-27 JP JP2011236478A patent/JP5801690B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013098588A (en) | 2013-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3798983B1 (en) | Camera orientation tracking method and apparatus, device, and system | |
US10419657B2 (en) | Swarm approach to consolidating and enhancing smartphone target imagery by virtually linking smartphone camera collectors across space and time using machine-to machine networks | |
CN104820488B (en) | User's directional type personal information assistant | |
US11769306B2 (en) | User-exhibit distance based collaborative interaction method and system for augmented reality museum | |
US20090241039A1 (en) | System and method for avatar viewing | |
US20080318622A1 (en) | Handheld intelligent mobile and fixed wireless device | |
JPWO2016017254A1 (en) | Information processing apparatus, information processing method, and program | |
JPWO2016017253A1 (en) | Information processing apparatus, information processing method, and program | |
WO2022012019A1 (en) | Height measuring method, height measuring device, and terminal | |
US20200273200A1 (en) | Camera localization based on skeletal tracking | |
CN109788910B (en) | Moving object information providing system and computer-readable storage medium | |
JP2014035642A (en) | Display device, control method therefor, display system, and program | |
JP5801690B2 (en) | Image processing apparatus and image processing method | |
US20180342109A1 (en) | Determining full-body pose for a virtual reality environment | |
WO2018088035A1 (en) | Image recognition processing method, image recognition processing program, data providing method, data providing system, data providing program, recording medium, processor, and electronic device | |
US20220157032A1 (en) | Multi-modality localization of users | |
JP2013055537A (en) | Display control apparatus, method for controlling display control apparatus, and program | |
KR20130134986A (en) | Slam system and method for mobile robots with environment picture input from user | |
JPWO2009110276A1 (en) | User information presentation system, user information presentation device, user information presentation method, and user information presentation program | |
JP5885480B2 (en) | Information processing apparatus, control method for information processing apparatus, and program | |
JP2023131905A (en) | Behavior estimation system, behavior estimation method, and program | |
CN111344776B (en) | Information processing device, information processing method, and program | |
JP2017199980A (en) | Image display system, information processing apparatus, imaging apparatus, and program | |
WO2015105075A1 (en) | Information processing apparatus and electronic device | |
JP6523353B2 (en) | Terminal device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141023 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141023 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150706 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150731 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150827 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5801690 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |