JP2015220607A - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2015220607A
JP2015220607A JP2014102745A JP2014102745A JP2015220607A JP 2015220607 A JP2015220607 A JP 2015220607A JP 2014102745 A JP2014102745 A JP 2014102745A JP 2014102745 A JP2014102745 A JP 2014102745A JP 2015220607 A JP2015220607 A JP 2015220607A
Authority
JP
Japan
Prior art keywords
image
unit
captured image
image data
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014102745A
Other languages
English (en)
Other versions
JP6390163B2 (ja
Inventor
伊藤 篤
Atsushi Ito
篤 伊藤
大塚 愛子
Aiko Otsuka
愛子 大塚
宗毅 諸山
Munetake Moroyama
宗毅 諸山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014102745A priority Critical patent/JP6390163B2/ja
Priority to US14/710,778 priority patent/US10225480B2/en
Publication of JP2015220607A publication Critical patent/JP2015220607A/ja
Application granted granted Critical
Publication of JP6390163B2 publication Critical patent/JP6390163B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/0044Display of information to the user, e.g. menus for image preview or review, e.g. to help the user position a sheet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/414Extracting the geometrical structure, e.g. layout tree; Block segmentation, e.g. bounding boxes for graphics or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00132Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture in a digital photofinishing system, i.e. a system where digital photographic images undergo typical photofinishing processing, e.g. printing ordering
    • H04N1/00183Photography assistance, e.g. displaying suggestions to the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Artificial Intelligence (AREA)
  • Studio Devices (AREA)

Abstract

【課題】原稿を撮像した撮像画像から容易に描画領域を抽出可能とする情報処理装置、情報処理方法およびプログラムを提供する。【解決手段】撮像画像取得部は、撮像部404から出力される被写体を撮像した撮像画像を取得する。標準画像出力部412は、撮像部の撮像方向に向けて照射する光を発光する発光部403と、発光部から予め定められた距離における光の輝度分布に基づく標準画像を出力する。補正処理部411は、撮像画像取得部が発光部から光が発光された状態で取得した撮像画像を、標準画像を用いて補正する。【選択図】図2

Description

本発明は、情報処理装置、情報処理方法およびプログラムに関する。
従来、ユーザが所望のキャラクタを紙などに描画した画像をディジタルデータ化して他の画像データに合成させて表示させる技術が知られている。特許文献1には、各ユーザが描画したキャラクタを用いて擬似的にレースを楽しむことを可能としたシステムが開示されている。
例えば、ユーザがキャラクタを描画した原稿をスキャナ装置により読み取り、スキャナ装置に接続されるコンピュータにより、原稿を読み取った原稿画像データからキャラクタ領域を抽出する。コンピュータは、キャラクタ領域が抽出された画像データをコンピュータによる座標空間に適用させる。
コンピュータは、例えば、各画素の輝度値に基づく閾値判定により原稿画像データを2値化し、2値化した原稿画像データに対して描画領域と非描画領域とを画素毎に判定する。そして、コンピュータは、描画領域と判定された領域を、キャラクタ領域として用いる。
一方、近年では、スマートフォンやタブレット型コンピュータといった、多機能携帯端末の普及に伴い、この多機能携帯端末に搭載されるディジタルカメラの性能も向上している。上述した、ユーザがキャラクタを描画した原稿の画像を、多機能携帯端末に搭載されたディジタルカメラで撮像して原稿画像データを取得するようにすると、スキャナ装置を用いずに、原稿画像からキャラクタ領域を抽出する処理を実現できる。
ところで、ディジタルカメラにより原稿画像を撮像した原稿画像データは、全体として輝度が低い場合や、影などにより輝度が原稿面内で不均一になっている場合が起こり得る。このような場合、撮像された原稿画像データに対して2値化処理を行っても、正しく描画領域を抽出できない可能性がある。
この原稿画像の撮像画像における輝度不足や輝度の不均一を解消するために、多機能携帯端末に設けられたライトを点灯することが考えられる。ライトを点灯することで、環境光の影響が低減され、影の発生が抑制される。また、ライトの点灯により、輝度不足が解消されることが期待される。しかしながら、多機能携帯端末に搭載されるライトは、一般的には点光源であるため、ライトを点灯させた状態で撮像された画像は、ライトの正面すなわち原稿の中心付近が明るく、周辺部が暗い、輝度の不均一な画像となってしまうおそれがある。この場合、撮像画像データから正しく描画領域を抽出できない可能性があるという問題点があった。
本発明は、上記に鑑みてなされたものであって、原稿を撮像した撮像画像から容易に描画領域を抽出可能とすることを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、撮像部から出力される、被写体を撮像した撮像画像を取得する撮像画像取得部と、撮像部の撮像方向に向けて照射する光を発光する発光部と、発光部から予め定められた距離における光の輝度分布に基づく標準画像を出力する標準画像出力部と、撮像画像取得部が発光部から光が発光された状態で取得した撮像画像を、標準画像を用いて補正する補正処理部とを有することを特徴とする。
本発明によれば、原稿を撮像した撮像画像から容易に描画領域を抽出可能となるという効果を奏する。
図1は、第1の実施形態について概念的に説明するための図である。 図2は、第1の実施形態に適用可能な情報処理装置の一例の構成を示すブロック図である。 図3は、第1の実施形態による画像補正処理を示す一例のフローチャートである。 図4は、第1の実施形態に係る標準画像の特性の一例を示す図である。 図5は、第1の実施形態に係る情報処理装置の一例の構成をより具体的に示すブロック図である。 図6は、第1の実施形態の第1の変形例に係る、枠画像が形成された用紙の例を示す図である。 図7は、第1の実施形態の第1の変形例に係る情報処理装置の一例の構成を示すブロック図である。 図8は、第1の実施形態の第1の変形例による画像補正処理を示す一例のフローチャートである。 図9は、第1の実施形態の第2の変形例に係る情報処理装置の一例の構成を示すブロック図である。 図10は、第1の実施形態の第2の変形例に係る、ファインダ画面内に枠ガイド画像が表示されている様子を示す図である。 図11は、第1の実施形態の第2の変形例による画像補正処理を示す一例のフローチャートである。 図12は、第1の実施形態の第2の変形例に係る、枠ガイド画像が表示されたファインダ画面に用紙の画像が表示されている様子を示す図である。 図13は、第1の実施形態の第3の変形例に係る情報処理装置の一例の構成を示すブロック図である。 図14は、第1の実施形態の第3の変形例による画像補正処理を示す一例のフローチャートである。 図15は、ライトと被写体との距離に応じた被写体上での輝度分布の変化を説明するための図である。 図16は、第2の実施形態に係る情報処理装置の一例の構成を示すブロック図である。 図17は、第2の実施形態による画像補正処理を示す一例のフローチャートである。 図18は、各実施形態および変形例に適用可能な情報処理装置の一例の構成を示すブロック図である。 図19は、第3の実施形態に係る表示システムの一例の構成を示すブロック図である。 図20は、第3の実施形態に係る、3次元の座標系を持つ画像データ空間について概略的に示す図である。 図21は、第3の実施形態に適用可能なPCの一例の構成を示すブロック図である。 図22は、第3の実施形態に係るPCの機能を説明するための一例の機能ブロック図である。 図23は、第3の実施形態に係る表示システムによる表示制御処理の全体的な流れを示す一例のフローチャートである。 図24は、第3の実施形態に係る、手書き描画を行うための用紙の例を示す図である。
以下に添付図面を参照して、情報処理装置、情報処理方法およびプログラムの実施形態を詳細に説明する。
(第1の実施形態)
第1の実施形態について説明する。第1の実施形態は、例えばユーザにより画像が描画された用紙を撮像装置により撮像した撮像画像に含まれる、ユーザにより描画された画像(ユーザ画像と呼ぶ)を抽出する処理を容易に行うための、撮像画像に施す画像処理に係るものである。
(第1の実施形態の概要)
図1を用いて、第1の実施形態について概念的に説明する。例えば、ユーザは、図1(a)に例示されるように、用紙300に対して任意のユーザ画像301を描画する。このユーザ画像301を画像データ化するために、ユーザ画像301を含むように、用紙300をディジタルカメラを用いて撮像する。この用紙300を撮像した撮像画像に対して画像処理を施して、ユーザ画像301の領域を抽出する。なお、ユーザ画像301は、ユーザが描画した例えば線そのものを指し、ユーザ画像301の領域は、ユーザ画像301の全体を含む領域を指す。
このときの画像処理としては、例えば、撮像画像の画素毎の画素値(輝度値)に対して閾値判定を行って撮像画像を2値化し、2値化した各画素に基づきユーザ画像301の領域を決定する処理を適用することができる。例えば、画素値が閾値以上の画素を値「1」、画素値が閾値未満の画素を値「0」とする2値化を行い、値「0」の画素をユーザ画像301による画素と決定する。そして、この値「0」の画素に基づきユーザ画像301の領域を抽出する。
撮像画像に対して2値化処理を施す際に、用紙300上に影が存在すると、閾値判定により影の部分も例えば値「0」として抽出してしまい、ユーザ画像301を正しく抽出できないおそれがある。また、照明などが十分ではなく、撮像画像の輝度が全体的に低い場合も同様である。そのため、撮像時には、ライトなどにより被写体を照射し、影や低輝度による影響を抑制することが好ましい。
ここで、ディジタルカメラは、スマートフォンやタブレット型コンピュータといった多機能携帯端末に内蔵されるカメラ(以下、内蔵カメラと呼ぶ)を用いるものとする。このような多機能携帯端末に内蔵されるライトは、一般的には点光源と見做せる。そのため、用紙300を多機能携帯端末に内蔵のライト(以下、内蔵ライトと呼ぶ)で照射した場合、ライトの正面すなわち用紙300の中央付近の輝度が最大となり、中央付近から周辺に向けて徐々に輝度が低くなる輝度分布となる。
図1(b)は、用紙300を多機能携帯端末に内蔵のライトで照射して撮像した撮像画像の例を示す。図1(b)において、撮像画像310は、用紙300の輝度分布に対応して、グラデーション311で例示されるように、周辺に向けて輝度が徐々に低く変化する輝度分布となっている。このような輝度分布の撮像画像310に対して2値化処理を施すと、ユーザ画像301’と共に、特に輝度の低い周辺部の領域もユーザ画像として抽出してしまうおそれがある。この場合、撮像画像310から正しくユーザ画像301’の領域を抽出することが困難になる。
そこで、第1の実施形態では、この被写体をライトで照射した際の輝度分布を有する画像を標準画像として予め用意し、ライトを照射して撮像した撮像画像を、この標準画像を用いて補正する。
図1(c)は、標準画像の一例を示す。図1(c)において、標準画像320は、中央付近において輝度が最大値とされ、グラデーション321で例示されるように、中央付近から周辺に向けて輝度が徐々に低下する輝度分布となる。この標準画像の輝度変化は、例えば上述した撮像画像の輝度変化と一致させる。すなわち、標準画像320は、カメラから、撮像画像310を撮像する際の用紙300の距離として与えられた距離における平面の、ライトによる輝度分布を有する画像である。
撮像画像310と標準画像320との間で、画素毎に下記の式(1)〜(3)に示される演算を行う。
R(i)=Ra(i)+(YMAX−Rb(i)) …(1)
G(i)=Ga(i)+(YMAX−Gb(i)) …(2)
B(i)=Ba(i)+(YMAX−Bb(i)) …(3)
なお、式(1)において、変数iは、画素を識別するインデクスであり、変数Ra(i)、Ga(i)およびBa(i)は、それぞれ撮像画像310における画素iのR(赤色)、G(緑色)およびB(青色)の画素値を示す。変数Rb(i)、Gb(i)およびBb(i)は、それぞれ標準画像320における画素iのR、GおよびBの画素値を示す。また、YMAXは、RGB各色に共通の画素値の最大値である。RGB各画素が8ビットのビット深度を有する場合、YMAX=255となる。
上述の式(1)〜(3)の演算の結果で得られた画素値R(i)、G(i)およびB(i)が、撮像画像310を標準画像320で補正した補正画像の画素値となる。補正画像において、撮像画像310から標準画像320の成分が差し引かれ、撮像画像310と標準画像320とで共通する部分の画素が画素値YMAXとされ、標準画像320に対して異なる撮像画像310の部分の画素は、撮像画像310の画素値が保持される。したがって、ユーザ画像301’が保持され、他の部分が画素値YMAXとなる。
このように、撮像画像310を標準画像320を用いて補正することで、撮像画像310におけるユーザ画像301’以外の部分の画素値が均一化され、2値化のための閾値判定の精度が向上する。したがって、撮像画像310から容易且つ正確にユーザ画像301’の領域を抽出することが可能となる。
(第1の実施形態のより具体的な例)
以下、第1の実施形態について、より具体的に説明する。図2は、第1の実施形態に適用可能な情報処理装置400の一例の構成を示す。情報処理装置400は、補正部401と、操作部402と、ライト403と、カメラモジュール404とを備える。また、補正部401は、制御部410と、補正処理部411と、標準画像出力部412とを備える。この情報処理装置400は、多機能携帯端末として、これら補正部401、操作部402、ライト403およびカメラモジュール404が一体的且つ携帯可能に構成される。
情報処理装置400において、操作部402は、ユーザ操作を受け付ける各種操作子を含む。操作部402は、表示デバイスと、接触した位置に応じた制御信号を出力する入力デバイスとが一体的に構成された、所謂タッチパネルを用いることができる。ライト403は、制御部410の制御に従い発光する発光部である。ライト403は、例えば略無指向性且つ点光源と見做せる光源である。ライト403は、点光源に限らず、他の特性の光源を用いることもできる。
カメラモジュール404は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージャといった撮像素子と、撮像素子を駆動する駆動回路と、撮像素子から出力された撮像信号に所定の信号処理を施してディジタルデータとしての撮像画像を出力する撮像信号処理部とを備える。カメラモジュール404は、例えば所定のフレーム周期毎に撮像画像を出力する。
補正部401は、カメラモジュール404から出力された撮像画像に対して上述したような標準画像による補正を行い、出力画像を出力する。補正部401において、制御部410は、この情報処理装置400の全体の動作を制御する。補正処理部411は、制御部410の制御に従い、カメラモジュール404から出力された撮像画像に対して、標準画像を用いて上述した式(1)〜(3)による演算を行い、撮像画像が補正された出力画像を出力する。標準画像出力部412は、補正処理部411からの指示に従い標準画像を出力する。
補正部401は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)およびRAM(Random Access Memory)を備え、ROMに予め記憶された情報処理プログラムに従い、RAMをワークメモリとして用いて動作し、第1の実施形態に係る撮像画像に対する補正処理を実行する。制御部410、補正処理部411および標準画像出力部412は、それぞれ当該情報処理プログラムのモジュールとして構成することができる。当該情報処理プログラムは、情報処理装置400上で動作するアプリケーションプログラムであって、適宜、アプリと呼ぶ。
なお、補正部401に含まれる各部は、情報処理プログラムのモジュールとして動作する例に限定されない。例えば、補正部401に含まれる制御部410、補正処理部411および標準画像出力部412の一部または全部を、互いに協働するハードウェアにより構成してもよい。
図3は、第1の実施形態による画像補正処理を示す一例のフローチャートである。ステップS100で、例えば操作部402に対するユーザ操作に応じて、第1の実施形態に係るアプリが起動されると、次のステップS101で、制御部410は、ライト403を点灯し発光させる。ライト403は、ユーザの操作部402に対する操作に応じて点灯させてもよい。制御部410は、次のステップS102で、撮像指示を待機する。制御部410は、例えば操作部402に対して撮像を指示する操作がなされたと判定した場合、処理をステップS103に移行させる。一方、制御部410は、操作部402に対する撮像指示の操作が無いと判定した場合、処理をステップS102に戻す。
なお、ユーザ画像301が描画された用紙300を撮像する際には、カメラモジュール404における撮像面と、用紙300とをできるだけ平行に保つことが好ましい。さらに、用紙300が、カメラモジュール404における撮像素子の有効撮像領域にできるだけ大きく撮像されるように、用紙300と情報処理装置400との距離またはカメラモジュール404による画角を調整することが好ましい。
ステップS103で、補正処理部411は、カメラモジュール404から出力された撮像画像310を取得する。すなわち、補正処理部411は、カメラモジュール404から出力された撮像画像310を取得する、撮像画像取得部としても機能する。補正処理部411は、取得した撮像画像310を、例えば図示されないフレームメモリに格納する。制御部410は、ステップS103で補正処理部411により撮像画像310が取得された後、ライト403を消灯することができる。
次のステップS104で、補正処理部411は、標準画像出力部412から標準画像320を取得する。例えば、補正処理部411は、標準画像出力部412に対して標準画像320を要求し、標準画像出力部412は、この要求に応じて標準画像320を補正処理部411に対して出力する。
ここで、標準画像出力部412は、予め作成されROMなどに記憶された標準画像320を読み出して出力してもよいし、所定の計算式などに従い標準画像320のデータを画素毎に計算して出力してもよい。図4は、第1の実施形態に係る標準画像320の特性の一例を示す。図4において、縦軸は明るさすなわち輝度Yを示し、横軸は、ライト403の正面となる画像中心からの距離dを示す。図4に例示されるように、標準画像320において、輝度Yは、画像中心からの距離dに応じて低下する。標準画像出力部412は、この輝度Yと距離dとの関係を示す関数あるいはテーブルを予め有し、この関数やテーブルに基づき標準画像320の各画素の画素値を求めることができる。
次のステップS105で、補正処理部411は、ステップS104で取得した標準画像320を用いて、ステップS103で取得した撮像画像310を補正する。このとき、補正処理部411は、標準画像320および撮像画像310の各画素毎に、上述した式(1)〜(3)に従い演算を行うことで、撮像画像310の補正を行う。
例えば、補正処理部411は、ステップS104で取得した標準画像320をRAMなどに記憶させる。補正処理部411は、標準画像320をRAMから画素毎に読み出すと共に、読み出した画素に位置が対応する撮像画像310の画素を、ステップS103で撮像画像310が格納されたフレームメモリから読み出す。そして、RAMおよびフレームメモリからそれぞれ読み出した、標準画像320の画素と撮像画像310の画素とを用いて、式(1)〜(3)による演算を行う。
これに限らず、補正処理部411は、ステップS104で標準画像出力部412から標準画像320の画素を1画素毎に受け取って補正処理を行ってもよい。
次のステップS106で、補正処理部411は、ステップS105で撮像画像310が補正された補正画像を取得する。補正処理部411は、取得した補正画像を出力画像として補正部401の外部に出力する。出力画像は、例えば図示されない画像抽出部に供給され、2値化処理が施されてユーザ画像301’の画素が決定され、決定された画素に基づきユーザ画像301’の領域が抽出される。
なお、上述では、標準画像320が予め与えられているものとして説明したが、これはこの例に限定されない。例えば、ユーザ画像301が描画された用紙300を撮像する前に、標準画像320を作成することもできる。例えば、情報処理装置400において、実際にライト403を発光させ、カメラモジュール404による画角をユーザ画像301が描画された用紙300を撮像する際の画角に合わせる。この状態で、ユーザ画像301が描画されておらず、用紙300と地の色が同一の新規の用紙を撮像する。この撮像画像310を、標準画像320として用いることができる。この場合、用紙300が白色ではない場合にも、補正処理を行うことが可能となる。
このように、第1の実施形態では、ライト403を点灯させて用紙300を撮像した撮像画像310に対し、カメラ(カメラモジュール404の撮像素子)から、撮像画像310を撮像する際の用紙300の距離として与えられた距離における平面の、ライト403の照射による輝度分布を有する標準画像320を用いて補正を行っている。そのため、撮像画像310を補正して得られた補正画像は、ライト403の照射による輝度分布が均一化され、ユーザ画像301’の抽出が容易となる。
図5は、第1の実施形態に係る情報処理装置の一例の構成をより具体的に示す。なお、図5において、上述の図2と共通する部分には同一の符号を付して、詳細な説明を省略する。図5において、情報処理装置400aは、操作部402と、ライト403と、制御部430aと、撮像部440と、撮像信号処理部441と、フレームメモリ442および445と、画像処理部443と、表示部444と、標準画像出力部446と、演算部447とを有する。
これらのうち、撮像部440および撮像信号処理部441は、図2のカメラモジュール404に含まれる。制御部430aは、図2の制御部410に対応する。また、制御部430aは、図2の補正処理部411における撮像画像取得部としての機能を有している。フレームメモリ442および445、画像処理部443、ならびに、演算部447は、補正処理部411に含まれる。また、標準画像出力部446は、標準画像出力部412に対応し、標準画像の画像データ(標準画像データ)を出力する。表示部444は、例えばLCD(Liquid Crystal Display)などによる表示デバイスと、表示デバイスを駆動する駆動回路とを含む。
制御部430aは、操作部402からのユーザ操作に応じた制御信号が入力される。制御部430aは、ライト403の点灯を制御する。また、後述するが、制御部430aは、フレームメモリ445の読み書きのタイミングや、演算部447の動作を制御する。
撮像部440は、図示されないクロックに従いフレーム周期でアナログ方式の撮像信号を出力する。撮像部440から出力されたアナログ方式の撮像信号は、撮像信号処理部441に入力される。撮像信号処理部441は、入力された撮像信号に対してノイズ除去、ゲイン制御などの所定の信号処理を施す。撮像信号処理部441は、この所定の信号処理を施されたアナログ方式の撮像信号をA/D変換し、ディジタル方式の撮像画像データに変換して出力する。撮像信号処理部441から出力された撮像画像データは、フレーム単位でフレームメモリ442に格納される。
画像処理部443は、フレームメモリ442からフレーム単位で撮像画像データを読み出し、読み出した撮像画像データに対してガンマ補正処理やホワイトバランス調整処理といった画像処理を施して出力する。画像処理部443から出力された、撮像画像データが画像処理された画像データは、例えば表示部444に供給されて表示デバイスに対して表示される。これにより、表示部444は、撮像部440で撮像された撮像画像を確認するファインダとして機能させることができる。
制御部430aは、操作部402に対する撮像指示の操作に応じて、フレームメモリ442に格納される1フレーム分の撮像画像データをフレームメモリ445に記憶させることで、処理対象とする撮像画像データを取得する(図3のステップS103)。演算部447は、制御部430aの制御に従い、標準画像出力部446から出力された標準画像と、フレームメモリ445に記憶される撮像画像データとの間で上述した式(1)〜(3)の演算を行い、撮像画像データが補正された補正画像データが取得される。演算部447は、この補正画像データを出力画像データとして出力する。
(第1の実施形態の第1の変形例)
次に、第1の実施形態の第1の変形例について説明する。上述した第1の実施形態では、ユーザは、表示部444の表示を確認しながら、撮像画像にユーザ画像301が含まれるように情報処理装置400aと用紙300との間の距離(撮像部440による画角)を調整し、その上で、撮像指示のためのユーザ操作を行う必要があった。
この第1の実施形態の第1の変形例では、用紙300に対してユーザがユーザ画像301を描画するための領域を示す枠画像を予め形成しておく。また、情報処理装置では、撮像画像に含まれる枠画像を認識し、枠画像が撮像画像から検出された場合に、撮像画像を自動的に取得するようにする。ユーザは、ユーザ画像301が適切に含まれた撮像画像を容易に取得することができ、また、撮像画像の取得を、情報処理装置に対して撮像指示のための操作を行うこと無く実行できる。
図6は、第1の実施形態の第1の変形例に係る、枠画像が形成された用紙の例を示す。図6において、用紙330は、ユーザ画像301を描画するための領域332を示す枠画像331が予め形成される。図6の例では、矩形の枠画像331に加え、枠画像331の4箇所の角のうち3箇所にマーカ333a、333bおよび333cが形成されている。この3箇所のマーカ333a、333bおよび333cを画像認識により検出することで、領域332の外縁と、領域332の向きを判定することができる。領域334は、領域332に描画されるユーザ画像301のタイトルを書き込むことができる。
図7は、第1の実施形態の第1の変形例に係る情報処理装置の一例の構成を示す。なお、図7において、上述した図5と共通する部分には同一の符号を付して、詳細な説明を省略する。
図7において、情報処理装置400bは、図5の情報処理装置400aに対して枠認識部450aが追加されている。枠認識部450aは、画像処理部443から出力される画像データに含まれる枠画像331を認識し、枠画像331を検出する。
例えば、枠認識部450aは、枠画像331に対応する画像パターン情報を予め有し、この画像パターン情報と画像データとを比較することで、枠画像331を検出することが考えられる。枠認識部450aは、マーカ333a〜333cに対応する画像パターン情報に基づき枠画像331を検出してもよい。さらに、枠認識部450aは、枠画像331が画像データ内の所定位置において認識されたか否かを判定する。これにより、撮像画像に所定の大きさで含まれる枠画像331を認識することができる。
図8は、第1の実施形態の第1の変形例による画像補正処理を示す一例のフローチャートである。ステップS110で、例えば操作部402に対するユーザ操作に応じて、第1の実施形態の第1の変形例に係るアプリが起動されると、次のステップS111で、制御部430bは、ライト403を点灯し発光させる。
次のステップS112で、枠認識部450aは、画像処理部443から出力された画像データから枠画像331が認識されたか否かを判定する。枠認識部450aは、枠画像331が認識されていないと判定した場合、処理をステップS112に戻す。一方、枠認識部450aは、画像データ中に枠画像331を認識したと判定した場合、処理をステップS113に移行させる。
ステップS113で、枠認識部450aは、ステップS112で認識された枠画像331が画像データ内の所定位置にあるか否かを判定する。枠認識部450aは、若し、枠画像331が所定位置に無いと判定した場合、処理をステップS112に戻す。一方、枠認識部450aは、枠画像331が画像データ内の所定位置にあると判定した場合、処理をステップS114に移行させる。
ステップS114で、制御部430bは、フレームメモリ442から1フレーム分の撮像画像データを読み出してフレームメモリ445に記憶させ、処理対象の撮像画像データを取得する。次のステップS115で、制御部430bは、標準画像出力部446から出力される標準画像データを取得する。例えば、制御部430bは、演算部447を制御して、標準画像出力部446から出力される標準画像データを演算部447に取り込む。
次のステップS116で、演算部447は、式(1)〜(3)に従い、ステップS115で取り込まれた標準画像データを用いて、ステップS114でフレームメモリ445に記憶された撮像画像データを補正する。演算部447は、この補正処理により補正後の補正画像データを取得する(ステップS117)。演算部447は、取得した補正画像データを、例えば図示されない画像抽出部に対して出力する。
(第1の実施形態の第2の変形例)
次に、第1の実施形態の第2の変形例について説明する。この第2の変形例では、上述の第1の変形例の枠認識機能に対し、さらに、表示部444に表示される、撮像状態を確認するためのファインダ画面に対して、枠画像331の位置決めを行うための枠ガイド画像を表示させるようにしている。そして、ファインダ画面内において、枠画像331が、枠ガイド画像に対して所定の範囲内に表示されているか否かを判定する。
図9は、第1の実施形態の第2の変形例に係る情報処理装置の一例の構成を示す。なお、図9において、上述した図5と共通する部分には同一の符号を付して、詳細な説明を省略する。図9において、情報処理装置400cは、図5の情報処理装置400aに対して枠認識部450bと、枠生成部451と、合成部452とが追加されている。
枠生成部451は、ファインダ画面に表示させるための枠ガイド画像を生成する。合成部452は、制御部430cの制御に従い、枠生成部451で生成された枠ガイド画像と、画像処理部443から出力される画像データとを合成し、画像データによる画像内の所定位置に枠ガイド画像が配置されるガイド付き画像データを生成する。図10に、第1の実施形態の第2の変形例に係る、ファインダ画面340内に枠ガイド画像341が表示されている様子を示す。枠生成部451は、枠ガイド画像341の画像データ内での座標を示す情報を枠認識部450bに渡す。
枠認識部450bは、上述した枠認識部450aと同様に画像処理部443から出力され合成部452を介して供給される画像データに含まれる枠画像331を認識し、枠画像331を検出する。さらに、枠認識部450bは、枠生成部451から渡された、枠ガイド画像341の座標を示す情報に基づき、画像データから検出された枠画像331が、枠生成部451で生成された枠ガイド画像341に対して所定範囲内に収まっているか否かを判定する。
図11は、第1の実施形態の第2の変形例による画像補正処理を示す一例のフローチャートである。ステップS120で、例えば操作部402に対するユーザ操作に応じて、第1の実施形態の第2の変形例に係るアプリが起動されると、次のステップS121で、制御部430cは、ライト403を点灯し発光させる。
次のステップS122で、枠生成部451は、枠ガイド画像341を生成して合成部452に供給し、枠ガイド画像341をファインダ画面340内に表示させる。このとき、枠生成部451は、枠ガイド画像341のファインダ画面340内での座標、すなわち、画像処理部443から出力された画像データ内での座標を示す情報を枠認識部450bに渡す。
次のステップS123で、枠認識部450bは、画像処理部443から出力された画像データから枠画像331が認識されたか否かを判定する。枠認識部450bは、枠画像331が認識されていないと判定した場合、処理をステップS123に戻す。一方、枠認識部450bは、画像データ中に枠画像331を認識したと判定した場合、処理をステップS124に移行させる。
ステップS124で、枠認識部450bは、枠ガイド画像341の座標情報に基づき、画像データ内に含まれる枠画像331が、枠ガイド画像341に対して所定範囲内に表示されているか否かを判定する。
図12は、第1の実施形態の第2の変形例に係る、枠ガイド画像341が表示されたファインダ画面340に、用紙330の画像が表示されている様子を示す。この図12の例では、用紙330に設けられる枠画像331の全体が枠ガイド画像341に含まれ、且つ、枠画像331と、枠ガイド画像341との間の距離が所定範囲内に収まっている。したがって、枠認識部450bは、枠画像331が枠ガイド画像341に対して所定範囲内に表示されていると判定する。
ここで、枠画像331と枠ガイド画像341との間の距離は、枠画像331と枠ガイド画像341とにおける、互いに対応する各辺の間の距離である。枠認識部450bは、ステップS124で、画像データ内での枠画像331および枠ガイド画像341の座標に基づき各辺の距離判定を行い、枠画像331と枠ガイド画像341との関係が、この図12に例示されたような状態になっているか否かを判定する。枠認識部450bは、枠画像331および枠ガイド画像341の辺ではなく、枠画像331の四隅の各座標と、枠ガイド画像341の四隅の各座標とを比較して距離判定を行ってもよい。
なお、図12の例では、枠ガイド画像341内に枠画像331が含まれているが、これはこの例に限定されない。すなわち、枠認識部450bは、枠画像331内に枠ガイド画像341が含まれている場合であっても、枠画像331と枠ガイド画像341との間の距離が所定範囲内に収まっていれば、枠画像331が枠ガイド画像341に対して所定範囲内に表示されていると判定する。
ユーザは、表示部444に表示されるファインダ画面340を確認しながら、枠画像331が枠ガイド画像341に対して所定範囲内に表示されるように、例えば情報処理装置400cと用紙330との距離を調整する。
枠認識部450bは、ステップS124で枠画像331が枠ガイド画像341に対して所定範囲内に表示されていないと判定した場合、処理をステップS123に戻す。一方、枠認識部450bは、枠画像331が、枠ガイド画像341に対して所定範囲内に表示されていると判定した場合、処理をステップS125に移行させる。
ステップS125で、制御部430cは、フレームメモリ442から1フレーム分の撮像画像データを読み出してフレームメモリ445に記憶させ、処理対象の撮像画像データを取得する。次のステップS126で、制御部430cは、標準画像出力部446から出力される標準画像データを取得する。例えば、制御部430cは、演算部447を制御して、標準画像出力部446から出力される標準画像データを演算部447に取り込む。
次のステップS127で、演算部447は、式(1)〜(3)に従い、ステップS126で取り込まれた標準画像データを用いて、ステップS125でフレームメモリ445に記憶された撮像画像データを補正する。演算部447は、この補正処理により補正後の補正画像データを取得する(ステップS128)。演算部447は、取得した補正画像データを、例えば図示されない画像抽出部に対して出力する。
このように、第1の実施形態の第2の変形例では、枠ガイド画像341をファインダ画面340内に表示させているため、撮像画像において枠画像331を適切な大きさで撮像する処理を容易に実行できる。また、撮像画像の取得を、情報処理装置400cに対して撮像指示のための操作を行うこと無く実行できる。
(第1の実施形態の第3の変形例)
次に、第1の実施形態の第3の変形例について説明する。用紙330を撮像する場合、撮像部440における撮像素子の撮像面と用紙330とが平行ではない場合、用紙330の撮像画像に台形歪みが発生する。より具体的には、本来矩形で撮像されるべき枠画像331が、撮像画像においては、撮像面の用紙330に対する角度に応じた台形に変形した画像となる。この場合、ライト403の光の照射による撮像画像における輝度分布が、標準画像における輝度分布と異なってしまい、式(1)〜(3)の演算を行っても画素値が均一化されないことになる。
そこで、第1の実施形態の第3の変形例では、情報処理装置の傾きを検出し、傾きが所定以上の場合に、撮像画像の取得を行わないようにする。
図13は、第1の実施形態の第3の変形例に係る情報処理装置の一例の構成を示す。なお、図13において、上述した図9と共通する部分には同一の符号を付して、詳細な説明を省略する。図13において、情報処理装置400dは、図9の情報処理装置400cに対して傾きセンサ460が追加されている。
傾きセンサ460は、例えばジャイロを利用して情報処理装置400dの傾きを検出する。傾きセンサ460は、少なくとも、水平面に対する角度を傾きとして検出することができるものとする。傾きセンサ460は、検出結果として水平面に対する角度を出力して、制御部430dに供給する。
図14は、第1の実施形態の第3の変形例による画像補正処理を示す一例のフローチャートである。なお、ユーザ画像301が描画された、情報処理装置400dの撮像対象である用紙330は、可能な限り水平の状態を保っているものとする。ステップS140で、例えば操作部402に対するユーザ操作に応じて、第1の実施形態の第3の変形例に係るアプリが起動されると、次のステップS141で、制御部430dは、ライト403を点灯し発光させる。
次のステップS142で、枠生成部451は、枠ガイド画像341を生成して合成部452に供給し、枠ガイド画像341をファインダ画面340内に表示させ、枠ガイド画像341のファインダ画面340内での座標を示す情報を枠認識部450bに渡す。
次のステップS143で、枠認識部450bは、画像処理部443から出力された画像データから枠画像331が認識されたか否かを判定する。枠認識部450bは、枠画像331が認識されていないと判定した場合、処理をステップS143に戻す。一方、枠認識部450bは、画像データ中に枠画像331を認識したと判定した場合、処理をステップS144に移行させる。
ステップS144で、枠認識部450bは、枠ガイド画像341の座標情報に基づき、画像データ内に含まれる枠画像331が、枠ガイド画像341に対して所定範囲内に表示されているか否かを判定する。枠認識部450bは、枠画像331が枠ガイド画像341に対して所定範囲内に表示されていないと判定した場合、処理をステップS143に戻す。一方、枠認識部450bは、枠画像331が、枠ガイド画像341に対して所定範囲内に表示されていると判定した場合、処理をステップS145に移行させる。
ステップS145で、制御部430dは、傾きセンサ460から供給される検出結果に基づき、情報処理装置400dの水平面に対する傾きが所定範囲内であるか否かを判定する。制御部430dは、傾きが所定範囲を超えていると判定した場合、処理をステップS143に戻す。一方、制御部430dは、傾きが所定範囲内であると判定した場合、処理をステップS146に移行させる。
ステップS146で、制御部430dは、フレームメモリ442から1フレーム分の撮像画像データを読み出してフレームメモリ445に記憶させ、処理対象の撮像画像データを取得する。次のステップS147で、制御部430dは、標準画像出力部446から出力される標準画像データを取得する。次のステップS148で、演算部447は、式(1)〜(3)に従い、ステップS147で取り込まれた標準画像データを用いて、ステップS146でフレームメモリ445に記憶された撮像画像データを補正する。演算部447は、この補正処理により補正後の補正画像データを取得する(ステップS149)。演算部447は、取得した補正画像データを、例えば図示されない画像抽出部に対して出力する。
このように、第1の実施形態の第3の変形例では、情報処理装置の傾きを検出し、傾きが所定以上の場合に、撮像画像の取得を行わないようにしている。したがって、情報処理装置400dが傾いているために撮像画像に台形歪みが発生する事態を防止することができる。
(第2の実施形態)
次に、第2の実施形態について説明する。上述した第1の実施形態では、ユーザは、ユーザ画像301が描画された用紙300を撮像する際に、情報処理装置400と用紙300との距離が所定の距離になるように、情報処理装置400の位置を調整する必要があった。これは、第1の実施形態のみならず、第1の実施形態の各変形例でも同様である。
すなわち、ライト403と被写体との距離に応じて、図15(a)〜図15(d)に例示されるように、被写体上でのライト403の光の照射による輝度分布の傾向が変化する。図15(a)〜図15(d)の例は、図15(a)がライト403と被写体との距離が最も遠い場合の輝度分布の例を示し、以降、図15(b)、図15(c)、図15(d)の順にライト403と被写体との距離が順次接近した場合のそれぞれの輝度分布の例を示す。
この例では、ライト403と被写体との距離が遠いほど、被写体における全体的な輝度が低下し、且つ、周辺部の輝度がより低下する。逆に、ライト403と被写体との距離が接近するに連れ、被写体における全体的な輝度が増加し、且つ、周辺部の輝度も増加する。
したがって、各距離における輝度分布にそれぞれ対応した複数の標準画像を用意し、ライト403からの距離を距離センサを用いて測定して、測定結果に基づき、複数の標準画像からライト403からの距離に応じた標準画像を選択する。この距離に応じて選択された標準画像を用いて撮像画像を補正することで、情報処理装置の位置を大まかに調整するだけで、適切な補正画像を得ることが可能となる。
図16は、第2の実施形態に係る情報処理装置の一例の構成を示す。なお、図16において、上述した図5と共通する部分には同一の符号を付して、詳細な説明を省略する。図16において、情報処理装置400eは、図5の情報処理装置400aに対して距離センサ470が追加されている。距離センサ470は、撮像部440による撮像の際に被写体までの距離を測定する距離センサを共用することができる。
また、図16において、標準画像出力部480は、距離#1、#2、#3および#4の複数の距離にそれぞれ対応する複数の標準画像データ481a、481b、481cおよび481dと、これら標準画像データ481a、481b、481cおよび481dから1を選択するためのセレクタ482とを含む。標準画像データ481a、481b、481cおよび481dは、例えば、図15(a)〜図15(d)に示した、ライト403と被写体との距離に応じた輝度分布に対応したデータを用いることができる。
距離センサ470の出力が制御部430eに供給される。制御部430eは、供給された距離センサ470の出力に基づき被写体までの距離を取得し、取得した距離に従いセレクタ482を制御して、標準画像データ481a〜481dのうち距離に応じた標準画像データを選択する。標準画像データ481a〜481dのうち、セレクタ482に選択された標準画像データが演算部447に供給される。
なお、上述では、演算部447には、距離について段階的に選択された標準画像データが供給されるように説明したが、これはこの例に限定されない。例えば、図4を用いて説明した標準画像を示す特性を、被写体からの距離を示す距離値をパラメータに含む関数として表現し、この関数を標準画像出力部480に適用することも考えられる。制御部430eは、距離センサ470の出力に基づく距離値をパラメータとして標準画像出力部480に供給する。標準画像出力部480は、制御部430eから供給されたパラメータを用いて、標準画像の特性を示す関数の計算を行い、計算結果を当該距離値が示す距離に対応する標準画像データとして、演算部447に供給する。
また、制御部430eは、距離センサ470の出力に基づく距離値を標準画像出力部480に供給し、標準画像出力部480は、この距離値に基づき各標準画像データ481a〜481dを補間して、距離値に対応する標準画像データを出力することも可能である。
図17は、第2の実施形態による画像補正処理を示す一例のフローチャートである。ステップS130で、例えば操作部402に対するユーザ操作に応じて、第2の実施形態に係るアプリが起動されると、次のステップS131で、制御部430eは、ライト403を点灯し発光させる。次のステップS132で、制御部430eは、距離センサ470の出力に基づき被写体(用紙330)までの距離を検出する。
制御部430eは、次のステップS133で、撮像指示を待機する。制御部430eは、例えば操作部402に対して撮像を指示する操作がなされたと判定した場合、処理をステップS134に移行させる。一方、制御部430eは、操作部402に対する撮像指示の操作が無いと判定した場合、処理をステップS133に戻す。
ステップS134で、制御部430eは、フレームメモリ442から1フレーム分の撮像画像データを読み出してフレームメモリ445に記憶させ、処理対象の撮像画像データを取得する。次のステップS135で、制御部430eは、ステップS132で検出された距離に従いセレクタ482を制御して、標準画像データ481a〜481dのうち当該距離に対応する標準画像データを選択する。そして、制御部430eは、演算部447を制御して、標準画像出力部480から、セレクタ482で選択され出力される標準画像データを演算部447に取り込む。
次のステップS136で、演算部447は、式(1)〜(3)に従い、ステップS135で取り込まれた標準画像データを用いて、ステップS134でフレームメモリ445に記憶された撮像画像データを補正する。演算部447は、この補正処理により補正後の補正画像データを取得する(ステップS137)。演算部447は、取得した補正画像データを、例えば図示されない画像抽出部に対して出力する。
(情報処理装置の具体的な構成例)
図18は、各実施形態および変形例に適用可能な情報処理装置の一例の構成を示す。なお、図18は、図2を用いて説明した情報処理装置400を実現可能な構成の例として示しているが、図18の構成は、上述した第1の実施形態の各変形例および第2の実施形態による情報処理装置400a〜400eにも適用可能なものである。
図18に例示される情報処理装置400において、バスに対してCPU490、ROM491、RAM492および表示制御部493が接続される。また、バスに対して、ストレージ495、データI/F496、入力デバイス497、通信部498が接続される。ストレージ495は、データを不揮発に記憶することが可能な記憶媒体であって、例えばフラッシュメモリなどの不揮発性の半導体メモリである。これに限らず、ストレージ495としてハードディスクドライブを用いてもよい。
情報処理装置400において、バスに対して、さらに、ライト403と、距離センサ470と、カメラモジュール404とが接続される。なお、ライト403および距離センサ470は、図示されないインターフェイスを介してバスに接続される。これに限らず、ライト403および距離センサ470は、図示されないインターフェイスを介してCPU490に直接的に接続されてもよい。
CPU490は、ROM491およびストレージ495に記憶されるプログラムに従い、RAM492をワークメモリとして用いて、この情報処理装置400の全体の動作を制御する。表示制御部493は、CPU490により生成された表示制御信号を、表示デバイス494が表示可能な信号に変換して出力する。
ストレージ495は、上述のCPU490が実行するためのプログラムや各種データが格納される。データI/F496は、外部からのデータの入力を行う。データI/F496としては、例えば、USB(Universal Serial Bus)やIEEE1394(Institute of Electrical and Electronics Engineers 1394)などによるインタフェースを適用することができる。
入力デバイス497は、ユーザ入力を受け付けて所定の制御信号を出力する。ユーザは、例えば表示デバイス494に対する表示に応じて入力デバイス497を操作することで、情報処理装置400に対して指示を出すことができる。なお、入力デバイス497と表示デバイス494とを一体的に構成し、入力デバイス497を押圧した位置に応じた制御信号を出力すると共に、表示デバイス494の画像を透過するタッチパネルとして構成すると、好ましい。
通信部498は、所定のプロトコルを用いてネットワークと無線または有線による通信を行う。カメラモジュール404は、入力デバイス497に対するユーザ操作による指示に従い、撮像やズームなどの機能を実行する。カメラモジュール404で撮像され得られた撮像画像データは、バスを介してCPU490に送られる。
上述した制御部410と、補正処理部411と、標準画像出力部412は、CPU490上で動作するアプリケーションプログラム(アプリ)によって実現される。このアプリケーションプログラムは、ROM491やストレージ495に予め記憶させて提供することができる。これに限らず、アプリケーションプログラムは、通信部498が通信可能なネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成される。また、このアプリケーションプログラムを、ネットワーク経由で提供または配布するように構成してもよい。
これに限らず、このアプリケーションプログラムは、インストール可能な形式または実行可能な形式のファイルでCD(Compact Disk)、DVD(Digital Versatile Disk)などのコンピュータで読み取り可能な記録媒体に記録して提供してもよい。この場合、例えばデータI/F496に接続された外部のドライブ装置やコンピュータを介して、アプリケーションプログラムが情報処理装置400に供給される。
アプリケーションプログラムは、例えば、上述した各部(制御部410、補正処理部411および標準画像出力部412)を含むモジュール構成となっており、実際のハードウェアとしてはCPU490が例えばストレージ495から当該アプリケーションプログラムを読み出して実行することにより上記各部が主記憶装置(例えばRAM492)上にロードされ、各部が主記憶装置上に生成されるようになっている。
(第3の実施形態)
次に、第3の実施形態について説明する。第3の実施形態は、ユーザが描画した画像に基づく画像データを、仮想的な水槽内で恰も魚が遊泳しているように表示する表示システムに、上述した第1の実施形態に係る情報処理装置400を適用した例である。
なお、第3の実施形態は、当該表示システムに対し、第1の実施形態に係る情報処理装置400を適用する例に限られず、第1の実施形態および第1の実施形態の各変形例に係る情報処理装置400a〜400d、ならびに、第2の実施形態に係る情報処理装置400eのうち何れかを適用してもよい。
図19は、第3の実施形態に係る表示システムの一例の構成を示すブロック図である。図19において、表示システム1は、パーソナルコンピュータ(PC)10と、1以上のプロジェクタ装置(PJ)111、112、113とを含む。また、PC10は、情報処理装置400と無線または有線でのデータ通信が可能とされている。
図19において、ユーザ23は、情報処理装置400において例えば第1の実施形態に係るアプリを起動させ、ユーザ画像22が描画された用紙21を撮像する。情報処理装置400は、例えば図3のフローチャートの処理に従い、アプリが起動されるとライト403を発光させ(ステップS100、ステップS101)、ユーザ23の情報処理装置400に対する撮像指示に応じて撮像画像データおよび標準画像データを取得する(ステップS102〜ステップS104)。そして、情報処理装置400は、式(1)〜(3)に従い標準画像データを用いて撮像画像データを補正し、撮像画像データが補正された画像データを取得する(ステップS105、ステップS106)。
情報処理装置400は、撮像画像データが補正された画像データをPC10に送信する。PC10は、情報処理装置400から送信された画像データに対して所定の画像処理を施して表示画像データとし、プロジェクタ装置(PJ)111、112、113に供給する。プロジェクタ装置111、112、113は、PC10から供給された表示画像データに従い、画像131、132、133をスクリーン12に投射する。
なお、図19のように複数のプロジェクタ装置(PJ)111、112、113による画像131、132、133を1のスクリーン12に投射する場合、各画像131、132、133の隣接部分に重複部分を設けると好ましい。図19の例では、カメラ14によりスクリーン12に投射された画像131、132、133を撮像し、PC10が、撮像画像データに基づき各画像131、132、133、あるいは、各プロジェクタ装置(PJ)111、112、113を制御して、重複部分の画像を調整している。
このような構成において、例えば、ユーザ23が手書きにてユーザ画像22を用紙21に描画し、この用紙21の画像を情報処理装置400で撮像する。情報処理装置400は、上述したようにして標準画像データにより撮像画像データを補正し、補正した画像データをPC10に送信する。PC10は、情報処理装置400から供給された画像データからユーザ画像22に対応する画素を決定し、ユーザ画像22の領域のデータを抽出する。このとき、情報処理装置400から供給される画像データは、描画部分以外の輝度分布が補正処理により均一化されているため、ユーザ画像22の領域を高精度に抽出することが可能である。PC10は、抽出した、ユーザ画像22の領域の画像データをユーザ画像データとして記憶する。
一方、PC10は、3次元の座標系を持つ画像データ空間を生成する。そして、PC10は、ユーザ画像データに対してこの画像データ空間内の座標を与えて当該ユーザ画像データを当該画像データ空間内のデータとする。以下では、この3次元の画像データ空間内のユーザ画像データを、ユーザオブジェクトと呼ぶ。PC10は、この、ユーザオブジェクトを含む3次元の画像データ空間を2次元の画像データ平面に投影し、投影して生成された画像データを、プロジェクタ装置(PJ)111、112、113の台数分に分割して、各プロジェクタ装置(PJ)111、112、113に供給する。
ここで、PC10は、ユーザオブジェクトに対して、画像データ空間内での動きを与えることができる。例えば、PC10は、ユーザオブジェクトの元になるユーザ画像データの特徴量を求め、求めた特徴量に基づき、ユーザオブジェクト自身の変形のモードを含む、動きに関する各パラメータを生成する。PC10は、このパラメータをユーザ画像データに適用して、ユーザオブジェクトに対して画像データ空間内での動きを与える。
このようにすることで、ユーザ23は、自身が手書きにて作成したユーザ画像22を、3次元の画像データ空間内で動く画像として観察することができる。また、PC10は、複数のユーザオブジェクトを同一の画像データ空間内に含めることができる。したがって、ユーザ23は、上述の操作を繰り返すことで、例えば異なる複数のユーザ画像22を、それぞれ、3次元の画像データ空間内で動く画像として観察することができる。
図20は、第3の実施形態に係る、PC10により生成される、3次元の座標系を持つ画像データ空間について概略的に示す。第3の実施形態では、3次元の座標系として、互いに直交する3の座標軸(x軸、y軸、z軸)を持つ直交座標系を用いる。以下では、図20に示されるように、x軸、y軸およびz軸を、それぞれ高さ、幅および奥行方向の軸とし、PC10は、高さ、幅および奥行の各軸による3次元の座標系を持つ画像データ空間30を生成するものとして説明する。図20の例では、この画像データ空間30内に、ユーザ画像データによる各ユーザオブジェクト401、402、403、404および405が含まれている。
PC10は、この画像データ空間30に対して、それぞれ値が予め定められた高さH、幅Wおよび奥行Dからなる空間である定義領域31を設定する。ユーザ画像データによる各ユーザオブジェクト401、402、…の動きは、この定義領域31内に制限される。第3の実施形態では、各ユーザオブジェクト401、402、…の元になるユーザ画像22として、魚類、イカ、タコ、クラゲなど水中に棲息する生物を想定しており、定義領域31は、仮想的な水槽と見做すことができる。以下では、特に記載の無い限り、定義領域31を仮想水槽31と呼ぶ。
図21は、第3の実施形態に適用可能なPC10の一例の構成を示す。図21のPC10において、バス100に対してCPU110、ROM111、RAM112および表示制御部113が接続される。PC10において、さらに、バス100に対してストレージ114、データI/F115および通信I/F116が接続される。
CPU110は、ROM111およびストレージ114に予め記憶されるプログラムに従い、RAM112をワークメモリとして用いて、このPC10の全体を制御する。表示制御部113は、モニタ120が接続され、CPU110により生成された表示制御信号を、モニタ120が表示可能な信号に変換して出力する。また、表示制御部113は、表示制御信号を、プロジェクタ装置111、112および113が表示可能な信号に変換してそれぞれ出力することができる。
ストレージ114は、データを不揮発に記憶することが可能な記憶媒体であって、例えばハードディスクドライブが用いられる。これに限らず、ストレージ114として、例えばフラッシュメモリなどの不揮発性の半導体メモリを用いてもよい。ストレージ114は、上述のCPU110が実行するためのプログラムや各種のデータが格納される。
データI/F115は、外部の機器との間でのデータの入出力を制御する。例えば、データI/F115は、マウスなどのポインティングデバイスや図示されないキーボード(KBD)からの信号が入力される。さらに、CPU110で生成された表示制御信号を、このデータI/F115から出力して、例えば各プロジェクタ装置111、112および113に供給してもよい。このようなデータI/F115としては、USBやBluetooth(登録商標)といったインタフェースを適用することができる。
通信I/F116は、インターネットやLAN(Local Area Network)といったネットワークを介した通信を制御する。PC10は、情報処理装置400との通信を、この通信I/F116を介して行う。
図22は、第3の実施形態に係るPC10の機能を説明するための一例の機能ブロック図である。PC10は、入力部130と、画像取得部131と、3D空間生成部132と、領域設定部133と、モード判定部134と、パラメータ生成部135と、画像制御部136と、記憶部137とを含む。
入力部130は、ユーザ23による手書きで描画されたユーザ画像22を含む画像データが入力される。例えば、入力部130は、通信I/F116の機能を含み、情報処理装置400から送信された、ユーザ23が手書きで描画したユーザ画像22を含む用紙21を撮像し、標準画像を用いて補正した画像データが入力される。そして、入力部130は、入力された画像データから、ユーザ画像22を抽出し、ユーザ画像データとして取得する。
3D空間生成部132は、図20を用いて説明した、高さ、幅および奥行の3軸からなる3次元の座標軸による画像データ空間30を生成する。3D空間生成部132は、例えば、RAM112上のアドレス空間として画像データ空間30を生成する。領域設定部133は、3D空間生成部132で生成された画像データ空間30内に、予め定められた値に従い、高さH、幅Wおよび奥行Dの定義領域31(仮想水槽31)を設定する。
画像取得部131は、画像データ空間30に対して所定に視点を設定して、設定した視点から画像データ空間30を2次元の画像データ平面に投影し、プロジェクタ装置11〜11で投射させるための画像データを取得する。
モード判定部134は、入力部130で取得されたユーザ画像データに基づき、当該ユーザ画像データが画像データ空間30に含まれた際のユーザオブジェクトに割り当てる、ユーザオブジェクト自身の変形のモード(変形モードと呼ぶ)を判定する。パラメータ生成部135は、入力部130で取得されたユーザ画像データに基づき、当該ユーザ画像データによるユーザオブジェクトの動きに関する性能を決めるパラメータを生成する。
画像制御部136は、モード判定部134により判定された変形モードと、パラメータ生成部135で生成されたパラメータとに従い、画像データ空間30内でのユーザオブジェクトの動きを制御する。換言すれば、画像制御部136は、画像データ空間30における仮想水槽31内での座標をユーザオブジェクトに与え、この座標を、時間の経過に伴い連続して変化させる制御を行う。
記憶部137は、RAM112に対応し、ユーザオブジェクトの元になるユーザ画像データなどを記憶する。これに限らず、ストレージ114を記憶部137として用いてもよい。例えば、モード判定部134やパラメータ生成部135は、この記憶部137に記憶されるユーザ画像データを用いて、変形モードの判定やパラメータの生成を行う。また、画像制御部136は、記憶部137に記憶されるユーザ画像データに対して仮想水槽31内の座標を与えることで、当該ユーザ画像データを、画像データ空間30内にユーザオブジェクトとして含ませることができる。さらに、画像制御部136は、ユーザオブジェクトに対して変形モードやパラメータに従い変形処理や移動処理などを施す。
なお、上述したPC10に含まれる入力部130、画像取得部131、3D空間生成部132、領域設定部133、モード判定部134、パラメータ生成部135および画像制御部136は、例えばストレージ114に予め記憶され、CPU110上で動作する表示制御プログラムによって実現される。この表示制御プログラムは、インストール可能な形式また実行可能な形式のファイルでCD、フレキシブルディスク(FD)、DVDなどのコンピュータで読み取り可能な記録媒体に記録されて提供される。
また、実施形態のPC10で実行される表示制御プログラムを、インターネットなどのネットワークに接続されたコンピュータ上に格納し、当該ネットワークを介してダウンロードさせることにより提供するように構成してもよい。また、実施形態のPC10で実行される表示制御プログラムをインターネットなどのネットワークを経由して提供または配布するように構成してもよい。さらに、実施形態の表示制御プログラムを、ROM111などに予め組み込んで提供するように構成してもよい。
実施形態のPC10で実行される表示制御プログラムは、上述した各部(入力部130、画像取得部131、3D空間生成部132、領域設定部133、モード判定部134、パラメータ生成部135および画像制御部136)を含むモジュール構成となっている。実際のハードウェアとしては、CPU110がストレージ114やROM111などの記憶媒体から表示制御プログラムを読み出して実行することにより、上述した各部がRAM112などの主記憶装置上にロードされ、入力部130、画像取得部131、3D空間生成部132、領域設定部133、モード判定部134、パラメータ生成部135および画像制御部136が主記憶装置上に生成されるようになっている。
次に、実施形態による表示制御処理について、より詳細に説明する。図23は、第3の実施形態に係る表示システムによる表示制御処理の全体的な流れを示す一例のフローチャートである。このフローチャートによる処理の実行に先立って、ユーザ23により用紙21にユーザ画像22が描画される。ここでは、ユーザは、予めフォーマットが定められた用紙に対してユーザ画像22の描画を行うものとする。
図24は、第3の実施形態に係る、手書き描画を行うための用紙の例を示す。図24の左側に示される用紙200において、画像データ空間30内に含ませたいオブジェクト(ユーザオブジェクト)の元となるユーザ画像212を手書き描画する描画領域210と、描画領域210に描画された絵に対するタイトルを記入するタイトル記入領域211とが配される。
また、用紙200の四隅のうち3の隅に、マーカ2201、2202および2203が配される。用紙200の画像を情報処理装置400で撮像した撮像画像から、これらマーカ2201、2202および2203を検出することで、用紙200の向きおよび大きさを知ることができる。なお、これらマーカ2201、2202および2203は、描画領域210の各隅に配置してもよい。
図23のフローチャートにおいて、PC10は、情報処理装置400から送信された、ユーザ画像212を含む用紙200の画像を撮像し標準画像を用いて補正された画像データを受信する。受信された画像データは、ステップS10で入力部130に入力される。
次のステップS11で、PC10において、入力部130は、入力された画像データから、ユーザ画像データを抽出する。先ず、入力部130は、画像データから各マーカ2201〜2203を検出する。入力部130は、検出された各マーカ2201〜2203の画像データ上の位置に基づき、画像データの方向および大きさを判定する。
例えば、入力部130は、画像データの四隅のうち、マーカ2201〜2203が存在しない隅を検出し、検出された隅の位置に基づき画像データの向きを判定する。図24の例では、マーカ2201〜2203が存在しない隅が画像データの右下隅であると判定する。また、これにより、各マーカ2201〜2203の原稿画像データ上での位置も確定できる。入力部130は、さらに、各マーカ2201〜2203間の距離を計測し、計測された距離と、ストレージ114などに予め記憶される対応する既知の距離とを比較する。この比較結果に基づき、原稿画像データにおける縦横方向のサイズの歪みを修正することができる。
入力部130は、上述のようにして取得した画像データの向きとサイズとに基づき、画像データから描画領域210とタイトル記入領域211とを抽出する。図24の右側に、画像データから抽出された描画領域210およびタイトル記入領域211の画像データによる画像の例を示す。入力部130は、さらに、描画領域210の画像データからユーザ画像212の部分を抽出する。例えば、入力部130は、描画領域210の画像データの各画素の輝度を閾値判定し、画像データを2値化する。この2値化された画像データに対してユーザ画像212の部分を抽出する。このユーザ画像212の部分を含み、底辺の方向が描画領域210の底辺の方向と平行な最小の矩形領域213の画像データを、ユーザ画像データとする。入力部130は、ユーザ画像データを記憶部137に記憶させる。
次のステップS12で、PC10において、モード判定部134は、ステップS11で抽出されたユーザ画像データに対して割り当てる変形モードを判定する。実施形態では、仮想水槽31内での各ユーザオブジェクトに対して変形モードを割り当て、各ユーザオブジェクトの仮想水槽31内での動作を、この変形モードに基づき制御する。
第3の実施形態では、変形モードとして、ユーザオブジェクトを縦に分割して進行方向の後ろ側を動かして変形させる第1モードと、ユーザオブジェクトを縦方向に伸縮させて変形させる第2モードと、ユーザオブジェクトを横に分割して下側を動かして変形させる第3モードとの3モードが定義される。実施形態では、ユーザ画像データの縦横比Rを取得し、取得した縦横比Rに従い当該ユーザ画像データによるユーザオブジェクトに対して、上述した第1、第2および第3モードのうち何れを割り当てるかを決定する。
ステップS13で、PC10において、パラメータ生成部135は、ユーザ画像データによるユーザオブジェクトに対して、当該ユーザオブジェクトの画像データ空間30内での動作に関する性能(以下、動作性能と呼ぶ)を決定するパラメータpを生成、決定する。ユーザオブジェクトの画像データ空間30内での動作は、ここで生成、決定されたパラメータpに従い制御されることになる。パラメータpは、例えば、進行方向の最大速度および加速度、水平および垂直方向の角加速度の最大値、垂直方向の向きの変更速度の最大値、左右上下方向の乱数幅の最大値(最大乱数幅)を含む。
パラメータ生成部135は、ユーザ画像212の特徴量を求め、求めた特徴量に基づき当該ユーザ画像データによるユーザオブジェクトの各パラメータpを決定する。ユーザ画像データの特徴量は、ユーザ画像データにおける色分布やエッジ量などに基づき求めることが可能である。また、特開2009−101122号公報に記載されるように、ユーザ画像データを構成する各画素のビット情報に基づき特徴量を求めることもできる。
次のステップS14で、画像制御部136は、ユーザ画像データに対して半透明領域を設定する。例えば、画像制御部136は、ユーザ画像データを含む矩形領域213において、図24を用いて説明したようにして入力部130により抽出されたユーザ画像212の部分の内側領域および外側領域を検出する。画像制御部136は、検出された内側領域において、白色の画素を、半透明に設定する。また、画像制御部136は、検出された外側領域を透明に設定する。画像データに対する透明および半透明の設定は、既知のアルファブレンディングの技術を用いて実現することができる。
このように、ユーザ画像データのユーザ画像212の部分に対して半透明領域を設定することで、仮想水槽31内において、当該ユーザ画像データによるユーザオブジェクトの見え方を、水中の生物により近くすることができる。
次に、ステップS15で、画像制御部136は、ユーザ画像データによるユーザオブジェクトに対して、当該ユーザオブジェクトが仮想水槽31内に最初に表示される際の初期座標が設定される。次のステップS16で、画像制御部136は、ステップS15で初期座標が設定されたユーザオブジェクトに対して動きを与え、ユーザオブジェクトの動作を開始させる。画像制御部136は、対象ユーザオブジェクトに対して設定された第1〜第3モードの何れかの変形モードに従い、当該対象ユーザオブジェクトを変形させながら、パラメータpに応じてユーザオブジェクトを動作させる。
なお、上述の実施形態は、本発明の好適な実施の例ではあるがこれに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変形による実施が可能である。
300,330 用紙
301 ユーザ画像
310 撮像画像
320 標準画像
331 枠画像
340 ファインダ画面
341 枠ガイド画像
400,400a,400b,400c,400d,400e 情報処理装置
401 補正部
402 操作部
403 ライト
404 カメラモジュール
410,430a,430b,430c,430d,430e 制御部
411 補正処理部
412,446,480 標準画像出力部
442,445 フレームメモリ
444 表示部
447 演算部
450a,450b 枠認識部
451 枠生成部
460 傾きセンサ
470 距離センサ
481a,481b,481c,481d 標準画像データ
482 セレクタ
特開2009−131596号公報

Claims (10)

  1. 撮像部から出力される、被写体を撮像した撮像画像を取得する撮像画像取得部と、
    前記撮像部の撮像方向に向けて照射する光を発光する発光部と、
    前記発光部から予め定められた距離における前記光の輝度分布に基づく標準画像を出力する標準画像出力部と、
    前記撮像画像取得部が前記発光部から前記光が発光された状態で取得した前記撮像画像を、前記標準画像を用いて補正する補正処理部と
    を有する
    ことを特徴とする情報処理装置。
  2. 前記撮像画像取得部は、
    前記発光部を制御し、前記撮像画像の取得に先立って前記光を発光させる
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記撮像部から出力される前記撮像画像から被写体に予め設けられた枠画像を認識する認識部をさらに有し、
    前記撮像画像取得部は、
    前記認識部により前記撮像画像内に前記枠画像が認識された場合に、前記撮像画像を取得する
    ことを特徴とする請求項1または請求項2に記載の情報処理装置。
  4. 前記撮像画像を表示する表示部と、
    前記表示部に表示させるための表示用枠画像を出力する枠画像出力部と
    をさらに有し、
    前記撮像画像取得部は、
    前記認識部が前記撮像画像から認識した前記枠画像が、前記表示用枠画像の前記表示部における表示領域内の位置に対して予め定められた範囲内に位置する場合に、前記撮像画像を取得する
    ことを特徴とする請求項3に記載の情報処理装置。
  5. 前記撮像画像取得部は、
    前記認識部により認識された前記枠画像の形状が予め定められた形状である場合に前記撮像画像を取得する
    ことを特徴とする請求項3または請求項4に記載の情報処理装置。
  6. 前記標準画像を予め記憶する記憶部をさらに有し、
    前記標準画像出力部は、
    前記記憶部から前記標準画像を読み出して出力する
    ことを特徴とする請求項1乃至請求項5の何れか1項に記載の情報処理装置。
  7. 前記発光部から被写体までの距離を測定する距離測定部をさらに有し、
    前記標準画像出力部は、
    前記距離測定部の測定結果に従い、前記発光部からの前記距離に応じた前記標準画像を出力する
    ことを特徴とする請求項1乃至請求項6の何れか1項に記載の情報処理装置。
  8. 前記撮像部の傾きを検出する傾き検出部をさらに有し、
    前記撮像画像取得部は、
    前記傾きが予め定められた範囲内である場合に前記撮像画像を取得する
    ことを特徴とする請求項1乃至請求項7の何れか1項に記載の情報処理装置。
  9. 撮像部から出力される、被写体を撮像した撮像画像を取得する撮像画像取得ステップと、
    前記撮像部の撮像方向に向けて照射する光を発光する発光部から予め定められた距離における前記光の輝度分布に基づく標準画像を出力する標準画像出力ステップと、
    前記撮像画像取得ステップにより前記発光部から前記光が発光された状態で取得した前記撮像画像を、前記標準画像を用いて補正する補正処理ステップと
    を有する
    ことを特徴とする情報処理方法。
  10. 撮像部から出力される、被写体を撮像した撮像画像を取得する撮像画像取得ステップと、
    前記撮像部の撮像方向に向けて照射する光を発光する発光部から予め定められた距離における前記光の輝度分布に基づく標準画像を出力する標準画像出力ステップと、
    前記撮像画像取得ステップにより前記発光部から前記光が発光された状態で取得した前記撮像画像を、前記標準画像を用いて補正する補正処理ステップと
    をコンピュータに実行させるためのプログラム。
JP2014102745A 2014-05-16 2014-05-16 情報処理装置、情報処理方法およびプログラム Active JP6390163B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014102745A JP6390163B2 (ja) 2014-05-16 2014-05-16 情報処理装置、情報処理方法およびプログラム
US14/710,778 US10225480B2 (en) 2014-05-16 2015-05-13 Terminal device, method for acquiring drawing target, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014102745A JP6390163B2 (ja) 2014-05-16 2014-05-16 情報処理装置、情報処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2015220607A true JP2015220607A (ja) 2015-12-07
JP6390163B2 JP6390163B2 (ja) 2018-09-19

Family

ID=54539536

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014102745A Active JP6390163B2 (ja) 2014-05-16 2014-05-16 情報処理装置、情報処理方法およびプログラム

Country Status (2)

Country Link
US (1) US10225480B2 (ja)
JP (1) JP6390163B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016138973A (ja) * 2015-01-27 2016-08-04 株式会社タカラトミーアーツ 表示システム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108027655A (zh) * 2016-02-25 2018-05-11 日本电气株式会社 信息处理系统、信息处理设备、控制方法和程序
US10769053B2 (en) * 2018-03-30 2020-09-08 Hcl Technologies Limited Method and system for performing user interface verification of a device under test

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06121214A (ja) * 1992-10-09 1994-04-28 Kyocera Corp 画像記録装置
JP2003087653A (ja) * 2001-09-06 2003-03-20 Ricoh Co Ltd 撮像装置
JP2003283922A (ja) * 2002-03-20 2003-10-03 Olympus Optical Co Ltd 電子カメラ
JP2003304443A (ja) * 2002-04-10 2003-10-24 Nikon Corp 画像処理装置および画像処理方法
US20100149380A1 (en) * 2008-12-17 2010-06-17 Altek Corporation Digital image capture device and brightness correction method thereof
JP2012134794A (ja) * 2010-12-22 2012-07-12 Panasonic Corp 撮像装置及び画像データ形成方法
JP2013165318A (ja) * 2012-02-09 2013-08-22 Nikon Corp 撮像装置
JP2013205675A (ja) * 2012-03-29 2013-10-07 Nikon Corp 撮像装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8259179B2 (en) * 2006-05-15 2012-09-04 Csr Technology Inc. Compensating for non-uniform illumination of object fields captured by a camera
US7724953B2 (en) * 2006-05-17 2010-05-25 Qualcomm Incorporated Whiteboard, blackboard, and document image processing
JP5476685B2 (ja) 2007-11-09 2014-04-23 株式会社リコー 情報処理装置、画像処理装置、情報処理装置の制御方法、情報処理プログラム及び記録媒体
US20130085935A1 (en) * 2008-01-18 2013-04-04 Mitek Systems Systems and methods for mobile image capture and remittance processing
US10528925B2 (en) * 2008-01-18 2020-01-07 Mitek Systems, Inc. Systems and methods for mobile automated clearing house enrollment
JP5760703B2 (ja) 2011-05-30 2015-08-12 株式会社リコー 画像処理装置、画像処理プログラムおよび記録媒体
WO2012168942A1 (en) * 2011-06-08 2012-12-13 Hewlett-Packard Development Company Image triggered transactions
US20140037183A1 (en) * 2012-08-06 2014-02-06 Nikolai D. Gorski Systems and methods for recognizing information in financial documents using a mobile device
JP6361146B2 (ja) 2013-05-09 2018-07-25 株式会社リコー 表示制御プログラム、表示制御方法および表示制御装置、ならびに、表示システム
US20150135137A1 (en) * 2013-11-12 2015-05-14 Microsoft Corporation User Experience for Processing and Cropping Images

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06121214A (ja) * 1992-10-09 1994-04-28 Kyocera Corp 画像記録装置
JP2003087653A (ja) * 2001-09-06 2003-03-20 Ricoh Co Ltd 撮像装置
JP2003283922A (ja) * 2002-03-20 2003-10-03 Olympus Optical Co Ltd 電子カメラ
JP2003304443A (ja) * 2002-04-10 2003-10-24 Nikon Corp 画像処理装置および画像処理方法
US20100149380A1 (en) * 2008-12-17 2010-06-17 Altek Corporation Digital image capture device and brightness correction method thereof
JP2012134794A (ja) * 2010-12-22 2012-07-12 Panasonic Corp 撮像装置及び画像データ形成方法
JP2013165318A (ja) * 2012-02-09 2013-08-22 Nikon Corp 撮像装置
JP2013205675A (ja) * 2012-03-29 2013-10-07 Nikon Corp 撮像装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016138973A (ja) * 2015-01-27 2016-08-04 株式会社タカラトミーアーツ 表示システム

Also Published As

Publication number Publication date
JP6390163B2 (ja) 2018-09-19
US20150334280A1 (en) 2015-11-19
US10225480B2 (en) 2019-03-05

Similar Documents

Publication Publication Date Title
JP6075122B2 (ja) システム、画像投影装置、情報処理装置、情報処理方法およびプログラム
US9148573B2 (en) Non-uniform correction illumination pattern
JP5680976B2 (ja) 電子黒板システム及びプログラム
WO2012124730A1 (ja) 検出装置、入力装置、プロジェクタ、及び電子機器
JP2010050542A (ja) 投写型表示装置および表示方法
CN110784690B (zh) 投影系统及投影方法
JP2009100084A (ja) 情報処理装置、指示システム及び制御プログラム
US20170208237A1 (en) Control device, control method, and program
JP2014072656A (ja) 画像処理装置、画像表示方法、およびプログラム
JP2016184362A (ja) 入力装置、入力操作検出方法及び入力操作検出用コンピュータプログラム
JP6390163B2 (ja) 情報処理装置、情報処理方法およびプログラム
KR102439502B1 (ko) 전자 장치 및 그의 영상 처리 방법
US9924066B2 (en) Image processing apparatus, information processing method, and program
TWI536206B (zh) 操作體的定位方法及裝置以及深度判定方法及裝置
CN111598933A (zh) 电子装置及其对象测量方法
KR102497526B1 (ko) 검출 장치, 검출 제어 방법 및 컴퓨터 프로그램
JP2020160808A (ja) 位置検出方法、位置検出装置、及び、インタラクティブプロジェクター
JP2017138927A (ja) 画像処理装置、撮像装置およびそれらの制御方法、それらのプログラム
CN111856866A (zh) 投影装置及其操作方法
KR101822169B1 (ko) 파노라마 영상을 제공하는 전자 장치 및 그 제어 방법
JP6538871B2 (ja) 操作検出装置、操作検出方法、及び映像表示システム
US20170128827A1 (en) Information processing system, information processing apparatus, computer-readable non-transitory storage medium having stored therein information processing program, and hand-held information processing apparatus
US10346680B2 (en) Imaging apparatus and control method for determining a posture of an object
JP2017153045A (ja) 画像処理装置、撮像装置およびそれらの制御方法ならびにプログラム
JP2020160807A (ja) 位置検出方法、位置検出装置、及び、インタラクティブプロジェクター

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180724

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180806

R151 Written notification of patent or utility model registration

Ref document number: 6390163

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151