JP2006337771A - 画像処理装置、その方法、そのプログラムおよび記録媒体 - Google Patents
画像処理装置、その方法、そのプログラムおよび記録媒体 Download PDFInfo
- Publication number
- JP2006337771A JP2006337771A JP2005163269A JP2005163269A JP2006337771A JP 2006337771 A JP2006337771 A JP 2006337771A JP 2005163269 A JP2005163269 A JP 2005163269A JP 2005163269 A JP2005163269 A JP 2005163269A JP 2006337771 A JP2006337771 A JP 2006337771A
- Authority
- JP
- Japan
- Prior art keywords
- image
- generating
- thinning
- image processing
- input image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 65
- 230000033001 locomotion Effects 0.000 claims abstract description 125
- 239000013598 vector Substances 0.000 claims abstract description 105
- 230000009467 reduction Effects 0.000 claims abstract description 45
- 238000001514 detection method Methods 0.000 claims description 25
- 230000008569 process Effects 0.000 claims description 21
- 230000000007 visual effect Effects 0.000 claims description 18
- 238000006073 displacement reaction Methods 0.000 claims description 17
- 238000003672 processing method Methods 0.000 claims description 4
- 230000000694 effects Effects 0.000 abstract description 30
- 230000006835 compression Effects 0.000 abstract description 17
- 238000007906 compression Methods 0.000 abstract description 17
- 238000005070 sampling Methods 0.000 description 17
- 230000001133 acceleration Effects 0.000 description 15
- 230000010354 integration Effects 0.000 description 13
- 238000011946 reduction process Methods 0.000 description 10
- 238000003860 storage Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 210000001525 retina Anatomy 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 5
- 239000004973 liquid crystal related substance Substances 0.000 description 5
- 230000002123 temporal effect Effects 0.000 description 5
- 241000282414 Homo sapiens Species 0.000 description 4
- 239000002131 composite material Substances 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000001747 exhibiting effect Effects 0.000 description 2
- 230000004438 eyesight Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000006386 memory function Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000001953 sensory effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000023077 detection of light stimulus Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Images
Abstract
【課題】
画像処理装置のディスプレイ解像度以上の解像度の画像を表示する。
【解決手段】
画像を入力して入力画像2を生成する画像入力手段と、画像処理装置の筐体の位置ずれを検知して、その方向と量を表わす位置ずれベクトルを生成する位置ずれ検知手段4と、位置ずれベクトルに従って、入力画像を空間的に間引いた間引き表示画像を所定のフレームレートで生成する間引き手段7と、間引き表示画像を表示する画像処理手段10とを有し、画像処理装置の筐体の動きを検出し、この動きと圧縮率、縮小率に応じて画像を間引き表示することにより、超解像効果の画像を表示する。
【選択図】図4
画像処理装置のディスプレイ解像度以上の解像度の画像を表示する。
【解決手段】
画像を入力して入力画像2を生成する画像入力手段と、画像処理装置の筐体の位置ずれを検知して、その方向と量を表わす位置ずれベクトルを生成する位置ずれ検知手段4と、位置ずれベクトルに従って、入力画像を空間的に間引いた間引き表示画像を所定のフレームレートで生成する間引き手段7と、間引き表示画像を表示する画像処理手段10とを有し、画像処理装置の筐体の動きを検出し、この動きと圧縮率、縮小率に応じて画像を間引き表示することにより、超解像効果の画像を表示する。
【選択図】図4
Description
本発明は、画像処理装置、その方法そのプログラムおよび記録媒体に関し、特に、知覚的な画像の画素数を向上させる効果を与えることにより、例えば携帯機器などの、表示装置の解像度が不十分で、かつ、表示装置の位置が安定しない機器に対して、表示されている被写体の位置を安定させると同時に、より高い解像度の表示を実現する画像処理装置および画像処理方法に関する。
近年、PDA(Personal Digital Assistance)携帯情報端末)や携帯電話、携帯ゲームなどのモバイル機器の性能向上が著しく、映像や画像、音声などのいわゆるマルチメディアを扱うことができる機器が増えてきている。また、モバイル機器の周辺デバイスの機能向上も著しく、ディスプレイとして主に用いられる液晶の輝度や解像度なども向上の一途をたどっている。
しかしモバイル機器はその使用目的のため必然的にサイズの制約があり、ディスプレイのサイズ向上には限界がある。そのためディスプレイを高精細化する技術開発が行われてきている。更に、ディスプレイの解像度以上の解像度を実現するために、液晶表示素子を複数使い、ハーフミラーなどを使って光学的に位置をずらして合成する方法が特許文献1に開示されている。また、液晶表示素子からの光の光軸を光学的に振動させるウォブリングと呼ばれる画素ずらし操作を行う方法が特許文献2に開示されている。
しかしモバイル機器はその使用目的のため必然的にサイズの制約があり、ディスプレイのサイズ向上には限界がある。そのためディスプレイを高精細化する技術開発が行われてきている。更に、ディスプレイの解像度以上の解像度を実現するために、液晶表示素子を複数使い、ハーフミラーなどを使って光学的に位置をずらして合成する方法が特許文献1に開示されている。また、液晶表示素子からの光の光軸を光学的に振動させるウォブリングと呼ばれる画素ずらし操作を行う方法が特許文献2に開示されている。
一方、モバイル機器は手に持ったり、車中などの揺れのある場所で使用したりすることが多く、ディスプレイが揺れて表示が見にくくなることが多い。そこで機器の動きをセンシングし、画像のディスプレイ上の位置を、振動を打ち消すように変えることで、あたかも手振れがないかのように表示することで画像を見易くする技術が特許文献3に開示されている。この特許文献3によれば、例えば角速度センサによって筐体の振動や変位を検知し、その情報に応じて表示時の投影光の光路を変えることで、振動を打ち消す表示を実現することができる。
また、特許文献4には、表示装置と観察者の目との相対的な位置関係を認識し、相対位置がずれないように画像の表示位置を変えることにより、画像を見やすくする技術が開示されている。
また、特許文献4には、表示装置と観察者の目との相対的な位置関係を認識し、相対位置がずれないように画像の表示位置を変えることにより、画像を見やすくする技術が開示されている。
特許文献1,2に開示されている方法では、2枚の液晶の高精度な位置合わせやプリズムによる光学的合成装置、あるいは、液晶を振動させる装置などが必要であり、装置全体が大型化かつ衝撃に対して脆弱になり、また高価になるので、モバイル機器に向かないという問題があった。
また、特許文献3,4に開示の技術では、画像を見易くすることができるものの、表示画素の少なさを補うものではないため、表示画素数の少ないディスプレイでの画像やテキストの解像度を改善することはできなかった。
本発明はかかる状況に鑑みて成されたものであり、機器の動きに応じて表示する画像を変化させることで、携帯機器など表示装置の解像度が不十分で、かつ、表示装置の位置が安定しない場合にも、その位置を安定させると同時に、より高い解像度の表示を実現するものである。
また、特許文献3,4に開示の技術では、画像を見易くすることができるものの、表示画素の少なさを補うものではないため、表示画素数の少ないディスプレイでの画像やテキストの解像度を改善することはできなかった。
本発明はかかる状況に鑑みて成されたものであり、機器の動きに応じて表示する画像を変化させることで、携帯機器など表示装置の解像度が不十分で、かつ、表示装置の位置が安定しない場合にも、その位置を安定させると同時に、より高い解像度の表示を実現するものである。
上記目的を達成するために、本発明における第1の観点の画像処理装置は、画像を入力して入力画像を生成する画像入力手段と、画像処理装置の筐体の位置ずれを検知して、その方向と量を表わす位置ずれベクトルを生成する位置ずれ検知手段と、前記位置ずれベクトルに従って、前記入力画像を空間的に間引いた間引き表示画像を所定のフレームレートで生成する間引き手段と、前記間引き表示画像を表示する画像処理手段とを有する。
また、本発明における第2の観点は、画像を入力して入力画像を生成する画像入力手段と、画像処理装置の筐体の位置ずれを検知して、その方向と量を表わす位置ずれベクトルを生成する位置ずれ検知手段と、画像処理装置の筐体の動きを検知して、その方向と速さを表わす動きベクトルを生成する動き検知手段と、前記入力画像を複数の入力画像領域に分割し、前記入力画像領域ごとに、入力画像動きベクトルを求める画像動き検知手段と、前記動きベクトルと前記入力画像動きベクトルに基づき、縮小率と、間引き量とを生成する重み生成手段と、前記縮小率に従って、前記入力画像を空間的に縮小した縮小画像を所定のフレームレートで生成する縮小手段と、前記位置ずれベクトルと前記間引き量に従って、前記縮小画像を空間的に間引いた間引き画像を所定のフレームレートで生成する間引き手段と、前記間引き画像を表示する画像処理手段と有する。
本発明の第3の観点は、画像処理装置の筐体の手振れによる動きを検出し、その動きに応じて画像を間引く画像処理方法であって、画像を入力して入力画像を生成する第1のステップと、前記画像処理装置の筐体の位置ずれを検知して、その方向と量を表わす位置ずれベクトルを生成する第2のステップと、前記画像処理装置の筐体の動きを検知して、その方向と速さを表わす動きベクトルを生成する第3のステップと、前記入力画像を複数の入力画像領域に分割し、前記入力画像領域ごとに、入力画像動きベクトルを求める第4のステップと、前記動きベクトルと前記入力画像動きベクトルに基づき、縮小率と、間引き量とを生成する第5のステップと、前記縮小率に従って、前記入力画像を空間的に縮小した縮小画像を所定のフレームレートで生成する第6のステップと、前記位置ずれベクトルと前記間引き量に従って、前記縮小画像を空間的に間引いた間引き画像を所定のフレームレートで生成する第7のステップと、前記間引き画像を表示する第8のステップと、を有する。
本発明の第4の観点は、画像処理装置の筐体の手振れによる動きを検出し、その動きに応じて画像を間引く画像処理装置が実行するプログラムであって、画像を入力して入力画像を生成する第1の手順と、前記画像処理装置の筐体の位置ずれを検知して、その方向と量を表わす位置ずれベクトルを生成する第2の手順と、前記画像処理装置の筐体の動きを検知して、その方向と速さを表わす動きベクトルを生成する第3の手順と、前記入力画像を複数の入力画像領域に分割し、前記入力画像領域ごとに、入力画像動きベクトルを求める第4の手順と、前記動きベクトルと前記入力画像動きベクトルに基づき、縮小率と、間引き量とを生成する第5の手順と、前記縮小率に従って、前記入力画像を空間的に縮小した縮小画像を所定のフレームレートで生成する第6の手順と、前記位置ずれベクトルと前記間引き量に従って、前記縮小画像を空間的に間引いた間引き画像を所定のフレームレートで生成する第7の手順と、前記間引き画像を表示する第8の手順と、を有する。
本発明の第5の観点は、画像処理装置の筐体の手振れによる動きを検出し、その動きに応じて画像を間引く画像処理装置が実行するプログラムを記録する記録媒体であって、前記プログラムは、画像を入力して入力画像を生成する第1の手順と、前記画像処理装置の筐体の位置ずれを検知して、その方向と量を表わす位置ずれベクトルを生成する第2の手順と、前記画像処理装置の筐体の動きを検知して、その方向と速さを表わす動きベクトルを生成する第3の手順と、前記入力画像を複数の入力画像領域に分割し、前記入力画像領域ごとに、入力画像動きベクトルを求める第4の手順と、前記動きベクトルと前記入力画像動きベクトルに基づき、縮小率と、間引き量とを生成する第5の手順と、前記縮小率に従って、前記入力画像を空間的に縮小した縮小画像を所定のフレームレートで生成する第6の手順と、前記位置ずれベクトルと前記間引き量に従って、前記縮小画像を空間的に間引いた間引き画像を所定のフレームレートで生成する第7の手順と、前記間引き画像を表示する第8の手順と、を有する。
また、本発明における第2の観点は、画像を入力して入力画像を生成する画像入力手段と、画像処理装置の筐体の位置ずれを検知して、その方向と量を表わす位置ずれベクトルを生成する位置ずれ検知手段と、画像処理装置の筐体の動きを検知して、その方向と速さを表わす動きベクトルを生成する動き検知手段と、前記入力画像を複数の入力画像領域に分割し、前記入力画像領域ごとに、入力画像動きベクトルを求める画像動き検知手段と、前記動きベクトルと前記入力画像動きベクトルに基づき、縮小率と、間引き量とを生成する重み生成手段と、前記縮小率に従って、前記入力画像を空間的に縮小した縮小画像を所定のフレームレートで生成する縮小手段と、前記位置ずれベクトルと前記間引き量に従って、前記縮小画像を空間的に間引いた間引き画像を所定のフレームレートで生成する間引き手段と、前記間引き画像を表示する画像処理手段と有する。
本発明の第3の観点は、画像処理装置の筐体の手振れによる動きを検出し、その動きに応じて画像を間引く画像処理方法であって、画像を入力して入力画像を生成する第1のステップと、前記画像処理装置の筐体の位置ずれを検知して、その方向と量を表わす位置ずれベクトルを生成する第2のステップと、前記画像処理装置の筐体の動きを検知して、その方向と速さを表わす動きベクトルを生成する第3のステップと、前記入力画像を複数の入力画像領域に分割し、前記入力画像領域ごとに、入力画像動きベクトルを求める第4のステップと、前記動きベクトルと前記入力画像動きベクトルに基づき、縮小率と、間引き量とを生成する第5のステップと、前記縮小率に従って、前記入力画像を空間的に縮小した縮小画像を所定のフレームレートで生成する第6のステップと、前記位置ずれベクトルと前記間引き量に従って、前記縮小画像を空間的に間引いた間引き画像を所定のフレームレートで生成する第7のステップと、前記間引き画像を表示する第8のステップと、を有する。
本発明の第4の観点は、画像処理装置の筐体の手振れによる動きを検出し、その動きに応じて画像を間引く画像処理装置が実行するプログラムであって、画像を入力して入力画像を生成する第1の手順と、前記画像処理装置の筐体の位置ずれを検知して、その方向と量を表わす位置ずれベクトルを生成する第2の手順と、前記画像処理装置の筐体の動きを検知して、その方向と速さを表わす動きベクトルを生成する第3の手順と、前記入力画像を複数の入力画像領域に分割し、前記入力画像領域ごとに、入力画像動きベクトルを求める第4の手順と、前記動きベクトルと前記入力画像動きベクトルに基づき、縮小率と、間引き量とを生成する第5の手順と、前記縮小率に従って、前記入力画像を空間的に縮小した縮小画像を所定のフレームレートで生成する第6の手順と、前記位置ずれベクトルと前記間引き量に従って、前記縮小画像を空間的に間引いた間引き画像を所定のフレームレートで生成する第7の手順と、前記間引き画像を表示する第8の手順と、を有する。
本発明の第5の観点は、画像処理装置の筐体の手振れによる動きを検出し、その動きに応じて画像を間引く画像処理装置が実行するプログラムを記録する記録媒体であって、前記プログラムは、画像を入力して入力画像を生成する第1の手順と、前記画像処理装置の筐体の位置ずれを検知して、その方向と量を表わす位置ずれベクトルを生成する第2の手順と、前記画像処理装置の筐体の動きを検知して、その方向と速さを表わす動きベクトルを生成する第3の手順と、前記入力画像を複数の入力画像領域に分割し、前記入力画像領域ごとに、入力画像動きベクトルを求める第4の手順と、前記動きベクトルと前記入力画像動きベクトルに基づき、縮小率と、間引き量とを生成する第5の手順と、前記縮小率に従って、前記入力画像を空間的に縮小した縮小画像を所定のフレームレートで生成する第6の手順と、前記位置ずれベクトルと前記間引き量に従って、前記縮小画像を空間的に間引いた間引き画像を所定のフレームレートで生成する第7の手順と、前記間引き画像を表示する第8の手順と、を有する。
たとえば、モバイル機器に加速度センサを配置して、手振れにより注視点と表示装置との間に生じる相対速度を検出して、それに応じて間引き処理を掛けた画像を表示させることで、ディスプレイの解像度以上の高解像度表示を実現することができる。
同時に、特許文献3や特許文献4に開示されているように、人間や地面とディスプレイの相対位置関係を求め、それに応じて画面上の被写体の表示位置を動かして表示することにより、手振れの影響を受けない表示も実現できるため、より高解像度化の効果が高い。
手振れの動きに応じて画像を動かすため、動きのない静止画やテキストであっても高解像度表示を実現することができる。
また、目の積分効果による超解像効果を利用しているので、高解像画像を蓄積しておく記憶装置を必要とすることなく、高解像度化を実現することができる。
超解像効果による知覚的な解像度向上効果により、ゲームや携帯電話といったモバイル機器のように表示画面が小さく解像度が低い場合でも、手振れによる視認のしにくさを防ぎ、機器の持つ表示解像度の能力を十分に発揮させるのみならず、機器が表示可能な解像度より高精細な画像を表示できる。また、超解像効果が発生しない部分には選択的にエイリアシングが発生しないように表示することで、自然な画像を提供できる。
同時に、特許文献3や特許文献4に開示されているように、人間や地面とディスプレイの相対位置関係を求め、それに応じて画面上の被写体の表示位置を動かして表示することにより、手振れの影響を受けない表示も実現できるため、より高解像度化の効果が高い。
手振れの動きに応じて画像を動かすため、動きのない静止画やテキストであっても高解像度表示を実現することができる。
また、目の積分効果による超解像効果を利用しているので、高解像画像を蓄積しておく記憶装置を必要とすることなく、高解像度化を実現することができる。
超解像効果による知覚的な解像度向上効果により、ゲームや携帯電話といったモバイル機器のように表示画面が小さく解像度が低い場合でも、手振れによる視認のしにくさを防ぎ、機器の持つ表示解像度の能力を十分に発揮させるのみならず、機器が表示可能な解像度より高精細な画像を表示できる。また、超解像効果が発生しない部分には選択的にエイリアシングが発生しないように表示することで、自然な画像を提供できる。
<本実施形態における視覚特性および超解像度効果>
先ず、本実施形態における視覚特性および超解像度効果について説明する。
先ず、本実施形態における視覚特性および超解像度効果について説明する。
人の視覚は、受けた光の刺激の総和がある閾値になったとき光を知覚するという機能(以下、時間的積分機能と称する)を有している。すなわち光の知覚は、呈示時間内の光の刺激の分布状態に関係なく、時間的に積分された光の総和に従う。また光を知覚できる刺激(閾値)は、刺激の呈示時間が長くなるにつれて小さくなり、呈示時間が短くなるに従って大きくなる。
この関係は、ブロックの法則(Bloch's law)として知られ、以下の式が成り立つ。式中、Iは閾値としての刺激の強度であり、Tは刺激の呈示時間であり、kは定数である。
I×T=k
I×T=k
また、この関係は、横軸を刺激呈示時間Tとし、縦軸を閾値(強度I)とすると、図1に示すように表すことができる。この曲線は、閾値呈示時間曲線として知られている。図1の閾値呈示時間曲線によれば、強度Iaの光がインパルス的に時間Taの間呈示された場合と、Iaの1/nの強度Ibの光がTaのn倍の時間Tbだけ連続して呈示された場合とでは、人は、同じ明るさを感じることになる。
なお、刺激の呈示時間のある時間(図1の例では時間TL)までは、ブロックの法則が成り立つが(時間TLまでは右下がりの直線になるが)、時間TLを越えると閾値が刺激の強度のみに依存するようになる(呈示時間によって変化しなくなり、その結果閾値呈示時間曲線は折れ線のような特性を示す)。ブロックの法則が成り立つ最大の刺激呈示時間TLは、臨界呈示時間と呼ばれている。この時間TLは、背景光の強度などの刺激呈示条件によって変化するが、およそ25ms〜100msであるという報告がある。
ブロックの法則の詳細については、例えば、"視覚情報処理ハンドブック,日本視覚学会編,pp.219-220"などに記載されている。
人の視覚はまた、刺激を知覚すると、その刺激を、その刺激の呈示が終了した後もある時間記憶するという機能(以下、感覚記憶機能と称する)を有している。この時間については、10ms〜200msであるという報告が多数されている。この機能は、アイコニックメモリーとか視覚的持続などとも呼ばれ、例えば、"視覚情報ハンドブック,日本視覚学界編,pp.229-230"などに記載されている。
次に、視覚特性に基づいて実現される解像度効果について説明する。なお本実施形態における超解像度効果は、観測者が、ある時間内に複数の画像が加算されたものを知覚するという視覚特性を利用している。これは上記の時間的積分機能および感覚記憶機能が複雑に関係して引き起こされていると考えられるが、以下の説明においては、これを便宜上、時間的積分機能によるものとする。
例えば、水平方向に平行移動する被写体を、所定のフレームレート(以下、入力画像フレームレートと称する)および所定のサンプリングレート(以下、入力画像サンプリングレートと称する)で撮影すると、図2(A)に示すような、被写体像Waが、速度v(ピクセル/フレーム)で、図面に向かって右方向(X軸方向)に移動する入力フレームFaが得られる。図2(A)には、連続する4枚の入力フレームFa1〜Fa4が図示されている。
このように得られた入力フレームFaを、X軸方向(被写体像Waの移動方向)に、入力画像サンプリングレートの、1/mのサンプリングレート(以下、表示画像サンプリングレートと称する)でサンプリングするものとする(間引き量mで間引きするものとする)。図2(A)の場合、入力フレームFaが間引き量4で間引きされているので、図2(B)に示すような、X軸方向の画素数が1/4になった(X軸方向に粗くなった)(画質が劣化した)表示フレームFbが得られる。表示フレームFbには、入力フレームFaの被写体像Waが間引き量4で間引きされた画像(以下、表示被写体像Wbと称する)が含まれている。
そしてこのように得られた表示フレームFbを、所定のフレームレート(以下、表示画像フレームレート)で表示するものとする。その結果観測者は、上述した時間的積分機能における積分時間内に表示された複数の表示フレームFbの積分画像を知覚する。
ここで観測者の視線は、このように表示された表示フレームFb上の表示被写体像Wbを追従しているものとする。この場合観測者の視点は、常に表示被写体像Wbの中心に位置するので、観測者の網膜上の表示被写体像Wbはほぼ静止している。図2(B)に示す座標軸Vx,Vyは、網膜上の座標を示し、座標軸X,Yは、フレーム上の座標を示している(ともに、図中表示フレームFb1上に示されているが、表示フレームFb2〜Fb4についてはその図示は省略されている)。座標軸Vx,Vyは、網膜には実像の反転像が結像するため、座標系の向きは座標軸X,Yと逆になっている。
また、表示フレームFbのサンプリングは、図3中の点線で示されているように、フレーム上一定の位置(この例の場合、4画素間隔の位置)がサンプルされる。したがって、移動量がサンプリング間隔の倍数と一致しない場合、サンプリングされる被写体像Waの位置は、フレーム毎にvずつずれるので、表示フレームFbの各表示被写体像Wbは、被写体像Waの、サンプリング位置のずれ分だけ異なる部分で形成される。
例えば、被写体像Waの移動速度vが、1(ピクセル/フレーム)である場合、フレーム間の移動量(1ピクセル)がサンプリング間隔(4ピクセル)の倍数と一致せず、サンプリングされる被写体像Waの位置が、1画素ずつX軸方向にずれる。したがってこの場合、表示フレームFbの各表示被写体像Wbは、被写体像Waの、その分だけ異なる部分から形成される。
このように表示被写体像Wbが、被写体像Waの、サンプリング位置のずれ分だけ異なる部分から形成されている場合、その表示被写体像Wbが視覚系で複数フレームにわたって積分されることにより、表示被写体像Wbより画素が密になった画像(表示被写体像Wbの解像度より高解像度(以下、超解像度と称する)の画像)が知覚される。
例えば、視覚特性における積分時間が、図2(B)における4枚分の表示フレームFbの表示時間に相当し、表示フレームFa1〜Fa4の4個の表示被写体像Wbが積分される場合、図2(C)に示すような、表示被写体像Wbの解像度の約4倍、すなわち被写体像Waと同程度の解像度の画像が知覚される。
超解像度効果はこの原理によって実現されるが、間引き処理を施すと折り返し成分が発生し、それが折り返し歪みとなり画質が劣化する。この画質の劣化についてはその折り返し成分を取り除く工夫がなされている。
上述したように、視覚には、表示される被写体がある速度で表示画面上を移動し、それを追従視した時に、一定時間内に網膜に入射した光を積分したものが知覚されるという特性がある。この視覚特性の時間的積分効果を利用し、画像に空間的間引き処理を行うことで、表示された画像の解像度を超える解像度で、観測者が画像を知覚することができる(この効果を超解像度効果と称する)。
超解像効果を利用することにより、間引かれた結果の画像がディスプレイの解像度と同じ解像度を持つように、元画像の解像度を設定することにより、観察者はディスプレイの解像度以上の画像を知覚することができる。
ところで、入力画像上の被写体に動きがある場合、観察者はその被写体を追従視する。そのとき、表示装置の手振れの速度と、表示画像上の被写体の速度の差によって、超解像条件を満たさなくなる場合がある。
例えば、表示装置の手振れの速度と、表示画像上の被写体の速度が一致した場合、被写体はディスプレイ上の同じ位置に表示されることとなるため、超解像効果は起こらない。
超解像効果の起こらない部分に対して、間引き処理を書けた画像を表示すると、エイリアシングによるジャギー、モアレパターンの発生や、模様の消失などの現象が起こる恐れがある。そのため、その部分には間引き画像ではなく、縮小画像を表示することが望ましい。
そのため、できる限り超解像効果が発生するようにしながら、かつ高周波成分を残したままにするために、必要に応じて縮小処理と間引き処理を併用する。
選択画像生成手段は、装置の動きベクトルと、入力画像内の領域ごとの入力画像動きベクトルから、上記超解像条件を満たす領域については間引き表示画像の画素値を選択画像の画素に代入し、満たさない領域については、縮小表示画像の画素値を選択画像の画素に代入する。これにより、超解像が発生する領域では、高い知覚的な解像度が得られ、発生しない領域ではエイリアシングのない画像を得ることができるようになる。
超解像効果を利用することにより、間引かれた結果の画像がディスプレイの解像度と同じ解像度を持つように、元画像の解像度を設定することにより、観察者はディスプレイの解像度以上の画像を知覚することができる。
ところで、入力画像上の被写体に動きがある場合、観察者はその被写体を追従視する。そのとき、表示装置の手振れの速度と、表示画像上の被写体の速度の差によって、超解像条件を満たさなくなる場合がある。
例えば、表示装置の手振れの速度と、表示画像上の被写体の速度が一致した場合、被写体はディスプレイ上の同じ位置に表示されることとなるため、超解像効果は起こらない。
超解像効果の起こらない部分に対して、間引き処理を書けた画像を表示すると、エイリアシングによるジャギー、モアレパターンの発生や、模様の消失などの現象が起こる恐れがある。そのため、その部分には間引き画像ではなく、縮小画像を表示することが望ましい。
そのため、できる限り超解像効果が発生するようにしながら、かつ高周波成分を残したままにするために、必要に応じて縮小処理と間引き処理を併用する。
選択画像生成手段は、装置の動きベクトルと、入力画像内の領域ごとの入力画像動きベクトルから、上記超解像条件を満たす領域については間引き表示画像の画素値を選択画像の画素に代入し、満たさない領域については、縮小表示画像の画素値を選択画像の画素に代入する。これにより、超解像が発生する領域では、高い知覚的な解像度が得られ、発生しない領域ではエイリアシングのない画像を得ることができるようになる。
以下、図面を参照しながら本発明の実施の形態について説明する。
図4に本発明の実施形態例の画像処理表示(装置)1のシステムを示す。
<システム図の説明>
図4に示した、本発明の一実施例である画像処理装置1は、画像記憶部3と動き検知部4と間引き画像生成部7と縮小画像生成部8と重み生成部9と表示部10と加速度センサ11と角速度センサ12と画像動き検知部13から構成される。
図4に本発明の実施形態例の画像処理表示(装置)1のシステムを示す。
<システム図の説明>
図4に示した、本発明の一実施例である画像処理装置1は、画像記憶部3と動き検知部4と間引き画像生成部7と縮小画像生成部8と重み生成部9と表示部10と加速度センサ11と角速度センサ12と画像動き検知部13から構成される。
入力画像2が入力されると、画像記憶部3に入力画像2が記憶される。
加速度センサ11と角速度センサ12が画像処理装置1を有する筐体の動きを検知し、加速度センサ11から加速度ベクトル15が、角速度センサ12から角速度14がそれぞれ動き検知部4に送られる。
画像動き検知部13は、画像記憶部3に格納された入力画像2を一定の領域に分割し、分割された領域ごとの(入力)画像2の動きを検出し、入力画像動きベクトル14を生成し、重み生成部9に送る。
動き検知部4は、加速度ベクトル13と角速度14から、動きベクトル5と位置ずれベクトル6を計算し、動きベクトル5を重み生成部9に送ると共に、位置ずれベクトル6を間引き画像生成部7に送る。
重み生成部9は、圧縮率19と動きベクトル5と入力画像動きベクトル21に基づき、領域ごとに超解像条件を満たすかどうかを判断し、超解像条件を満たす最大限の間引き量を与えるように間引き量18を生成して間引き画像生成部7に送り、さらに必要な縮小を行うための縮小率17が縮小画像生成部8に送る。
縮小画像生成部8は、圧縮率19と縮小率17に基づき、画像記憶部3に記憶された入力画像2を処理して縮小画像16を生成し、間引き画像生成部7に送る。
間引き画像生成部7は、圧縮率19と位置ずれベクトル6の情報と、間引き量18に基づき、縮小画像16を処理して間引き画像20を生成し、表示部10に送る。
そして、表示部10は、間引き画像20を表示する。
加速度センサ11と角速度センサ12が画像処理装置1を有する筐体の動きを検知し、加速度センサ11から加速度ベクトル15が、角速度センサ12から角速度14がそれぞれ動き検知部4に送られる。
画像動き検知部13は、画像記憶部3に格納された入力画像2を一定の領域に分割し、分割された領域ごとの(入力)画像2の動きを検出し、入力画像動きベクトル14を生成し、重み生成部9に送る。
動き検知部4は、加速度ベクトル13と角速度14から、動きベクトル5と位置ずれベクトル6を計算し、動きベクトル5を重み生成部9に送ると共に、位置ずれベクトル6を間引き画像生成部7に送る。
重み生成部9は、圧縮率19と動きベクトル5と入力画像動きベクトル21に基づき、領域ごとに超解像条件を満たすかどうかを判断し、超解像条件を満たす最大限の間引き量を与えるように間引き量18を生成して間引き画像生成部7に送り、さらに必要な縮小を行うための縮小率17が縮小画像生成部8に送る。
縮小画像生成部8は、圧縮率19と縮小率17に基づき、画像記憶部3に記憶された入力画像2を処理して縮小画像16を生成し、間引き画像生成部7に送る。
間引き画像生成部7は、圧縮率19と位置ずれベクトル6の情報と、間引き量18に基づき、縮小画像16を処理して間引き画像20を生成し、表示部10に送る。
そして、表示部10は、間引き画像20を表示する。
次に、図4に示した画像処理装置1を構成するそれぞれのブロックの動作を説明する。
<画像動き検知部13の説明>
画像動き検知部13は、画像記憶部3に記憶された入力画像2から、領域ごとに入力画像動きベクトル21を生成する。画像から動きベクトルを計算するアルゴリズムとして、ブロックマッチング法や勾配法などの一般に良く知られているアルゴリズムを使用することができる。
<画像動き検知部13の説明>
画像動き検知部13は、画像記憶部3に記憶された入力画像2から、領域ごとに入力画像動きベクトル21を生成する。画像から動きベクトルを計算するアルゴリズムとして、ブロックマッチング法や勾配法などの一般に良く知られているアルゴリズムを使用することができる。
<動き検知部4の説明>
本発明の実施形態である動き検知部4に実装されるアルゴリズムの一例について説明する。筺体が手振れなどにより変位すると、動き検知部4には加速度センサ11から加速度ベクトル15が、角速度センサ12から角速度14がそれぞれ送られてくる。
図5に画像処理装置の筐体が回転と並進運動を行った時の動作を説明するための座標図を示す。
観察者の属するグローバル座標系をΣ'、画像処理装置1上のローカル座標系をΣとする。グローバル座標系上の点X'=(x',y')とローカル座標系上の点X=(x、y)との関係について述べる。
グローバル座標系とローカル座標系は相似変換の関係にあるので、
本発明の実施形態である動き検知部4に実装されるアルゴリズムの一例について説明する。筺体が手振れなどにより変位すると、動き検知部4には加速度センサ11から加速度ベクトル15が、角速度センサ12から角速度14がそれぞれ送られてくる。
図5に画像処理装置の筐体が回転と並進運動を行った時の動作を説明するための座標図を示す。
観察者の属するグローバル座標系をΣ'、画像処理装置1上のローカル座標系をΣとする。グローバル座標系上の点X'=(x',y')とローカル座標系上の点X=(x、y)との関係について述べる。
グローバル座標系とローカル座標系は相似変換の関係にあるので、
[数1]
x〜=(x1,x2,x3)T〜(x,y,1)
なる同次座標x〜と、ローカル座標系上の点x〜と、時刻tにおけるグローバル座標系上の点x't 〜との関係は、
x〜=(x1,x2,x3)T〜(x,y,1)
なる同次座標x〜と、ローカル座標系上の点x〜と、時刻tにおけるグローバル座標系上の点x't 〜との関係は、
さらに、時刻tにおける角速度をωt、加速度ベクトルをatとし、初期角度をθ0、初期位置ベクトルをT0、初期角速度をω0、初期速度ベクトルをV0とすると、θtとTtは、
となる。
式(1.1)、(1.2)、(1.3)から、時刻tにおけるローカル座標系の任意の位置xと、グローバル座標系の任意の位置x'の関係が求まる。
このように、動き検知部4は、加速度ベクトル13と角速度14から、角速度を含む動きベクトル5(Vtx,VtY,ωt)と、回転情報を含む位置ずれベクトル6(Vtx,VtY,θt)を生成することができる。
なお、ここでは動き検知部4は加速度センサ11と角速度センサ12の出力を使って動きベクトル5と位置ずれベクトル6を計算しているが、それ以外の手段で動きベクトル5および位置ずれベクトル6を検出しても良く、例えばカメラによって外部と画像処理装置との位置関係を把握して位置および回転角のずれを検知する装置のようなものを使って計算することも可能である。
<重み生成部9ノアルゴリズム説明>
本発明の実施形態例である重み生成部9のアルゴリズムについて説明する。
図6に手振れを起こしたときのベクトルの変化の図を示す。
手振れを起こしても、表示される画像の位置が観察者から見て不変になるような処を考える。つまり、グローバル座標系上のある一点の画素値が変わらないようにする。よって、式(1.1)を書換えて、
本発明の実施形態例である重み生成部9のアルゴリズムについて説明する。
図6に手振れを起こしたときのベクトルの変化の図を示す。
手振れを起こしても、表示される画像の位置が観察者から見て不変になるような処を考える。つまり、グローバル座標系上のある一点の画素値が変わらないようにする。よって、式(1.1)を書換えて、
である。これにより、時刻tにおいて、表示されるべき画素の位置を求めることができる。
今まで説明してきたように、動きベクトル5と入力画像動きベクトル21を合成した値が超解像条件を満たす場合、超解像効果により、表示部10の解像度以上の解像度を知覚することができるが、条件を満たさない場合、間引き処理を行った結果を表示すると、エイリアシングが発生する。その場合には間引き処理ではなく、縮小処理を行うことにより、エイリアシングのない高品質な画像を表示できる。
また、間引き処理と縮小処理はどちらかを選択するものではなく、超解像の発生条件を満たすように重み付けされて処理が行われるべきものである。
上述した超解像の発生条件は、以下の式で与えられる。
つまり、サンプリング点のずれ量φは、速度をv(pixel/frame)と間引き量をm(pixel)とすると、
つまり、サンプリング点のずれ量φは、速度をv(pixel/frame)と間引き量をm(pixel)とすると、
[数7]
φt=(v/m)×(t/T) ・・・(1.6)
ここで、Tは時間間隔であり、フレームレートの逆数である。また、間引き量mはスケールファクターと同じである。このとき、
φt=(v/m)×(t/T) ・・・(1.6)
ここで、Tは時間間隔であり、フレームレートの逆数である。また、間引き量mはスケールファクターと同じである。このとき、
重み生成部9は、超解像の発生条件を満たす場合には間引き処理の結果を選択し、満たさない場合には縮小処理の結果を選択するように重み付けする。
式(1.5)、(1.6)、(1.8)、(1.9)より、Xt 〜の速度から、超解像条件を満たす間引き量を求めることができる。この間引き量を一定領域毎に決定するものとする。
あるローカル座標系上の画素Xt 〜の属する領域Rの、時刻tにおける入力画像動きベクトル21がVRtだったとすると、Xt 〜のローカル座標系上での速度は、式(1.5)とVRtより、次のように表せられる。
この速度をvt 〜=(vtx,vty,1)とすると、式(1.6)のv=vtx,v=vtyとしたときに式(1.7)が成立した時は、それぞれx方向、y方向に対して間引きを行い、成立しない時は間引きを行わないようにする。
ところで、式(1.8)、(1.9)は、Blochの法則によって、人間が時間的に分別不可能な視覚系の積分時間内で成立しなければならず、それより長い時間になると、フリッカとして認知されてしまう。この条件の成立は、積分時間に依存するが、この積分時間は、観察環境によって変化することが知られている上に、それを正確に計測することが困難なため、この条件を満たす範囲を限定することは難しい。
間引き量mの最大値は、上記の積分時間によって制約される。間引き量mは圧縮率19からも制約され、圧縮率19をRとすると、R=1/mとなるが、圧縮率19が大きい場合、これらの条件が両立しない場合がある。そこで、間引き画像生成部7の前に縮小画像生成部8を設け、間引き量mの制約を補完するために縮小画像を生成することにより、式(1.8)、(1.9)を満たすようにする。
縮小画像生成部8に与えられる縮小率17をrとすると、間引き量mと圧縮率(19)Rとの関係は、
間引き量mの最大値は、上記の積分時間によって制約される。間引き量mは圧縮率19からも制約され、圧縮率19をRとすると、R=1/mとなるが、圧縮率19が大きい場合、これらの条件が両立しない場合がある。そこで、間引き画像生成部7の前に縮小画像生成部8を設け、間引き量mの制約を補完するために縮小画像を生成することにより、式(1.8)、(1.9)を満たすようにする。
縮小画像生成部8に与えられる縮小率17をrとすると、間引き量mと圧縮率(19)Rとの関係は、
[数11]
m=r/R ・・・(1.11)
となる。
これにより、間引き量mは、式(1.8)、(1.9)を満たし、積分時間の制約条件を満たす値として決定することができ、縮小率(17)rは式(1.11)から求められる。
m=r/R ・・・(1.11)
となる。
これにより、間引き量mは、式(1.8)、(1.9)を満たし、積分時間の制約条件を満たす値として決定することができ、縮小率(17)rは式(1.11)から求められる。
以下、重み生成部9のある時刻tにおける具体的な処理について説明する。
重み生成部9には、動きベクトル(Vx,Vy,ω)と、入力画像動きベクトル21の二次元配列VR(i,j)=(vRj(i,j),vRj(i,j))と圧縮率(19)Rが入力される。ここで、入力画像動きベクトル21のサイズは入力画像2のサイズを(Nxi,Nyi)とすると、
重み生成部9には、動きベクトル(Vx,Vy,ω)と、入力画像動きベクトル21の二次元配列VR(i,j)=(vRj(i,j),vRj(i,j))と圧縮率(19)Rが入力される。ここで、入力画像動きベクトル21のサイズは入力画像2のサイズを(Nxi,Nyi)とすると、
となる。(i,j)番目の入力画像動きベクトル21は、入力画像2の(iR,jR)〜((i+1)R−1,(j+1)R−1)の範囲に対応する。
式(1.5)の両辺を時間微分すると、x'0 〜は時間で変化しないので、
mmaxは、視覚特性から決まる値であり、m・T≦kを満たす最大のmである。ここで、kはBlochの法則における定数kである。mが求められたら、式(1.11)からrを求める。
上記の処理を、入力画像動きベクトル21のサイズ(Nxd,Nyd)回だけ行い、(Nxd,Nyd)のサイズの配列である縮小率r[Nxd,Nyd]と間引き量m[Nxd,Nyd]を計算する。
以上の処理について、図7−Aと図7−Bのフローチャートを使って説明する。
ステップST301:
たとえば、手振れなどによる画像処理装置の筺体が変位すると、角速度センサ12から出力された角速度14と加速度センサ11から出力された加速度ベクトル15を用いて、動き検知部4で演算され、動きベクトルが求められ、この動きベクトル5をv=(vx,vy,ω)として重み生成部9に入力する。
たとえば、手振れなどによる画像処理装置の筺体が変位すると、角速度センサ12から出力された角速度14と加速度センサ11から出力された加速度ベクトル15を用いて、動き検知部4で演算され、動きベクトルが求められ、この動きベクトル5をv=(vx,vy,ω)として重み生成部9に入力する。
ステップST302:
画像記憶部3から記憶されていた入力画像2が入力され、画像動き検知部13で画像の動きからが画像動きベクトルが演算され、重み生成部9に入力される。この入力された入力画像動きベクトル21を配列VR[Nxd,Nyd]とする。また、圧縮率19を入力し、Rとする。
画像記憶部3から記憶されていた入力画像2が入力され、画像動き検知部13で画像の動きからが画像動きベクトルが演算され、重み生成部9に入力される。この入力された入力画像動きベクトル21を配列VR[Nxd,Nyd]とする。また、圧縮率19を入力し、Rとする。
ステップST304:
次に、既に述べたように、サンプリング点のずれ量とBlochの法則を示す、式(1.6)、(1.8)、(1.9)を満足し、式(1.15)で示される間引き量の最大値mmaxを決定する。
次に、既に述べたように、サンプリング点のずれ量とBlochの法則を示す、式(1.6)、(1.8)、(1.9)を満足し、式(1.15)で示される間引き量の最大値mmaxを決定する。
ステップST305:
次に、縮小率17の結果を格納するための配列rと間引き量のための配列mとをそれぞれ、[Nxd,Nyd],[Nxd,Nyd]のサイズで確保する。
次に、縮小率17の結果を格納するための配列rと間引き量のための配列mとをそれぞれ、[Nxd,Nyd],[Nxd,Nyd]のサイズで確保する。
ステップST306,307:
次にカウンタ(変数)iとjを0に初期化する。
次にカウンタ(変数)iとjを0に初期化する。
ステップST308:
式(1.10)の計算を行い、ブロック毎の速度ベクトルvt 〜を求める。
式(1.10)の計算を行い、ブロック毎の速度ベクトルvt 〜を求める。
ステップST309,310:
その速度ベクトルvt 〜を基に、サンプリング点のずれ量φを式(1.6)を用いて計算し、式(1.8)、(1.9)、(1.15)を満たすx方向の間引き量mx(i,j)を求める。
その速度ベクトルvt 〜を基に、サンプリング点のずれ量φを式(1.6)を用いて計算し、式(1.8)、(1.9)、(1.15)を満たすx方向の間引き量mx(i,j)を求める。
ステップST311,312:
同様に、サンプリング点のずれ量φを式(1.6)を用いて計算し、式(1.8)、(1.9)、(1.15)を満たすy方向の間引き量my(i,j)を求める。
同様に、サンプリング点のずれ量φを式(1.6)を用いて計算し、式(1.8)、(1.9)、(1.15)を満たすy方向の間引き量my(i,j)を求める。
ステップST313:
得られたx方向とy方向の間引き量、mx(i,j),my(i,j)を間引き量の配列m[Nxd,Nyd]に格納する。
得られたx方向とy方向の間引き量、mx(i,j),my(i,j)を間引き量の配列m[Nxd,Nyd]に格納する。
ステップST314:
また縮小率17の配列r[Nxd,Nyd]にも、間引き量mと圧縮率(19)Rの関係を示す、式(1.11)に基づいて結果を格納する。
また縮小率17の配列r[Nxd,Nyd]にも、間引き量mと圧縮率(19)Rの関係を示す、式(1.11)に基づいて結果を格納する。
ステップ315〜318:
上記の処理を、変数iとjを増加し、それぞれNxd,Nydになるまで繰り返し、全てが終わったら終了する。
上記の処理を、変数iとjを増加し、それぞれNxd,Nydになるまで繰り返し、全てが終わったら終了する。
<縮小画像生成部8のアルゴリズム説明>
次に、本発明の実施形態例である縮小画像生成部8のアルゴリズムについて具体的に説明する。
縮小処理と間引き処理の関係を図8に示す。縮小画像生成部8は、縮小率17に従い、ブロック毎に縮小処理を行う。その後、元の領域に対応する縮小画像の領域に縮小した値を入れる(図8−B)。
まず、縮小画像16として入力画像2と同じサイズの領域を確保する。
次に、図8−Aの入力画像2にあるように、圧縮率19を一つのブロックサイズとする。図では圧縮率=4であるので、4×4画素を一つのブロックとして捉える。
ブロックを順にスキャンしていき、縮小率(17)rに従ってブロック内での縮小画像を作成する。例えば、図のr(0,0)では縦横の縮小率が4であるので、4×4のブロック全体から1画素の縮小画素値を作成する。次に、作成した画素値を縮小画像16の対応する全ての画素に書き込む。図8−Bでは、(0,0)〜(3,3)の画素に計算した縮小画素を書き込む。
同様にその右のブロックr(1,0)では、縮小率が(4,1)であるので、水平方向に4画素縮小し、垂直方向には縮小しないで縮小処理を行う。そのため、水平方向には縮小した同じ画素値が書き込まれ、垂直方向には異なる画素値が書き込まれる。
ブロックr(0,1)では、縮小率が(2,2)であるので、水平方向に2画素縮小し、垂直方向2画素縮小する縮小処理を行う。ブロックr(1,1)では、縮小率が(2,1)であるので、水平方向に2画素縮小し、垂直方向には縮小しない縮小処理を行う。それにより、水平方向には縮小した画素値が書き込まれるが、垂直方向には異なる画素値が書き込まれる。
なお、縮小処理のアルゴリズムとしては、nearest-neighbor法、bi-linear法、bi-cubic法など、一般に良く知られているアルゴリズムを使用して良い。
次に、本発明の実施形態例である縮小画像生成部8のアルゴリズムについて具体的に説明する。
縮小処理と間引き処理の関係を図8に示す。縮小画像生成部8は、縮小率17に従い、ブロック毎に縮小処理を行う。その後、元の領域に対応する縮小画像の領域に縮小した値を入れる(図8−B)。
まず、縮小画像16として入力画像2と同じサイズの領域を確保する。
次に、図8−Aの入力画像2にあるように、圧縮率19を一つのブロックサイズとする。図では圧縮率=4であるので、4×4画素を一つのブロックとして捉える。
ブロックを順にスキャンしていき、縮小率(17)rに従ってブロック内での縮小画像を作成する。例えば、図のr(0,0)では縦横の縮小率が4であるので、4×4のブロック全体から1画素の縮小画素値を作成する。次に、作成した画素値を縮小画像16の対応する全ての画素に書き込む。図8−Bでは、(0,0)〜(3,3)の画素に計算した縮小画素を書き込む。
同様にその右のブロックr(1,0)では、縮小率が(4,1)であるので、水平方向に4画素縮小し、垂直方向には縮小しないで縮小処理を行う。そのため、水平方向には縮小した同じ画素値が書き込まれ、垂直方向には異なる画素値が書き込まれる。
ブロックr(0,1)では、縮小率が(2,2)であるので、水平方向に2画素縮小し、垂直方向2画素縮小する縮小処理を行う。ブロックr(1,1)では、縮小率が(2,1)であるので、水平方向に2画素縮小し、垂直方向には縮小しない縮小処理を行う。それにより、水平方向には縮小した画素値が書き込まれるが、垂直方向には異なる画素値が書き込まれる。
なお、縮小処理のアルゴリズムとしては、nearest-neighbor法、bi-linear法、bi-cubic法など、一般に良く知られているアルゴリズムを使用して良い。
以下、縮小画像生成部8の処理についての実施形態例を、図9−Aと図9−Bのフローチャートを用いて説明する。
ステップST401:
まず、重み生成部9から縮小画像生成部8に、縮小率17の配列をr[Nxd,Nyd]として入力する。
まず、重み生成部9から縮小画像生成部8に、縮小率17の配列をr[Nxd,Nyd]として入力する。
ステップST402:
また、画像記憶部3から縮小画像生成部8に入力画像2をI[Nxi,Nyi]として入力する。
また、画像記憶部3から縮小画像生成部8に入力画像2をI[Nxi,Nyi]として入力する。
ステップST403:
また、圧縮率19をRとして縮小画像生成部8に入力する。
また、圧縮率19をRとして縮小画像生成部8に入力する。
ステップST404:
次に、結果となる縮小画像16の領域を[Nxi,Nyi]だけ確保し、それをIγとする。
次に、結果となる縮小画像16の領域を[Nxi,Nyi]だけ確保し、それをIγとする。
ステップST405,406:
カウンタ(変数)i,jをそれぞれ0に初期化する。
カウンタ(変数)i,jをそれぞれ0に初期化する。
ステップST407:
領域(i,j)の縮小率17をそれぞれγx,γyとする。
領域(i,j)の縮小率17をそれぞれγx,γyとする。
ステップST408,409:
次にカウンタ(変数)k,lを0に初期化する。
次にカウンタ(変数)k,lを0に初期化する。
ステップST410:
得られた縮小率17に従い縮小を行う。
(iR,jR)〜(iR+kγx,jR+lγy)の範囲のデータを縮小し、一つの画素値dとする。
得られた縮小率17に従い縮小を行う。
(iR,jR)〜(iR+kγx,jR+lγy)の範囲のデータを縮小し、一つの画素値dとする。
ステップST411:
その得られた画素値dを、縮小画像(16)Iγの(iR,jR)〜(iR+kγx,jR+lγy)の範囲に書き込んでいく。
その得られた画素値dを、縮小画像(16)Iγの(iR,jR)〜(iR+kγx,jR+lγy)の範囲に書き込んでいく。
ステップST412〜418:
カウンタ(変数)lを1インクリメントし(ステップST412)、変数lがR/γyに達するまでステップST410に飛び(ステップST413)、達したら変数kを1インクリメントし(ステップST414)、変数kがR/γyに達するまでステップST409に飛び、達したら変数jを1インクリメントし、変数jがNydに達するまでステップST407に飛び(ステップST417)、達したら変数iを1インクリメントし(ステップST418)、変数iがNxdに達するまでステップST406に飛び(ステップST419)、変数iがNxdに達したら処理を終了する。
カウンタ(変数)lを1インクリメントし(ステップST412)、変数lがR/γyに達するまでステップST410に飛び(ステップST413)、達したら変数kを1インクリメントし(ステップST414)、変数kがR/γyに達するまでステップST409に飛び、達したら変数jを1インクリメントし、変数jがNydに達するまでステップST407に飛び(ステップST417)、達したら変数iを1インクリメントし(ステップST418)、変数iがNxdに達するまでステップST406に飛び(ステップST419)、変数iがNxdに達したら処理を終了する。
<間引き画像生成部7のアルゴリズム説明>
次に、本発明の実施形態例である間引き画像生成部7のアルゴリズムについて説明する。
間引き画像生成部7では、ローカル座標系上の全ての点に対し、それに対応する縮小画像座標を求め、対応する点の縮小画像16上の画素値を間引き画像20に代入する。
すなわち、
次に、本発明の実施形態例である間引き画像生成部7のアルゴリズムについて説明する。
間引き画像生成部7では、ローカル座標系上の全ての点に対し、それに対応する縮小画像座標を求め、対応する点の縮小画像16上の画素値を間引き画像20に代入する。
すなわち、
と書き直すことができる。間引き画像20のサイズは(Nxd,Nyd)となる。
式(1.17)に従い、間引き画像20上の全ての点x''(i,j)=(x''(i,j)、y''(i,j))に対応する縮小画像16上の点x(i,j)=(x(i,j)、y(i,j))を求め、縮小画像16上の点Xiの画素値を、間引き画像20上の点x''iに書き出す(図8−C)。
以下、本発明の実施形態例である間引き画像生成部7の処理について、図10のフローチャートを用いて説明する。
ステップST501:
まず、縮小画像生成部8から間引き画像生成部7に縮小画像16が入力され、その縮小画像16をIγ[Nxi,Nyi]とする(この配列を図8−Bに示す)。
まず、縮小画像生成部8から間引き画像生成部7に縮小画像16が入力され、その縮小画像16をIγ[Nxi,Nyi]とする(この配列を図8−Bに示す)。
ステップST502:
次に、重み生成部9から間引き画像生成部7に、間引き量18が入力され、その間引き量18の配列をm[Nxd,Nyd]とする。
次に、重み生成部9から間引き画像生成部7に、間引き量18が入力され、その間引き量18の配列をm[Nxd,Nyd]とする。
ステップST503:
次に、圧縮率19が入力され、その値をRとする。
次に、圧縮率19が入力され、その値をRとする。
ステップST504:
次に、位置ずれベクトル6を(Ttx,Tty,θt)として動き検知部4から間引き画像生成部7に入力する。
次に、位置ずれベクトル6を(Ttx,Tty,θt)として動き検知部4から間引き画像生成部7に入力する。
ステップST505:
次に、式(1.17)のHs'tを計算する。
次に、式(1.17)のHs'tを計算する。
ステップST506:
次に、間引き画像(20)Id域を[Nxd,Nyd]だけ確保する。
次に、間引き画像(20)Id域を[Nxd,Nyd]だけ確保する。
ステップST507,508:
次にカウンタ(座標値に対応)x,yを0に初期化する。
次にカウンタ(座標値に対応)x,yを0に初期化する。
ステップST509:
式(1.17)に基づき、x=(x,y)に対応する縮小画像16上の座標x''=(x'',y'')を求める。
式(1.17)に基づき、x=(x,y)に対応する縮小画像16上の座標x''=(x'',y'')を求める。
ステップST510:
求めた座標上の縮小画像16の画素値を間引き画像20の画素に代入する。この間引き画像20の書き込み動作を図8−Cに示す。
求めた座標上の縮小画像16の画素値を間引き画像20の画素に代入する。この間引き画像20の書き込み動作を図8−Cに示す。
ステップST511〜514:
x,y(座標値)のカウンタを、それぞれNxd,Nydに達するまでインクリメントし、ステップST509〜510の処理を繰り返し行う。
全ての処理が終了したら終了する。
x,y(座標値)のカウンタを、それぞれNxd,Nydに達するまでインクリメントし、ステップST509〜510の処理を繰り返し行う。
全ての処理が終了したら終了する。
次ぎに、図11,図12、図13−A〜図13−D、図14−A〜図14−Dを使って、上述した本発明の方法によって高解像度の画像が表示されることを示す。
図11に本発明による表示装置の例を示す。図4に示す画像処理(表示)装置1の表示部10に被写体100が表示されている(図11(A))。その一部分101は、複数の表示画素104から構成される。この部分に図12(B)のような値を持つ高解像度な元画像102を表示させた場合、表示部10の画素数の制限のために十分な情報を表示することができない。
例えば、画像処理(表示)装置1を持った手が、手振れで図11の位置ずれベクトル105で示した方向に1ピクセル/フレームで動いた時に、表示部10内に表示されている被写体100が止まって見えるように、矢印103で示された逆の方向に1ピクセル/フレームで移動させるとする(図14―A参照)。この場合、速度V=1、間引き量m=4、縮小率r=1である。
図11に本発明による表示装置の例を示す。図4に示す画像処理(表示)装置1の表示部10に被写体100が表示されている(図11(A))。その一部分101は、複数の表示画素104から構成される。この部分に図12(B)のような値を持つ高解像度な元画像102を表示させた場合、表示部10の画素数の制限のために十分な情報を表示することができない。
例えば、画像処理(表示)装置1を持った手が、手振れで図11の位置ずれベクトル105で示した方向に1ピクセル/フレームで動いた時に、表示部10内に表示されている被写体100が止まって見えるように、矢印103で示された逆の方向に1ピクセル/フレームで移動させるとする(図14―A参照)。この場合、速度V=1、間引き量m=4、縮小率r=1である。
被写体100を移動させる際に、図13−Aのようなサンプリングを行って間引き画像20を生成する。ここでは斜線で示した画素を各フレームで表示するとする。
第1フレーム目の図13−Aの列a1は4列であるが、図13−Bの第2フレーム目では3列のa2、・・・、図13−Dの第4フレーム目では1列のa4となる。以下同様に、第1フレームの8列のb1は、第2フレーム目では7列のb2、・・・、第4フレーム目では5列のb4、・・・、第1フレームの16列のd1は第4フレーム目で13列のd4と1ピクセル/フレームで移動している。
つまり、4フレーム周期で全ての画素を表示できていることがわかる(図13−A〜図13−D)。
第1フレーム目の図13−Aの列a1は4列であるが、図13−Bの第2フレーム目では3列のa2、・・・、図13−Dの第4フレーム目では1列のa4となる。以下同様に、第1フレームの8列のb1は、第2フレーム目では7列のb2、・・・、第4フレーム目では5列のb4、・・・、第1フレームの16列のd1は第4フレーム目で13列のd4と1ピクセル/フレームで移動している。
つまり、4フレーム周期で全ての画素を表示できていることがわかる(図13−A〜図13−D)。
図14−Aは図13−Aの間引きした表示第1フレームに対応する画像を示し、図13−Aの間引いた、列a1,b1,c1,d1が順次列方向に配列され合成されている。以下同様に、表示第2フレームから表示第4フレームまで、図14−Bと図13−B、・・・、図14−Dと図13−Dが対応して表示されている。
表示部10は、フレームごとに1/4ピクセルずつたとえば左方向に移動(ベクトル105)しているので、例えば第6行目に着目すると、観察者の網膜上には図15−A、図15−Bのような値が積分されていく。
図15−Aにおいて、図14−A〜図14−Dまでのたとえば数値化された画像を、時間に対して画素(ピクセル)が空間的にずれたときの様子を視覚的に示す。
第1フレームのx0に対して第2フレームはx1、第3フレームはx2、第4フレームはx3だけそれぞれ空間的にずれている。
図15−Aにおいて、図14−A〜図14−Dまでのたとえば数値化された画像を、時間に対して画素(ピクセル)が空間的にずれたときの様子を視覚的に示す。
第1フレームのx0に対して第2フレームはx1、第3フレームはx2、第4フレームはx3だけそれぞれ空間的にずれている。
つぎに、図15−Aに示す、第1フレーム〜第4フレームまでの各フレームの第6列目を例にとって、知覚される値について説明する。
図15−Aの各フレームの第6行目のデータを抜き取って再配列した図を図15−Bに示す。
図15−Aにおいて、第1フレームの第6行目は順に、65,0,255,0の値が表示され、第2フレームでは0,1,255,0の値が、第3フレームでは0,104,58,0、第4フレームでは0,171,0,0の値が1/4ピクセルづつずらして表示してある。
この第1フレーム〜第4フレームまでの、1/4ピクセルごとの値を加算した値を、図15−Bに示す。
図15−Aの各フレームの第6行目のデータを抜き取って再配列した図を図15−Bに示す。
図15−Aにおいて、第1フレームの第6行目は順に、65,0,255,0の値が表示され、第2フレームでは0,1,255,0の値が、第3フレームでは0,104,58,0、第4フレームでは0,171,0,0の値が1/4ピクセルづつずらして表示してある。
この第1フレーム〜第4フレームまでの、1/4ピクセルごとの値を加算した値を、図15−Bに示す。
図15−Bの1/4ピクセルに相当するP1は、第1フレームのF41の値のみで表され、P2は第3フレームのF31の値0と第4フレームのF41の値0が加算された値で0となる。P4は第1フレームのF11の値65、第2フレームのF21の値0、第3フレームのF31の値0と第4フレームのF41の値0が加算され、その値は65となる。以後第iフレームのjピクセルの各フレームを、Fij(i,jは正の整数とする)と表すこととする。
以下同様に、たとえばP7において、F11の値65、F22の値1、F32の値104とF42の値171が加算され、その値は341となる。
これをP20まで繰り返し計算した値を、図15−Bに示し、この加算された値が知覚される値となる。ここでは画像データを数値として表しているが、それ以外の表現の仕方でもよい。
図15−Bに示した、画像(ここでは数値化されている)が、1/4ピクセルだけずれながら網膜上に入射し、それらが積分されて知覚されるので、知覚される値は空間的に細かいものとなる。この結果、超高解像効果の画像を得ることができる。
これと同様な、動作を各フレームの1行〜12行まで繰り返す。また、この例では圧縮率、縮小率、間引き量の1例を示したが、上述したこれらの数値に限定されるものではない。
以下同様に、たとえばP7において、F11の値65、F22の値1、F32の値104とF42の値171が加算され、その値は341となる。
これをP20まで繰り返し計算した値を、図15−Bに示し、この加算された値が知覚される値となる。ここでは画像データを数値として表しているが、それ以外の表現の仕方でもよい。
図15−Bに示した、画像(ここでは数値化されている)が、1/4ピクセルだけずれながら網膜上に入射し、それらが積分されて知覚されるので、知覚される値は空間的に細かいものとなる。この結果、超高解像効果の画像を得ることができる。
これと同様な、動作を各フレームの1行〜12行まで繰り返す。また、この例では圧縮率、縮小率、間引き量の1例を示したが、上述したこれらの数値に限定されるものではない。
図16に積分された値のグラフを示す。横軸に1/4ピクセルごとの空間座標を表示し、1〜20までの4ピクセル分を表示している、しかしここでは、4フレームの時間ずれも表示しているので1〜16までの表示ではなく1〜20まで表示している。一方、縦軸は知覚した値を正規化した値で、0。0〜1.0までの値を示している。折れ線cはオリジナルの値を、0〜20(×1/4ピクセル)まで示し、折れ線aは縮小画像の値を示し、折れ線bは、図4に示した、画像処理装置で得られた画像データを示す。
図16から、本来4ピクセルしか解像度がないにもかかわらず、間引き処理によって生成された値を観察したときに知覚される値(折れ線b)は、オリジナルのグラフ(折れ線c)に近い高解像度なものになっており、空間的にディスプレイの表示解像度以上の画像が知覚されることが分かる。
一方、同じサイズになるよう縮小処理を書けた縮小画像のグラフ(折れ線a)では、幅が4ピクセルしかないため、P3〜P6,P8〜P10,P15〜P18の範囲において、細かな形状が無くなってしまっている事が分かる。
一方、同じサイズになるよう縮小処理を書けた縮小画像のグラフ(折れ線a)では、幅が4ピクセルしかないため、P3〜P6,P8〜P10,P15〜P18の範囲において、細かな形状が無くなってしまっている事が分かる。
上述した超解像効果を利用することにより、間引かれた結果の画像がディスプレイの解像度と同じ解像度を持つように、元画像の解像度を設定することにより、観察者はディスプレイの解像度以上の画像を知覚することができる。
入力画像上の被写体に動きがある場合、表示装置の手振れの速度と、表示画像上の被写体の速度の差によって、超解像条件を満たさなくなる場合がある。例えば、表示装置の手振れの速度と、表示画像上の被写体の速度が一致した場合、被写体はディスプレイ上の同じ位置に表示されることとなるため、超解像効果は起こらない。
この超解像効果の起こらない部分に対して、間引き処理を書けた画像を表示すると、エイリアシングによるジャギー、モアレパターンの発生や、模様の消失などの現象が起こる恐れがある。そのため、その部分には間引き画像ではなく、縮小画像を表示することにより、自然な画像が得られる。また、できる限り超解像効果が発生するようにしながら、かつ高周波成分を残したままにするために、必要に応じて縮小処理と間引き処理を併用する。
選択画像生成手段は、装置の動きベクトルと、入力画像内の領域ごとの入力画像動きベクトルから、上記超解像条件を満たす領域については間引き表示画像の画素値を選択画像の画素に代入し、満たさない領域については、縮小表示画像の画素値を選択画像の画素に代入する。これにより、超解像が発生する領域では、高い知覚的な解像度が得られ、発生しない領域ではエイリアシングのない画像を得ることができるようになる。
入力画像上の被写体に動きがある場合、表示装置の手振れの速度と、表示画像上の被写体の速度の差によって、超解像条件を満たさなくなる場合がある。例えば、表示装置の手振れの速度と、表示画像上の被写体の速度が一致した場合、被写体はディスプレイ上の同じ位置に表示されることとなるため、超解像効果は起こらない。
この超解像効果の起こらない部分に対して、間引き処理を書けた画像を表示すると、エイリアシングによるジャギー、モアレパターンの発生や、模様の消失などの現象が起こる恐れがある。そのため、その部分には間引き画像ではなく、縮小画像を表示することにより、自然な画像が得られる。また、できる限り超解像効果が発生するようにしながら、かつ高周波成分を残したままにするために、必要に応じて縮小処理と間引き処理を併用する。
選択画像生成手段は、装置の動きベクトルと、入力画像内の領域ごとの入力画像動きベクトルから、上記超解像条件を満たす領域については間引き表示画像の画素値を選択画像の画素に代入し、満たさない領域については、縮小表示画像の画素値を選択画像の画素に代入する。これにより、超解像が発生する領域では、高い知覚的な解像度が得られ、発生しない領域ではエイリアシングのない画像を得ることができるようになる。
以上述べたように、超解像効果による知覚的な解像度向上効果により、ゲームや携帯電話といったモバイル機器のように表示画面が小さく解像度が低い場合でも、手振れによる視認のしにくさを防ぎ、機器の持つ表示解像度の能力を十分に発揮させるのみならず、機器が表示可能な解像度より高精細な画像を表示できる。
また、超解像効果が発生しない部分には選択的にエイリアシングが発生しないように表示することで、自然な画像を表示できる。
また、超解像効果が発生しない部分には選択的にエイリアシングが発生しないように表示することで、自然な画像を表示できる。
1…画像処理(表示)装置、2…入力画像、3…画像記憶部、4…動き検出部、5…動きベクトル、6,105…位置ずれベクトル、7…間引き画像生成部、8…縮小画像生成部、10…表示部、11…加速度センサ、12…角度センサ、13…画像動き検知部、14…角速度、15…加速度ベクトル、16…縮小画像、17…縮小率、18…間引き量、19…圧縮率、20…間引き画像、21…入力画像動きベクトル、100…被写体、104…表示画素。
Claims (7)
- 画像を入力して入力画像を生成する画像入力手段と、
画像処理装置の筐体の位置ずれを検知して、その方向と量を表わす位置ずれベクトルを生成する位置ずれ検知手段と、
前記位置ずれベクトルに従って、前記入力画像を空間的に間引いた間引き表示画像を所定のフレームレートで生成する間引き手段と、
前記間引き表示画像を表示する画像処理手段と
を有する
画像処理装置。 - 画像を入力して入力画像を生成する画像入力手段と、
画像処理装置の筐体の位置ずれを検知して、その方向と量を表わす位置ずれベクトルを生成する位置ずれ検知手段と、
前記画像処理装置の筐体の動きを検知して、その方向と速さを表わす動きベクトルを生成する動き検知手段と、
前記入力画像を複数の入力画像領域に分割し、前記入力画像領域ごとに、入力画像動きベクトルを求める画像動き検知手段と、
前記動きベクトルと前記入力画像動きベクトルに基づき、縮小率と、間引き量とを生成する重み生成手段と、
前記縮小率に従って、前記入力画像を空間的に縮小した縮小画像を所定のフレームレートで生成する縮小手段と、
前記位置ずれベクトルと前記間引き量に従って、前記縮小画像を空間的に間引いた間引き画像を所定のフレームレートで生成する間引き手段と、
前記間引き画像を表示する画像処理手段と
を有する
画像処理装置。 - 前記間引き手段は、前記画像処理手段が表示可能な解像度を超える解像度を有するような視覚効果を与える空間間引き処理である、
ことを特徴とする請求項1または請求項2に記載の画像処理装置。 - 前記フレームレートは、前記画像処理手段が表示可能な解像度を超える解像度を有する視覚効果を与える高さである、
ことを特徴とする請求項1または請求項2に記載の画像処理装置。 - 画像処理装置の筐体の手振れによる動きを検出し、その動きに応じて画像を間引く画像処理方法であって、
画像を入力して入力画像を生成する第1のステップと、
前記画像処理装置の筐体の位置ずれを検知して、その方向と量を表わす位置ずれベクトルを生成する第2のステップと、
前記画像処理装置の筐体の動きを検知して、その方向と速さを表わす動きベクトルを生成する第3のステップと、
前記入力画像を複数の入力画像領域に分割し、前記入力画像領域ごとに、入力画像動きベクトルを求める第4のステップと、
前記動きベクトルと前記入力画像動きベクトルに基づき、縮小率と、間引き量とを生成する第5のステップと、
前記縮小率に従って、前記入力画像を空間的に縮小した縮小画像を所定のフレームレートで生成する第6のステップと、
前記位置ずれベクトルと前記間引き量に従って、前記縮小画像を空間的に間引いた間引き画像を所定のフレームレートで生成する第7のステップと、
前記間引き画像を表示する第8のステップと、
を有する画像処理方法。 - 画像処理装置の筐体の手振れによる動きを検出し、その動きに応じて画像を間引く画像処理装置が実行するプログラムであって、
画像を入力して入力画像を生成する第1の手順と、
前記画像処理装置の筐体の位置ずれを検知して、その方向と量を表わす位置ずれベクトルを生成する第2の手順と、
前記画像処理装置の筐体の動きを検知して、その方向と速さを表わす動きベクトルを生成する第3の手順と、
前記入力画像を複数の入力画像領域に分割し、前記入力画像領域ごとに、入力画像動きベクトルを求める第4の手順と、
前記動きベクトルと前記入力画像動きベクトルに基づき、縮小率と、間引き量とを生成する第5の手順と、
前記縮小率に従って、前記入力画像を空間的に縮小した縮小画像を所定のフレームレートで生成する第6の手順と、
前記位置ずれベクトルと前記間引き量に従って、前記縮小画像を空間的に間引いた間引き画像を所定のフレームレートで生成する第7の手順と、
前記間引き画像を表示する第8の手順と、
を有する前記画像処理装置に実行させるプログラム。 - 画像処理装置の筐体の手振れによる動きを検出し、その動きに応じて画像を間引く画像表処理装置が実行するプログラムを記録する記録媒体であって、
前記プログラムは、
画像を入力して入力画像を生成する第1の手順と、
前記画像処理装置の筐体の位置ずれを検知して、その方向と量を表わす位置ずれベクトルを生成する第2の手順と、
前記画像処理装置の筐体の動きを検知して、その方向と速さを表わす動きベクトルを生成する第3の手順と、
前記入力画像を複数の入力画像領域に分割し、前記入力画像領域ごとに、入力画像動きベクトルを求める第4の手順と、
前記動きベクトルと前記入力画像動きベクトルに基づき、縮小率と、間引き量とを生成する第5の手順と、
前記縮小率に従って、前記入力画像を空間的に縮小した縮小画像を所定のフレームレートで生成する第6の手順と、
前記位置ずれベクトルと前記間引き量に従って、前記縮小画像を空間的に間引いた間引き画像を所定のフレームレートで生成する第7の手順と、
前記間引き画像を表示する第8の手順と、
を有する前記画像処理装置に実行させる記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005163269A JP2006337771A (ja) | 2005-06-02 | 2005-06-02 | 画像処理装置、その方法、そのプログラムおよび記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005163269A JP2006337771A (ja) | 2005-06-02 | 2005-06-02 | 画像処理装置、その方法、そのプログラムおよび記録媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006337771A true JP2006337771A (ja) | 2006-12-14 |
Family
ID=37558376
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005163269A Pending JP2006337771A (ja) | 2005-06-02 | 2005-06-02 | 画像処理装置、その方法、そのプログラムおよび記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006337771A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010071025A1 (en) * | 2008-12-19 | 2010-06-24 | Semiconductor Energy Laboratory Co., Ltd. | Method for driving liquid crystal display device |
WO2014071097A1 (en) * | 2012-11-01 | 2014-05-08 | Microsoft Corporation | Video data |
US8780034B2 (en) | 2009-04-08 | 2014-07-15 | Semiconductor Energy Laboratory Co., Ltd. | Method for driving semiconductor device including super-resolution processing |
US8970638B2 (en) | 2009-02-06 | 2015-03-03 | Semiconductor Energy Laboratory Co., Ltd. | Method for driving display device |
US11450036B2 (en) | 2018-01-30 | 2022-09-20 | Sony Interactive Entertainment Inc. | Image processing apparatus and display image generating method |
US11769469B2 (en) | 2018-02-13 | 2023-09-26 | Sony Interactive Entertainment Inc. | Image processing apparatus, display image generating method, and font data structure |
-
2005
- 2005-06-02 JP JP2005163269A patent/JP2006337771A/ja active Pending
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10018872B2 (en) | 2008-12-19 | 2018-07-10 | Semiconductor Energy Laboratory Co., Ltd. | Method for driving liquid crystal display device |
US8624938B2 (en) | 2008-12-19 | 2014-01-07 | Semiconductor Energy Laboratory Co., Ltd. | Method for driving liquid crystal display device |
US11899311B2 (en) | 2008-12-19 | 2024-02-13 | Semiconductor Energy Laboratory Co., Ltd. | Method for driving liquid crystal display device |
US11300832B2 (en) | 2008-12-19 | 2022-04-12 | Semiconductor Energy Laboratory Co., Ltd. | Method for driving liquid crystal display device |
US8928706B2 (en) | 2008-12-19 | 2015-01-06 | Semiconductor Energy Laboratory Co., Ltd. | Method for driving liquid crystal display device |
US10578920B2 (en) | 2008-12-19 | 2020-03-03 | Semiconductor Energy Laboratory Co., Ltd. | Method for driving liquid crystal display device |
WO2010071025A1 (en) * | 2008-12-19 | 2010-06-24 | Semiconductor Energy Laboratory Co., Ltd. | Method for driving liquid crystal display device |
US9280937B2 (en) | 2008-12-19 | 2016-03-08 | Semiconductor Energy Laboratory Co., Ltd. | Method for driving liquid crystal display device |
US10254586B2 (en) | 2008-12-19 | 2019-04-09 | Semiconductor Energy Laboratory Co., Ltd. | Method for driving liquid crystal display device |
US10943549B2 (en) | 2009-02-06 | 2021-03-09 | Semiconductor Energy Laboratory Co., Ltd. | Method for driving display device |
US9583060B2 (en) | 2009-02-06 | 2017-02-28 | Semiconductor Energy Laboratory Co., Ltd. | Method for driving display device |
US8970638B2 (en) | 2009-02-06 | 2015-03-03 | Semiconductor Energy Laboratory Co., Ltd. | Method for driving display device |
US11837180B2 (en) | 2009-02-06 | 2023-12-05 | Semiconductor Energy Laboratory Co., Ltd. | Method for driving display device |
US9978320B2 (en) | 2009-04-08 | 2018-05-22 | Semiconductor Energy Laboratory Co., Ltd. | Method for driving semiconductor device |
US9343018B2 (en) | 2009-04-08 | 2016-05-17 | Semiconductor Energy Laboratory Co., Ltd. | Method for driving a liquid crystal display device at higher resolution |
US10657910B2 (en) | 2009-04-08 | 2020-05-19 | Semiconductor Energy Laboratory Co., Ltd. | Method for driving semiconductor device |
US11670251B2 (en) | 2009-04-08 | 2023-06-06 | Semiconductor Energy Laboratory Co., Ltd. | Method for driving semiconductor device |
US11030966B2 (en) | 2009-04-08 | 2021-06-08 | Semiconductor Energy Laboratory Co., Ltd. | Method for driving semiconductor device |
US8780034B2 (en) | 2009-04-08 | 2014-07-15 | Semiconductor Energy Laboratory Co., Ltd. | Method for driving semiconductor device including super-resolution processing |
US11450291B2 (en) | 2009-04-08 | 2022-09-20 | Semiconductor Energy Laboratory Co., Ltd. | Method for driving semiconductor device |
US9185437B2 (en) | 2012-11-01 | 2015-11-10 | Microsoft Technology Licensing, Llc | Video data |
WO2014071097A1 (en) * | 2012-11-01 | 2014-05-08 | Microsoft Corporation | Video data |
US11450036B2 (en) | 2018-01-30 | 2022-09-20 | Sony Interactive Entertainment Inc. | Image processing apparatus and display image generating method |
US11769469B2 (en) | 2018-02-13 | 2023-09-26 | Sony Interactive Entertainment Inc. | Image processing apparatus, display image generating method, and font data structure |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5544277B2 (ja) | 画像補正装置、補正画像生成方法、補正テーブル生成装置、補正テーブル生成方法、補正テーブル生成プログラムおよび補正画像生成プログラム | |
JP5558973B2 (ja) | 画像補正装置、補正画像生成方法、補正テーブル生成装置、補正テーブル生成方法、補正テーブル生成プログラムおよび補正画像生成プログラム | |
KR100918294B1 (ko) | 입체 시화상(視畵像) 표시장치, 입체 시화상 표시방법 및컴퓨터 프로그램 | |
US9516223B2 (en) | Motion-based image stitching | |
JP5409107B2 (ja) | 表示制御プログラム、情報処理装置、表示制御方法、および情報処理システム | |
KR101932537B1 (ko) | 3차원 전자지도상에 촬영영상을 표시하는 방법 및 장치 | |
JP5256430B2 (ja) | 画像を拡大する装置 | |
JP2006337771A (ja) | 画像処理装置、その方法、そのプログラムおよび記録媒体 | |
JP5555101B2 (ja) | 画像補正装置、補正画像生成方法および補正画像生成プログラム | |
US8885964B2 (en) | Projector, projection transform processing device, and image processing method in projector | |
JP2003274414A (ja) | 動きベクトル検出方法、補間画像作成方法及び画像表示システム | |
WO2013179560A1 (ja) | 画像処理装置および画像処理方法 | |
JP2017211811A (ja) | 表示制御プログラム、表示制御方法および表示制御装置 | |
US20150116370A1 (en) | Method for successively displaying sections of screen and computer-readable medium | |
WO2018025825A1 (ja) | 撮像システム | |
JP7020240B2 (ja) | 認識装置、認識システム、プログラムおよび位置座標検出方法 | |
JP6265133B2 (ja) | 見え方提示システム、方法およびプログラム | |
US9197882B2 (en) | Mobile communication terminal having image conversion function and method | |
US11953401B2 (en) | Method and apparatus for measuring optical characteristics of augmented reality device | |
US10861135B2 (en) | Image processing apparatus, non-transitory computer-readable recording medium storing computer program, and image processing method | |
JP4642431B2 (ja) | 地図表示装置、地図表示システム、地図表示方法およびプログラム | |
JP2011070594A (ja) | 画像処理装置、画像処理方法、および画像処理プログラム | |
JP2010039968A (ja) | オブジェクト検出装置及び検出方法 | |
WO2017212804A1 (ja) | 映像表示装置、映像表示装置の制御方法、および映像表示装置の制御プログラム | |
JP2012238117A (ja) | 情報処理装置、その処理方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080514 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110607 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20111108 |