JP2011197537A - Terminal device and program - Google Patents
Terminal device and program Download PDFInfo
- Publication number
- JP2011197537A JP2011197537A JP2010066209A JP2010066209A JP2011197537A JP 2011197537 A JP2011197537 A JP 2011197537A JP 2010066209 A JP2010066209 A JP 2010066209A JP 2010066209 A JP2010066209 A JP 2010066209A JP 2011197537 A JP2011197537 A JP 2011197537A
- Authority
- JP
- Japan
- Prior art keywords
- image
- display unit
- viewing angle
- angle direction
- specific object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、表示部の視野角方向を制御する端末装置及びプログラムに関する。 The present invention relates to a terminal device and a program for controlling the viewing angle direction of a display unit.
近年、携帯電話機などの端末装置の表示部は、大画面化が進み、かつ、表示部に表示されている画像を視認できる視野角方向も益々広くなり、複数人が同じ表示部を見ることもできるようになってきている。例えば、ユーザが自らのカメラ付き携帯電話機で撮影した多数の画像を会社の同僚達と一緒に閲覧することも可能となったが、家族などのような特定の人物が含まれていると、その人物までも同僚に見せることになってしまう。 In recent years, a display unit of a terminal device such as a mobile phone has been increased in screen size, and the viewing angle direction in which an image displayed on the display unit can be visually recognized has been increased, so that a plurality of people can view the same display unit. It is becoming possible. For example, users can view many images taken with their camera phones together with colleagues in the company, but if a specific person such as a family member is included, Even people will be shown to colleagues.
また、電車の中で画像を閲覧しているような場合でも周囲の人に覗き込まれることにより、特定の人物を他人に見せることになってしまう。このように画像内に特定のオブジェクト(特定の人物など)が含まれている場合、従来では、そのオブジェクトを消したりそのオブジェクトにモザイクをかけたりするなどの加工処理を施すようにした技術が知られているが、このような加工を施すことにより、ユーザ自身もそのオブジェクトを見ることができなくなってしまう。
ところで、従来では、表示部に視差バリアを設けることにより複数の画像を表示部に同時に表示させている状態において、それぞれの画像をある方向からしか視認できないようにした技術が知られている(特許文献1及び2参照)。
Further, even when an image is viewed on a train, a specific person is shown to others by looking into the surrounding people. In this way, when a specific object (such as a specific person) is included in an image, conventionally, a technique has been known in which processing such as deleting the object or applying a mosaic to the object is performed. However, by performing such processing, the user himself / herself cannot see the object.
By the way, conventionally, a technique is known in which a parallax barrier is provided on a display unit so that each image can be viewed only from a certain direction in a state where a plurality of images are displayed on the display unit at the same time (patents).
しかしながら、上述の先行技術(特許文献1)にあっては、複数の視野角方向のうち、ある視野角方向では撮影画像を確認することができ、他の視野角方向では撮影情報を確認することができるようにしたものであるが、視野角方向を変えて別々に見なければならなかった。従って、撮影画像と撮影情報とを同時に見ることはできず、しかも、ユーザを含む複数人が同じ表示部を同時に見ることまでも想定したものではなかった。これに対して、上述の先行技術(特許文献2)にあっては、ある視聴者(ユーザ)用の画像及びアイコンと他の視聴者用の画像及びアイコンとを同時に表示したとしても、視野角方向に応じて視聴者別に自分の画像及びアイコンを確認可能としたものであるが、他者の画像及びアイコンまでも同時に見ることはできず、複数人が異なる内容を個別に見るしかなかった。 However, in the above-described prior art (Patent Document 1), a captured image can be confirmed in a certain viewing angle direction among a plurality of viewing angle directions, and photographing information can be confirmed in other viewing angle directions. However, it had to be viewed separately by changing the viewing angle direction. Therefore, the photographed image and the photographed information cannot be viewed at the same time, and it is not assumed that a plurality of persons including the user see the same display unit at the same time. On the other hand, in the above-described prior art (Patent Document 2), even if an image and an icon for a certain viewer (user) and an image and an icon for another viewer are displayed at the same time, the viewing angle Although it is possible to check his / her own image and icon according to the viewer according to the direction, the other person's image and icon cannot be seen at the same time, and a plurality of people have to see different contents individually.
本発明の課題は、複数人に同じ内容の画像を見せるか、一部の人に異なる画像を見せるかを特別な操作を要求することなく適切に制御できるようにすることである。 An object of the present invention is to appropriately control whether a plurality of people can see the same image or some people can see different images without requiring a special operation.
上述した課題を解決するために請求項1記載の発明は、
表示部の視野角方向を制御する端末装置であって、
第1画像を前記表示部に表示させるとともに、第1視野角方向と該第1視野角方向とは異なる第2視野角方向との両方から前記第1画像が視認されるように前記表示部を制御する第1制御手段と、
前記第1画像とそれとは異なる第2画像とを前記表示部に同時に表示させるとともに、前記第1視野角方向から前記第1画像が視認されるように前記表示部を制御し、前記第2視野角方向から前記第2画像が視認されるように前記表示部を制御する第2制御手段と、
前記表示部に表示させる画像内に特定のオブジェクトが含まれているか否かを判別する判別手段と、
前記判別手段の判別結果に基づいて、前記第1制御手段及び第2制御手段のいずれか一方による制御の実行を指示する指示手段と、
を備えることを特徴とする。
In order to solve the above-described problem, the invention described in
A terminal device for controlling the viewing angle direction of the display unit,
The first image is displayed on the display unit, and the display unit is configured so that the first image is viewed from both the first viewing angle direction and a second viewing angle direction different from the first viewing angle direction. First control means for controlling;
The first image and a second image different from the first image are simultaneously displayed on the display unit, and the display unit is controlled so that the first image is viewed from the first viewing angle direction, and the second field of view is controlled. Second control means for controlling the display unit so that the second image is viewed from an angular direction;
Determining means for determining whether or not a specific object is included in an image to be displayed on the display unit;
Instruction means for instructing execution of control by one of the first control means and the second control means based on the determination result of the determination means;
It is characterized by providing.
請求項1に従属する発明として、
前記指示手段は、前記判別手段によって特定のオブジェクトが含まれていると判別された場合に、前記第2制御手段による制御の実行を指示する、
ようにしたことを特徴とする、請求項2記載の発明であってもよい。
As an invention dependent on
The instruction means instructs execution of control by the second control means when it is determined that the specific object is included by the determination means;
The invention according to
請求項2に従属する発明として、
前記特定のオブジェクトに対して加工処理が施された画像を取得する取得手段をさらに備え、
前記第2制御手段は、前記第1画像として前記表示部に表示させる画像を、前記第2画像として前記取得手段によって取得された画像を、前記表示部に同時に表示させるように制御する、
ようにしたことを特徴とする、請求項3記載の発明であってもよい。
As an invention dependent on
The image processing apparatus further includes an acquisition unit that acquires an image on which the specific object has been processed,
The second control means controls the image to be displayed on the display unit as the first image and the image acquired by the acquisition means as the second image to be displayed on the display unit at the same time.
The invention according to
請求項3に従属する発明として、
前記取得手段は、前記特定のオブジェクトが含まれる画像を前記第1画像として、この第1画像に加工処理を施すことによって、前記特定のオブジェクトに加工処理が施された画像を前記第2画像として取得する、
ようにしたことを特徴とする、請求項4記載の発明であってもよい。
As an invention dependent on
The acquisition means uses the image including the specific object as the first image, and performs processing on the first image, thereby processing the image processed on the specific object as the second image. get,
The invention according to claim 4, which is configured as described above.
請求項3に従属する発明として、
前記取得手段は、前記特定のオブジェクトに加工処理が施された画像を外部から取得する、
ようにしたことを特徴とする、請求項5記載の発明であってもよい。
As an invention dependent on
The acquisition unit acquires an image obtained by processing the specific object from the outside.
The invention according to
請求項1に従属する発明として、
前記指示手段は、前記判別手段によって特定のオブジェクトが含まれていないと判別された場合に、前記第1制御手段による制御の実行を指示する、
ようにしたことを特徴とする、請求項6記載の発明であってもよい。
As an invention dependent on
The instruction means instructs the execution of control by the first control means when it is determined that the specific object is not included by the determination means;
The invention according to claim 6 is characterized in that it is configured as described above.
請求項1に従属する発明として、
画像を撮影する撮影手段をさらに備え、
前記判別手段は、前記撮影手段により撮影された画像内に特定のオブジェクトが含まれているか否か判別する、
ようにしたことを特徴とする、請求項7記載の発明であってもよい。
As an invention dependent on
It further comprises a photographing means for photographing an image,
The determining means determines whether or not a specific object is included in the image photographed by the photographing means;
The invention according to claim 7, characterized in that it is configured as described above.
請求項1に従属する発明として、
前記特定のオブジェクトを含む画像と含まない画像とを撮影する撮影手段をさらに備え、
前記第2制御手段は、前記第1画像として前記撮影手段によって撮影された特定のオブジェクトを含む画像を、前記第2画像として前記撮影手段によって撮影された特定のオブジェクトを含まない画像を、前記表示部に同時に表示させるように制御する、
ようにしたことを特徴とする、請求項8記載の発明であってもよい。
As an invention dependent on
A photographing unit for photographing an image including the specific object and an image not including the specific object;
The second control unit displays the image including the specific object photographed by the photographing unit as the first image, and the image not including the specific object photographed by the photographing unit as the second image. Control to display on the screen at the same time,
The invention according to claim 8, which is configured as described above.
また、上述した課題を解決するために請求項9記載の発明は、
表示部の視野角方向を制御する端末装置であって、
前記表示部に表示させる画像内に特定のオブジェクトが含まれるか否かを判別する判別手段と、
前記判別手段によって特定のオブジェクトが含まれると判別された場合に、前記特定のオブジェクトに加工処理が施された画像を取得する取得手段と、
前記表示部に表示させる画像と前記取得手段によって取得された画像とを前記表示部に同時に表示させるとともに、前記表示部に表示させる画像が第1視野角方向から視認されるように前記表示部を制御し、前記取得された画像が該第1視野角方向とは異なる第2視野角方向から視認されるように前記表示部を制御する第1制御手段と、
を備えることを特徴とする。
In order to solve the above-described problem, the invention according to claim 9 is
A terminal device for controlling the viewing angle direction of the display unit,
Determining means for determining whether or not a specific object is included in an image to be displayed on the display unit;
An acquisition unit that acquires an image obtained by performing a processing on the specific object when the determination unit determines that the specific object is included;
The display unit is configured to display the image to be displayed on the display unit and the image acquired by the acquisition unit simultaneously on the display unit, and to display the image to be displayed on the display unit from the first viewing angle direction. First control means for controlling and controlling the display unit so that the acquired image is viewed from a second viewing angle direction different from the first viewing angle direction;
It is characterized by providing.
請求項9に従属する発明として、
前記判別手段によって特定のオブジェクトが含まれないと判別された場合に、前記表示部に表示させる画像を前記表示部に表示させるとともに、前記表示部に表示させる画像が第1視野角方向と該第1視野角方向とは異なる第2視野角方向との両方から視認されるように前記表示部を制御する第2制御手段をさらに備える、
ようにしたことを特徴とする、請求項10記載の発明であってもよい。
As an invention dependent on claim 9,
When it is determined by the determining means that a specific object is not included, an image to be displayed on the display unit is displayed on the display unit, and an image to be displayed on the display unit is the first viewing angle direction and the first viewing angle direction. A second control means for controlling the display unit so as to be viewed from both a second viewing angle direction different from the first viewing angle direction;
The invention according to claim 10, which is configured as described above.
また、上述した課題を解決するために請求項11記載の発明は、
表示部の視野角方向を制御する端末装置であって、
第1画像を前記表示部に表示させるとともに、第1視野角方向と該第1視野角方向とは異なる第2視野角方向との両方から前記第1画像が視認されるように前記表示部を制御する第1制御手段と、
前記第1画像とそれとは異なる第2画像とを前記表示部に同時に表示させるとともに、前記第1視野角方向から前記第1画像が視認されるように前記表示部を制御し、前記第2視野角方向から前記第2画像が視認されるように前記表示部を制御する第2制御手段と、
前記表示部に表示させる画像がその画像とは異なる画像と対応付けられているか否かを判別する判別手段と、
前記判別手段の判別結果に基づいて、前記第1制御手段及び第2制御手段のいずれか一方による制御の実行を指示する指示手段と、
を備えることを特徴とする。
In order to solve the above-described problem, the invention according to
A terminal device for controlling the viewing angle direction of the display unit,
The first image is displayed on the display unit, and the display unit is configured so that the first image is viewed from both the first viewing angle direction and a second viewing angle direction different from the first viewing angle direction. First control means for controlling;
The first image and a second image different from the first image are simultaneously displayed on the display unit, and the display unit is controlled so that the first image is viewed from the first viewing angle direction, and the second field of view is controlled. Second control means for controlling the display unit so that the second image is viewed from an angular direction;
Determining means for determining whether an image to be displayed on the display unit is associated with an image different from the image;
Instruction means for instructing execution of control by one of the first control means and the second control means based on the determination result of the determination means;
It is characterized by providing.
請求項11に従属する発明として、
前記特定のオブジェクトを含む第1画像と含まない第2画像とを撮影する撮影手段と、
前記撮影手段によって撮影された特定のオブジェクトを含む第1画像と含まない第2画像とを対応付けて記憶部に記憶させる記憶制御手段と、
をさらに備え、
前記判別手段は、前記記憶部に記憶されている特定のオブジェクトを含む第1画像が、特定のオブジェクトを含まない第2画像と対応付けられているか否かを判別する、
ようにしたことを特徴とする、請求項12記載の発明であってもよい。
As an invention dependent on
Photographing means for photographing the first image including the specific object and the second image not including the specific object;
Storage control means for associating the first image including the specific object imaged by the imaging means and the second image not including the specific object in the storage unit;
Further comprising
The determination means determines whether or not a first image including a specific object stored in the storage unit is associated with a second image not including a specific object.
The invention according to
また、上述した課題を解決するために請求項13記載の発明は、
コンピュータに対して、
第1画像を表示部に表示させるとともに、第1視野角方向と該第1視野角方向とは異なる第2視野角方向との両方から前記第1画像が視認されるように前記表示部を制御する機能と、
前記第1画像とそれとは異なる第2画像とを前記表示部に同時に表示させるとともに、前記第1視野角方向から前記第1画像が視認されるように前記表示部を制御し、前記第2視野角方向から前記第2画像が視認されるように前記表示部を制御する機能と、
前記表示部に表示させる画像内に特定のオブジェクトが含まれるか否かを判別する機能と、
前記判別結果に基づいて、前記第1視野角方向と第2視野角方向との両方から前記第1画像が視認されるような制御の実行を指示し、前記第1視野角方向から前記第1画像が視認され、かつ、前記第2視野角方向から前記第2画像が視認されるような制御の実行を指示する機能と、
を実現させるためのプログラムであることを特徴とする。
In order to solve the above-mentioned problem, the invention according to
Against the computer,
The first image is displayed on the display unit, and the display unit is controlled so that the first image is viewed from both the first viewing angle direction and a second viewing angle direction different from the first viewing angle direction. Function to
The first image and a second image different from the first image are simultaneously displayed on the display unit, and the display unit is controlled so that the first image is viewed from the first viewing angle direction, and the second field of view is controlled. A function of controlling the display unit so that the second image is visually recognized from an angular direction;
A function of determining whether or not a specific object is included in an image to be displayed on the display unit;
Based on the determination result, execution of control such that the first image is visually recognized from both the first viewing angle direction and the second viewing angle direction is instructed, and the first viewing angle direction from the first viewing angle direction. A function of instructing execution of control such that an image is visually recognized and the second image is visually recognized from the second viewing angle direction;
It is a program for realizing.
また、上述した課題を解決するために請求項14記載の発明は、
コンピュータに対して、
表示部に表示させる画像内に特定のオブジェクトが含まれるか否かを判別する機能と、
前記特定のオブジェクトが含まれると判別された場合に、前記特定のオブジェクトに加工処理が施された画像を取得する機能と、
前記表示部に表示させる画像と前記取得された画像とを前記表示部に同時に表示させるとともに、前記表示部に表示させる画像が第1視野角方向から視認されるように前記表示部を制御し、前記取得された画像が該第1視野角方向とは異なる第2視野角方向から視認されるように前記表示部を制御する機能と、
を実現させるためのプログラムであることを特徴とする。
In order to solve the above-mentioned problem, the invention according to
Against the computer,
A function of determining whether or not a specific object is included in an image to be displayed on the display unit;
When it is determined that the specific object is included, a function of obtaining an image obtained by performing processing on the specific object;
The image to be displayed on the display unit and the acquired image are simultaneously displayed on the display unit, and the display unit is controlled so that the image to be displayed on the display unit is visually recognized from the first viewing angle direction, A function of controlling the display unit so that the acquired image is viewed from a second viewing angle direction different from the first viewing angle direction;
It is a program for realizing.
また、上述した課題を解決するために請求項15記載の発明は、
コンピュータに対して、
第1画像を表示部に表示させるとともに、第1視野角方向と該第1視野角方向とは異なる第2視野角方向との両方から前記第1画像が視認されるように前記表示部を制御する機能と、
前記第1画像とそれとは異なる第2画像とを前記表示部に同時に表示させるとともに、前記第1視野角方向から前記第1画像が視認されるように前記表示部を制御し、前記第2視野角方向から前記第2画像が視認されるように前記表示部を制御する機能と、
前記表示部に表示させる第1画像がその画像とは異なる画像と対応付けられているか否かを判別する機能と、
前記判別結果に基づいて、前記第1視野角方向と第2視野角方向との両方から前記第1画像が視認されるような制御の実行を指示し、前記第1視野角方向から前記第1画像が視認され、かつ、前記第2視野角方向から前記第2画像が視認されるような制御の実行を指示する機能と、
を実現させるためのプログラムであることを特徴とする。
In order to solve the above-mentioned problem, the invention according to
Against the computer,
The first image is displayed on the display unit, and the display unit is controlled so that the first image is viewed from both the first viewing angle direction and a second viewing angle direction different from the first viewing angle direction. Function to
The first image and a second image different from the first image are simultaneously displayed on the display unit, and the display unit is controlled so that the first image is viewed from the first viewing angle direction, and the second field of view is controlled. A function of controlling the display unit so that the second image is visually recognized from an angular direction;
A function of determining whether or not the first image to be displayed on the display unit is associated with an image different from the image;
Based on the determination result, execution of control such that the first image is visually recognized from both the first viewing angle direction and the second viewing angle direction is instructed, and the first viewing angle direction from the first viewing angle direction. A function of instructing execution of control such that an image is visually recognized and the second image is visually recognized from the second viewing angle direction;
It is a program for realizing.
本発明によれば、複数人に同じ内容の画像を見せるか一部の人に異なる画像を見せるかを特別な操作を要求することなく適切に制御することができ、実用性に富んだものとなる。 According to the present invention, it is possible to appropriately control whether to show an image having the same content to a plurality of people or to show a different image to some people without requiring a special operation, and it is rich in practicality. Become.
(第1実施形態)
図1〜図9を参照して本発明の第1実施形態を説明する。
この実施形態は、端末装置として携帯電話機に適用した場合を例示したもので、図1は、この携帯電話機が利用可能な通信ネットワークシステムを示したブロック図である。
携帯電話機1は、例えば、2つの筐体(図示しない操作部筐体、表示部筐体)を折り畳み自在に取り付けた折り畳みタイプの携帯電話機で、通話機能、電子メール機能、インターネット接続機能(Webアクセス機能)のほか、テレビ放送受信機能、カメラ機能などを備えている。
(First embodiment)
A first embodiment of the present invention will be described with reference to FIGS.
This embodiment exemplifies a case where the present invention is applied to a mobile phone as a terminal device, and FIG. 1 is a block diagram showing a communication network system in which the mobile phone can be used.
The
携帯電話機1は、最寄りの基地局2A、交換機2Bから無線通信網(移動体通信網)2に接続されると、この無線通信網2を介して他の携帯電話機(図示省略)との間で通話可能な状態となる。また、携帯電話機1は、無線通信網2を介してインターネット3に接続されると、Webサイトをアクセスして閲覧可能となり、また、画像配信装置4から画像(動画や静止画)などをインターネット3及び無線通信網2を介してダウンロード受信が可能となる。また、携帯電話機1は、テレビ局5から送信アンテナ6を介して発信された地上波デジタル放送を受信するようにしているが、インターネットラジオのように無線通信網2、インターネット3を介して画像配信装置4からデジタル放送をダウンロード受信することもできる。
When the
図2は、携帯電話機1の基本的な構成要素を示したブロック図である。
中央制御部11は、二次電池を備えた電池部12からの電力供給によって動作し、記憶部13内の各種のプログラムに応じてこの携帯電話機1の全体動作を制御する中央演算処理装置やメモリ(図示省略)などを有している。この記憶部13には、プログラム記憶部M1、各種情報一時記憶部M2、画像記憶部M3、オブジェクト記憶部M4などが設けられている。
FIG. 2 is a block diagram showing basic components of the
The
プログラム記憶部M1は、図6〜図9に示した動作手順に応じて本実施形態を実現するためのプログラムや各種のアプリケーションなどが格納されているほか、それに必要とする情報などが記憶されている。なお、記憶部13は、例えば、SDカード、ICカードなど、着脱自在な可搬型メモリ(記録メディア)を含む構成であってもよく、図示しない所定の外部サーバ上にあってもよい。また、各種情報一時記憶部M2は、フラグ情報、画面情報など、携帯電話機1が動作するために必要な各種の情報を一時的に記憶するワーク領域である。なお、画像記憶部M3、オブジェクト記憶部M4については、後で詳述するものとする。
The program storage unit M1 stores a program and various applications for realizing the present embodiment in accordance with the operation procedure shown in FIGS. 6 to 9, and stores information necessary for the program. Yes. Note that the
無線通信部14は、無線部、ベースバンド部、多重分離部などを備え、例えば、通話機能、電子メール機能、インターネット接続機能などの動作時に、最寄りの基地局2Aとの間でデータの送受信を行うもので、通話機能の動作時にはベースバンド部の受信側から信号を取り込んで受信ベースバンド信号に復調して中央制御部11に対して出力すると、中央制御部11は、音声信号処理部15を介して通話用スピーカSPから音声出力させ、また、通話用マイクMCからの入力音声データを音声信号処理部15から取り込み、送信ベースバンド信号に符号化した後、ベースバンド部の送信側に与えてアンテナAN1から発信出力させる。
The
テレビ放送受信部16は、地上波デジタルテレビ放送を受信するもので、1つのチャンネル枠の中で複数の番組を分割して同時に放送するマルチ編成放送を受信可能となっている。なお、通信端末装置向けのワンセグ放送(1セグ放送)を受信する場合には、1つのチャンネル枠の中で2つ番組を分割して同時に受信可能となり、また、高解像度のデジタルテレビ放送(12セグ放送)を受信する場合には、1つのチャンネル枠の中で3つの番組を分割して同時に受信可能となっている。そして、このテレビ放送受信部16は、アンテナAN2から放送信号を抽出する受信部(アナログ回路部)と、受信した放送信号をOFDM(直交周波数分割多重)復調したり、多重化されている放送信号から映像、音声、データ(文字データ)に分離して復号化したり、圧縮データを解凍したりするなどを行うデジタル回路部を有している。
The television
撮像部17は、カメラ機能を構成する構成要素で、撮像素子(例えば、CCDあるいはCMOS)を有し、静止画撮影のほかに動画撮影も可能となっている。そして、撮像部17は、撮影レンズ、測距センサ、光量センサ、アナログ処理回路、信号処理回路、圧縮伸張回路などを備え、光学ズームを調整制御したり、オートフォーカス時の駆動制御、シャッタ駆動制御、露出、ホワイトバランスなどを制御したりする。この撮像部17には、特殊撮影機能として連写機能を備えており、1回の特殊撮影操作(連写機能を選択した後のシャッタ操作)に応答して、所定時間(例えば、数秒)内で複数回(例えば、2回)の連続撮影を行うようにしている。
The
表示部18は、高精細液晶を使用し、例えば、文字情報、待受画像、静止画、動画、テレビ映像などを表示させるもので、この表示部18の表面には、図示省略したが、細かい透光性スリットを有する視差バリアを生成するための液晶の層が設けられている。視差バリア制御部19は、複数の異なる画像が表示部18に同時に表示されている場合に、ある視野角方向からはある画像が、別の視野角方向からは別の画像が視認されるように視差バリアを表示部18の表層に生成させるもので、中央制御部11の制御下で表示部18の表層に視差バリアを生成させたり、表示部18の表層から視差バリアを消去させたりする。
The
操作部20は、ダイヤル入力、文字入力、コマンド入力などを入力するもので、中央制御部11は、この操作部20からの入力操作信号に応じた処理を実行する。例えば、電源オン/オフ操作に応じて電源オン/オフ処理を実行したり、画像取得操作(画像のダウンロードを指示するダウンロード操作や撮影を指示する撮影操作など)に応じて画像取得処理を実行したりする。RTC(リアルタイムクロックモジュール)21は、時計部を構成するもので、中央制御部11は、RTC21から現在日時を取得する。報知部22は、サウンドスピーカ22A、LED(発光ダイオード)22B、振動モータ22Cを備え、着信時に駆動されて着信報知を行うほか、アラーム報知時などでも駆動される。
The
図3は、画像記憶部M3を説明するための図である。
画像記憶部M3は、撮像部17により撮影された画像や画像配信装置4からダウンロード受信した画像などの各種の画像データをその画像に関する情報とともに記憶するもので、「画像ID」、「タイトル」、「種別」、「元画像(実データ)」、「加工処理済み画像(実データ)」、…、を有する構成となっている。ここで、「画像ID」は、画像を識別する一連番号などである。「タイトル」は、画像に付された付加情報(画像名)である。
FIG. 3 is a diagram for explaining the image storage unit M3.
The image storage unit M3 stores various image data such as an image captured by the
「種別」は、画像の種類として静止画であるか動画であるかを示す。「元画像(実データ)」は、画像の実際のデータであり、この画像データ(実データ)の一部分に対して、所定の加工処理が施される前の元の画像データを示している。これに対して「加工処理済み画像(実データ)」は、元画像に対して加工処理が施された後の画像データを示している。なお、「元画像」と「加工処理済み画像」とは1対1の関係で記憶されている場合に限らず、「加工処理済み画像」が記憶されていない場合もあり、図中、「−」は、加工処理済み画像が記憶されていないことを示している。 “Type” indicates whether the image type is a still image or a moving image. “Original image (actual data)” is actual data of an image, and indicates original image data before a predetermined processing is performed on a part of the image data (actual data). On the other hand, “processed image (actual data)” indicates image data after the original image is processed. The “original image” and the “processed image” are not limited to being stored in a one-to-one relationship, and the “processed image” may not be stored. "" Indicates that no processed image is stored.
ここで、所定の加工処理とは、画像内に含まれている特定のオブジェクト(人物、文字列など)に対して、そのオブジェクトを消去したり、モザイクをかけたり、他の画像に置き換えたりする処理を示し、中央制御部11は、表示対象として指定された画像を表示部18に表示させる場合に、その画像を解析することによりその画像内に特定のオブジェクトが含まれているか否かを判別し、特定のオブジェクトが含まれている場合には、当該画像に対して上述した所定の加工処理を施すようにしている。この場合、中央制御部11は、視差バリア制御部19に対して視差バリアの生成を指示するとともに、加工処理前の元画像(第1画像)と加工処理済みの画像(第2画像)とを表示部18に同時に表示させるようにしている。なお、加工処理を施す範囲は、特定のオブジェクトだけに限らず、画像全体など、特定のオブジェクトを含む任意の範囲であってもよい。
Here, the predetermined processing is to delete a specific object (person, character string, etc.) included in the image, apply a mosaic, or replace it with another image. In the process, the
図4は、オブジェクト記憶部M4を説明するための図である。
オブジェクト記憶部M4は、上述した所定の加工処理の対象となるオブジェクトを特定するための情報と、そのオブジェクトに対してどのような種類の加工を施すかを示す加工処理内容とを記憶するもので、「オブジェクトID」、「タイトル」、「実データ」、「加工処理内容」、…、を有する構成となっている。「オブジェクトID」は、オブジェクトを識別する一連番号などである。「タイトル」は、オブジェクトに付された付加情報(オブジェクト名)である。「種別」は、オブジェクトの種類として画像であるかテキストであるかを示している。「実データ」は、オブジェクトの実際のデータ(画像データ、文字列データ)を示し、「加工処理内容」は、そのオブジェクトに施す加工処理の種類(消去、モザイク、置き換え)を示している。そして、このようなオブジェクト記憶部M4の内容は、ユーザ操作により任意に設定可能となっている。
FIG. 4 is a diagram for explaining the object storage unit M4.
The object storage unit M4 stores information for specifying an object that is a target of the predetermined processing described above, and processing processing contents indicating what kind of processing is performed on the object. , “Object ID”, “title”, “actual data”, “processing content”,... The “object ID” is a serial number for identifying an object. “Title” is additional information (object name) attached to the object. “Type” indicates whether the object type is an image or text. “Real data” indicates the actual data (image data, character string data) of the object, and “Processing content” indicates the type of processing (erasure, mosaic, replacement) to be performed on the object. The contents of the object storage unit M4 can be arbitrarily set by a user operation.
図5は、表示部18の表層に視差バリアが生成されている状態において、表示対象として指定された画像内の特定のオブジェクトに対して加工処理を施した加工処理済み画像と、その加工処理を施す前の元画像とが表示部18に同時に表示されている場合に、表示部18に対向しているユーザや第三者の視野角方向により見ることができる画像がそれぞれ異なることを説明するための図である。
FIG. 5 shows a processed image obtained by processing a specific object in an image designated as a display target in a state where a parallax barrier is generated on the surface layer of the
図5(1)は、表示部18に対向してその略正面から見ているユーザと、正面以外の左右両側から見ている第三者とを示した図である。この場合、表示部18を略正面から見るときの視野角方向を第1視野角方向と称呼し、この第1視野角方向から外れた左右両側の視野角方向を第2視野角方向と称呼すると、第1視野角方向からは元画像が、第2視野角方向からは加工処理済み画像が視認されるような視差バリアを表示部18の表層に生成するようにしている。従って、表示部18を略正面から見るユーザにあっては、元画像を視認することができ、正面以外の左右両側から見る第三者にあっては、加工処理済み画像を視認することができるようになる。
FIG. 5A is a diagram illustrating a user who is facing the
図5(2)、(3)は、元画像と加工処理済み画像を具体的に例示した図である。すなわち、図示の例では、表示部18の略正面に位置している画像が元画像となり、その左右両側に位置している画像が加工処理済み画像となる。そして、図5(2)は、元画像(2人の人物を撮影した画像)を加工した加工処理済み画像として、元画像内から特定のオブジェクト(家族などの人物)を消去した画像を示し、また、図5(3)は、元画像(緊急連絡先と住所を含む画像)内の特定のオブジェクト(電話番号や住所の文字列)をモザイク処理した画像を示している。
FIGS. 5B and 5C are diagrams specifically illustrating the original image and the processed image. That is, in the example shown in the figure, the image located substantially in front of the
次に、第1実施形態における携帯電話機1の動作概念を図6〜図9に示すフローチャートを参照して説明する。ここで、これらのフローチャートに記述されている各機能は、読み取り可能なプログラムコードの形態で格納されており、このプログラムコードにしたがった動作が逐次実行される。また、ネットワークなどの伝送媒体を介して伝送されてきた上述のプログラムコードに従った動作を逐次実行することもできる。このことは後述する他の実施形態においても同様であり、記録媒体のほかに、伝送媒体を介して外部供給されたプログラム/データを利用して本実施形態特有の動作を実行することもできる。
Next, the operation concept of the
図6は、電源投入に伴って実行開始される携帯電話機1側の全体動作の概要を示したメインのフローチャートである。
先ず、中央制御部11は、電源を投入する電源オン操作が行われると(ステップA1でYES)、電源供給を開始させて所定のメモリなどを初期化する電源オン処理を実行した後、所定の待受画像を読み出して表示させたり、基地局2Aとの間で通信を行って位置登録をしたりする待受処理を行う(ステップA2)。この状態において、設定操作が行われたかを調べたり(ステップA3)、画像取得操作が行われたかを調べたり(ステップA5)、画像表示指示の発生を検出したかを調べたり(ステップA7)、着信を検出したかを調べたり(ステップA9)、電源オフ操作が行われたかを調べたり(ステップA11)、その他の操作が行われたかを調べる(ステップA13)。
FIG. 6 is a main flowchart showing an outline of the overall operation on the
First, when a power-on operation for turning on the power is performed (YES in Step A1), the
いま、任意の情報を設定するために設定操作が行われたときには(ステップA3でYES)、その操作に対応する設定処理を行う(ステップA4)。例えば、オブジェクト記憶部M4に対する設定処理としては、秘匿を希望するユーザの家族の画像や電話番号などを加工対象のオブジェクトとして指定してオブジェクト記憶部M4に設定する処理を行う。このような設定処理が終わると、上述のステップA3に戻る。また、画像取得操作が行われたときには、つまり、画像のダウンロードを指示するダウンロード操作や撮影を指示する撮影操作などの画像取得操作が行われたときには(ステップA5でYES)、画像取得処理を行った後(ステップA6)、上述のステップA3に戻る。この画像取得処理は、ダウンロードや撮影などで取得した画像を画像記憶部M3に記憶させる処理である。 If a setting operation is performed to set arbitrary information (YES in step A3), a setting process corresponding to the operation is performed (step A4). For example, as the setting process for the object storage unit M4, a process is performed in which an image or a telephone number of a user who desires concealment is specified as an object to be processed and set in the object storage unit M4. When such setting processing ends, the process returns to step A3 described above. Further, when an image acquisition operation is performed, that is, when an image acquisition operation such as a download operation instructing image download or a shooting operation instructing shooting is performed (YES in step A5), an image acquisition process is performed. After that (step A6), the process returns to step A3 described above. This image acquisition process is a process of storing an image acquired by downloading or shooting in the image storage unit M3.
図7は、画像取得処理(図6のステップA6)を詳述するためのフローチャートである。
先ず、中央制御部11は、画像取得処理の開始を指示する画像取得操作が特殊撮影操作によるものなのか(ステップB1)、通常の撮影操作によるものなのか(ステップB6)、ダウンロード操作によるものなのかその他の操作によるものなのかを調べる(ステップB9)。いま、画像取得操作が特殊撮影操作によるものであれば(ステップB1でYES)、撮像部17の特殊撮影機能(連写機能)を作動させて、所定時間内に複数回の連続撮影を行わせる(ステップB2、B3)。
FIG. 7 is a flowchart for explaining the image acquisition process (step A6 in FIG. 6) in detail.
First, the
すなわち、例えば、ある被写体(例えば、秘匿を希望する家族などの特定の被写体)を含む画像(画像A)の撮影を行わせた後(ステップB2)、その被写体自体を撮影範囲外に移動させたり、又はその被写体が撮影範囲内に含まれないように撮影範囲を移動したりして、その特定の被写体を含まない画像(画像B)の撮影を行わせる(ステップB3)。そして、最初に撮影された画像(特定の被写体を含む画像)Aを「元画像」として画像記憶部M3に記憶させるとともに(ステップB4)、次に撮影された画像(特定の被写体を含まない画像)Bを「加工処理済み画像」として画像記憶部M3に記憶させる(ステップB5)。 That is, for example, after photographing an image (image A) including a certain subject (for example, a specific subject such as a family member who wants to keep secret) (step B2), the subject itself is moved out of the photographing range. Alternatively, the shooting range is moved so that the subject is not included in the shooting range, and an image (image B) not including the specific subject is shot (step B3). Then, the first captured image (image including a specific subject) A is stored as an “original image” in the image storage unit M3 (step B4), and the next captured image (image not including the specific subject) ) B is stored as “processed image” in the image storage unit M3 (step B5).
また、画像取得操作が通常の撮影操作によるものであれば(ステップB6でYES)、上述のような特殊撮影ではない通常の画像撮影を行わせた後(ステップB7)、その撮影された画像を「元画像」として画像記憶部M3に記憶させる(ステップB8)。また、画像取得操作がダウンロード操作によるものであれば(ステップB9でYES)、画像配信装置4から画像(動画や静止画)をダウンロード受信して(ステップB10)、この画像を「元画像」として画像記憶部M3に記憶させる(ステップB8)。また、画像取得操作が上述の撮影操作やダウンロード操作以外のその他の操作によるものであれば(ステップB9でNO)、例えば、外部記録媒体からの画像コピーなどを指示するコピー操作であれば、外部記憶媒体から画像をコピー取得するなど、その操作に応じた画像取得処理を実行した後(ステップB11)、この画像を「元画像」として画像記憶部M3に記憶させる(ステップB8)。 If the image acquisition operation is a normal shooting operation (YES in step B6), after the normal image shooting that is not the special shooting as described above is performed (step B7), the shot image is displayed. It is stored in the image storage unit M3 as “original image” (step B8). If the image acquisition operation is a download operation (YES in step B9), an image (moving image or still image) is downloaded and received from the image distribution device 4 (step B10), and this image is set as the “original image”. The image is stored in the image storage unit M3 (step B8). Further, if the image acquisition operation is based on other operations other than the above-described shooting operation and download operation (NO in step B9), for example, if the operation is a copy operation instructing image copying from an external recording medium, external After executing image acquisition processing corresponding to the operation, such as acquiring an image copy from the storage medium (step B11), the image storage unit M3 stores the image as an “original image” (step B8).
このような画像取得処理(図6のステップA6)が終わると、図6のステップA3に戻る。ここで、画像表示指示の発生を検出したか(ステップA7)、つまり、ユーザ操作により画像表示が指示されたとき又はスライドショーのように複数の画像を所定時間毎に次々に切り替え表示させるための切り替えタイミングを検出したときには、画像表示処理を行った後(ステップA8)、上述のステップA3に戻る。この画像表示処理は、表示部18に表面に視差バリアを生成させることにより、上述の第1視野角方向からは元画像が、上述の第2視野角方向からは加工処理済み画像が視認されるように制御する処理(個別閲覧処理)の実行を指示したり、表示部18の視差バリアを消去させることにより、第1視野角方向、第2視野角方向を問わず、その両方から元画像が視認されるように制御する処理(共通閲覧処理)の実行を指示したりする。
When such an image acquisition process (step A6 in FIG. 6) ends, the process returns to step A3 in FIG. Here, whether the generation of an image display instruction has been detected (step A7), that is, switching for displaying a plurality of images one after another at predetermined time intervals when an image display is instructed by a user operation or as in a slide show When the timing is detected, image display processing is performed (step A8), and then the process returns to step A3 described above. In this image display process, by causing the
図8及び図9は、画像表示処理(図6のステップA8)を詳述するためのフローチャートである。
先ず、中央制御部11は、画像の表示指示の発生がテレビ番組の視聴操作によるものなのか(図8のステップC1)、動画ストリーミング視聴操作によるものなのかその他の要因として、例えば、画像記憶部M3に記憶されている画像の表示操作によるものなのか、次の画像への切り替え表示(自動表示)によるものなのかを調べる(図9のステップC18)。
8 and 9 are flowcharts for explaining the image display process (step A8 in FIG. 6) in detail.
First, the
いま、テレビ番組の視聴操作によるものであれば(図8のステップC1でYES)、テレビ機能を起動させて、テレビ放送受信部16から画像(テレビ番組)を受信する受信動作を開始した後(ステップC2)、画像(テレビ番組)を表示する処理を行うと共に、上述の画像取得処理に相当する処理も併せて行う。先ず、加工処理済み画像も送信されているか、つまり、マルチ編成放送が行われているかを調べる(ステップC3)。すなわち、現在受信中の番組のテレビ映像を第1画像とすると、この第1画像と異なるテレビ映像が第2画像(加工処理済み画像)として現チャンネル枠内の他の番組で放送されているか、言い換えれば、特定のオブジェクト(例えば、悲惨な映像部分など)を含まない番組が放送されているかを判別し、その判別結果に基づいて、上述の個別閲覧処理の実行を指示したり、上述の共通閲覧処理の実行を指示したりする。いま、このようなマルチ編成放送が行われている場合、つまり、特定のオブジェクトを含まない加工処理済み画像(テレビ番組の映像)も送信されている場合には(ステップC3でYES)、先ず、上述の個別閲覧処理を実行する準備として、この加工処理済み画像の受信を開始した後(ステップC4)、上述の第1画像を「元画像」として各種情報一時記憶部M2に一時記憶させ(ステップC5)、また、上述の第2画像(加工処理済み画像)を各種情報一時記憶部M2に一時記憶させる(ステップC6)。
If the operation is based on a TV program viewing operation (YES in step C1 in FIG. 8), the TV function is activated and a reception operation for receiving an image (TV program) from the TV
そして、中央制御部11は、視差バリア制御部19を駆動させることにより、表示部18の略正面から見る場合の視野角方向からは第1画像(元画像)が、正面以外の左右両側の見る場合の視野角方向からは第2画像(加工処理済み画像)が視認されるように視差バリアを表示部18の表層に生成させた後(ステップC7)、この第1画像(元画像)及び第2画像(加工処理済み画像)を表示部18に同時に表示させる(ステップC8)。これによって図5で示したようにユーザは元画像を、第三者は加工処理済み画像を見ることができるようになる。その後、図8及び図9のフローから抜ける。
Then, the
一方、上述のようなマルチ編成放送が行われていない場合、つまり、加工処理済み画像も送信されていない場合には(ステップC3でNO)、更に、上述の第1画像を「元画像」として各種情報一時記憶部M2に一時記憶させた後(ステップC9)、この元画像を解析することにより画像内に含まれている各オブジェクトを抽出する(ステップC10)。そして、オブジェクト記憶部M4に記憶されている各オブジェクトを読み出し(ステップC11)、上述の元画像の解析結果と、読み出した各オブジェクトとを比較することにより元画像内にいずれかのオブジェクトが含まれているかを調べる(ステップC12)。 On the other hand, when the multi-organization broadcast as described above is not performed, that is, when the processed image is not transmitted (NO in step C3), the first image is further set as the “original image”. After being temporarily stored in the various information temporary storage unit M2 (step C9), each object included in the image is extracted by analyzing the original image (step C10). And each object memorize | stored in the object memory | storage part M4 is read (step C11), and any object is included in the original image by comparing the analysis result of the above-mentioned original image with each read object. (Step C12).
すなわち、中央制御部11は、受信したテレビ番組の映像(元画像)の中に特定のオブジェクト(例えば、悲惨な映像部分など)が含まれているかを判別し、その判別結果に基づいて、上述の個別閲覧処理の実行を指示したり、上述の共通閲覧処理の実行を指示したりする。いま、元画像内にいずれのオブジェクトも含まれていなければ(ステップC12でNO)、上述の共通閲覧処理を実行するために、次のステップC16に移り、表示部18に視差バリアが生成されていれば、それを消去させた後、元画像を表示部18に表示させる(ステップC17)。その後、図8及び図9のフローから抜ける。
That is, the
テレビ番組の映像(元画像)の中に特定のオブジェクトが含まれていれば(ステップC12でYES)、先ず、上述の個別閲覧処理を実行する準備として、ステップC13に移り、元画像内に含まれているオブジェクト対応の「加工処理内容」を読み出した後、この「加工処理内容」に応じた加工処理を実行することにより、加工処理済み画像を取得する(ステップC14)。なお、画像配信装置4側で元画像(テレビ映像)に対する加工処理が実行されたときにはその加工処理済み画像を画像配信装置4から受信取得したり、予め記憶されている加工処理済み画像を画像配信装置4から受信取得したりするようにしてもよい。そして、上述のようにして取得した加工処理済み画像を各種情報一時記憶部M2に一時記憶させた後(ステップC15)、視差バリア制御部19を駆動させて、表示部18の表層に視差バリアを生成させた後(ステップC7)、第1画像(元画像)及び第2画像(加工処理済み画像)を表示部18に同時に表示させる(ステップC8)。
If a specific object is included in the video (original image) of the television program (YES in step C12), first, in preparation for executing the above-described individual browsing process, the process proceeds to step C13 and is included in the original image. After reading the “processing content” corresponding to the object being processed, a processing image corresponding to this “processing content” is executed to obtain a processed image (step C14). When the image distribution device 4 performs processing on the original image (television video), the processed image is received and acquired from the image distribution device 4 or the preprocessed processed image is distributed. You may make it receive and acquire from the apparatus 4. FIG. Then, after the processed image acquired as described above is temporarily stored in the various information temporary storage unit M2 (step C15), the parallax
他方、画像の表示指示の発生が動画ストリーミング視聴操作によるものであれば(図9のステップC18でYES)、画像配信装置4から配信される画像(動画)を元画像(第1画像)として受信する受信動作を開始した後(ステップC19)、この画像を表示する処理を行うと共に、上述の画像取得処理に相当する処理も併せて行う。先ず、この第1画像と異なる第2画像(加工処理済み画像)が画像配信装置4から配信されているかを調べる(ステップC20)。すなわち、特定のオブジェクト(例えば、悲惨な映像部分など)を含まない画像が第2画像(加工処理済み画像)として配信されているかを判別し、その判別結果に基づいて、上述の個別閲覧処理の実行を指示したり、上述の共通閲覧処理の実行を指示したりする。 On the other hand, if the image display instruction is generated by a video streaming viewing operation (YES in step C18 in FIG. 9), the image (moving image) distributed from the image distribution device 4 is received as the original image (first image). After starting the receiving operation (step C19), the processing for displaying this image is performed, and the processing corresponding to the above-described image acquisition processing is also performed. First, it is checked whether a second image (processed image) different from the first image is distributed from the image distribution device 4 (step C20). That is, it is determined whether an image that does not include a specific object (for example, a miserable video portion) is distributed as the second image (processed image), and based on the determination result, the above-described individual browsing process is performed. Execution is instructed or execution of the above-described common browsing process is instructed.
いま、第2画像(加工処理済み画像)が配信されていなければ(ステップC20でNO)、図8のステップC9に移り、以下、上述の動作を行い、元画像を解析してその中に特定のオブジェクトが含まれている否かを判別し、その判別結果に応じて上述の個別閲覧処理を実行したり、上述の共通閲覧処理を実行したりする。また、第2画像(加工処理済み画像)が配信されていれば(図9のステップC20でYES)、この第2画像(加工処理済み画像)を受信した後(ステップC21)、図8のステップC5に移り、以下、元画像及び加工処理済み画像を一時記憶させる(ステップC5、C6)。そして、上述の個別閲覧処理を実行するために、ステップC7に移り、表示部18の表層に視差バリアを生成させた後、第1画像(元画像)及び第2画像(加工処理済み画像)を表示部18に同時に表示させる(ステップC8)。
If the second image (processed image) has not been distributed (NO in step C20), the process proceeds to step C9 in FIG. 8, and then the above-described operation is performed to analyze the original image and identify it. It is determined whether or not the object is included, and the above-described individual browsing process is executed according to the determination result, or the above-described common browsing process is executed. If the second image (processed image) has been distributed (YES in step C20 in FIG. 9), after receiving the second image (processed image) (step C21), the step in FIG. Moving to C5, the original image and the processed image are temporarily stored (steps C5 and C6). And in order to perform the above-mentioned individual browsing process, after moving to Step C7 and generating a parallax barrier on the surface layer of the
画像の表示指示の発生がその他の要因によるものであれば(図9のステップC18でNO)、例えば、画像記憶部M3に記憶されている画像(撮影画像、コピー画像など)に対する表示操作が行われた場合や画像記憶部M3に記憶されている画像の自動表示が指示された場合には、表示を指示された画像の「元画像」を画像記憶部M3から読み出し(ステップC22)、この「元画像」に対応して「加工処理済み画像」が画像記憶部M3に記憶されているかを調べる(ステップC23)。すなわち、特定のオブジェクト(例えば、家族などの被写体)を含まない画像が第2画像(加工処理済み画像)として記憶されているかを判別し、その判別結果に基づいて、上述の個別閲覧処理の実行を指示したり、上述の共通閲覧処理の実行を指示したりする。 If the generation of the image display instruction is due to other factors (NO in step C18 in FIG. 9), for example, a display operation is performed on an image (captured image, copy image, etc.) stored in the image storage unit M3. If an automatic display of an image stored in the image storage unit M3 is instructed, the “original image” of the image instructed to be displayed is read from the image storage unit M3 (step C22). It is checked whether or not the “processed image” is stored in the image storage unit M3 corresponding to the “original image” (step C23). That is, it is determined whether an image that does not include a specific object (for example, a subject such as a family member) is stored as the second image (processed image), and the above-described individual browsing process is executed based on the determination result. Or instructing the execution of the common browsing process described above.
いま、「加工処理済み画像」が記憶されていなければ(ステップC23でNO)、図8のステップC9に移り、以下、上述の動作を行い、元画像を解析してその中に特定のオブジェクトが含まれているか否かを判別し、その判別結果に応じて上述の個別閲覧処理を実行したり、上述の共通閲覧処理を実行したりする。また、「加工処理済み画像」が画像記憶部M3に記憶されていれば(ステップC23でYES)、この「加工処理済み画像」を読み出した後(ステップC24)、図8のステップC5に移り、以下、上述の動作を行い、以下、元画像及び加工処理済み画像を一時記憶させる(ステップC5、C6)。そして、上述の個別閲覧処理を実行するために、ステップC7に移り、表示部18の表層に視差バリアを生成させた後、第1画像(元画像)及び第2画像(加工処理済み画像)を表示部18に同時に表示させる(ステップC8)。
If the “processed image” is not stored (NO in step C23), the process proceeds to step C9 in FIG. 8, and the above-described operation is performed to analyze the original image and a specific object is included therein. It is determined whether or not it is included, and the individual browsing process described above is executed according to the determination result, or the common browsing process described above is executed. If the “processed image” is stored in the image storage unit M3 (YES in step C23), after reading this “processed image” (step C24), the process proceeds to step C5 in FIG. Thereafter, the above-described operation is performed, and thereafter, the original image and the processed image are temporarily stored (steps C5 and C6). And in order to perform the above-mentioned individual browsing process, after moving to Step C7 and generating a parallax barrier on the surface layer of the
他方、着信を検出したときには(図6のステップA9でYES)、その応答操作に応じて通話処理を行った後(ステップA10)、上述のステップA3に戻る。また、電源オフ操作を検出したときには(ステップA11でYES)、電源オフ処理を行った後(ステップA12)、このフローの終了となるが、発信操作など、その他の操作が行われたときには(ステップA13でYES)、操作に応じた処理として発信処理などを行った後(ステップA14)、上述のステップA3に戻る。 On the other hand, when an incoming call is detected (YES in step A9 in FIG. 6), call processing is performed according to the response operation (step A10), and then the process returns to step A3 described above. When a power-off operation is detected (YES in step A11), after the power-off process is performed (step A12), this flow ends. However, when other operations such as a calling operation are performed (step A12) After a transmission process is performed as a process corresponding to the operation (step A14), the process returns to the above-described step A3.
以上のように、この実施形態において中央制御部11は、表示部18に表示させる画像に特定のオブジェクトが含まれるか否かに基づいて、複数の視野角方向から同じ画像が視認されるように制御するか、別々の画像が視認されるように制御するようにしたので、複数人に同じ内容の画像を見せるか、一部の人に異なる画像を見せるかを特別な操作を要求することなく適切に制御することができる。従って、例えば、会社の同僚達と一緒に画像を閲覧するような場合に、同僚に対して家族の画像や電話番号などの特定のオブジェクトだけを見せないようにすることができ、また、電車内で画像を閲覧している場合に他人に覗き見されたとしても家族の画像や電話番号などの特定のオブジェクトだけを見せないようにすることができるなど、実用性に富んだものとなる。
As described above, in this embodiment, the
表示部18に表示させる画像に特定のオブジェクトが含まれている場合には、複数の視野角方向から別々の画像が視認されるように制御するようにしたので、例えば、ある視野角方向からは第三者に閲覧されたくない画像が視認されるように制御することができ、それ以外の視野角方向からは第三者に閲覧されたとしても問題のない画像だけが視認されるように制御することができる。
When a specific object is included in the image displayed on the
特定のオブジェクトに加工処理が施された画像を第2画像として取得するようにしたので、この取得した第2画像を第1画像とともに表示部8に同時に表示させることができ、ある視野角方向からは特定のオブジェクトが含まれる画像が視認させ、別の視野角方向からは特定のオブジェクトに加工処理が施された画像が視認させることができる。 Since the image obtained by performing the processing on the specific object is acquired as the second image, the acquired second image can be simultaneously displayed on the display unit 8 together with the first image. Makes it possible to visually recognize an image including a specific object and to visually recognize an image obtained by processing the specific object from another viewing angle direction.
特定のオブジェクトが含まれる画像を第1画像とし、この第1画像内の特定のオブジェクトに対して加工処理を施すことによって、この特定のオブジェクトに加工処理が施された画像を第2画像として取得するようにしたので、第1画像を元にその画像とは異なる画像を得ることができる。 An image including a specific object is set as a first image, and the specific object in the first image is processed to obtain an image obtained by processing the specific object as a second image. Therefore, an image different from the first image can be obtained based on the first image.
特定のオブジェクトに加工処理が施された画像を外部の画像配信装置4から取得するようにしたので、加工処理が施された画像を容易に得ることができる。 Since an image in which a specific object has been processed is acquired from the external image distribution device 4, an image that has been processed can be easily obtained.
画像内に特定のオブジェクトが含まれていなければ、複数の視野角方向からその画像が視認されるように制御するようにしたので、誰に閲覧されても問題のない画像に対する制御として適切なものとなる。 As long as a specific object is not included in the image, it is controlled so that the image can be viewed from a plurality of viewing angle directions. It becomes.
撮像部17により撮影された画像内に特定のオブジェクトが含まれているか否かを判別するようにしたので、撮影された画像に基づいて、複数の視野角方向から同じ画像が視認されるようにするか、別々の画像が視認されるようにするかを制御することができる
Since it is determined whether or not a specific object is included in the image captured by the
撮像部17は、特定のオブジェクトを含む画像と、そのオブジェクトを含まない画像とを撮影し、この特定のオブジェクトを含む撮影画像と特定のオブジェクトを含まない撮影画像とを表示部8に同時に表示させるようにしたので、ある視野角方向からは特定のオブジェクトを含む撮影画像が視認されるように制御することができ、それ以外の視野角方向からは特定のオブジェクトを含まない撮影画像が視認されるように制御することができる。
The
表示部18に表示させる画像に特定のオブジェクトが含まれる場合に、ある視野角方向からはその画像が視認されるように制御し、別の視野角方向からはそのオブジェクトに対する加工処理後の画像が視認されるように制御するようにしたので、複数人に異なる画像を見せることができ、覗き見などに適切に対応することができる。
When a specific object is included in an image to be displayed on the
この場合、特定のオブジェクトが含まれない場合には、画像が第1視野角方向と第2視野角方向の両方から視認されるように表示部8を制御するようにしたので、特定のオブジェクトが含まれない場合には、第三者に閲覧されても問題のない画像とすることができる。 In this case, when the specific object is not included, the display unit 8 is controlled so that the image is viewed from both the first viewing angle direction and the second viewing angle direction. If it is not included, the image can be displayed without problems even if viewed by a third party.
(第2実施形態)
以下、この発明の第2実施形態について図10及び図11を参照して説明する。
なお、上述した第1実施形態においては、表示部18に表示させる画像に特定のオブジェクトが含まれるか否かに基づいて、複数の視野角方向から同じ画像が視認されるようにするか、別々の画像が視認されるようにするかを制御するようにしたが、この第2実施形態においては、表示部18に表示させる画像がそれとは異なる画像に対応付けられているか否かに基づいて、複数の視野角方向から同じ画像が視認されるようにするか、別々の画像が視認されるようにするかを制御するようにしたものである。ここで、両実施形態において基本的あるいは名称的に同一のものは、同一符号を付して示し、その説明を省略するとともに、以下、第2実施形態の特徴部分を中心に説明するものとする。
(Second Embodiment)
Hereinafter, a second embodiment of the present invention will be described with reference to FIGS.
In the first embodiment described above, the same image is viewed from a plurality of viewing angle directions based on whether or not a specific object is included in the image to be displayed on the
なお、第2実施形態においても、電源投入に伴って実行開始される携帯電話機1側の全体動作は、図6のフローチャートと同様であるため、その説明は省略するが、画像取得処理(図6のステップA6)は、上述した図7に代わる図10のフローチャート、また、画像表示処理(図6のステップA8)は、上述した図8及び図9に代わる図11のフローチャートに従って実行するようにしている。
In the second embodiment as well, since the overall operation on the
図10は、第2実施形態における画像取得処理(図6のステップA6)を詳述するためのフローチャートである。
先ず、中央制御部11は、画像取得処理の開始を指示する画像取得操作が特殊撮影操作によるものなのか(ステップD1)、通常の撮影操作によるものなのか(ステップD6)、ダウンロード操作によるものなのかその他の操作によるものなのかを調べる(ステップD15)。いま、画像取得操作が特殊撮影操作によるものであれば(ステップD1でYES)、上述した図7のステップB2〜B5と同様に、撮像部17の特殊連写機能を作動させて、所定時間内に複数回の連続撮影を行わせることにより、特定のオブジェクトを含む画像Aと、特定のオブジェクトを含まない画像Bを取得する(ステップD2、D3)。そして、最初に撮影された画像Aを「元画像」として画像記憶部M3に記憶させるとともに(ステップD4)、次に撮影された画像Bを「加工処理済み画像」として画像記憶部M3に記憶させる(ステップD5)。
FIG. 10 is a flowchart for explaining in detail the image acquisition process (step A6 in FIG. 6) in the second embodiment.
First, the
また、画像取得操作が通常の撮影操作によるものであれば(ステップD6でYES)、通常の画像撮影を行わせた後(ステップD7)、その撮影された画像を「元画像」として画像記憶部M3に記憶させる(ステップD8)。そして、この元画像を解析することにより、この元画像内に含まれている各オブジェクトを抽出するとともに(ステップD9)、オブジェクト記憶部M4に記憶されている各オブジェクトを読み出し(ステップD10)、上述の元画像の解析結果と、読み出した各オブジェクトとを比較することにより元画像内にいずれかのオブジェクトが含まれているかを調べる(ステップD11)。ここで、いずれのオブジェクトも含まれていなければ(ステップD11でNO)、図10のフローから抜ける。 If the image acquisition operation is based on a normal shooting operation (YES in step D6), after the normal image shooting is performed (step D7), the captured image is set as an “original image”. It is stored in M3 (step D8). Then, by analyzing the original image, each object included in the original image is extracted (step D9), and each object stored in the object storage unit M4 is read (step D10). By comparing the analysis result of the original image and each read object, it is checked whether any object is included in the original image (step D11). Here, if none of the objects is included (NO in step D11), the flow of FIG. 10 is exited.
また、元画像内にいずれかのオブジェクトが含まれていれば(ステップD11でYES)、元画像内に含まれているオブジェクト対応の「加工処理内容」を読み出した後(ステップD12)、この「加工処理内容」に応じた加工処理を実行することによって、加工処理済み画像を取得する(ステップD13)。なお、画像配信装置4側で元画像に対する画像加工処理を実行させてその加工処理済み画像を画像配信装置4から受信取得したり、予め記憶されている加工処理済み画像を画像配信装置4から受信取得したりするようにしてもよい。そして、上述のようにして取得した加工処理済み画像を「元画像」に対応付けて画像記憶部M3に記憶させた後(ステップD14)、図10のフローから抜ける。 If any object is included in the original image (YES in step D11), the “processing contents” corresponding to the object included in the original image is read (step D12), and then “ The processed image is acquired by executing the processing according to “processing content” (step D13). The image distribution apparatus 4 executes image processing on the original image and receives the processed image from the image distribution apparatus 4 or receives a preprocessed processed image from the image distribution apparatus 4. You may make it acquire. Then, after the processed image acquired as described above is stored in the image storage unit M3 in association with the “original image” (step D14), the process goes out of the flow of FIG.
また、画像取得操作がダウンロード操作によるものであれば(ステップD15でYES)、画像配信装置4から画像(動画や静止画)をダウンロード受信して(ステップD16)、この画像を「元画像」として画像記憶部M3に記憶させた後(ステップD8)、上述の画像解析を行うステップD9に移り、以下、上述の動作を行う。また、画像取得操作が撮影操作やダウンロード操作以外のその他の操作によるものであれば(ステップD15でNO)、例えば、外部記録媒体からの画像コピーなどを指示するコピー操作であれば、外部記憶媒体から画像をコピー取得するなど、その操作に応じた画像取得処理を実行する(ステップD17)。そして、取得した画像を「元画像」として画像記憶部M3に記憶させた後(ステップD8)、上述の画像解析を行うステップD9に移り、以下、上述の動作を行う。 If the image acquisition operation is a download operation (YES in step D15), an image (moving image or still image) is downloaded and received from the image distribution device 4 (step D16), and this image is set as an “original image”. After storing the image in the image storage unit M3 (step D8), the process proceeds to step D9 where the above-described image analysis is performed, and then the above-described operation is performed. Further, if the image acquisition operation is based on other operations other than the shooting operation and the download operation (NO in step D15), for example, if the copy operation is an instruction to copy an image from an external recording medium, the external storage medium Then, an image acquisition process corresponding to the operation is executed (step D17). Then, after the acquired image is stored as “original image” in the image storage unit M3 (step D8), the process proceeds to step D9 where the above-described image analysis is performed, and the above-described operation is performed.
図11は、第2実施形態において画像表示処理(図6のステップA8)を詳述するためのフローチャートである。
先ず、中央制御部11は、画像記憶部M3に記憶されている画像(撮影画像、コピー画像など)に対する表示操作が行われた場合や画像記憶部M3に記憶されている画像の自動表示が指示された場合に、表示を指示された画像の「元画像」を画像記憶部M3から読み出し(ステップE1)、この「元画像」を各種情報一時記憶部M2に一時記憶させた後(ステップE2)、「元画像」に対応して「加工処理済み画像」が画像記憶部M3に記憶されているかを調べる(ステップE3)。すなわち、特定のオブジェクト(例えば、家族などの被写体)が含まれていない画像が画像記憶部M3内に加工処理済み画像として記憶されているか否かを判別し、その判別結果に基づいて、上述の個別閲覧処理の実行を指示したり、上述の共通閲覧処理の実行を指示したりする。いま、「加工処理済み画像」が記憶されていない場合には(ステップE3でNO)、上述の共通閲覧処理を実行するために、次のステップE8に移り、表示部18に視差バリアが生成されていれば、それを消去させた後、元画像を表示部18に表示させる(ステップE9)。その後、図11のフローから抜ける。
FIG. 11 is a flowchart for explaining in detail the image display process (step A8 in FIG. 6) in the second embodiment.
First, the
また、「元画像」に対応して「加工処理済み画像」が画像記憶部M3に記憶されていれば(ステップE3でYES)、上述の個別閲覧処理を実行する準備として、この「加工処理済み画像」を読み出した後(ステップE4)、この加工処理済み画像を各種情報一時記憶部M2に一時記憶させる(ステップE5)。そして、視差バリア制御部19を駆動させて、表示部18の表層に視差バリアを生成させた後(ステップE6)、元画像及び加工処理済み画像を表示部18に同時に表示させる(ステップE7)。その後、図11のフローから抜ける。
If “processed image” corresponding to “original image” is stored in the image storage unit M3 (YES in step E3), the “processed image” is prepared as a preparation for executing the individual browsing process described above. After the “image” is read (step E4), the processed image is temporarily stored in the various information temporary storage unit M2 (step E5). Then, the parallax
以上のように、第2実施形態においては、表示部18に表示させる画像がそれとは異なる画像に対応付けられているか否かに基づいて、複数の視野角方向から同じ画像が視認されるようにするか、別々の画像が視認されるようにするかを制御するようにしたから、複数人に同じ内容の画像を見せるか、一部の人に異なる画像を見せるかを特別な操作を要求することなく適切に制御することができ、実用性に富んだものとなる。
As described above, in the second embodiment, based on whether an image to be displayed on the
撮影された特定のオブジェクトを含む画像が、撮影された特定のオブジェクトを含まない画像と対応付けられているか否かに基づいて、複数の視野角方向から同じ画像を視認できるようにするか、別々の画像を視認できるようにするかを制御するようにしたので、例えば、特殊な撮影機能として、特定のオブジェクトを含む画像の撮影後に、その特定のオブジェクトを撮影範囲外に移動させたりして、その特定のオブジェクトを含まない画像を撮影するという撮影機能を携帯電話機が備えている場合には、その撮影機能で撮影された特定のオブジェクトを含む画像と含まない画像とをそれぞれ異なる視野角方向から視認させることができる。 Based on whether or not an image including a specific captured object is associated with an image that does not include a specific captured object, the same image can be viewed from a plurality of viewing angle directions, or separately. For example, as a special shooting function, after shooting an image containing a specific object, the specific object can be moved out of the shooting range. When the mobile phone has a shooting function of shooting an image that does not include the specific object, the image that includes the specific object and the image that does not include the specific object captured by the shooting function are viewed from different viewing angle directions. It can be visually recognized.
なお、上述した各実施形態において表示部18に表示させる画像としては、静止画、動画、テレビ番組に限らず、例えば、テキストを含む画像など、表示部18に表示させる任意の種別の画像であってもよい。また、オブジェクトも人物、文字列に限らず、例えば、人体の一部や建物など、表示部18に表示される任意のオブジェクトであってもよい。
In each of the above-described embodiments, the image displayed on the
上述した各実施形態においては、加工処理内容として、消去、モザイク、置き換えを示したが、これに限らず、特定のオブジェクトに対する任意の加工処理内容であってもよい。また、上述した各実施形態においては、加工処理済み画像を1つとしたが、2つ以上であってもよい。また、元画像と2つ以上の加工処理済み画像を表示部18に同時に表示させ、ある視野角方向からは元画像が視認されるように制御するようにし、別の視野角方向からは第1の加工処理済み画像が、さらに別の視野角方向からは第2の加工処理済み画像が、それぞれ視認されるように制御するようにしてもよい。
In each of the embodiments described above, erasure, mosaic, and replacement are shown as the processing content, but the processing content is not limited to this, and may be any processing content for a specific object. Moreover, in each embodiment mentioned above, although the processed image was taken as one, two or more may be sufficient. Further, the original image and two or more processed images are displayed on the
上述した各実施形態においては、表示部18の略正面の視野角方向からは元画像が視認されるように制御するようにし、それ以外の視野角方向からは加工処理済み画像が視認されるように制御するようにしたが、それに限らず、任意の視野角方向からは元画像が視認されるようにし、それ以外の視野角方向からは加工処理済み画像が視認されるように制御するようにしてもよい。
In each embodiment described above, control is performed so that the original image is visually recognized from the viewing angle direction substantially in front of the
その他、端末装置としては携帯電話機に限らず、パーソナルコンピュータ、PDA、デジタルカメラ、音楽プレイヤーなど、任意の端末装置であってもよい。さらに、折り畳みタイプの端末装置に限らず、ストレートタイプ、スライドタイプ、スピントップタイプなど任意の筐体構造であってもよい。 In addition, the terminal device is not limited to a mobile phone, and may be any terminal device such as a personal computer, a PDA, a digital camera, or a music player. Furthermore, it is not limited to a folding type terminal device, but may be an arbitrary housing structure such as a straight type, a slide type, or a spin top type.
また、上述した各実施形態において示した“装置”や“機”とは、機能別に複数の筐体に分離されていてもよく、単一の筐体に限らない。また、上述したフローチャートに記述した各ステップは、時系列的な処理に限らず、複数のステップを並列的に処理したり、別個独立して処理したりするようにしてもよい。 Further, the “device” and “machine” shown in each of the above-described embodiments may be separated into a plurality of housings by function, and are not limited to a single housing. In addition, each step described in the above-described flowchart is not limited to time-series processing, and a plurality of steps may be processed in parallel or separately.
1 携帯電話機
2 無線通信網
3 インターネット
4 画像配信装置
11 中央制御部
13 記憶部
14 無線通信部
16 テレビ放送受信部
17 撮像部
18 表示部
19 視差バリア制御部
20 操作部
M1 プログラム記憶部
M2 各種情報一時記憶部
M3 画像記憶部
M4 オブジェクト記憶部
DESCRIPTION OF
Claims (15)
第1画像を前記表示部に表示させるとともに、第1視野角方向と該第1視野角方向とは異なる第2視野角方向との両方から前記第1画像が視認されるように前記表示部を制御する第1制御手段と、
前記第1画像とそれとは異なる第2画像とを前記表示部に同時に表示させるとともに、前記第1視野角方向から前記第1画像が視認されるように前記表示部を制御し、前記第2視野角方向から前記第2画像が視認されるように前記表示部を制御する第2制御手段と、
前記表示部に表示させる画像内に特定のオブジェクトが含まれているか否かを判別する判別手段と、
前記判別手段の判別結果に基づいて、前記第1制御手段及び第2制御手段のいずれか一方による制御の実行を指示する指示手段と、
を備えることを特徴とする端末装置。 A terminal device for controlling the viewing angle direction of the display unit,
The first image is displayed on the display unit, and the display unit is configured so that the first image is viewed from both the first viewing angle direction and a second viewing angle direction different from the first viewing angle direction. First control means for controlling;
The first image and a second image different from the first image are simultaneously displayed on the display unit, and the display unit is controlled so that the first image is viewed from the first viewing angle direction, and the second field of view is controlled. Second control means for controlling the display unit so that the second image is viewed from an angular direction;
Determining means for determining whether or not a specific object is included in an image to be displayed on the display unit;
Instruction means for instructing execution of control by one of the first control means and the second control means based on the determination result of the determination means;
A terminal device comprising:
ようにしたことを特徴とする請求項1記載の端末装置。 The instruction means instructs execution of control by the second control means when it is determined that the specific object is included by the determination means;
The terminal device according to claim 1, which is configured as described above.
前記第2制御手段は、前記第1画像として前記表示部に表示させる画像を、前記第2画像として前記取得手段によって取得された画像を、前記表示部に同時に表示させるように制御する、
ようにしたことを特徴とする請求項2記載の端末装置。 The image processing apparatus further includes an acquisition unit that acquires an image on which the specific object has been processed,
The second control means controls the image to be displayed on the display unit as the first image and the image acquired by the acquisition means as the second image to be displayed on the display unit at the same time.
The terminal device according to claim 2, which is configured as described above.
ようにしたことを特徴とする請求項3記載の端末装置。 The acquisition means uses the image including the specific object as the first image, and performs processing on the first image, thereby processing the image processed on the specific object as the second image. get,
The terminal device according to claim 3, which is configured as described above.
ようにしたことを特徴とする請求項3記載の端末装置。 The acquisition unit acquires an image obtained by processing the specific object from the outside.
The terminal device according to claim 3, which is configured as described above.
ようにしたことを特徴とする請求項1記載の端末装置。 The instruction means instructs the execution of control by the first control means when it is determined that the specific object is not included by the determination means;
The terminal device according to claim 1, which is configured as described above.
前記判別手段は、前記撮影手段により撮影された画像内に特定のオブジェクトが含まれているか否かを判別する、
ようにしたことを特徴とする請求項1記載の端末装置。 It further comprises a photographing means for photographing an image,
The determining means determines whether or not a specific object is included in the image photographed by the photographing means;
The terminal device according to claim 1, which is configured as described above.
前記第2制御手段は、前記第1画像として前記撮影手段によって撮影された特定のオブジェクトを含む画像を、前記第2画像として前記撮影手段によって撮影された特定のオブジェクトを含まない画像を、前記表示部に同時に表示させるように制御する、
ようにしたことを特徴とする請求項1記載の端末装置。 A photographing unit for photographing an image including the specific object and an image not including the specific object;
The second control unit displays the image including the specific object photographed by the photographing unit as the first image, and the image not including the specific object photographed by the photographing unit as the second image. Control to display on the screen at the same time,
The terminal device according to claim 1, which is configured as described above.
前記表示部に表示させる画像内に特定のオブジェクトが含まれるか否かを判別する判別手段と、
前記判別手段によって特定のオブジェクトが含まれると判別された場合に、前記特定のオブジェクトに加工処理が施された画像を取得する取得手段と、
前記表示部に表示させる画像と前記取得手段によって取得された画像とを前記表示部に同時に表示させるとともに、前記表示部に表示させる画像が第1視野角方向から視認されるように前記表示部を制御し、前記取得された画像が該第1視野角方向とは異なる第2視野角方向から視認されるように前記表示部を制御する第1制御手段と、
を備えることを特徴とする端末装置。 A terminal device for controlling the viewing angle direction of the display unit,
Determining means for determining whether or not a specific object is included in an image to be displayed on the display unit;
An acquisition unit that acquires an image obtained by performing a processing on the specific object when the determination unit determines that the specific object is included;
The display unit is configured to display the image to be displayed on the display unit and the image acquired by the acquisition unit simultaneously on the display unit, and to display the image to be displayed on the display unit from the first viewing angle direction. First control means for controlling and controlling the display unit so that the acquired image is viewed from a second viewing angle direction different from the first viewing angle direction;
A terminal device comprising:
ようにしたことを特徴とする請求項9記載の端末装置。 When it is determined by the determining means that a specific object is not included, an image to be displayed on the display unit is displayed on the display unit, and an image to be displayed on the display unit is the first viewing angle direction and the first viewing angle direction. A second control means for controlling the display unit so as to be viewed from both a second viewing angle direction different from the first viewing angle direction;
The terminal device according to claim 9, which is configured as described above.
第1画像を前記表示部に表示させるとともに、第1視野角方向と該第1視野角方向とは異なる第2視野角方向との両方から前記第1画像が視認されるように前記表示部を制御する第1制御手段と、
前記第1画像とそれとは異なる第2画像とを前記表示部に同時に表示させるとともに、前記第1視野角方向から前記第1画像が視認されるように前記表示部を制御し、前記第2視野角方向から前記第2画像が視認されるように前記表示部を制御する第2制御手段と、
前記表示部に表示させる画像がその画像とは異なる画像と対応付けられているか否かを判別する判別手段と、
前記判別手段の判別結果に基づいて、前記第1制御手段及び第2制御手段のいずれか一方による制御の実行を指示する指示手段と、
を備えることを特徴とする端末装置。 A terminal device for controlling the viewing angle direction of the display unit,
The first image is displayed on the display unit, and the display unit is configured so that the first image is viewed from both the first viewing angle direction and a second viewing angle direction different from the first viewing angle direction. First control means for controlling;
The first image and a second image different from the first image are simultaneously displayed on the display unit, and the display unit is controlled so that the first image is viewed from the first viewing angle direction, and the second field of view is controlled. Second control means for controlling the display unit so that the second image is viewed from an angular direction;
Determining means for determining whether an image to be displayed on the display unit is associated with an image different from the image;
Instruction means for instructing execution of control by one of the first control means and the second control means based on the determination result of the determination means;
A terminal device comprising:
前記撮影手段によって撮影された特定のオブジェクトを含む第1画像と含まない第2画像とを対応付けて記憶部に記憶させる記憶制御手段と、
をさらに備え、
前記判別手段は、前記記憶部に記憶されている特定のオブジェクトを含む第1画像が、特定のオブジェクトを含まない第2画像と対応付けられているか否かを判別する、
ようにしたことを特徴とする請求項11記載の端末装置。 Photographing means for photographing the first image including the specific object and the second image not including the specific object;
Storage control means for associating the first image including the specific object imaged by the imaging means and the second image not including the specific object in the storage unit;
Further comprising
The determination means determines whether or not a first image including a specific object stored in the storage unit is associated with a second image not including a specific object.
The terminal device according to claim 11, which is configured as described above.
第1画像を表示部に表示させるとともに、第1視野角方向と該第1視野角方向とは異なる第2視野角方向との両方から前記第1画像が視認されるように前記表示部を制御する機能と、
前記第1画像とそれとは異なる第2画像とを前記表示部に同時に表示させるとともに、前記第1視野角方向から前記第1画像が視認されるように前記表示部を制御し、前記第2視野角方向から前記第2画像が視認されるように前記表示部を制御する機能と、
前記表示部に表示させる画像内に特定のオブジェクトが含まれるか否かを判別する機能と、
前記判別結果に基づいて、前記第1視野角方向と第2視野角方向との両方から前記第1画像が視認されるような制御の実行を指示し、前記第1視野角方向から前記第1画像が視認され、かつ、前記第2視野角方向から前記第2画像が視認されるような制御の実行を指示する機能と、
を実現させるためのプログラム。 Against the computer,
The first image is displayed on the display unit, and the display unit is controlled so that the first image is viewed from both the first viewing angle direction and a second viewing angle direction different from the first viewing angle direction. Function to
The first image and a second image different from the first image are simultaneously displayed on the display unit, and the display unit is controlled so that the first image is viewed from the first viewing angle direction, and the second field of view is controlled. A function of controlling the display unit so that the second image is visually recognized from an angular direction;
A function of determining whether or not a specific object is included in an image to be displayed on the display unit;
Based on the determination result, execution of control such that the first image is visually recognized from both the first viewing angle direction and the second viewing angle direction is instructed, and the first viewing angle direction from the first viewing angle direction. A function of instructing execution of control such that an image is visually recognized and the second image is visually recognized from the second viewing angle direction;
A program to realize
表示部に表示させる画像内に特定のオブジェクトが含まれるか否かを判別する機能と、
前記特定のオブジェクトが含まれると判別された場合に、前記特定のオブジェクトに加工処理が施された画像を取得する機能と、
前記表示部に表示させる画像と前記取得された画像とを前記表示部に同時に表示させるとともに、前記表示部に表示させる画像が第1視野角方向から視認されるように前記表示部を制御し、前記取得された画像が該第1視野角方向とは異なる第2視野角方向から視認されるように前記表示部を制御する機能と、
を実現させるためのプログラム。 Against the computer,
A function of determining whether or not a specific object is included in an image to be displayed on the display unit;
When it is determined that the specific object is included, a function of obtaining an image obtained by performing processing on the specific object;
The image to be displayed on the display unit and the acquired image are simultaneously displayed on the display unit, and the display unit is controlled so that the image to be displayed on the display unit is visually recognized from the first viewing angle direction, A function of controlling the display unit so that the acquired image is viewed from a second viewing angle direction different from the first viewing angle direction;
A program to realize
第1画像を表示部に表示させるとともに、第1視野角方向と該第1視野角方向とは異なる第2視野角方向との両方から前記第1画像が視認されるように前記表示部を制御する機能と、
前記第1画像とそれとは異なる第2画像とを前記表示部に同時に表示させるとともに、前記第1視野角方向から前記第1画像が視認されるように前記表示部を制御し、前記第2視野角方向から前記第2画像が視認されるように前記表示部を制御する機能と、
前記表示部に表示させる第1画像がその画像とは異なる画像と対応付けられているか否かを判別する機能と、
前記判別結果に基づいて、前記第1視野角方向と第2視野角方向との両方から前記第1画像が視認されるような制御の実行を指示し、前記第1視野角方向から前記第1画像が視認され、かつ、前記第2視野角方向から前記第2画像が視認されるような制御の実行を指示する機能と、
を実現させるためのプログラム。 Against the computer,
The first image is displayed on the display unit, and the display unit is controlled so that the first image is viewed from both the first viewing angle direction and a second viewing angle direction different from the first viewing angle direction. Function to
The first image and a second image different from the first image are simultaneously displayed on the display unit, and the display unit is controlled so that the first image is viewed from the first viewing angle direction, and the second field of view is controlled. A function of controlling the display unit so that the second image is visually recognized from an angular direction;
A function of determining whether or not the first image to be displayed on the display unit is associated with an image different from the image;
Based on the determination result, execution of control such that the first image is visually recognized from both the first viewing angle direction and the second viewing angle direction is instructed, and the first viewing angle direction from the first viewing angle direction. A function of instructing execution of control such that an image is visually recognized and the second image is visually recognized from the second viewing angle direction;
A program to realize
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010066209A JP2011197537A (en) | 2010-03-23 | 2010-03-23 | Terminal device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010066209A JP2011197537A (en) | 2010-03-23 | 2010-03-23 | Terminal device and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011197537A true JP2011197537A (en) | 2011-10-06 |
Family
ID=44875786
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010066209A Pending JP2011197537A (en) | 2010-03-23 | 2010-03-23 | Terminal device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011197537A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013196157A (en) * | 2012-03-16 | 2013-09-30 | Sony Corp | Control apparatus, electronic device, control method, and program |
JP2015103142A (en) * | 2013-11-27 | 2015-06-04 | 京セラドキュメントソリューションズ株式会社 | Image formation device |
WO2016027536A1 (en) * | 2014-08-21 | 2016-02-25 | ソニー株式会社 | Information processing device and control method |
US9921345B2 (en) | 2014-05-30 | 2018-03-20 | 3M Innovative Properties Company | Optical systems having variable viewing angles |
US10008164B2 (en) | 2014-05-30 | 2018-06-26 | 3M Innovative Properties Company | Variable viewing angle optical systems |
US10429037B2 (en) | 2014-11-07 | 2019-10-01 | 3M Innovative Properties Company | Optical device including switchable diffuser |
US10598349B2 (en) | 2014-11-07 | 2020-03-24 | 3M Innovative Properties Company | Lighting component including switchable diffuser |
US11708962B2 (en) | 2015-03-05 | 2023-07-25 | 3M Innovative Properties Company | Optical system with switchable diffuser |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005091561A (en) * | 2003-09-16 | 2005-04-07 | Sharp Corp | Electronic device |
JP2006251057A (en) * | 2005-03-08 | 2006-09-21 | Nec Corp | Portable terminal device, and viewing angle changing method for liquid crystal screen thereof |
JP2007017988A (en) * | 2005-07-08 | 2007-01-25 | Sharp Corp | Display device, liquid crystal display panel, and operation program |
JP2008225167A (en) * | 2007-03-14 | 2008-09-25 | Nec Corp | Portable terminal and method of switching privacy screen |
JP2008304656A (en) * | 2007-06-07 | 2008-12-18 | Sharp Corp | Display system and image processor |
JP2009020301A (en) * | 2007-07-11 | 2009-01-29 | Nec Biglobe Ltd | Web page browsing program, web page display method, terminal device and network system |
JP2009122434A (en) * | 2007-11-15 | 2009-06-04 | Seiko Epson Corp | Information display device and program |
JP2009222943A (en) * | 2008-03-14 | 2009-10-01 | Sharp Corp | Liquid crystal display device |
JP2009288507A (en) * | 2008-05-29 | 2009-12-10 | Casio Hitachi Mobile Communications Co Ltd | Image display and program |
JP2010015078A (en) * | 2008-07-07 | 2010-01-21 | Panasonic Corp | Display apparatus |
-
2010
- 2010-03-23 JP JP2010066209A patent/JP2011197537A/en active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005091561A (en) * | 2003-09-16 | 2005-04-07 | Sharp Corp | Electronic device |
JP2006251057A (en) * | 2005-03-08 | 2006-09-21 | Nec Corp | Portable terminal device, and viewing angle changing method for liquid crystal screen thereof |
JP2007017988A (en) * | 2005-07-08 | 2007-01-25 | Sharp Corp | Display device, liquid crystal display panel, and operation program |
JP2008225167A (en) * | 2007-03-14 | 2008-09-25 | Nec Corp | Portable terminal and method of switching privacy screen |
JP2008304656A (en) * | 2007-06-07 | 2008-12-18 | Sharp Corp | Display system and image processor |
JP2009020301A (en) * | 2007-07-11 | 2009-01-29 | Nec Biglobe Ltd | Web page browsing program, web page display method, terminal device and network system |
JP2009122434A (en) * | 2007-11-15 | 2009-06-04 | Seiko Epson Corp | Information display device and program |
JP2009222943A (en) * | 2008-03-14 | 2009-10-01 | Sharp Corp | Liquid crystal display device |
JP2009288507A (en) * | 2008-05-29 | 2009-12-10 | Casio Hitachi Mobile Communications Co Ltd | Image display and program |
JP2010015078A (en) * | 2008-07-07 | 2010-01-21 | Panasonic Corp | Display apparatus |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013196157A (en) * | 2012-03-16 | 2013-09-30 | Sony Corp | Control apparatus, electronic device, control method, and program |
US9342921B2 (en) | 2012-03-16 | 2016-05-17 | Sony Corporation | Control apparatus, electronic device, control method, and program |
JP2015103142A (en) * | 2013-11-27 | 2015-06-04 | 京セラドキュメントソリューションズ株式会社 | Image formation device |
US10008164B2 (en) | 2014-05-30 | 2018-06-26 | 3M Innovative Properties Company | Variable viewing angle optical systems |
US9921345B2 (en) | 2014-05-30 | 2018-03-20 | 3M Innovative Properties Company | Optical systems having variable viewing angles |
US10032437B2 (en) | 2014-08-21 | 2018-07-24 | Sony Corporation | Information processing apparatus and control method |
WO2016027536A1 (en) * | 2014-08-21 | 2016-02-25 | ソニー株式会社 | Information processing device and control method |
US10262630B2 (en) | 2014-08-21 | 2019-04-16 | Sony Corporation | Information processing apparatus and control method |
US10762876B2 (en) | 2014-08-21 | 2020-09-01 | Sony Corporation | Information processing apparatus and control method |
US10429037B2 (en) | 2014-11-07 | 2019-10-01 | 3M Innovative Properties Company | Optical device including switchable diffuser |
US10598349B2 (en) | 2014-11-07 | 2020-03-24 | 3M Innovative Properties Company | Lighting component including switchable diffuser |
US10801699B2 (en) | 2014-11-07 | 2020-10-13 | 3M Innovative Properties Company | Optical device switchable diffuser |
US11708962B2 (en) | 2015-03-05 | 2023-07-25 | 3M Innovative Properties Company | Optical system with switchable diffuser |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011197537A (en) | Terminal device and program | |
JP4576570B1 (en) | Terminal device and program | |
JP2009141489A (en) | Electronic equipment | |
CN109729372B (en) | Live broadcast room switching method, device, terminal, server and storage medium | |
KR100416991B1 (en) | Video terminal apparatus having displaying virtual background and implementing method thereof | |
JP5413958B2 (en) | Imaging apparatus and program | |
JP2007259330A (en) | Video distribution remote controller, video distribution system, and video distribution method | |
CN110533585B (en) | Image face changing method, device, system, equipment and storage medium | |
CN106604147A (en) | Video processing method and apparatus | |
CN113395566B (en) | Video playing method and device, electronic equipment and computer readable storage medium | |
JP4956843B2 (en) | Terminal device and program | |
JP2007067979A (en) | Real-time image display device | |
JP2007088959A (en) | Image output apparatus and program | |
KR100642688B1 (en) | Apparatus and method for editing a part of picture in mobile communication terminal | |
KR20160087969A (en) | Mobile terminal and dual lcd co-processing method thereof | |
JP2005130005A (en) | Communication terminal and screen display program | |
JP5421144B2 (en) | Terminal device and program | |
JP5339445B2 (en) | Terminal device and program | |
KR100678208B1 (en) | Method for saving and displaying image in wireless terminal | |
JP4858875B2 (en) | Videophone device and program | |
JP5310833B2 (en) | Terminal device and program | |
KR20120060677A (en) | Method for capturing image in a portable terminal | |
JP5847230B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD | |
CN110933300B (en) | Image processing method and electronic terminal equipment | |
JP4501565B2 (en) | Electronics |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130204 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131128 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140120 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140415 |