JP2011197537A - Terminal device and program - Google Patents

Terminal device and program Download PDF

Info

Publication number
JP2011197537A
JP2011197537A JP2010066209A JP2010066209A JP2011197537A JP 2011197537 A JP2011197537 A JP 2011197537A JP 2010066209 A JP2010066209 A JP 2010066209A JP 2010066209 A JP2010066209 A JP 2010066209A JP 2011197537 A JP2011197537 A JP 2011197537A
Authority
JP
Japan
Prior art keywords
image
display unit
viewing angle
angle direction
specific object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010066209A
Other languages
Japanese (ja)
Inventor
Yuko Nakazawa
優子 中澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Priority to JP2010066209A priority Critical patent/JP2011197537A/en
Publication of JP2011197537A publication Critical patent/JP2011197537A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To properly control whether the same content image is made to view by a plurality of persons or a different image is made to view by a part of persons.SOLUTION: A terminal device controls such that the same image is viewed from a plurality of visual field angle directions or respective images are viewed, based on whether a specific object is included in an image displayed on a display part 18. Namely, the original image is displayed on the display part 18, while the display part 18 is controlled so that the original image is viewed from first and second visual field angle directions, or the original image and processing already finished image in which specific object in the image is processed are displayed simultaneously in the display part 18, while the display part 18 is controlled so that the original image is viewed from the first visual field angle direction, also the display part 18 is controlled so that the already processed image is viewed from the second visual field angle direction.

Description

本発明は、表示部の視野角方向を制御する端末装置及びプログラムに関する。   The present invention relates to a terminal device and a program for controlling the viewing angle direction of a display unit.

近年、携帯電話機などの端末装置の表示部は、大画面化が進み、かつ、表示部に表示されている画像を視認できる視野角方向も益々広くなり、複数人が同じ表示部を見ることもできるようになってきている。例えば、ユーザが自らのカメラ付き携帯電話機で撮影した多数の画像を会社の同僚達と一緒に閲覧することも可能となったが、家族などのような特定の人物が含まれていると、その人物までも同僚に見せることになってしまう。   In recent years, a display unit of a terminal device such as a mobile phone has been increased in screen size, and the viewing angle direction in which an image displayed on the display unit can be visually recognized has been increased, so that a plurality of people can view the same display unit. It is becoming possible. For example, users can view many images taken with their camera phones together with colleagues in the company, but if a specific person such as a family member is included, Even people will be shown to colleagues.

また、電車の中で画像を閲覧しているような場合でも周囲の人に覗き込まれることにより、特定の人物を他人に見せることになってしまう。このように画像内に特定のオブジェクト(特定の人物など)が含まれている場合、従来では、そのオブジェクトを消したりそのオブジェクトにモザイクをかけたりするなどの加工処理を施すようにした技術が知られているが、このような加工を施すことにより、ユーザ自身もそのオブジェクトを見ることができなくなってしまう。
ところで、従来では、表示部に視差バリアを設けることにより複数の画像を表示部に同時に表示させている状態において、それぞれの画像をある方向からしか視認できないようにした技術が知られている(特許文献1及び2参照)。
Further, even when an image is viewed on a train, a specific person is shown to others by looking into the surrounding people. In this way, when a specific object (such as a specific person) is included in an image, conventionally, a technique has been known in which processing such as deleting the object or applying a mosaic to the object is performed. However, by performing such processing, the user himself / herself cannot see the object.
By the way, conventionally, a technique is known in which a parallax barrier is provided on a display unit so that each image can be viewed only from a certain direction in a state where a plurality of images are displayed on the display unit at the same time (patents). Reference 1 and 2).

特開2009−089329号公報JP 2009-089329 A 特開2008−276495号公報JP 2008-276495 A

しかしながら、上述の先行技術(特許文献1)にあっては、複数の視野角方向のうち、ある視野角方向では撮影画像を確認することができ、他の視野角方向では撮影情報を確認することができるようにしたものであるが、視野角方向を変えて別々に見なければならなかった。従って、撮影画像と撮影情報とを同時に見ることはできず、しかも、ユーザを含む複数人が同じ表示部を同時に見ることまでも想定したものではなかった。これに対して、上述の先行技術(特許文献2)にあっては、ある視聴者(ユーザ)用の画像及びアイコンと他の視聴者用の画像及びアイコンとを同時に表示したとしても、視野角方向に応じて視聴者別に自分の画像及びアイコンを確認可能としたものであるが、他者の画像及びアイコンまでも同時に見ることはできず、複数人が異なる内容を個別に見るしかなかった。   However, in the above-described prior art (Patent Document 1), a captured image can be confirmed in a certain viewing angle direction among a plurality of viewing angle directions, and photographing information can be confirmed in other viewing angle directions. However, it had to be viewed separately by changing the viewing angle direction. Therefore, the photographed image and the photographed information cannot be viewed at the same time, and it is not assumed that a plurality of persons including the user see the same display unit at the same time. On the other hand, in the above-described prior art (Patent Document 2), even if an image and an icon for a certain viewer (user) and an image and an icon for another viewer are displayed at the same time, the viewing angle Although it is possible to check his / her own image and icon according to the viewer according to the direction, the other person's image and icon cannot be seen at the same time, and a plurality of people have to see different contents individually.

本発明の課題は、複数人に同じ内容の画像を見せるか、一部の人に異なる画像を見せるかを特別な操作を要求することなく適切に制御できるようにすることである。   An object of the present invention is to appropriately control whether a plurality of people can see the same image or some people can see different images without requiring a special operation.

上述した課題を解決するために請求項1記載の発明は、
表示部の視野角方向を制御する端末装置であって、
第1画像を前記表示部に表示させるとともに、第1視野角方向と該第1視野角方向とは異なる第2視野角方向との両方から前記第1画像が視認されるように前記表示部を制御する第1制御手段と、
前記第1画像とそれとは異なる第2画像とを前記表示部に同時に表示させるとともに、前記第1視野角方向から前記第1画像が視認されるように前記表示部を制御し、前記第2視野角方向から前記第2画像が視認されるように前記表示部を制御する第2制御手段と、
前記表示部に表示させる画像内に特定のオブジェクトが含まれているか否かを判別する判別手段と、
前記判別手段の判別結果に基づいて、前記第1制御手段及び第2制御手段のいずれか一方による制御の実行を指示する指示手段と、
を備えることを特徴とする。
In order to solve the above-described problem, the invention described in claim 1
A terminal device for controlling the viewing angle direction of the display unit,
The first image is displayed on the display unit, and the display unit is configured so that the first image is viewed from both the first viewing angle direction and a second viewing angle direction different from the first viewing angle direction. First control means for controlling;
The first image and a second image different from the first image are simultaneously displayed on the display unit, and the display unit is controlled so that the first image is viewed from the first viewing angle direction, and the second field of view is controlled. Second control means for controlling the display unit so that the second image is viewed from an angular direction;
Determining means for determining whether or not a specific object is included in an image to be displayed on the display unit;
Instruction means for instructing execution of control by one of the first control means and the second control means based on the determination result of the determination means;
It is characterized by providing.

請求項1に従属する発明として、
前記指示手段は、前記判別手段によって特定のオブジェクトが含まれていると判別された場合に、前記第2制御手段による制御の実行を指示する、
ようにしたことを特徴とする、請求項2記載の発明であってもよい。
As an invention dependent on claim 1,
The instruction means instructs execution of control by the second control means when it is determined that the specific object is included by the determination means;
The invention according to claim 2, which is configured as described above.

請求項2に従属する発明として、
前記特定のオブジェクトに対して加工処理が施された画像を取得する取得手段をさらに備え、
前記第2制御手段は、前記第1画像として前記表示部に表示させる画像を、前記第2画像として前記取得手段によって取得された画像を、前記表示部に同時に表示させるように制御する、
ようにしたことを特徴とする、請求項3記載の発明であってもよい。
As an invention dependent on claim 2,
The image processing apparatus further includes an acquisition unit that acquires an image on which the specific object has been processed,
The second control means controls the image to be displayed on the display unit as the first image and the image acquired by the acquisition means as the second image to be displayed on the display unit at the same time.
The invention according to claim 3, which is configured as described above.

請求項3に従属する発明として、
前記取得手段は、前記特定のオブジェクトが含まれる画像を前記第1画像として、この第1画像に加工処理を施すことによって、前記特定のオブジェクトに加工処理が施された画像を前記第2画像として取得する、
ようにしたことを特徴とする、請求項4記載の発明であってもよい。
As an invention dependent on claim 3,
The acquisition means uses the image including the specific object as the first image, and performs processing on the first image, thereby processing the image processed on the specific object as the second image. get,
The invention according to claim 4, which is configured as described above.

請求項3に従属する発明として、
前記取得手段は、前記特定のオブジェクトに加工処理が施された画像を外部から取得する、
ようにしたことを特徴とする、請求項5記載の発明であってもよい。
As an invention dependent on claim 3,
The acquisition unit acquires an image obtained by processing the specific object from the outside.
The invention according to claim 5, which is configured as described above.

請求項1に従属する発明として、
前記指示手段は、前記判別手段によって特定のオブジェクトが含まれていないと判別された場合に、前記第1制御手段による制御の実行を指示する、
ようにしたことを特徴とする、請求項6記載の発明であってもよい。
As an invention dependent on claim 1,
The instruction means instructs the execution of control by the first control means when it is determined that the specific object is not included by the determination means;
The invention according to claim 6 is characterized in that it is configured as described above.

請求項1に従属する発明として、
画像を撮影する撮影手段をさらに備え、
前記判別手段は、前記撮影手段により撮影された画像内に特定のオブジェクトが含まれているか否か判別する、
ようにしたことを特徴とする、請求項7記載の発明であってもよい。
As an invention dependent on claim 1,
It further comprises a photographing means for photographing an image,
The determining means determines whether or not a specific object is included in the image photographed by the photographing means;
The invention according to claim 7, characterized in that it is configured as described above.

請求項1に従属する発明として、
前記特定のオブジェクトを含む画像と含まない画像とを撮影する撮影手段をさらに備え、
前記第2制御手段は、前記第1画像として前記撮影手段によって撮影された特定のオブジェクトを含む画像を、前記第2画像として前記撮影手段によって撮影された特定のオブジェクトを含まない画像を、前記表示部に同時に表示させるように制御する、
ようにしたことを特徴とする、請求項8記載の発明であってもよい。
As an invention dependent on claim 1,
A photographing unit for photographing an image including the specific object and an image not including the specific object;
The second control unit displays the image including the specific object photographed by the photographing unit as the first image, and the image not including the specific object photographed by the photographing unit as the second image. Control to display on the screen at the same time,
The invention according to claim 8, which is configured as described above.

また、上述した課題を解決するために請求項9記載の発明は、
表示部の視野角方向を制御する端末装置であって、
前記表示部に表示させる画像内に特定のオブジェクトが含まれるか否かを判別する判別手段と、
前記判別手段によって特定のオブジェクトが含まれると判別された場合に、前記特定のオブジェクトに加工処理が施された画像を取得する取得手段と、
前記表示部に表示させる画像と前記取得手段によって取得された画像とを前記表示部に同時に表示させるとともに、前記表示部に表示させる画像が第1視野角方向から視認されるように前記表示部を制御し、前記取得された画像が該第1視野角方向とは異なる第2視野角方向から視認されるように前記表示部を制御する第1制御手段と、
を備えることを特徴とする。
In order to solve the above-described problem, the invention according to claim 9 is
A terminal device for controlling the viewing angle direction of the display unit,
Determining means for determining whether or not a specific object is included in an image to be displayed on the display unit;
An acquisition unit that acquires an image obtained by performing a processing on the specific object when the determination unit determines that the specific object is included;
The display unit is configured to display the image to be displayed on the display unit and the image acquired by the acquisition unit simultaneously on the display unit, and to display the image to be displayed on the display unit from the first viewing angle direction. First control means for controlling and controlling the display unit so that the acquired image is viewed from a second viewing angle direction different from the first viewing angle direction;
It is characterized by providing.

請求項9に従属する発明として、
前記判別手段によって特定のオブジェクトが含まれないと判別された場合に、前記表示部に表示させる画像を前記表示部に表示させるとともに、前記表示部に表示させる画像が第1視野角方向と該第1視野角方向とは異なる第2視野角方向との両方から視認されるように前記表示部を制御する第2制御手段をさらに備える、
ようにしたことを特徴とする、請求項10記載の発明であってもよい。
As an invention dependent on claim 9,
When it is determined by the determining means that a specific object is not included, an image to be displayed on the display unit is displayed on the display unit, and an image to be displayed on the display unit is the first viewing angle direction and the first viewing angle direction. A second control means for controlling the display unit so as to be viewed from both a second viewing angle direction different from the first viewing angle direction;
The invention according to claim 10, which is configured as described above.

また、上述した課題を解決するために請求項11記載の発明は、
表示部の視野角方向を制御する端末装置であって、
第1画像を前記表示部に表示させるとともに、第1視野角方向と該第1視野角方向とは異なる第2視野角方向との両方から前記第1画像が視認されるように前記表示部を制御する第1制御手段と、
前記第1画像とそれとは異なる第2画像とを前記表示部に同時に表示させるとともに、前記第1視野角方向から前記第1画像が視認されるように前記表示部を制御し、前記第2視野角方向から前記第2画像が視認されるように前記表示部を制御する第2制御手段と、
前記表示部に表示させる画像がその画像とは異なる画像と対応付けられているか否かを判別する判別手段と、
前記判別手段の判別結果に基づいて、前記第1制御手段及び第2制御手段のいずれか一方による制御の実行を指示する指示手段と、
を備えることを特徴とする。
In order to solve the above-described problem, the invention according to claim 11
A terminal device for controlling the viewing angle direction of the display unit,
The first image is displayed on the display unit, and the display unit is configured so that the first image is viewed from both the first viewing angle direction and a second viewing angle direction different from the first viewing angle direction. First control means for controlling;
The first image and a second image different from the first image are simultaneously displayed on the display unit, and the display unit is controlled so that the first image is viewed from the first viewing angle direction, and the second field of view is controlled. Second control means for controlling the display unit so that the second image is viewed from an angular direction;
Determining means for determining whether an image to be displayed on the display unit is associated with an image different from the image;
Instruction means for instructing execution of control by one of the first control means and the second control means based on the determination result of the determination means;
It is characterized by providing.

請求項11に従属する発明として、
前記特定のオブジェクトを含む第1画像と含まない第2画像とを撮影する撮影手段と、
前記撮影手段によって撮影された特定のオブジェクトを含む第1画像と含まない第2画像とを対応付けて記憶部に記憶させる記憶制御手段と、
をさらに備え、
前記判別手段は、前記記憶部に記憶されている特定のオブジェクトを含む第1画像が、特定のオブジェクトを含まない第2画像と対応付けられているか否かを判別する、
ようにしたことを特徴とする、請求項12記載の発明であってもよい。
As an invention dependent on claim 11,
Photographing means for photographing the first image including the specific object and the second image not including the specific object;
Storage control means for associating the first image including the specific object imaged by the imaging means and the second image not including the specific object in the storage unit;
Further comprising
The determination means determines whether or not a first image including a specific object stored in the storage unit is associated with a second image not including a specific object.
The invention according to claim 12 is characterized in that it is configured as described above.

また、上述した課題を解決するために請求項13記載の発明は、
コンピュータに対して、
第1画像を表示部に表示させるとともに、第1視野角方向と該第1視野角方向とは異なる第2視野角方向との両方から前記第1画像が視認されるように前記表示部を制御する機能と、
前記第1画像とそれとは異なる第2画像とを前記表示部に同時に表示させるとともに、前記第1視野角方向から前記第1画像が視認されるように前記表示部を制御し、前記第2視野角方向から前記第2画像が視認されるように前記表示部を制御する機能と、
前記表示部に表示させる画像内に特定のオブジェクトが含まれるか否かを判別する機能と、
前記判別結果に基づいて、前記第1視野角方向と第2視野角方向との両方から前記第1画像が視認されるような制御の実行を指示し、前記第1視野角方向から前記第1画像が視認され、かつ、前記第2視野角方向から前記第2画像が視認されるような制御の実行を指示する機能と、
を実現させるためのプログラムであることを特徴とする。
In order to solve the above-mentioned problem, the invention according to claim 13 is
Against the computer,
The first image is displayed on the display unit, and the display unit is controlled so that the first image is viewed from both the first viewing angle direction and a second viewing angle direction different from the first viewing angle direction. Function to
The first image and a second image different from the first image are simultaneously displayed on the display unit, and the display unit is controlled so that the first image is viewed from the first viewing angle direction, and the second field of view is controlled. A function of controlling the display unit so that the second image is visually recognized from an angular direction;
A function of determining whether or not a specific object is included in an image to be displayed on the display unit;
Based on the determination result, execution of control such that the first image is visually recognized from both the first viewing angle direction and the second viewing angle direction is instructed, and the first viewing angle direction from the first viewing angle direction. A function of instructing execution of control such that an image is visually recognized and the second image is visually recognized from the second viewing angle direction;
It is a program for realizing.

また、上述した課題を解決するために請求項14記載の発明は、
コンピュータに対して、
表示部に表示させる画像内に特定のオブジェクトが含まれるか否かを判別する機能と、
前記特定のオブジェクトが含まれると判別された場合に、前記特定のオブジェクトに加工処理が施された画像を取得する機能と、
前記表示部に表示させる画像と前記取得された画像とを前記表示部に同時に表示させるとともに、前記表示部に表示させる画像が第1視野角方向から視認されるように前記表示部を制御し、前記取得された画像が該第1視野角方向とは異なる第2視野角方向から視認されるように前記表示部を制御する機能と、
を実現させるためのプログラムであることを特徴とする。
In order to solve the above-mentioned problem, the invention according to claim 14 is
Against the computer,
A function of determining whether or not a specific object is included in an image to be displayed on the display unit;
When it is determined that the specific object is included, a function of obtaining an image obtained by performing processing on the specific object;
The image to be displayed on the display unit and the acquired image are simultaneously displayed on the display unit, and the display unit is controlled so that the image to be displayed on the display unit is visually recognized from the first viewing angle direction, A function of controlling the display unit so that the acquired image is viewed from a second viewing angle direction different from the first viewing angle direction;
It is a program for realizing.

また、上述した課題を解決するために請求項15記載の発明は、
コンピュータに対して、
第1画像を表示部に表示させるとともに、第1視野角方向と該第1視野角方向とは異なる第2視野角方向との両方から前記第1画像が視認されるように前記表示部を制御する機能と、
前記第1画像とそれとは異なる第2画像とを前記表示部に同時に表示させるとともに、前記第1視野角方向から前記第1画像が視認されるように前記表示部を制御し、前記第2視野角方向から前記第2画像が視認されるように前記表示部を制御する機能と、
前記表示部に表示させる第1画像がその画像とは異なる画像と対応付けられているか否かを判別する機能と、
前記判別結果に基づいて、前記第1視野角方向と第2視野角方向との両方から前記第1画像が視認されるような制御の実行を指示し、前記第1視野角方向から前記第1画像が視認され、かつ、前記第2視野角方向から前記第2画像が視認されるような制御の実行を指示する機能と、
を実現させるためのプログラムであることを特徴とする。
In order to solve the above-mentioned problem, the invention according to claim 15 is
Against the computer,
The first image is displayed on the display unit, and the display unit is controlled so that the first image is viewed from both the first viewing angle direction and a second viewing angle direction different from the first viewing angle direction. Function to
The first image and a second image different from the first image are simultaneously displayed on the display unit, and the display unit is controlled so that the first image is viewed from the first viewing angle direction, and the second field of view is controlled. A function of controlling the display unit so that the second image is visually recognized from an angular direction;
A function of determining whether or not the first image to be displayed on the display unit is associated with an image different from the image;
Based on the determination result, execution of control such that the first image is visually recognized from both the first viewing angle direction and the second viewing angle direction is instructed, and the first viewing angle direction from the first viewing angle direction. A function of instructing execution of control such that an image is visually recognized and the second image is visually recognized from the second viewing angle direction;
It is a program for realizing.

本発明によれば、複数人に同じ内容の画像を見せるか一部の人に異なる画像を見せるかを特別な操作を要求することなく適切に制御することができ、実用性に富んだものとなる。   According to the present invention, it is possible to appropriately control whether to show an image having the same content to a plurality of people or to show a different image to some people without requiring a special operation, and it is rich in practicality. Become.

端末装置として適用した携帯電話機が利用可能な通信ネットワークシステムを示したブロック図。The block diagram which showed the communication network system which can use the mobile telephone applied as a terminal device. 携帯電話機1の基本的な構成要素を示したブロック図。FIG. 2 is a block diagram showing basic components of the mobile phone 1. 画像記憶部M3を説明するための図。The figure for demonstrating the image memory | storage part M3. オブジェクト記憶部M4を説明するための図。The figure for demonstrating the object memory | storage part M4. 表示部18の表層に視差バリアが生成されている状態において、加工処理済み画像と加工前の元画像とを表示部18に同時に表示させた場合に視野角方向に応じて見ることができる画像が異なることを説明するための図。In the state where the parallax barrier is generated on the surface layer of the display unit 18, when the processed image and the original image before processing are simultaneously displayed on the display unit 18, an image that can be viewed according to the viewing angle direction is obtained. The figure for demonstrating different. 電源投入に伴って実行開始される携帯電話機1側の全体動作の概要を示したメインのフローチャート。The main flowchart which showed the outline | summary of the whole operation | movement by the side of the mobile telephone 1 by which execution is started with power activation. 画像取得処理(図6のステップA6)を詳述するためのフローチャート。7 is a flowchart for explaining image acquisition processing (step A6 in FIG. 6) in detail. 画像表示処理(図6のステップA8)を詳述するためのフローチャート。7 is a flowchart for explaining image display processing (step A8 in FIG. 6) in detail. 図8の動作に続くフローチャート。9 is a flowchart following the operation of FIG. 第2実施形態において画像取得処理(図6のステップA6)を詳述するためのフローチャート。7 is a flowchart for explaining in detail image acquisition processing (step A6 in FIG. 6) in the second embodiment. 第2実施形態において画像表示処理(図6のステップA8)を詳述するためのフローチャート。7 is a flowchart for explaining in detail image display processing (step A8 in FIG. 6) in the second embodiment.

(第1実施形態)
図1〜図9を参照して本発明の第1実施形態を説明する。
この実施形態は、端末装置として携帯電話機に適用した場合を例示したもので、図1は、この携帯電話機が利用可能な通信ネットワークシステムを示したブロック図である。
携帯電話機1は、例えば、2つの筐体(図示しない操作部筐体、表示部筐体)を折り畳み自在に取り付けた折り畳みタイプの携帯電話機で、通話機能、電子メール機能、インターネット接続機能(Webアクセス機能)のほか、テレビ放送受信機能、カメラ機能などを備えている。
(First embodiment)
A first embodiment of the present invention will be described with reference to FIGS.
This embodiment exemplifies a case where the present invention is applied to a mobile phone as a terminal device, and FIG. 1 is a block diagram showing a communication network system in which the mobile phone can be used.
The mobile phone 1 is, for example, a foldable mobile phone in which two cases (an operation unit case and a display case not shown) are foldably attached, and includes a call function, an e-mail function, and an Internet connection function (Web access). Function), TV broadcast reception function, camera function, etc.

携帯電話機1は、最寄りの基地局2A、交換機2Bから無線通信網(移動体通信網)2に接続されると、この無線通信網2を介して他の携帯電話機(図示省略)との間で通話可能な状態となる。また、携帯電話機1は、無線通信網2を介してインターネット3に接続されると、Webサイトをアクセスして閲覧可能となり、また、画像配信装置4から画像(動画や静止画)などをインターネット3及び無線通信網2を介してダウンロード受信が可能となる。また、携帯電話機1は、テレビ局5から送信アンテナ6を介して発信された地上波デジタル放送を受信するようにしているが、インターネットラジオのように無線通信網2、インターネット3を介して画像配信装置4からデジタル放送をダウンロード受信することもできる。   When the cellular phone 1 is connected to the wireless communication network (mobile communication network) 2 from the nearest base station 2A and exchange 2B, the cellular phone 1 is connected to other cellular phones (not shown) via the wireless communication network 2. The phone is ready to talk. In addition, when the mobile phone 1 is connected to the Internet 3 via the wireless communication network 2, the mobile phone 1 can access and browse a Web site, and images (moving images and still images) from the image distribution device 4 can be viewed on the Internet 3. And download reception is enabled via the wireless communication network 2. The cellular phone 1 receives digital terrestrial broadcasts transmitted from the television station 5 via the transmission antenna 6, but the image distribution apparatus via the wireless communication network 2 and the Internet 3 like an Internet radio. 4 can also download and receive digital broadcasts.

図2は、携帯電話機1の基本的な構成要素を示したブロック図である。
中央制御部11は、二次電池を備えた電池部12からの電力供給によって動作し、記憶部13内の各種のプログラムに応じてこの携帯電話機1の全体動作を制御する中央演算処理装置やメモリ(図示省略)などを有している。この記憶部13には、プログラム記憶部M1、各種情報一時記憶部M2、画像記憶部M3、オブジェクト記憶部M4などが設けられている。
FIG. 2 is a block diagram showing basic components of the mobile phone 1.
The central control unit 11 operates by supplying power from the battery unit 12 including a secondary battery, and controls the overall operation of the mobile phone 1 according to various programs in the storage unit 13 and a memory. (Not shown). The storage unit 13 is provided with a program storage unit M1, various information temporary storage units M2, an image storage unit M3, an object storage unit M4, and the like.

プログラム記憶部M1は、図6〜図9に示した動作手順に応じて本実施形態を実現するためのプログラムや各種のアプリケーションなどが格納されているほか、それに必要とする情報などが記憶されている。なお、記憶部13は、例えば、SDカード、ICカードなど、着脱自在な可搬型メモリ(記録メディア)を含む構成であってもよく、図示しない所定の外部サーバ上にあってもよい。また、各種情報一時記憶部M2は、フラグ情報、画面情報など、携帯電話機1が動作するために必要な各種の情報を一時的に記憶するワーク領域である。なお、画像記憶部M3、オブジェクト記憶部M4については、後で詳述するものとする。   The program storage unit M1 stores a program and various applications for realizing the present embodiment in accordance with the operation procedure shown in FIGS. 6 to 9, and stores information necessary for the program. Yes. Note that the storage unit 13 may include a removable portable memory (recording medium) such as an SD card or an IC card, or may be on a predetermined external server (not shown). The various information temporary storage unit M2 is a work area for temporarily storing various information necessary for the mobile phone 1 to operate, such as flag information and screen information. The image storage unit M3 and the object storage unit M4 will be described in detail later.

無線通信部14は、無線部、ベースバンド部、多重分離部などを備え、例えば、通話機能、電子メール機能、インターネット接続機能などの動作時に、最寄りの基地局2Aとの間でデータの送受信を行うもので、通話機能の動作時にはベースバンド部の受信側から信号を取り込んで受信ベースバンド信号に復調して中央制御部11に対して出力すると、中央制御部11は、音声信号処理部15を介して通話用スピーカSPから音声出力させ、また、通話用マイクMCからの入力音声データを音声信号処理部15から取り込み、送信ベースバンド信号に符号化した後、ベースバンド部の送信側に与えてアンテナAN1から発信出力させる。   The wireless communication unit 14 includes a wireless unit, a baseband unit, a demultiplexing unit, and the like. When the call function is in operation, when the signal is received from the receiving side of the baseband unit, demodulated into a received baseband signal and output to the central control unit 11, the central control unit 11 causes the audio signal processing unit 15 to Via the voice speaker SP, and the voice data input from the voice microphone MC is fetched from the voice signal processing unit 15, encoded into a transmission baseband signal, and then sent to the transmission side of the baseband unit. Transmission is output from the antenna AN1.

テレビ放送受信部16は、地上波デジタルテレビ放送を受信するもので、1つのチャンネル枠の中で複数の番組を分割して同時に放送するマルチ編成放送を受信可能となっている。なお、通信端末装置向けのワンセグ放送(1セグ放送)を受信する場合には、1つのチャンネル枠の中で2つ番組を分割して同時に受信可能となり、また、高解像度のデジタルテレビ放送(12セグ放送)を受信する場合には、1つのチャンネル枠の中で3つの番組を分割して同時に受信可能となっている。そして、このテレビ放送受信部16は、アンテナAN2から放送信号を抽出する受信部(アナログ回路部)と、受信した放送信号をOFDM(直交周波数分割多重)復調したり、多重化されている放送信号から映像、音声、データ(文字データ)に分離して復号化したり、圧縮データを解凍したりするなどを行うデジタル回路部を有している。   The television broadcast receiving unit 16 receives terrestrial digital television broadcasts, and can receive multi-organized broadcasts in which a plurality of programs are divided and broadcast simultaneously within one channel frame. When receiving one-segment broadcasting (one-segment broadcasting) for a communication terminal device, two programs can be divided and received simultaneously within one channel frame, and high-resolution digital television broadcasting (12 When receiving (segment broadcasting), three programs can be divided and received simultaneously in one channel frame. The television broadcast receiver 16 receives a broadcast signal from the antenna AN2 (analog circuit), and demodulates the received broadcast signal by OFDM (Orthogonal Frequency Division Multiplexing) or multiplexes the broadcast signal. A digital circuit unit that separates video data, audio data, and data (character data) into decoded data, decompresses compressed data, and the like.

撮像部17は、カメラ機能を構成する構成要素で、撮像素子(例えば、CCDあるいはCMOS)を有し、静止画撮影のほかに動画撮影も可能となっている。そして、撮像部17は、撮影レンズ、測距センサ、光量センサ、アナログ処理回路、信号処理回路、圧縮伸張回路などを備え、光学ズームを調整制御したり、オートフォーカス時の駆動制御、シャッタ駆動制御、露出、ホワイトバランスなどを制御したりする。この撮像部17には、特殊撮影機能として連写機能を備えており、1回の特殊撮影操作(連写機能を選択した後のシャッタ操作)に応答して、所定時間(例えば、数秒)内で複数回(例えば、2回)の連続撮影を行うようにしている。   The imaging unit 17 is a component that constitutes a camera function, has an imaging element (for example, a CCD or a CMOS), and can capture moving images in addition to still image shooting. The imaging unit 17 includes a photographic lens, a distance measuring sensor, a light amount sensor, an analog processing circuit, a signal processing circuit, a compression / decompression circuit, and the like, and performs adjustment control of optical zoom, drive control during autofocus, and shutter drive control. , Control exposure, white balance, etc. The imaging unit 17 has a continuous shooting function as a special shooting function, and within a predetermined time (for example, several seconds) in response to one special shooting operation (shutter operation after selecting the continuous shooting function). Thus, continuous shooting is performed a plurality of times (for example, twice).

表示部18は、高精細液晶を使用し、例えば、文字情報、待受画像、静止画、動画、テレビ映像などを表示させるもので、この表示部18の表面には、図示省略したが、細かい透光性スリットを有する視差バリアを生成するための液晶の層が設けられている。視差バリア制御部19は、複数の異なる画像が表示部18に同時に表示されている場合に、ある視野角方向からはある画像が、別の視野角方向からは別の画像が視認されるように視差バリアを表示部18の表層に生成させるもので、中央制御部11の制御下で表示部18の表層に視差バリアを生成させたり、表示部18の表層から視差バリアを消去させたりする。   The display unit 18 uses high-definition liquid crystal and displays, for example, character information, a standby image, a still image, a moving image, a television image, and the like. A liquid crystal layer is provided for generating a parallax barrier having a translucent slit. The parallax barrier control unit 19 is configured such that when a plurality of different images are displayed on the display unit 18 at the same time, an image from a certain viewing angle direction can be viewed from another viewing angle direction. A parallax barrier is generated on the surface layer of the display unit 18, and the parallax barrier is generated on the surface layer of the display unit 18 or erased from the surface layer of the display unit 18 under the control of the central control unit 11.

操作部20は、ダイヤル入力、文字入力、コマンド入力などを入力するもので、中央制御部11は、この操作部20からの入力操作信号に応じた処理を実行する。例えば、電源オン/オフ操作に応じて電源オン/オフ処理を実行したり、画像取得操作(画像のダウンロードを指示するダウンロード操作や撮影を指示する撮影操作など)に応じて画像取得処理を実行したりする。RTC(リアルタイムクロックモジュール)21は、時計部を構成するもので、中央制御部11は、RTC21から現在日時を取得する。報知部22は、サウンドスピーカ22A、LED(発光ダイオード)22B、振動モータ22Cを備え、着信時に駆動されて着信報知を行うほか、アラーム報知時などでも駆動される。   The operation unit 20 inputs dial input, character input, command input, and the like. The central control unit 11 executes processing according to an input operation signal from the operation unit 20. For example, power on / off processing is executed in response to a power on / off operation, and image acquisition processing is executed in response to an image acquisition operation (such as a download operation instructing image download or a shooting operation instructing shooting). Or An RTC (real time clock module) 21 constitutes a clock unit, and the central control unit 11 acquires the current date and time from the RTC 21. The notification unit 22 includes a sound speaker 22A, an LED (light-emitting diode) 22B, and a vibration motor 22C.

図3は、画像記憶部M3を説明するための図である。
画像記憶部M3は、撮像部17により撮影された画像や画像配信装置4からダウンロード受信した画像などの各種の画像データをその画像に関する情報とともに記憶するもので、「画像ID」、「タイトル」、「種別」、「元画像(実データ)」、「加工処理済み画像(実データ)」、…、を有する構成となっている。ここで、「画像ID」は、画像を識別する一連番号などである。「タイトル」は、画像に付された付加情報(画像名)である。
FIG. 3 is a diagram for explaining the image storage unit M3.
The image storage unit M3 stores various image data such as an image captured by the imaging unit 17 and an image downloaded and received from the image distribution device 4 together with information related to the image. The “image ID”, “title”, “Type”, “original image (actual data)”, “processed image (actual data)”,... Here, the “image ID” is a serial number for identifying an image. “Title” is additional information (image name) attached to the image.

「種別」は、画像の種類として静止画であるか動画であるかを示す。「元画像(実データ)」は、画像の実際のデータであり、この画像データ(実データ)の一部分に対して、所定の加工処理が施される前の元の画像データを示している。これに対して「加工処理済み画像(実データ)」は、元画像に対して加工処理が施された後の画像データを示している。なお、「元画像」と「加工処理済み画像」とは1対1の関係で記憶されている場合に限らず、「加工処理済み画像」が記憶されていない場合もあり、図中、「−」は、加工処理済み画像が記憶されていないことを示している。   “Type” indicates whether the image type is a still image or a moving image. “Original image (actual data)” is actual data of an image, and indicates original image data before a predetermined processing is performed on a part of the image data (actual data). On the other hand, “processed image (actual data)” indicates image data after the original image is processed. The “original image” and the “processed image” are not limited to being stored in a one-to-one relationship, and the “processed image” may not be stored. "" Indicates that no processed image is stored.

ここで、所定の加工処理とは、画像内に含まれている特定のオブジェクト(人物、文字列など)に対して、そのオブジェクトを消去したり、モザイクをかけたり、他の画像に置き換えたりする処理を示し、中央制御部11は、表示対象として指定された画像を表示部18に表示させる場合に、その画像を解析することによりその画像内に特定のオブジェクトが含まれているか否かを判別し、特定のオブジェクトが含まれている場合には、当該画像に対して上述した所定の加工処理を施すようにしている。この場合、中央制御部11は、視差バリア制御部19に対して視差バリアの生成を指示するとともに、加工処理前の元画像(第1画像)と加工処理済みの画像(第2画像)とを表示部18に同時に表示させるようにしている。なお、加工処理を施す範囲は、特定のオブジェクトだけに限らず、画像全体など、特定のオブジェクトを含む任意の範囲であってもよい。   Here, the predetermined processing is to delete a specific object (person, character string, etc.) included in the image, apply a mosaic, or replace it with another image. In the process, the central control unit 11 determines whether or not a specific object is included in the image by analyzing the image when the image designated as the display target is displayed on the display unit 18. If a specific object is included, the predetermined processing described above is performed on the image. In this case, the central control unit 11 instructs the parallax barrier control unit 19 to generate a parallax barrier, and the original image before the processing (first image) and the processed image (second image) are displayed. It is made to display on the display part 18 simultaneously. Note that the range for performing the processing is not limited to a specific object, but may be an arbitrary range including the specific object, such as the entire image.

図4は、オブジェクト記憶部M4を説明するための図である。
オブジェクト記憶部M4は、上述した所定の加工処理の対象となるオブジェクトを特定するための情報と、そのオブジェクトに対してどのような種類の加工を施すかを示す加工処理内容とを記憶するもので、「オブジェクトID」、「タイトル」、「実データ」、「加工処理内容」、…、を有する構成となっている。「オブジェクトID」は、オブジェクトを識別する一連番号などである。「タイトル」は、オブジェクトに付された付加情報(オブジェクト名)である。「種別」は、オブジェクトの種類として画像であるかテキストであるかを示している。「実データ」は、オブジェクトの実際のデータ(画像データ、文字列データ)を示し、「加工処理内容」は、そのオブジェクトに施す加工処理の種類(消去、モザイク、置き換え)を示している。そして、このようなオブジェクト記憶部M4の内容は、ユーザ操作により任意に設定可能となっている。
FIG. 4 is a diagram for explaining the object storage unit M4.
The object storage unit M4 stores information for specifying an object that is a target of the predetermined processing described above, and processing processing contents indicating what kind of processing is performed on the object. , “Object ID”, “title”, “actual data”, “processing content”,... The “object ID” is a serial number for identifying an object. “Title” is additional information (object name) attached to the object. “Type” indicates whether the object type is an image or text. “Real data” indicates the actual data (image data, character string data) of the object, and “Processing content” indicates the type of processing (erasure, mosaic, replacement) to be performed on the object. The contents of the object storage unit M4 can be arbitrarily set by a user operation.

図5は、表示部18の表層に視差バリアが生成されている状態において、表示対象として指定された画像内の特定のオブジェクトに対して加工処理を施した加工処理済み画像と、その加工処理を施す前の元画像とが表示部18に同時に表示されている場合に、表示部18に対向しているユーザや第三者の視野角方向により見ることができる画像がそれぞれ異なることを説明するための図である。   FIG. 5 shows a processed image obtained by processing a specific object in an image designated as a display target in a state where a parallax barrier is generated on the surface layer of the display unit 18 and the processing processing. In order to explain that when the original image before application is displayed on the display unit 18 at the same time, the images that can be viewed differ depending on the viewing angle direction of the user or third party facing the display unit 18. FIG.

図5(1)は、表示部18に対向してその略正面から見ているユーザと、正面以外の左右両側から見ている第三者とを示した図である。この場合、表示部18を略正面から見るときの視野角方向を第1視野角方向と称呼し、この第1視野角方向から外れた左右両側の視野角方向を第2視野角方向と称呼すると、第1視野角方向からは元画像が、第2視野角方向からは加工処理済み画像が視認されるような視差バリアを表示部18の表層に生成するようにしている。従って、表示部18を略正面から見るユーザにあっては、元画像を視認することができ、正面以外の左右両側から見る第三者にあっては、加工処理済み画像を視認することができるようになる。   FIG. 5A is a diagram illustrating a user who is facing the display unit 18 from the front and a third party who is viewing from the left and right sides other than the front. In this case, a viewing angle direction when the display unit 18 is viewed from substantially the front is referred to as a first viewing angle direction, and left and right viewing angle directions that are out of the first viewing angle direction are referred to as second viewing angle directions. A parallax barrier is generated on the surface layer of the display unit 18 so that the original image is viewed from the first viewing angle direction and the processed image is viewed from the second viewing angle direction. Therefore, the user who views the display unit 18 from substantially the front can view the original image, and the third party who can view from both the left and right sides other than the front can view the processed image. It becomes like this.

図5(2)、(3)は、元画像と加工処理済み画像を具体的に例示した図である。すなわち、図示の例では、表示部18の略正面に位置している画像が元画像となり、その左右両側に位置している画像が加工処理済み画像となる。そして、図5(2)は、元画像(2人の人物を撮影した画像)を加工した加工処理済み画像として、元画像内から特定のオブジェクト(家族などの人物)を消去した画像を示し、また、図5(3)は、元画像(緊急連絡先と住所を含む画像)内の特定のオブジェクト(電話番号や住所の文字列)をモザイク処理した画像を示している。   FIGS. 5B and 5C are diagrams specifically illustrating the original image and the processed image. That is, in the example shown in the figure, the image located substantially in front of the display unit 18 is the original image, and the images located on the left and right sides are the processed images. FIG. 5 (2) shows an image obtained by deleting a specific object (a person such as a family member) from the original image as a processed image obtained by processing the original image (an image obtained by photographing two persons). FIG. 5 (3) shows an image obtained by mosaicing a specific object (telephone number or address character string) in the original image (an image including an emergency contact address and an address).

次に、第1実施形態における携帯電話機1の動作概念を図6〜図9に示すフローチャートを参照して説明する。ここで、これらのフローチャートに記述されている各機能は、読み取り可能なプログラムコードの形態で格納されており、このプログラムコードにしたがった動作が逐次実行される。また、ネットワークなどの伝送媒体を介して伝送されてきた上述のプログラムコードに従った動作を逐次実行することもできる。このことは後述する他の実施形態においても同様であり、記録媒体のほかに、伝送媒体を介して外部供給されたプログラム/データを利用して本実施形態特有の動作を実行することもできる。   Next, the operation concept of the mobile phone 1 in the first embodiment will be described with reference to the flowcharts shown in FIGS. Here, each function described in these flowcharts is stored in the form of a readable program code, and operations according to the program code are sequentially executed. Further, it is possible to sequentially execute the operation according to the above-described program code transmitted via a transmission medium such as a network. The same applies to other embodiments described later. In addition to the recording medium, an operation peculiar to the present embodiment can be executed using a program / data supplied externally via a transmission medium.

図6は、電源投入に伴って実行開始される携帯電話機1側の全体動作の概要を示したメインのフローチャートである。
先ず、中央制御部11は、電源を投入する電源オン操作が行われると(ステップA1でYES)、電源供給を開始させて所定のメモリなどを初期化する電源オン処理を実行した後、所定の待受画像を読み出して表示させたり、基地局2Aとの間で通信を行って位置登録をしたりする待受処理を行う(ステップA2)。この状態において、設定操作が行われたかを調べたり(ステップA3)、画像取得操作が行われたかを調べたり(ステップA5)、画像表示指示の発生を検出したかを調べたり(ステップA7)、着信を検出したかを調べたり(ステップA9)、電源オフ操作が行われたかを調べたり(ステップA11)、その他の操作が行われたかを調べる(ステップA13)。
FIG. 6 is a main flowchart showing an outline of the overall operation on the mobile phone 1 side which is started when the power is turned on.
First, when a power-on operation for turning on the power is performed (YES in Step A1), the central control unit 11 starts power supply and executes a power-on process for initializing a predetermined memory and the like, A standby process is performed in which a standby image is read and displayed, or a location registration is performed by communicating with the base station 2A (step A2). In this state, it is checked whether a setting operation has been performed (step A3), whether an image acquisition operation has been performed (step A5), whether an occurrence of an image display instruction has been detected (step A7), It is checked whether an incoming call has been detected (step A9), whether a power-off operation has been performed (step A11), and whether other operations have been performed (step A13).

いま、任意の情報を設定するために設定操作が行われたときには(ステップA3でYES)、その操作に対応する設定処理を行う(ステップA4)。例えば、オブジェクト記憶部M4に対する設定処理としては、秘匿を希望するユーザの家族の画像や電話番号などを加工対象のオブジェクトとして指定してオブジェクト記憶部M4に設定する処理を行う。このような設定処理が終わると、上述のステップA3に戻る。また、画像取得操作が行われたときには、つまり、画像のダウンロードを指示するダウンロード操作や撮影を指示する撮影操作などの画像取得操作が行われたときには(ステップA5でYES)、画像取得処理を行った後(ステップA6)、上述のステップA3に戻る。この画像取得処理は、ダウンロードや撮影などで取得した画像を画像記憶部M3に記憶させる処理である。   If a setting operation is performed to set arbitrary information (YES in step A3), a setting process corresponding to the operation is performed (step A4). For example, as the setting process for the object storage unit M4, a process is performed in which an image or a telephone number of a user who desires concealment is specified as an object to be processed and set in the object storage unit M4. When such setting processing ends, the process returns to step A3 described above. Further, when an image acquisition operation is performed, that is, when an image acquisition operation such as a download operation instructing image download or a shooting operation instructing shooting is performed (YES in step A5), an image acquisition process is performed. After that (step A6), the process returns to step A3 described above. This image acquisition process is a process of storing an image acquired by downloading or shooting in the image storage unit M3.

図7は、画像取得処理(図6のステップA6)を詳述するためのフローチャートである。
先ず、中央制御部11は、画像取得処理の開始を指示する画像取得操作が特殊撮影操作によるものなのか(ステップB1)、通常の撮影操作によるものなのか(ステップB6)、ダウンロード操作によるものなのかその他の操作によるものなのかを調べる(ステップB9)。いま、画像取得操作が特殊撮影操作によるものであれば(ステップB1でYES)、撮像部17の特殊撮影機能(連写機能)を作動させて、所定時間内に複数回の連続撮影を行わせる(ステップB2、B3)。
FIG. 7 is a flowchart for explaining the image acquisition process (step A6 in FIG. 6) in detail.
First, the central control unit 11 determines whether the image acquisition operation for instructing the start of the image acquisition process is a special shooting operation (step B1), a normal shooting operation (step B6), or a download operation. Or whether it is due to other operations (step B9). If the image acquisition operation is a special shooting operation (YES in step B1), the special shooting function (continuous shooting function) of the imaging unit 17 is activated to perform a plurality of continuous shootings within a predetermined time. (Steps B2, B3).

すなわち、例えば、ある被写体(例えば、秘匿を希望する家族などの特定の被写体)を含む画像(画像A)の撮影を行わせた後(ステップB2)、その被写体自体を撮影範囲外に移動させたり、又はその被写体が撮影範囲内に含まれないように撮影範囲を移動したりして、その特定の被写体を含まない画像(画像B)の撮影を行わせる(ステップB3)。そして、最初に撮影された画像(特定の被写体を含む画像)Aを「元画像」として画像記憶部M3に記憶させるとともに(ステップB4)、次に撮影された画像(特定の被写体を含まない画像)Bを「加工処理済み画像」として画像記憶部M3に記憶させる(ステップB5)。   That is, for example, after photographing an image (image A) including a certain subject (for example, a specific subject such as a family member who wants to keep secret) (step B2), the subject itself is moved out of the photographing range. Alternatively, the shooting range is moved so that the subject is not included in the shooting range, and an image (image B) not including the specific subject is shot (step B3). Then, the first captured image (image including a specific subject) A is stored as an “original image” in the image storage unit M3 (step B4), and the next captured image (image not including the specific subject) ) B is stored as “processed image” in the image storage unit M3 (step B5).

また、画像取得操作が通常の撮影操作によるものであれば(ステップB6でYES)、上述のような特殊撮影ではない通常の画像撮影を行わせた後(ステップB7)、その撮影された画像を「元画像」として画像記憶部M3に記憶させる(ステップB8)。また、画像取得操作がダウンロード操作によるものであれば(ステップB9でYES)、画像配信装置4から画像(動画や静止画)をダウンロード受信して(ステップB10)、この画像を「元画像」として画像記憶部M3に記憶させる(ステップB8)。また、画像取得操作が上述の撮影操作やダウンロード操作以外のその他の操作によるものであれば(ステップB9でNO)、例えば、外部記録媒体からの画像コピーなどを指示するコピー操作であれば、外部記憶媒体から画像をコピー取得するなど、その操作に応じた画像取得処理を実行した後(ステップB11)、この画像を「元画像」として画像記憶部M3に記憶させる(ステップB8)。   If the image acquisition operation is a normal shooting operation (YES in step B6), after the normal image shooting that is not the special shooting as described above is performed (step B7), the shot image is displayed. It is stored in the image storage unit M3 as “original image” (step B8). If the image acquisition operation is a download operation (YES in step B9), an image (moving image or still image) is downloaded and received from the image distribution device 4 (step B10), and this image is set as the “original image”. The image is stored in the image storage unit M3 (step B8). Further, if the image acquisition operation is based on other operations other than the above-described shooting operation and download operation (NO in step B9), for example, if the operation is a copy operation instructing image copying from an external recording medium, external After executing image acquisition processing corresponding to the operation, such as acquiring an image copy from the storage medium (step B11), the image storage unit M3 stores the image as an “original image” (step B8).

このような画像取得処理(図6のステップA6)が終わると、図6のステップA3に戻る。ここで、画像表示指示の発生を検出したか(ステップA7)、つまり、ユーザ操作により画像表示が指示されたとき又はスライドショーのように複数の画像を所定時間毎に次々に切り替え表示させるための切り替えタイミングを検出したときには、画像表示処理を行った後(ステップA8)、上述のステップA3に戻る。この画像表示処理は、表示部18に表面に視差バリアを生成させることにより、上述の第1視野角方向からは元画像が、上述の第2視野角方向からは加工処理済み画像が視認されるように制御する処理(個別閲覧処理)の実行を指示したり、表示部18の視差バリアを消去させることにより、第1視野角方向、第2視野角方向を問わず、その両方から元画像が視認されるように制御する処理(共通閲覧処理)の実行を指示したりする。   When such an image acquisition process (step A6 in FIG. 6) ends, the process returns to step A3 in FIG. Here, whether the generation of an image display instruction has been detected (step A7), that is, switching for displaying a plurality of images one after another at predetermined time intervals when an image display is instructed by a user operation or as in a slide show When the timing is detected, image display processing is performed (step A8), and then the process returns to step A3 described above. In this image display process, by causing the display unit 18 to generate a parallax barrier on the surface, the original image is viewed from the first viewing angle direction and the processed image is viewed from the second viewing angle direction. By instructing the execution of the control process (individual browsing process) or erasing the parallax barrier of the display unit 18, the original image can be obtained from both the first viewing angle direction and the second viewing angle direction. Instructing the execution of a process (common browsing process) to be controlled so as to be visually recognized.

図8及び図9は、画像表示処理(図6のステップA8)を詳述するためのフローチャートである。
先ず、中央制御部11は、画像の表示指示の発生がテレビ番組の視聴操作によるものなのか(図8のステップC1)、動画ストリーミング視聴操作によるものなのかその他の要因として、例えば、画像記憶部M3に記憶されている画像の表示操作によるものなのか、次の画像への切り替え表示(自動表示)によるものなのかを調べる(図9のステップC18)。
8 and 9 are flowcharts for explaining the image display process (step A8 in FIG. 6) in detail.
First, the central control unit 11 determines whether an image display instruction is generated by a television program viewing operation (step C1 in FIG. 8) or a moving image streaming viewing operation. Whether it is due to the display operation of the image stored in M3 or the display switching (automatic display) to the next image is checked (step C18 in FIG. 9).

いま、テレビ番組の視聴操作によるものであれば(図8のステップC1でYES)、テレビ機能を起動させて、テレビ放送受信部16から画像(テレビ番組)を受信する受信動作を開始した後(ステップC2)、画像(テレビ番組)を表示する処理を行うと共に、上述の画像取得処理に相当する処理も併せて行う。先ず、加工処理済み画像も送信されているか、つまり、マルチ編成放送が行われているかを調べる(ステップC3)。すなわち、現在受信中の番組のテレビ映像を第1画像とすると、この第1画像と異なるテレビ映像が第2画像(加工処理済み画像)として現チャンネル枠内の他の番組で放送されているか、言い換えれば、特定のオブジェクト(例えば、悲惨な映像部分など)を含まない番組が放送されているかを判別し、その判別結果に基づいて、上述の個別閲覧処理の実行を指示したり、上述の共通閲覧処理の実行を指示したりする。いま、このようなマルチ編成放送が行われている場合、つまり、特定のオブジェクトを含まない加工処理済み画像(テレビ番組の映像)も送信されている場合には(ステップC3でYES)、先ず、上述の個別閲覧処理を実行する準備として、この加工処理済み画像の受信を開始した後(ステップC4)、上述の第1画像を「元画像」として各種情報一時記憶部M2に一時記憶させ(ステップC5)、また、上述の第2画像(加工処理済み画像)を各種情報一時記憶部M2に一時記憶させる(ステップC6)。   If the operation is based on a TV program viewing operation (YES in step C1 in FIG. 8), the TV function is activated and a reception operation for receiving an image (TV program) from the TV broadcast receiving unit 16 is started ( Step C2) A process of displaying an image (television program) is performed, and a process corresponding to the above-described image acquisition process is also performed. First, it is checked whether the processed image is also transmitted, that is, whether multi-organized broadcasting is being performed (step C3). That is, if the TV image of the currently received program is the first image, a TV image different from the first image is broadcast as another image (processed image) in another program within the current channel frame, In other words, it is determined whether a program that does not include a specific object (for example, a miserable video portion) is broadcast, and based on the determination result, execution of the individual browsing process described above is instructed, Instructing execution of browsing processing. If such multi-organization broadcasting is being performed, that is, if a processed image (video of a TV program) that does not include a specific object is also transmitted (YES in step C3), first, In preparation for executing the individual browsing process described above, after receiving the processed image (step C4), the first image is temporarily stored in the various information temporary storage unit M2 as an “original image” (step S4). C5) Further, the second image (processed image) described above is temporarily stored in the various information temporary storage unit M2 (step C6).

そして、中央制御部11は、視差バリア制御部19を駆動させることにより、表示部18の略正面から見る場合の視野角方向からは第1画像(元画像)が、正面以外の左右両側の見る場合の視野角方向からは第2画像(加工処理済み画像)が視認されるように視差バリアを表示部18の表層に生成させた後(ステップC7)、この第1画像(元画像)及び第2画像(加工処理済み画像)を表示部18に同時に表示させる(ステップC8)。これによって図5で示したようにユーザは元画像を、第三者は加工処理済み画像を見ることができるようになる。その後、図8及び図9のフローから抜ける。   Then, the central control unit 11 drives the parallax barrier control unit 19 so that the first image (original image) is viewed from both the left and right sides other than the front when viewed from a substantially front side of the display unit 18. After the parallax barrier is generated on the surface layer of the display unit 18 so that the second image (processed image) can be viewed from the viewing angle direction in this case (step C7), the first image (original image) and the first image Two images (processed images) are simultaneously displayed on the display unit 18 (step C8). As a result, as shown in FIG. 5, the user can see the original image, and the third party can see the processed image. Thereafter, the flow of FIGS. 8 and 9 is exited.

一方、上述のようなマルチ編成放送が行われていない場合、つまり、加工処理済み画像も送信されていない場合には(ステップC3でNO)、更に、上述の第1画像を「元画像」として各種情報一時記憶部M2に一時記憶させた後(ステップC9)、この元画像を解析することにより画像内に含まれている各オブジェクトを抽出する(ステップC10)。そして、オブジェクト記憶部M4に記憶されている各オブジェクトを読み出し(ステップC11)、上述の元画像の解析結果と、読み出した各オブジェクトとを比較することにより元画像内にいずれかのオブジェクトが含まれているかを調べる(ステップC12)。   On the other hand, when the multi-organization broadcast as described above is not performed, that is, when the processed image is not transmitted (NO in step C3), the first image is further set as the “original image”. After being temporarily stored in the various information temporary storage unit M2 (step C9), each object included in the image is extracted by analyzing the original image (step C10). And each object memorize | stored in the object memory | storage part M4 is read (step C11), and any object is included in the original image by comparing the analysis result of the above-mentioned original image with each read object. (Step C12).

すなわち、中央制御部11は、受信したテレビ番組の映像(元画像)の中に特定のオブジェクト(例えば、悲惨な映像部分など)が含まれているかを判別し、その判別結果に基づいて、上述の個別閲覧処理の実行を指示したり、上述の共通閲覧処理の実行を指示したりする。いま、元画像内にいずれのオブジェクトも含まれていなければ(ステップC12でNO)、上述の共通閲覧処理を実行するために、次のステップC16に移り、表示部18に視差バリアが生成されていれば、それを消去させた後、元画像を表示部18に表示させる(ステップC17)。その後、図8及び図9のフローから抜ける。   That is, the central control unit 11 determines whether a specific object (for example, a miserable video part) is included in the received video (original image) of the television program, and based on the determination result, the above-described determination is made. The execution of the individual browsing process is instructed, or the execution of the above-described common browsing process is instructed. If no object is included in the original image (NO in step C12), the process proceeds to the next step C16 to execute the above-described common browsing process, and a parallax barrier is generated in the display unit 18. Then, after deleting it, the original image is displayed on the display unit 18 (step C17). Thereafter, the flow of FIGS. 8 and 9 is exited.

テレビ番組の映像(元画像)の中に特定のオブジェクトが含まれていれば(ステップC12でYES)、先ず、上述の個別閲覧処理を実行する準備として、ステップC13に移り、元画像内に含まれているオブジェクト対応の「加工処理内容」を読み出した後、この「加工処理内容」に応じた加工処理を実行することにより、加工処理済み画像を取得する(ステップC14)。なお、画像配信装置4側で元画像(テレビ映像)に対する加工処理が実行されたときにはその加工処理済み画像を画像配信装置4から受信取得したり、予め記憶されている加工処理済み画像を画像配信装置4から受信取得したりするようにしてもよい。そして、上述のようにして取得した加工処理済み画像を各種情報一時記憶部M2に一時記憶させた後(ステップC15)、視差バリア制御部19を駆動させて、表示部18の表層に視差バリアを生成させた後(ステップC7)、第1画像(元画像)及び第2画像(加工処理済み画像)を表示部18に同時に表示させる(ステップC8)。   If a specific object is included in the video (original image) of the television program (YES in step C12), first, in preparation for executing the above-described individual browsing process, the process proceeds to step C13 and is included in the original image. After reading the “processing content” corresponding to the object being processed, a processing image corresponding to this “processing content” is executed to obtain a processed image (step C14). When the image distribution device 4 performs processing on the original image (television video), the processed image is received and acquired from the image distribution device 4 or the preprocessed processed image is distributed. You may make it receive and acquire from the apparatus 4. FIG. Then, after the processed image acquired as described above is temporarily stored in the various information temporary storage unit M2 (step C15), the parallax barrier control unit 19 is driven, and the parallax barrier is formed on the surface layer of the display unit 18. After the generation (step C7), the first image (original image) and the second image (processed image) are simultaneously displayed on the display unit 18 (step C8).

他方、画像の表示指示の発生が動画ストリーミング視聴操作によるものであれば(図9のステップC18でYES)、画像配信装置4から配信される画像(動画)を元画像(第1画像)として受信する受信動作を開始した後(ステップC19)、この画像を表示する処理を行うと共に、上述の画像取得処理に相当する処理も併せて行う。先ず、この第1画像と異なる第2画像(加工処理済み画像)が画像配信装置4から配信されているかを調べる(ステップC20)。すなわち、特定のオブジェクト(例えば、悲惨な映像部分など)を含まない画像が第2画像(加工処理済み画像)として配信されているかを判別し、その判別結果に基づいて、上述の個別閲覧処理の実行を指示したり、上述の共通閲覧処理の実行を指示したりする。   On the other hand, if the image display instruction is generated by a video streaming viewing operation (YES in step C18 in FIG. 9), the image (moving image) distributed from the image distribution device 4 is received as the original image (first image). After starting the receiving operation (step C19), the processing for displaying this image is performed, and the processing corresponding to the above-described image acquisition processing is also performed. First, it is checked whether a second image (processed image) different from the first image is distributed from the image distribution device 4 (step C20). That is, it is determined whether an image that does not include a specific object (for example, a miserable video portion) is distributed as the second image (processed image), and based on the determination result, the above-described individual browsing process is performed. Execution is instructed or execution of the above-described common browsing process is instructed.

いま、第2画像(加工処理済み画像)が配信されていなければ(ステップC20でNO)、図8のステップC9に移り、以下、上述の動作を行い、元画像を解析してその中に特定のオブジェクトが含まれている否かを判別し、その判別結果に応じて上述の個別閲覧処理を実行したり、上述の共通閲覧処理を実行したりする。また、第2画像(加工処理済み画像)が配信されていれば(図9のステップC20でYES)、この第2画像(加工処理済み画像)を受信した後(ステップC21)、図8のステップC5に移り、以下、元画像及び加工処理済み画像を一時記憶させる(ステップC5、C6)。そして、上述の個別閲覧処理を実行するために、ステップC7に移り、表示部18の表層に視差バリアを生成させた後、第1画像(元画像)及び第2画像(加工処理済み画像)を表示部18に同時に表示させる(ステップC8)。   If the second image (processed image) has not been distributed (NO in step C20), the process proceeds to step C9 in FIG. 8, and then the above-described operation is performed to analyze the original image and identify it. It is determined whether or not the object is included, and the above-described individual browsing process is executed according to the determination result, or the above-described common browsing process is executed. If the second image (processed image) has been distributed (YES in step C20 in FIG. 9), after receiving the second image (processed image) (step C21), the step in FIG. Moving to C5, the original image and the processed image are temporarily stored (steps C5 and C6). And in order to perform the above-mentioned individual browsing process, after moving to Step C7 and generating a parallax barrier on the surface layer of the display unit 18, the first image (original image) and the second image (processed image) are displayed. Displayed on the display unit 18 at the same time (step C8).

画像の表示指示の発生がその他の要因によるものであれば(図9のステップC18でNO)、例えば、画像記憶部M3に記憶されている画像(撮影画像、コピー画像など)に対する表示操作が行われた場合や画像記憶部M3に記憶されている画像の自動表示が指示された場合には、表示を指示された画像の「元画像」を画像記憶部M3から読み出し(ステップC22)、この「元画像」に対応して「加工処理済み画像」が画像記憶部M3に記憶されているかを調べる(ステップC23)。すなわち、特定のオブジェクト(例えば、家族などの被写体)を含まない画像が第2画像(加工処理済み画像)として記憶されているかを判別し、その判別結果に基づいて、上述の個別閲覧処理の実行を指示したり、上述の共通閲覧処理の実行を指示したりする。   If the generation of the image display instruction is due to other factors (NO in step C18 in FIG. 9), for example, a display operation is performed on an image (captured image, copy image, etc.) stored in the image storage unit M3. If an automatic display of an image stored in the image storage unit M3 is instructed, the “original image” of the image instructed to be displayed is read from the image storage unit M3 (step C22). It is checked whether or not the “processed image” is stored in the image storage unit M3 corresponding to the “original image” (step C23). That is, it is determined whether an image that does not include a specific object (for example, a subject such as a family member) is stored as the second image (processed image), and the above-described individual browsing process is executed based on the determination result. Or instructing the execution of the common browsing process described above.

いま、「加工処理済み画像」が記憶されていなければ(ステップC23でNO)、図8のステップC9に移り、以下、上述の動作を行い、元画像を解析してその中に特定のオブジェクトが含まれているか否かを判別し、その判別結果に応じて上述の個別閲覧処理を実行したり、上述の共通閲覧処理を実行したりする。また、「加工処理済み画像」が画像記憶部M3に記憶されていれば(ステップC23でYES)、この「加工処理済み画像」を読み出した後(ステップC24)、図8のステップC5に移り、以下、上述の動作を行い、以下、元画像及び加工処理済み画像を一時記憶させる(ステップC5、C6)。そして、上述の個別閲覧処理を実行するために、ステップC7に移り、表示部18の表層に視差バリアを生成させた後、第1画像(元画像)及び第2画像(加工処理済み画像)を表示部18に同時に表示させる(ステップC8)。   If the “processed image” is not stored (NO in step C23), the process proceeds to step C9 in FIG. 8, and the above-described operation is performed to analyze the original image and a specific object is included therein. It is determined whether or not it is included, and the individual browsing process described above is executed according to the determination result, or the common browsing process described above is executed. If the “processed image” is stored in the image storage unit M3 (YES in step C23), after reading this “processed image” (step C24), the process proceeds to step C5 in FIG. Thereafter, the above-described operation is performed, and thereafter, the original image and the processed image are temporarily stored (steps C5 and C6). And in order to perform the above-mentioned individual browsing process, after moving to Step C7 and generating a parallax barrier on the surface layer of the display unit 18, the first image (original image) and the second image (processed image) are displayed. Displayed on the display unit 18 at the same time (step C8).

他方、着信を検出したときには(図6のステップA9でYES)、その応答操作に応じて通話処理を行った後(ステップA10)、上述のステップA3に戻る。また、電源オフ操作を検出したときには(ステップA11でYES)、電源オフ処理を行った後(ステップA12)、このフローの終了となるが、発信操作など、その他の操作が行われたときには(ステップA13でYES)、操作に応じた処理として発信処理などを行った後(ステップA14)、上述のステップA3に戻る。   On the other hand, when an incoming call is detected (YES in step A9 in FIG. 6), call processing is performed according to the response operation (step A10), and then the process returns to step A3 described above. When a power-off operation is detected (YES in step A11), after the power-off process is performed (step A12), this flow ends. However, when other operations such as a calling operation are performed (step A12) After a transmission process is performed as a process corresponding to the operation (step A14), the process returns to the above-described step A3.

以上のように、この実施形態において中央制御部11は、表示部18に表示させる画像に特定のオブジェクトが含まれるか否かに基づいて、複数の視野角方向から同じ画像が視認されるように制御するか、別々の画像が視認されるように制御するようにしたので、複数人に同じ内容の画像を見せるか、一部の人に異なる画像を見せるかを特別な操作を要求することなく適切に制御することができる。従って、例えば、会社の同僚達と一緒に画像を閲覧するような場合に、同僚に対して家族の画像や電話番号などの特定のオブジェクトだけを見せないようにすることができ、また、電車内で画像を閲覧している場合に他人に覗き見されたとしても家族の画像や電話番号などの特定のオブジェクトだけを見せないようにすることができるなど、実用性に富んだものとなる。   As described above, in this embodiment, the central control unit 11 allows the same image to be viewed from a plurality of viewing angle directions based on whether or not a specific object is included in the image displayed on the display unit 18. Since it is controlled so that different images are visually recognized, there is no need to require special operation to show the same content to multiple people or to show different images to some people It can be controlled appropriately. Thus, for example, when viewing images with colleagues in the company, you can prevent your colleagues from seeing only certain objects, such as family images or phone numbers, When viewing an image on the Internet, even if someone looks into it, it is possible to hide only a specific object such as a family image or a telephone number.

表示部18に表示させる画像に特定のオブジェクトが含まれている場合には、複数の視野角方向から別々の画像が視認されるように制御するようにしたので、例えば、ある視野角方向からは第三者に閲覧されたくない画像が視認されるように制御することができ、それ以外の視野角方向からは第三者に閲覧されたとしても問題のない画像だけが視認されるように制御することができる。   When a specific object is included in the image displayed on the display unit 18, control is performed so that different images are visually recognized from a plurality of viewing angle directions. For example, from a certain viewing angle direction, It is possible to control so that an image that you do not want to be viewed by a third party can be viewed, and from the other viewing angle direction, control can be performed so that only images that have no problem even if viewed by a third party are viewed. can do.

特定のオブジェクトに加工処理が施された画像を第2画像として取得するようにしたので、この取得した第2画像を第1画像とともに表示部8に同時に表示させることができ、ある視野角方向からは特定のオブジェクトが含まれる画像が視認させ、別の視野角方向からは特定のオブジェクトに加工処理が施された画像が視認させることができる。   Since the image obtained by performing the processing on the specific object is acquired as the second image, the acquired second image can be simultaneously displayed on the display unit 8 together with the first image. Makes it possible to visually recognize an image including a specific object and to visually recognize an image obtained by processing the specific object from another viewing angle direction.

特定のオブジェクトが含まれる画像を第1画像とし、この第1画像内の特定のオブジェクトに対して加工処理を施すことによって、この特定のオブジェクトに加工処理が施された画像を第2画像として取得するようにしたので、第1画像を元にその画像とは異なる画像を得ることができる。   An image including a specific object is set as a first image, and the specific object in the first image is processed to obtain an image obtained by processing the specific object as a second image. Therefore, an image different from the first image can be obtained based on the first image.

特定のオブジェクトに加工処理が施された画像を外部の画像配信装置4から取得するようにしたので、加工処理が施された画像を容易に得ることができる。   Since an image in which a specific object has been processed is acquired from the external image distribution device 4, an image that has been processed can be easily obtained.

画像内に特定のオブジェクトが含まれていなければ、複数の視野角方向からその画像が視認されるように制御するようにしたので、誰に閲覧されても問題のない画像に対する制御として適切なものとなる。   As long as a specific object is not included in the image, it is controlled so that the image can be viewed from a plurality of viewing angle directions. It becomes.

撮像部17により撮影された画像内に特定のオブジェクトが含まれているか否かを判別するようにしたので、撮影された画像に基づいて、複数の視野角方向から同じ画像が視認されるようにするか、別々の画像が視認されるようにするかを制御することができる   Since it is determined whether or not a specific object is included in the image captured by the imaging unit 17, the same image is viewed from a plurality of viewing angle directions based on the captured image. Control whether separate images are visible

撮像部17は、特定のオブジェクトを含む画像と、そのオブジェクトを含まない画像とを撮影し、この特定のオブジェクトを含む撮影画像と特定のオブジェクトを含まない撮影画像とを表示部8に同時に表示させるようにしたので、ある視野角方向からは特定のオブジェクトを含む撮影画像が視認されるように制御することができ、それ以外の視野角方向からは特定のオブジェクトを含まない撮影画像が視認されるように制御することができる。   The imaging unit 17 captures an image including a specific object and an image not including the object, and causes the display unit 8 to simultaneously display a captured image including the specific object and a captured image not including the specific object. As a result, it is possible to control a captured image including a specific object from a certain viewing angle direction, and a captured image not including the specific object is viewed from other viewing angle directions. Can be controlled.

表示部18に表示させる画像に特定のオブジェクトが含まれる場合に、ある視野角方向からはその画像が視認されるように制御し、別の視野角方向からはそのオブジェクトに対する加工処理後の画像が視認されるように制御するようにしたので、複数人に異なる画像を見せることができ、覗き見などに適切に対応することができる。   When a specific object is included in an image to be displayed on the display unit 18, control is performed so that the image is visually recognized from a certain viewing angle direction, and an image after processing on the object is viewed from another viewing angle direction. Since control is performed so that the user can visually recognize the images, different images can be shown to a plurality of people, and peeping can be appropriately handled.

この場合、特定のオブジェクトが含まれない場合には、画像が第1視野角方向と第2視野角方向の両方から視認されるように表示部8を制御するようにしたので、特定のオブジェクトが含まれない場合には、第三者に閲覧されても問題のない画像とすることができる。   In this case, when the specific object is not included, the display unit 8 is controlled so that the image is viewed from both the first viewing angle direction and the second viewing angle direction. If it is not included, the image can be displayed without problems even if viewed by a third party.

(第2実施形態)
以下、この発明の第2実施形態について図10及び図11を参照して説明する。
なお、上述した第1実施形態においては、表示部18に表示させる画像に特定のオブジェクトが含まれるか否かに基づいて、複数の視野角方向から同じ画像が視認されるようにするか、別々の画像が視認されるようにするかを制御するようにしたが、この第2実施形態においては、表示部18に表示させる画像がそれとは異なる画像に対応付けられているか否かに基づいて、複数の視野角方向から同じ画像が視認されるようにするか、別々の画像が視認されるようにするかを制御するようにしたものである。ここで、両実施形態において基本的あるいは名称的に同一のものは、同一符号を付して示し、その説明を省略するとともに、以下、第2実施形態の特徴部分を中心に説明するものとする。
(Second Embodiment)
Hereinafter, a second embodiment of the present invention will be described with reference to FIGS.
In the first embodiment described above, the same image is viewed from a plurality of viewing angle directions based on whether or not a specific object is included in the image to be displayed on the display unit 18 or separately. In the second embodiment, based on whether or not the image displayed on the display unit 18 is associated with a different image, the second image is displayed. Whether the same image is viewed from a plurality of viewing angle directions or whether different images are viewed is controlled. Here, in the two embodiments, the same or the same name is denoted by the same reference numeral, the description thereof will be omitted, and the following description will focus on the features of the second embodiment. .

なお、第2実施形態においても、電源投入に伴って実行開始される携帯電話機1側の全体動作は、図6のフローチャートと同様であるため、その説明は省略するが、画像取得処理(図6のステップA6)は、上述した図7に代わる図10のフローチャート、また、画像表示処理(図6のステップA8)は、上述した図8及び図9に代わる図11のフローチャートに従って実行するようにしている。   In the second embodiment as well, since the overall operation on the mobile phone 1 side that is started when the power is turned on is the same as that in the flowchart of FIG. 6, the description thereof is omitted, but the image acquisition process (FIG. 6) is omitted. Step A6) is executed in accordance with the flowchart of FIG. 10 in place of FIG. 7 described above, and the image display process (Step A8 in FIG. 6) is executed in accordance with the flowchart of FIG. 11 in place of FIG. 8 and FIG. Yes.

図10は、第2実施形態における画像取得処理(図6のステップA6)を詳述するためのフローチャートである。
先ず、中央制御部11は、画像取得処理の開始を指示する画像取得操作が特殊撮影操作によるものなのか(ステップD1)、通常の撮影操作によるものなのか(ステップD6)、ダウンロード操作によるものなのかその他の操作によるものなのかを調べる(ステップD15)。いま、画像取得操作が特殊撮影操作によるものであれば(ステップD1でYES)、上述した図7のステップB2〜B5と同様に、撮像部17の特殊連写機能を作動させて、所定時間内に複数回の連続撮影を行わせることにより、特定のオブジェクトを含む画像Aと、特定のオブジェクトを含まない画像Bを取得する(ステップD2、D3)。そして、最初に撮影された画像Aを「元画像」として画像記憶部M3に記憶させるとともに(ステップD4)、次に撮影された画像Bを「加工処理済み画像」として画像記憶部M3に記憶させる(ステップD5)。
FIG. 10 is a flowchart for explaining in detail the image acquisition process (step A6 in FIG. 6) in the second embodiment.
First, the central control unit 11 determines whether the image acquisition operation instructing the start of the image acquisition process is a special shooting operation (step D1), a normal shooting operation (step D6), or a download operation. Or whether it is due to other operations (step D15). If the image acquisition operation is a special shooting operation (YES in step D1), the special continuous shooting function of the imaging unit 17 is activated within a predetermined time in the same manner as steps B2 to B5 in FIG. The image A including the specific object and the image B not including the specific object are acquired by performing the continuous shooting multiple times (steps D2 and D3). Then, the first photographed image A is stored as “original image” in the image storage unit M3 (step D4), and the next photographed image B is stored as “processed image” in the image storage unit M3. (Step D5).

また、画像取得操作が通常の撮影操作によるものであれば(ステップD6でYES)、通常の画像撮影を行わせた後(ステップD7)、その撮影された画像を「元画像」として画像記憶部M3に記憶させる(ステップD8)。そして、この元画像を解析することにより、この元画像内に含まれている各オブジェクトを抽出するとともに(ステップD9)、オブジェクト記憶部M4に記憶されている各オブジェクトを読み出し(ステップD10)、上述の元画像の解析結果と、読み出した各オブジェクトとを比較することにより元画像内にいずれかのオブジェクトが含まれているかを調べる(ステップD11)。ここで、いずれのオブジェクトも含まれていなければ(ステップD11でNO)、図10のフローから抜ける。   If the image acquisition operation is based on a normal shooting operation (YES in step D6), after the normal image shooting is performed (step D7), the captured image is set as an “original image”. It is stored in M3 (step D8). Then, by analyzing the original image, each object included in the original image is extracted (step D9), and each object stored in the object storage unit M4 is read (step D10). By comparing the analysis result of the original image and each read object, it is checked whether any object is included in the original image (step D11). Here, if none of the objects is included (NO in step D11), the flow of FIG. 10 is exited.

また、元画像内にいずれかのオブジェクトが含まれていれば(ステップD11でYES)、元画像内に含まれているオブジェクト対応の「加工処理内容」を読み出した後(ステップD12)、この「加工処理内容」に応じた加工処理を実行することによって、加工処理済み画像を取得する(ステップD13)。なお、画像配信装置4側で元画像に対する画像加工処理を実行させてその加工処理済み画像を画像配信装置4から受信取得したり、予め記憶されている加工処理済み画像を画像配信装置4から受信取得したりするようにしてもよい。そして、上述のようにして取得した加工処理済み画像を「元画像」に対応付けて画像記憶部M3に記憶させた後(ステップD14)、図10のフローから抜ける。   If any object is included in the original image (YES in step D11), the “processing contents” corresponding to the object included in the original image is read (step D12), and then “ The processed image is acquired by executing the processing according to “processing content” (step D13). The image distribution apparatus 4 executes image processing on the original image and receives the processed image from the image distribution apparatus 4 or receives a preprocessed processed image from the image distribution apparatus 4. You may make it acquire. Then, after the processed image acquired as described above is stored in the image storage unit M3 in association with the “original image” (step D14), the process goes out of the flow of FIG.

また、画像取得操作がダウンロード操作によるものであれば(ステップD15でYES)、画像配信装置4から画像(動画や静止画)をダウンロード受信して(ステップD16)、この画像を「元画像」として画像記憶部M3に記憶させた後(ステップD8)、上述の画像解析を行うステップD9に移り、以下、上述の動作を行う。また、画像取得操作が撮影操作やダウンロード操作以外のその他の操作によるものであれば(ステップD15でNO)、例えば、外部記録媒体からの画像コピーなどを指示するコピー操作であれば、外部記憶媒体から画像をコピー取得するなど、その操作に応じた画像取得処理を実行する(ステップD17)。そして、取得した画像を「元画像」として画像記憶部M3に記憶させた後(ステップD8)、上述の画像解析を行うステップD9に移り、以下、上述の動作を行う。   If the image acquisition operation is a download operation (YES in step D15), an image (moving image or still image) is downloaded and received from the image distribution device 4 (step D16), and this image is set as an “original image”. After storing the image in the image storage unit M3 (step D8), the process proceeds to step D9 where the above-described image analysis is performed, and then the above-described operation is performed. Further, if the image acquisition operation is based on other operations other than the shooting operation and the download operation (NO in step D15), for example, if the copy operation is an instruction to copy an image from an external recording medium, the external storage medium Then, an image acquisition process corresponding to the operation is executed (step D17). Then, after the acquired image is stored as “original image” in the image storage unit M3 (step D8), the process proceeds to step D9 where the above-described image analysis is performed, and the above-described operation is performed.

図11は、第2実施形態において画像表示処理(図6のステップA8)を詳述するためのフローチャートである。
先ず、中央制御部11は、画像記憶部M3に記憶されている画像(撮影画像、コピー画像など)に対する表示操作が行われた場合や画像記憶部M3に記憶されている画像の自動表示が指示された場合に、表示を指示された画像の「元画像」を画像記憶部M3から読み出し(ステップE1)、この「元画像」を各種情報一時記憶部M2に一時記憶させた後(ステップE2)、「元画像」に対応して「加工処理済み画像」が画像記憶部M3に記憶されているかを調べる(ステップE3)。すなわち、特定のオブジェクト(例えば、家族などの被写体)が含まれていない画像が画像記憶部M3内に加工処理済み画像として記憶されているか否かを判別し、その判別結果に基づいて、上述の個別閲覧処理の実行を指示したり、上述の共通閲覧処理の実行を指示したりする。いま、「加工処理済み画像」が記憶されていない場合には(ステップE3でNO)、上述の共通閲覧処理を実行するために、次のステップE8に移り、表示部18に視差バリアが生成されていれば、それを消去させた後、元画像を表示部18に表示させる(ステップE9)。その後、図11のフローから抜ける。
FIG. 11 is a flowchart for explaining in detail the image display process (step A8 in FIG. 6) in the second embodiment.
First, the central control unit 11 instructs the automatic display of an image stored in the image storage unit M3 when a display operation is performed on an image (captured image, copy image, etc.) stored in the image storage unit M3. In this case, the “original image” of the image instructed to be displayed is read from the image storage unit M3 (step E1), and this “original image” is temporarily stored in the various information temporary storage unit M2 (step E2). Then, it is checked whether the “processed image” is stored in the image storage unit M3 corresponding to the “original image” (step E3). That is, it is determined whether or not an image that does not include a specific object (for example, a subject such as a family member) is stored as a processed image in the image storage unit M3. The execution of the individual browsing process is instructed, or the execution of the above-described common browsing process is instructed. If the “processed image” is not stored (NO in step E3), the process proceeds to the next step E8 to execute the above-described common browsing process, and a parallax barrier is generated on the display unit 18. If so, after deleting it, the original image is displayed on the display unit 18 (step E9). Thereafter, the flow of FIG. 11 is exited.

また、「元画像」に対応して「加工処理済み画像」が画像記憶部M3に記憶されていれば(ステップE3でYES)、上述の個別閲覧処理を実行する準備として、この「加工処理済み画像」を読み出した後(ステップE4)、この加工処理済み画像を各種情報一時記憶部M2に一時記憶させる(ステップE5)。そして、視差バリア制御部19を駆動させて、表示部18の表層に視差バリアを生成させた後(ステップE6)、元画像及び加工処理済み画像を表示部18に同時に表示させる(ステップE7)。その後、図11のフローから抜ける。   If “processed image” corresponding to “original image” is stored in the image storage unit M3 (YES in step E3), the “processed image” is prepared as a preparation for executing the individual browsing process described above. After the “image” is read (step E4), the processed image is temporarily stored in the various information temporary storage unit M2 (step E5). Then, the parallax barrier control unit 19 is driven to generate a parallax barrier on the surface layer of the display unit 18 (step E6), and then the original image and the processed image are simultaneously displayed on the display unit 18 (step E7). Thereafter, the flow of FIG. 11 is exited.

以上のように、第2実施形態においては、表示部18に表示させる画像がそれとは異なる画像に対応付けられているか否かに基づいて、複数の視野角方向から同じ画像が視認されるようにするか、別々の画像が視認されるようにするかを制御するようにしたから、複数人に同じ内容の画像を見せるか、一部の人に異なる画像を見せるかを特別な操作を要求することなく適切に制御することができ、実用性に富んだものとなる。   As described above, in the second embodiment, based on whether an image to be displayed on the display unit 18 is associated with a different image, the same image is viewed from a plurality of viewing angle directions. Or whether different images are visible, requires special operations to show multiple people the same content or some people to show different images It can be appropriately controlled without any problems, and is highly practical.

撮影された特定のオブジェクトを含む画像が、撮影された特定のオブジェクトを含まない画像と対応付けられているか否かに基づいて、複数の視野角方向から同じ画像を視認できるようにするか、別々の画像を視認できるようにするかを制御するようにしたので、例えば、特殊な撮影機能として、特定のオブジェクトを含む画像の撮影後に、その特定のオブジェクトを撮影範囲外に移動させたりして、その特定のオブジェクトを含まない画像を撮影するという撮影機能を携帯電話機が備えている場合には、その撮影機能で撮影された特定のオブジェクトを含む画像と含まない画像とをそれぞれ異なる視野角方向から視認させることができる。   Based on whether or not an image including a specific captured object is associated with an image that does not include a specific captured object, the same image can be viewed from a plurality of viewing angle directions, or separately. For example, as a special shooting function, after shooting an image containing a specific object, the specific object can be moved out of the shooting range. When the mobile phone has a shooting function of shooting an image that does not include the specific object, the image that includes the specific object and the image that does not include the specific object captured by the shooting function are viewed from different viewing angle directions. It can be visually recognized.

なお、上述した各実施形態において表示部18に表示させる画像としては、静止画、動画、テレビ番組に限らず、例えば、テキストを含む画像など、表示部18に表示させる任意の種別の画像であってもよい。また、オブジェクトも人物、文字列に限らず、例えば、人体の一部や建物など、表示部18に表示される任意のオブジェクトであってもよい。   In each of the above-described embodiments, the image displayed on the display unit 18 is not limited to a still image, a moving image, and a television program, but may be any type of image displayed on the display unit 18 such as an image including text. May be. The object is not limited to a person and a character string, and may be an arbitrary object displayed on the display unit 18 such as a part of a human body or a building.

上述した各実施形態においては、加工処理内容として、消去、モザイク、置き換えを示したが、これに限らず、特定のオブジェクトに対する任意の加工処理内容であってもよい。また、上述した各実施形態においては、加工処理済み画像を1つとしたが、2つ以上であってもよい。また、元画像と2つ以上の加工処理済み画像を表示部18に同時に表示させ、ある視野角方向からは元画像が視認されるように制御するようにし、別の視野角方向からは第1の加工処理済み画像が、さらに別の視野角方向からは第2の加工処理済み画像が、それぞれ視認されるように制御するようにしてもよい。   In each of the embodiments described above, erasure, mosaic, and replacement are shown as the processing content, but the processing content is not limited to this, and may be any processing content for a specific object. Moreover, in each embodiment mentioned above, although the processed image was taken as one, two or more may be sufficient. Further, the original image and two or more processed images are displayed on the display unit 18 at the same time, and control is performed so that the original image is visually recognized from a certain viewing angle direction, and from the other viewing angle direction, the first image is displayed. The processed image may be controlled so that the second processed image is visually recognized from another viewing angle direction.

上述した各実施形態においては、表示部18の略正面の視野角方向からは元画像が視認されるように制御するようにし、それ以外の視野角方向からは加工処理済み画像が視認されるように制御するようにしたが、それに限らず、任意の視野角方向からは元画像が視認されるようにし、それ以外の視野角方向からは加工処理済み画像が視認されるように制御するようにしてもよい。   In each embodiment described above, control is performed so that the original image is visually recognized from the viewing angle direction substantially in front of the display unit 18, and the processed image is visually recognized from other viewing angle directions. However, the present invention is not limited to this, so that the original image can be viewed from any viewing angle direction, and the processed image can be viewed from any other viewing angle direction. May be.

その他、端末装置としては携帯電話機に限らず、パーソナルコンピュータ、PDA、デジタルカメラ、音楽プレイヤーなど、任意の端末装置であってもよい。さらに、折り畳みタイプの端末装置に限らず、ストレートタイプ、スライドタイプ、スピントップタイプなど任意の筐体構造であってもよい。   In addition, the terminal device is not limited to a mobile phone, and may be any terminal device such as a personal computer, a PDA, a digital camera, or a music player. Furthermore, it is not limited to a folding type terminal device, but may be an arbitrary housing structure such as a straight type, a slide type, or a spin top type.

また、上述した各実施形態において示した“装置”や“機”とは、機能別に複数の筐体に分離されていてもよく、単一の筐体に限らない。また、上述したフローチャートに記述した各ステップは、時系列的な処理に限らず、複数のステップを並列的に処理したり、別個独立して処理したりするようにしてもよい。   Further, the “device” and “machine” shown in each of the above-described embodiments may be separated into a plurality of housings by function, and are not limited to a single housing. In addition, each step described in the above-described flowchart is not limited to time-series processing, and a plurality of steps may be processed in parallel or separately.

1 携帯電話機
2 無線通信網
3 インターネット
4 画像配信装置
11 中央制御部
13 記憶部
14 無線通信部
16 テレビ放送受信部
17 撮像部
18 表示部
19 視差バリア制御部
20 操作部
M1 プログラム記憶部
M2 各種情報一時記憶部
M3 画像記憶部
M4 オブジェクト記憶部
DESCRIPTION OF SYMBOLS 1 Mobile phone 2 Wireless communication network 3 Internet 4 Image distribution apparatus 11 Central control part 13 Storage part 14 Wireless communication part 16 Television broadcast receiving part 17 Imaging part 18 Display part 19 Parallax barrier control part 20 Operation part M1 Program storage part M2 Various information Temporary storage unit M3 Image storage unit M4 Object storage unit

Claims (15)

表示部の視野角方向を制御する端末装置であって、
第1画像を前記表示部に表示させるとともに、第1視野角方向と該第1視野角方向とは異なる第2視野角方向との両方から前記第1画像が視認されるように前記表示部を制御する第1制御手段と、
前記第1画像とそれとは異なる第2画像とを前記表示部に同時に表示させるとともに、前記第1視野角方向から前記第1画像が視認されるように前記表示部を制御し、前記第2視野角方向から前記第2画像が視認されるように前記表示部を制御する第2制御手段と、
前記表示部に表示させる画像内に特定のオブジェクトが含まれているか否かを判別する判別手段と、
前記判別手段の判別結果に基づいて、前記第1制御手段及び第2制御手段のいずれか一方による制御の実行を指示する指示手段と、
を備えることを特徴とする端末装置。
A terminal device for controlling the viewing angle direction of the display unit,
The first image is displayed on the display unit, and the display unit is configured so that the first image is viewed from both the first viewing angle direction and a second viewing angle direction different from the first viewing angle direction. First control means for controlling;
The first image and a second image different from the first image are simultaneously displayed on the display unit, and the display unit is controlled so that the first image is viewed from the first viewing angle direction, and the second field of view is controlled. Second control means for controlling the display unit so that the second image is viewed from an angular direction;
Determining means for determining whether or not a specific object is included in an image to be displayed on the display unit;
Instruction means for instructing execution of control by one of the first control means and the second control means based on the determination result of the determination means;
A terminal device comprising:
前記指示手段は、前記判別手段によって特定のオブジェクトが含まれていると判別された場合に、前記第2制御手段による制御の実行を指示する、
ようにしたことを特徴とする請求項1記載の端末装置。
The instruction means instructs execution of control by the second control means when it is determined that the specific object is included by the determination means;
The terminal device according to claim 1, which is configured as described above.
前記特定のオブジェクトに対して加工処理が施された画像を取得する取得手段をさらに備え、
前記第2制御手段は、前記第1画像として前記表示部に表示させる画像を、前記第2画像として前記取得手段によって取得された画像を、前記表示部に同時に表示させるように制御する、
ようにしたことを特徴とする請求項2記載の端末装置。
The image processing apparatus further includes an acquisition unit that acquires an image on which the specific object has been processed,
The second control means controls the image to be displayed on the display unit as the first image and the image acquired by the acquisition means as the second image to be displayed on the display unit at the same time.
The terminal device according to claim 2, which is configured as described above.
前記取得手段は、前記特定のオブジェクトが含まれる画像を前記第1画像として、この第1画像に加工処理を施すことによって、前記特定のオブジェクトに加工処理が施された画像を前記第2画像として取得する、
ようにしたことを特徴とする請求項3記載の端末装置。
The acquisition means uses the image including the specific object as the first image, and performs processing on the first image, thereby processing the image processed on the specific object as the second image. get,
The terminal device according to claim 3, which is configured as described above.
前記取得手段は、前記特定のオブジェクトに加工処理が施された画像を外部から取得する、
ようにしたことを特徴とする請求項3記載の端末装置。
The acquisition unit acquires an image obtained by processing the specific object from the outside.
The terminal device according to claim 3, which is configured as described above.
前記指示手段は、前記判別手段によって特定のオブジェクトが含まれていないと判別された場合に、前記第1制御手段による制御の実行を指示する、
ようにしたことを特徴とする請求項1記載の端末装置。
The instruction means instructs the execution of control by the first control means when it is determined that the specific object is not included by the determination means;
The terminal device according to claim 1, which is configured as described above.
画像を撮影する撮影手段をさらに備え、
前記判別手段は、前記撮影手段により撮影された画像内に特定のオブジェクトが含まれているか否かを判別する、
ようにしたことを特徴とする請求項1記載の端末装置。
It further comprises a photographing means for photographing an image,
The determining means determines whether or not a specific object is included in the image photographed by the photographing means;
The terminal device according to claim 1, which is configured as described above.
前記特定のオブジェクトを含む画像と含まない画像とを撮影する撮影手段をさらに備え、
前記第2制御手段は、前記第1画像として前記撮影手段によって撮影された特定のオブジェクトを含む画像を、前記第2画像として前記撮影手段によって撮影された特定のオブジェクトを含まない画像を、前記表示部に同時に表示させるように制御する、
ようにしたことを特徴とする請求項1記載の端末装置。
A photographing unit for photographing an image including the specific object and an image not including the specific object;
The second control unit displays the image including the specific object photographed by the photographing unit as the first image, and the image not including the specific object photographed by the photographing unit as the second image. Control to display on the screen at the same time,
The terminal device according to claim 1, which is configured as described above.
表示部の視野角方向を制御する端末装置であって、
前記表示部に表示させる画像内に特定のオブジェクトが含まれるか否かを判別する判別手段と、
前記判別手段によって特定のオブジェクトが含まれると判別された場合に、前記特定のオブジェクトに加工処理が施された画像を取得する取得手段と、
前記表示部に表示させる画像と前記取得手段によって取得された画像とを前記表示部に同時に表示させるとともに、前記表示部に表示させる画像が第1視野角方向から視認されるように前記表示部を制御し、前記取得された画像が該第1視野角方向とは異なる第2視野角方向から視認されるように前記表示部を制御する第1制御手段と、
を備えることを特徴とする端末装置。
A terminal device for controlling the viewing angle direction of the display unit,
Determining means for determining whether or not a specific object is included in an image to be displayed on the display unit;
An acquisition unit that acquires an image obtained by performing a processing on the specific object when the determination unit determines that the specific object is included;
The display unit is configured to display the image to be displayed on the display unit and the image acquired by the acquisition unit simultaneously on the display unit, and to display the image to be displayed on the display unit from the first viewing angle direction. First control means for controlling and controlling the display unit so that the acquired image is viewed from a second viewing angle direction different from the first viewing angle direction;
A terminal device comprising:
前記判別手段によって特定のオブジェクトが含まれないと判別された場合に、前記表示部に表示させる画像を前記表示部に表示させるとともに、前記表示部に表示させる画像が第1視野角方向と該第1視野角方向とは異なる第2視野角方向との両方から視認されるように前記表示部を制御する第2制御手段をさらに備える、
ようにしたことを特徴とする請求項9記載の端末装置。
When it is determined by the determining means that a specific object is not included, an image to be displayed on the display unit is displayed on the display unit, and an image to be displayed on the display unit is the first viewing angle direction and the first viewing angle direction. A second control means for controlling the display unit so as to be viewed from both a second viewing angle direction different from the first viewing angle direction;
The terminal device according to claim 9, which is configured as described above.
表示部の視野角方向を制御する端末装置であって、
第1画像を前記表示部に表示させるとともに、第1視野角方向と該第1視野角方向とは異なる第2視野角方向との両方から前記第1画像が視認されるように前記表示部を制御する第1制御手段と、
前記第1画像とそれとは異なる第2画像とを前記表示部に同時に表示させるとともに、前記第1視野角方向から前記第1画像が視認されるように前記表示部を制御し、前記第2視野角方向から前記第2画像が視認されるように前記表示部を制御する第2制御手段と、
前記表示部に表示させる画像がその画像とは異なる画像と対応付けられているか否かを判別する判別手段と、
前記判別手段の判別結果に基づいて、前記第1制御手段及び第2制御手段のいずれか一方による制御の実行を指示する指示手段と、
を備えることを特徴とする端末装置。
A terminal device for controlling the viewing angle direction of the display unit,
The first image is displayed on the display unit, and the display unit is configured so that the first image is viewed from both the first viewing angle direction and a second viewing angle direction different from the first viewing angle direction. First control means for controlling;
The first image and a second image different from the first image are simultaneously displayed on the display unit, and the display unit is controlled so that the first image is viewed from the first viewing angle direction, and the second field of view is controlled. Second control means for controlling the display unit so that the second image is viewed from an angular direction;
Determining means for determining whether an image to be displayed on the display unit is associated with an image different from the image;
Instruction means for instructing execution of control by one of the first control means and the second control means based on the determination result of the determination means;
A terminal device comprising:
前記特定のオブジェクトを含む第1画像と含まない第2画像とを撮影する撮影手段と、
前記撮影手段によって撮影された特定のオブジェクトを含む第1画像と含まない第2画像とを対応付けて記憶部に記憶させる記憶制御手段と、
をさらに備え、
前記判別手段は、前記記憶部に記憶されている特定のオブジェクトを含む第1画像が、特定のオブジェクトを含まない第2画像と対応付けられているか否かを判別する、
ようにしたことを特徴とする請求項11記載の端末装置。
Photographing means for photographing the first image including the specific object and the second image not including the specific object;
Storage control means for associating the first image including the specific object imaged by the imaging means and the second image not including the specific object in the storage unit;
Further comprising
The determination means determines whether or not a first image including a specific object stored in the storage unit is associated with a second image not including a specific object.
The terminal device according to claim 11, which is configured as described above.
コンピュータに対して、
第1画像を表示部に表示させるとともに、第1視野角方向と該第1視野角方向とは異なる第2視野角方向との両方から前記第1画像が視認されるように前記表示部を制御する機能と、
前記第1画像とそれとは異なる第2画像とを前記表示部に同時に表示させるとともに、前記第1視野角方向から前記第1画像が視認されるように前記表示部を制御し、前記第2視野角方向から前記第2画像が視認されるように前記表示部を制御する機能と、
前記表示部に表示させる画像内に特定のオブジェクトが含まれるか否かを判別する機能と、
前記判別結果に基づいて、前記第1視野角方向と第2視野角方向との両方から前記第1画像が視認されるような制御の実行を指示し、前記第1視野角方向から前記第1画像が視認され、かつ、前記第2視野角方向から前記第2画像が視認されるような制御の実行を指示する機能と、
を実現させるためのプログラム。
Against the computer,
The first image is displayed on the display unit, and the display unit is controlled so that the first image is viewed from both the first viewing angle direction and a second viewing angle direction different from the first viewing angle direction. Function to
The first image and a second image different from the first image are simultaneously displayed on the display unit, and the display unit is controlled so that the first image is viewed from the first viewing angle direction, and the second field of view is controlled. A function of controlling the display unit so that the second image is visually recognized from an angular direction;
A function of determining whether or not a specific object is included in an image to be displayed on the display unit;
Based on the determination result, execution of control such that the first image is visually recognized from both the first viewing angle direction and the second viewing angle direction is instructed, and the first viewing angle direction from the first viewing angle direction. A function of instructing execution of control such that an image is visually recognized and the second image is visually recognized from the second viewing angle direction;
A program to realize
コンピュータに対して、
表示部に表示させる画像内に特定のオブジェクトが含まれるか否かを判別する機能と、
前記特定のオブジェクトが含まれると判別された場合に、前記特定のオブジェクトに加工処理が施された画像を取得する機能と、
前記表示部に表示させる画像と前記取得された画像とを前記表示部に同時に表示させるとともに、前記表示部に表示させる画像が第1視野角方向から視認されるように前記表示部を制御し、前記取得された画像が該第1視野角方向とは異なる第2視野角方向から視認されるように前記表示部を制御する機能と、
を実現させるためのプログラム。
Against the computer,
A function of determining whether or not a specific object is included in an image to be displayed on the display unit;
When it is determined that the specific object is included, a function of obtaining an image obtained by performing processing on the specific object;
The image to be displayed on the display unit and the acquired image are simultaneously displayed on the display unit, and the display unit is controlled so that the image to be displayed on the display unit is visually recognized from the first viewing angle direction, A function of controlling the display unit so that the acquired image is viewed from a second viewing angle direction different from the first viewing angle direction;
A program to realize
コンピュータに対して、
第1画像を表示部に表示させるとともに、第1視野角方向と該第1視野角方向とは異なる第2視野角方向との両方から前記第1画像が視認されるように前記表示部を制御する機能と、
前記第1画像とそれとは異なる第2画像とを前記表示部に同時に表示させるとともに、前記第1視野角方向から前記第1画像が視認されるように前記表示部を制御し、前記第2視野角方向から前記第2画像が視認されるように前記表示部を制御する機能と、
前記表示部に表示させる第1画像がその画像とは異なる画像と対応付けられているか否かを判別する機能と、
前記判別結果に基づいて、前記第1視野角方向と第2視野角方向との両方から前記第1画像が視認されるような制御の実行を指示し、前記第1視野角方向から前記第1画像が視認され、かつ、前記第2視野角方向から前記第2画像が視認されるような制御の実行を指示する機能と、
を実現させるためのプログラム。
Against the computer,
The first image is displayed on the display unit, and the display unit is controlled so that the first image is viewed from both the first viewing angle direction and a second viewing angle direction different from the first viewing angle direction. Function to
The first image and a second image different from the first image are simultaneously displayed on the display unit, and the display unit is controlled so that the first image is viewed from the first viewing angle direction, and the second field of view is controlled. A function of controlling the display unit so that the second image is visually recognized from an angular direction;
A function of determining whether or not the first image to be displayed on the display unit is associated with an image different from the image;
Based on the determination result, execution of control such that the first image is visually recognized from both the first viewing angle direction and the second viewing angle direction is instructed, and the first viewing angle direction from the first viewing angle direction. A function of instructing execution of control such that an image is visually recognized and the second image is visually recognized from the second viewing angle direction;
A program to realize
JP2010066209A 2010-03-23 2010-03-23 Terminal device and program Pending JP2011197537A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010066209A JP2011197537A (en) 2010-03-23 2010-03-23 Terminal device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010066209A JP2011197537A (en) 2010-03-23 2010-03-23 Terminal device and program

Publications (1)

Publication Number Publication Date
JP2011197537A true JP2011197537A (en) 2011-10-06

Family

ID=44875786

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010066209A Pending JP2011197537A (en) 2010-03-23 2010-03-23 Terminal device and program

Country Status (1)

Country Link
JP (1) JP2011197537A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013196157A (en) * 2012-03-16 2013-09-30 Sony Corp Control apparatus, electronic device, control method, and program
JP2015103142A (en) * 2013-11-27 2015-06-04 京セラドキュメントソリューションズ株式会社 Image formation device
WO2016027536A1 (en) * 2014-08-21 2016-02-25 ソニー株式会社 Information processing device and control method
US9921345B2 (en) 2014-05-30 2018-03-20 3M Innovative Properties Company Optical systems having variable viewing angles
US10008164B2 (en) 2014-05-30 2018-06-26 3M Innovative Properties Company Variable viewing angle optical systems
US10429037B2 (en) 2014-11-07 2019-10-01 3M Innovative Properties Company Optical device including switchable diffuser
US10598349B2 (en) 2014-11-07 2020-03-24 3M Innovative Properties Company Lighting component including switchable diffuser
US11708962B2 (en) 2015-03-05 2023-07-25 3M Innovative Properties Company Optical system with switchable diffuser

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005091561A (en) * 2003-09-16 2005-04-07 Sharp Corp Electronic device
JP2006251057A (en) * 2005-03-08 2006-09-21 Nec Corp Portable terminal device, and viewing angle changing method for liquid crystal screen thereof
JP2007017988A (en) * 2005-07-08 2007-01-25 Sharp Corp Display device, liquid crystal display panel, and operation program
JP2008225167A (en) * 2007-03-14 2008-09-25 Nec Corp Portable terminal and method of switching privacy screen
JP2008304656A (en) * 2007-06-07 2008-12-18 Sharp Corp Display system and image processor
JP2009020301A (en) * 2007-07-11 2009-01-29 Nec Biglobe Ltd Web page browsing program, web page display method, terminal device and network system
JP2009122434A (en) * 2007-11-15 2009-06-04 Seiko Epson Corp Information display device and program
JP2009222943A (en) * 2008-03-14 2009-10-01 Sharp Corp Liquid crystal display device
JP2009288507A (en) * 2008-05-29 2009-12-10 Casio Hitachi Mobile Communications Co Ltd Image display and program
JP2010015078A (en) * 2008-07-07 2010-01-21 Panasonic Corp Display apparatus

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005091561A (en) * 2003-09-16 2005-04-07 Sharp Corp Electronic device
JP2006251057A (en) * 2005-03-08 2006-09-21 Nec Corp Portable terminal device, and viewing angle changing method for liquid crystal screen thereof
JP2007017988A (en) * 2005-07-08 2007-01-25 Sharp Corp Display device, liquid crystal display panel, and operation program
JP2008225167A (en) * 2007-03-14 2008-09-25 Nec Corp Portable terminal and method of switching privacy screen
JP2008304656A (en) * 2007-06-07 2008-12-18 Sharp Corp Display system and image processor
JP2009020301A (en) * 2007-07-11 2009-01-29 Nec Biglobe Ltd Web page browsing program, web page display method, terminal device and network system
JP2009122434A (en) * 2007-11-15 2009-06-04 Seiko Epson Corp Information display device and program
JP2009222943A (en) * 2008-03-14 2009-10-01 Sharp Corp Liquid crystal display device
JP2009288507A (en) * 2008-05-29 2009-12-10 Casio Hitachi Mobile Communications Co Ltd Image display and program
JP2010015078A (en) * 2008-07-07 2010-01-21 Panasonic Corp Display apparatus

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013196157A (en) * 2012-03-16 2013-09-30 Sony Corp Control apparatus, electronic device, control method, and program
US9342921B2 (en) 2012-03-16 2016-05-17 Sony Corporation Control apparatus, electronic device, control method, and program
JP2015103142A (en) * 2013-11-27 2015-06-04 京セラドキュメントソリューションズ株式会社 Image formation device
US10008164B2 (en) 2014-05-30 2018-06-26 3M Innovative Properties Company Variable viewing angle optical systems
US9921345B2 (en) 2014-05-30 2018-03-20 3M Innovative Properties Company Optical systems having variable viewing angles
US10032437B2 (en) 2014-08-21 2018-07-24 Sony Corporation Information processing apparatus and control method
WO2016027536A1 (en) * 2014-08-21 2016-02-25 ソニー株式会社 Information processing device and control method
US10262630B2 (en) 2014-08-21 2019-04-16 Sony Corporation Information processing apparatus and control method
US10762876B2 (en) 2014-08-21 2020-09-01 Sony Corporation Information processing apparatus and control method
US10429037B2 (en) 2014-11-07 2019-10-01 3M Innovative Properties Company Optical device including switchable diffuser
US10598349B2 (en) 2014-11-07 2020-03-24 3M Innovative Properties Company Lighting component including switchable diffuser
US10801699B2 (en) 2014-11-07 2020-10-13 3M Innovative Properties Company Optical device switchable diffuser
US11708962B2 (en) 2015-03-05 2023-07-25 3M Innovative Properties Company Optical system with switchable diffuser

Similar Documents

Publication Publication Date Title
JP2011197537A (en) Terminal device and program
JP4576570B1 (en) Terminal device and program
JP2009141489A (en) Electronic equipment
CN109729372B (en) Live broadcast room switching method, device, terminal, server and storage medium
KR100416991B1 (en) Video terminal apparatus having displaying virtual background and implementing method thereof
JP5413958B2 (en) Imaging apparatus and program
JP2007259330A (en) Video distribution remote controller, video distribution system, and video distribution method
CN110533585B (en) Image face changing method, device, system, equipment and storage medium
CN106604147A (en) Video processing method and apparatus
CN113395566B (en) Video playing method and device, electronic equipment and computer readable storage medium
JP4956843B2 (en) Terminal device and program
JP2007067979A (en) Real-time image display device
JP2007088959A (en) Image output apparatus and program
KR100642688B1 (en) Apparatus and method for editing a part of picture in mobile communication terminal
KR20160087969A (en) Mobile terminal and dual lcd co-processing method thereof
JP2005130005A (en) Communication terminal and screen display program
JP5421144B2 (en) Terminal device and program
JP5339445B2 (en) Terminal device and program
KR100678208B1 (en) Method for saving and displaying image in wireless terminal
JP4858875B2 (en) Videophone device and program
JP5310833B2 (en) Terminal device and program
KR20120060677A (en) Method for capturing image in a portable terminal
JP5847230B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
CN110933300B (en) Image processing method and electronic terminal equipment
JP4501565B2 (en) Electronics

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140120

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140415