テレビとか、右目と左目用が同一画像だとしても、右目と左目の用の何かしらの情報を追加すれば立体的と感じるんじゃないか。
低コスト低負荷で、眼鏡付けず、大人数で見ても、輪郭がダブらない映像として見られる3D。 立体感を感じる2.5D映像が欲しい。
どこから見ても傍目に1枚の映像なのだがやけに立体感を感じる……という映像を創ろうという思考実験。
画像が3DSのように2重にダブらず、複数人で見てもピントが合い、立体感を追加する方法を考える。
カメラに入射する光の影響を右目左目用に分け、視覚の方向性を視差による輪郭位置の違い以外で3次元だと脳内映像再構築で認識できないか。
そもそも網膜投影は3次元ではなく平面的、光の情報は左右の目で違うが、それは輪郭としてではない。
細胞単位では単純にRGBの強度の情報なのだから。 視差とは輪郭のみではない。 単純に可視光の強度の違いとしても含まれているはずなのだ。
なので……。
暗い側から明るい側はつき出て見える脳の仕組みを利用し、これは右目側に凸である……等と認識させ、立体感を強調した画像を作ってはどうか?
進出色後退色の応用である。
右目光源と左目光源を分離して、描画すれば、カメラ視点はひとつで立体感を生み出せ、映像の輪郭はダブって見えないはず。
映像光源を左右に分離し単一カメラ視点で撮影。
4K程度のモニターなら表示ドットを左右用に分け、2k程度にする。
液晶なら光配光材料を使えば、右目用と左目用の分子の傾き(上下左右で可能)を生み出せ、出てくる光の方向性を制御できるので、右目用と左目用の表示用セルを作れそうだ。ハイブリッドFPA等の技術を使えば良い。
映画館なら投影壁を微小に△△△△△△△△△△△△△△△△△△のようにして光源違いの映像を左右ずらして投影すれば良い。
やけに3D感を感じる2D。 2.5D的映像をアイトラッキングすればゲーム機向け。
オープン型、低負担、低コストな、疑似3D映像環境が成立出来そうだ。
単一画像をAI学習で擬似的に光源分割し画像を加工、表示させたりもしたい。
(VRゴーグルの思考実験……。 高フレーム高解像を維持する代わりに、右目用と左目用の光源演算で、映像を奇・偶数数フレーム等で表示を左右交互に分けて演算低負荷化。)
※追記。ライトフィールドディスプレイってのが3D用であるようだ、これは技術力が高度すぎてやばい。