OM SYSTEM OM-1 12-40mm F2.8 PRO II キット
- 有効画素数約2037万画素裏面照射積層型「Live MOSセンサー」と、従来比約3倍高速化した画像処理エンジン「TruePic X」搭載のミラーレス一眼カメラ。
- ノイズ処理技術により常用で最高ISO 25600、拡張で最高ISO 102400の高感度を達成。防じん・防滴保護等級IP53、-10度の耐低温性能を備えている。
- 「5軸シンクロ手ぶれ補正」で最大8.0段、ボディ単体で最大7段の補正効果を実現。標準ズームレンズ「M.ZUIKO DIGITAL ED 12-40mm F2.8 PRO II」が付属。
- 付属レンズ
-
- ボディ
- 12-100mm F4.0 PROキット
- 12-40mm F2.8 PRO II キット

OM SYSTEM OM-1 12-40mm F2.8 PRO II キットOMデジタルソリューションズ
最安価格(税込):¥310,000
(前週比:±0
)
発売日:2023年 2月24日
OM SYSTEM OM-1 12-40mm F2.8 PRO II キット のクチコミ掲示板
(10855件)このページのスレッド一覧(全163スレッド)![]()
| 内容・タイトル | ナイスクチコミ数 | 返信数 | 最終投稿日時 |
|---|---|---|---|
| 11 | 2 | 2023年6月12日 21:16 | |
| 23 | 6 | 2023年6月9日 13:59 | |
| 26 | 6 | 2023年6月6日 13:42 | |
| 440 | 49 | 2023年4月23日 03:50 | |
| 71 | 16 | 2023年4月24日 23:23 | |
| 1009 | 198 | 2023年4月25日 21:26 |
- 「質問の絞込み」の未返信、未解決は最新1年、解決済みは全期間のクチコミを表示しています
デジタル一眼カメラ > OMデジタルソリューションズ > OM SYSTEM OM-1 ボディ
こんばんは。
カラークリエイターの使い方がわからないというか、PEN-Fでの設定の動きと違うので伺いたいです。
添付のファイルは、PEN-Fでのカラークリエイターの設定画面です。
このように、12のカラーごとに彩度の設定ができて、それを記憶できます。
イエローは+2、マゼンダは-1とか。
OM-1のカラークリエイターの設定は、このようにカラーごとの設定ができるのでしょうか?
マニュアル通りにフロントダイヤルで色選択、リアダイヤルで彩度の変更を行っても、レーダーチャートの形
に残らないので、意図通りに設定できているのか、よくわからないのです。
(ペンタックスで言うところの、カスタムイメージのような設定をして、C1〜C4に登録したい)
詳しい方、ご教示いただけると幸いです。
よろしくお願いします。
3点
>横波さん
まずオリンパス用語ではカラークリエイターではなくカラークリエーターです。
これは「画像全体の色を色相30段階と彩度8段階の組み合わせで設定」するもので、PEN-FとOM-1で違いはありません。
「12色相それぞれの彩度を±5の範囲で調整」するのはカラークリエーターではなくカラープロファイルコントロールです。
これはPEN-Fと実質後継機E-P7だけの固有機能でE-M1系(OM-1含む)には存在しません。
なお古い機種のRAWファイルはダメですが(初代E-M1はNGでE-M1mk2以降はOK)、OLYMPUS/OM Workspaceの「色調整」という
カラープロファイルコントロール同等機能を使えば、「12色相それぞれの彩度を±5の範囲で調整」することは可能です。
書込番号:25298465
![]()
8点
>☆アルファさん
早速の返信、ありがとうございました。
実のところ、OM Workspaceの「色調整」で、Powder Blue っぽいプロファイルを作成しました。
これをOM Workspaceで呼び出しすれば、思うことはできるのですが(基本RAW+JPGで撮っているので)
どうせならカメラのJPGの段階で適用できればと思った次第です。
PEN-Fの方を以前から使っていたので、OM-1でもてっきりできるものだと思っていました。
別物なのですね・・・カラークリエーターをいじってみても、画面全体で特定の色を強調するもので、
私が意図したものではないことがわかりました。
どうもありがとうございました。
書込番号:25299265
0点
デジタル一眼カメラ > OMデジタルソリューションズ > OM SYSTEM OM-1 ボディ
今年になってOM-1、パナライカ100-400で野鳥撮影を始めた者です。
山で野鳥撮影をする場合、鳥たちの動きが速く、しかも枝被りがあるのでピントを合わせるのに四苦八苦しています。
説明書P84に、C-AF追従感度がありますが、写真で野鳥撮影の場合、プラスにするのかマイナスの方がいいのかよくわかりません。
皆様どう設定されているか、教えていただけますでしょうか。
海や湖の野鳥は撮りやすいのですが、林や山の野鳥撮影に苦戦しております。
5点
>HDV買いたいさん
野鳥は、入り組んだ枝や葉っぱ内にいるので、ピント合わせがほんとに大変なんですよね。枝の隙間にいるため、自分はAFエリアのポイントを最小にして撮影しています。
書込番号:25294147
2点
枝被りすると枝に持って行かれますので、基本的には認識はオフで撮った方がいいかと思います。
自分だと前ピンになりがちだったのでピント位置調整でいくらか後ろにずらしていまた。
書込番号:25294176
3点
>HDV買いたいさん
こんにちは。
C-AF追従感度は、デフォルト設定のまま撮影しています。
シビアな撮影や玄人の方であれば、感度を微調整して設定を追い込むのでしょうけど、私はそこまでやれていないのが実情です。
>山で野鳥撮影をする場合、鳥たちの動きが速く、しかも枝被りがあるのでピントを合わせるのに四苦八苦
そのような状況では、概ね以下の設定で撮っています。
・AFターゲット:Single
・AI被写体認識:Off
・AFでピント合わせをしづらいと感じたら、MFに切り替えて自分でピントを合わせる
止まり物と動き物は、カスタムモード(C1〜C4)に事前設定をしておいたり、
Fnレバー機能はmode2(?)でAF設定を切り替えやすくして運用しています。
あとは、話が逸れ気味ですけど、
枝被りしないところに出てくれるのを待つ、何でもかんでもは撮らない、という感じでしょうか。
書込番号:25294202
5点
>HDV買いたいさん
散歩のときに鳥を撮影しています、ヒストリッカー撮影がメインです。
>C-AF追従感度がありますが、写真で野鳥撮影の場合、プラスにするのかマイナスの方がいいのかよくわかりません。
岩魚くんさんに教えて頂いて、C-AF追従感度は「+2」の俊敏設定にしています。
教えて頂いた内容です。参考にしてください。
>当機の設定について教えて頂けますか。
C-AF追従感度ですが、設定は変えられていますか。
MX-1は設定を変えていませんでしたが、当機では-2「粘る」にしています。
鳥さんと車では違うと思いますが気になっていました。
・C-AF追従感度はM1Xから変わらず「+2」の俊敏設定にしています。
・AF中央優先・・・OF 必ず中央で被写体を捉えられるか?というと無理。設定がAF中央優先にすると
AFの動きが余計になってしまい、結果AFが遅くなるとの判断です。
・AFスキャン・・・OF 至近から無限までの間でピント面を探しますが、これは余計なことでAFが遅く
なるとの判断です。
・AF枠・・・・・・・・M1Xでは1点(s)がありましたが、OM−1ではAFポイントが1053点と多くなったので
M1X時の1点(s)よりも小さくシビア過ぎて、三脚使用・静物撮り以外の動体撮影では
却ってピンボケを招くとの判断をしていますので私は使用しません。
飛翔鳥撮りでは、ミドルAF枠〜ラージ枠、鳥モード設定時はさらに横長ラージ枠を使います。
カーレースの撮影は専門でないので分からないのですが、フォーミュラーであればヘルメットにフォーカス
する被写体検出を設定するでしょうが、添付写真のように箱・スカイラインでしたらある程度はカメラ任せの
ミドル枠でフロントを狙うでしょうね。
鳥撮りでは単純にC-AFだけで撮ったほうが良い結果が出ます。M1XとOM-1との比較では断然OM-1が
優秀で、途中でピンを外しても即復活するのでジャスピン率高いです。
まだ高度な被写体検出は成熟されていなく、ピンを外した後の復活にスムーズさがない感じがします。
ただ、鳥を捉えて追従する白枠の動きを見るのも今後の進化面で参考になるので、興味を持って結構
使っています。
AF枠1点では、ちょっとでも外すとカメラのAF機能に迷いが出て、ちょいボケ〜大ボケと色々なケースが
出るような気がします。
鳥撮りが専門で、その沿線上からカーレースについて類推していますからあくまでも参考ということで
お願いします。
ただ、CーAFにTRを併用設定させたOMの技術陣の考え方には、どうしても納得出来ません。
(私はTRを初登場した当初から、テストをして2度と使っていないので影響はありませんけど)
書込番号:25073084
今年はコアジサシが少なかったです。
お目汚しですが1枚UPします。
書込番号:25294249
![]()
4点
>komcomさん
>SMBTさん
>でそでそさん
ご返信ありがとうございます。
ポイントを小さく、認識はOFFにするという事ですね。
時にはMFで、なるほど。
書込番号:25294323
1点
>Lola T70 MkIIIBさん
詳細な説明ありがとうございます。
これだけの細かい設定をされているのですね。
いろんな設定を試してみて、自分の納得のいく設定にしようと思います。
被写体認識は、まだまだ進化の途中と感じています。
確かに単純にC-AFが良いかもしれません。
大変参考になりました。
書込番号:25294340
3点
デジタル一眼カメラ > OMデジタルソリューションズ > OM SYSTEM OM-1 ボディ
まいかたと言います、教えて欲しいことがあります。
EOSからOM-1に買い替えて、色々と試し撮りをしています。
フォーカスブラケットで撮影枚数を10枚にしても50枚にしても、再生すると5枚しか写っていません。
再生画像枚数は撮影枚数と同じだと理解しているのですが、どうなんでしょうか?
例えば撮影枚数を10枚に設定すると、写っている再生画像も10枚だと思うのですが、
又設定がどこか間違っているのでしょうか?
ご教示お願いします。
書込番号:25288758 スマートフォンサイトからの書き込み
3点
>まいかたさん
フォーカスステップの設定数値を小さくしても同じでしょうか?
使用レンズによると思いますが、ステップの設定が粗く、5コマで撮影可能コマ数がいっぱいなのかもしれません。
書込番号:25288823
![]()
5点
Tranquilityさん、まいかたと申します、
早速の返信ありがとうございます。
撮影枚数50枚、撮影ステップの設定値1にすると、30枚も撮影出来ました。
再生画像を見ると、少しづつピントの合ってる位置がずれているようでこれでいいのかなーと思います。
撮影枚数50枚に対して再生画像は30枚もあるので、これ以上枚数を多く撮影しても意味がないとカメラが判断したのかも知れません。
ありがとうございました。
これで一件落着です。
これからもよろしくお願いします。
ただ、その辺のことは取説には何も書かれてないですねー。
そもそも撮影ステップがどういうものかも、取説の説明では理解がしづらいです。
書込番号:25288935 スマートフォンサイトからの書き込み
4点
まいかたさん
>これ以上枚数を多く撮影しても意味がないとカメラが判断したのかも知れません。
撮影枚数の設定にかかわらず、ピントが無限遠に達したら、撮影が中止されます。
なお、フォーカスステップ1で30枚、フォーカスステップ5(?)で5枚ということから考えると、かなりの広角で、あるいは、かなり遠方にピントを合わせて、撮られたのではないでしょうか?
>そもそも撮影ステップがどういうものかも、取説の説明では理解がしづらいです。
「フォーカスブラケット」モードの場合は、ピントを合わせた位置よりも奥側にだけピントを移動するので、思った位置に被写界深度の中心が来るようにするには何処にピントを合わせれば良いのかとか、撮影枚数をいくつにするかなどは、経験を積むしかなさそうです。
しかし、「深度合成」モードなら、狙ったピント位置の手前側と奥側の双方にピントを移動して撮影して呉れるので、被写界深度の深さと中心位置を思い通りにするには、ある程度の経験が必要になりますが、フォーカスブラケットのように、思った位置にピントが来なくて、とんでもない位置にピントが来るなんてことはないし、後で合成する手間も省けるので、取り敢えず、「深度合成」モードで慣れる・・・というのはいかがでしょうか?
かくいう私は、「深度合成」モードで数万回は撮影している「深度合成ばか」ですが、パンフォーカスを好まないこともあって、「深度合成」モードで不満を覚えることは殆どなく、「フォーカスブラケット」モードは、E-M1(初代)に初搭載された時に試して見ただけで、以降は「深度合成」モードだけ使用してます。
書込番号:25289132
![]()
11点
>まいかたさん
設定したフォーカスステップごとにピント位置を移動しながら撮影します。途中で無限遠に達したら撮影は終了します。
とありますので、フォーカスステップが1〜10ですのでステップ数が少ないと撮影枚数より先に無限遠に達して止まってしまうのでは
書込番号:25289341
![]()
2点
メカロクさん、まいかたと申します。
返信ありがとうございます。
かなり使い込んでおられる人とお見受けしました。
経験に基づく説明には説得力があります。
私ももっともっと使い込んで自分なりに経験値をあげたいと思っています。
深度合成がいいですね!手前から奥までピントが合ってる風景写真が撮りたいです。
私は花のマクロをよく撮るのでフォーカスブラケットに興味があったのですが、今まで通りの撮り方というか、私は撮りたい花を見つけると単焦点の明るいレンズで、フォーカスポイントをずらして5-6枚から7-8枚撮り、その中から気に入った物を選びます。
この方がしっくりくるように思います。
又いろいろと教えてください。
よろしくお願いします。
書込番号:25290091 スマートフォンサイトからの書き込み
0点
しま89さん、まいかたと申します。
早速の返信ありがとうございます。
おっしゃるようにカメラが判断して止まるようですねー。
使っている時はなかなかそこまでわかりませんでした。
やはり何回も何回もシャッターを切って使いこまないとダメですね。
これからもいろいろと教えてください。
よろしくお願いします。
書込番号:25290099 スマートフォンサイトからの書き込み
1点
デジタル一眼カメラ > OMデジタルソリューションズ > OM SYSTEM OM-1 ボディ
質問させてください。ハイレゾショット特に手持ちハイレゾ機能を利用したいと思っています。今持っているマイクロフォーサーズレンズは、LEICA DG SUMMILUX 15mm・・、LEICA DG VARIO-ELMARIT 8-18mm・・、シグマ30mm F1.4 DC DN・・・,
LEICA D VARIO-ELMAR 14-150(フォーサーズレンズにアダプターで EM 1 MK2に装着しています)ですが、これらはOM-1のハイレゾショット機能に供することが可能でしょうか?至急購入したく迷っています。MK2では使用したことがなく、どなたかご存知でしたら教えてください。よろしくお願いいたします。
4点
>mochmatchさん
ハイレゾはどのレンズでも撮影可能ですよ。
実際にOM-1とパナライカレンズ数種でハイレゾ撮影しております。
書込番号:25228506
12点
>Seagullsさん
早速の返信、ありがとうございます 助かります
純正レンズに比較はされてはいないかもしれませんが、問題なく高解像度で撮影できていますでしょうか?
原理的には問題ないようには思えるのですが、相性や手ブレ機構等の観点でマッチしてないのかと心配でした
書込番号:25228518
3点
>mochmatchさん
当方は手持ちハイレゾを三脚使用で星空撮影しておりますので
残念ながら手ぶれ補正との相性は試していません。
でも暗所でSSが遅くなるような状況で無ければ、カメラ本体の手ぶれ補正が優秀なので大丈夫な気がします。
以下のスレッドで自分以外の方も画像をアップしてくれていますのでご参考まで。
https://bbs.kakaku.com/bbs/K0001421842/SortID=24818705/#tab
書込番号:25228541
6点
レンズの「機能」には依存しませんが、「光学性能」は影響を与えるように思います。
撮像素子の素の能力で4000万画素、6000万画素、と高画素化すると、レンズの
「アラ」が見えるようになるのと同じで、合成のハイレゾであっても、レンズの性能を
カバーするものではありません。
パナソニックとオリンパス/OMDのレンズはフォーサーズ・ネイティブの光学系ですが
シグマやシグマのOEMと思われる100-400mmなどは、より大きなフォーマット用の
転用ですから、小さなフォーマットであるフォーサーズで使うと、見る人によっては
性能が不足するように感じると思います。
これはハイレゾにするから性能が不足するのではなく、普通に使っていても不足して
います。100-400mmは便利だけど、なんか切れがないなぁと思っている人が多いのも、
そんな理由によるのです。ちゃんとフォーサーズネイティブの廉価な望遠ズームを出して
ほしいものです。これの上は30万円を越す300o単焦点と100万円クラスの150−400mm
なのですから。。。
もっとも、不足といってもフルサイズ用をAPS-Cで使ったときと同様の「不足」です。
気にしない人は気にしていないようです。
(より高級なレンズの中心部だけ使うから高性能という誤解がありますが、
ラージフォーマットのレンズを小さなフィルム/撮像素子で使うと性能が不足します。
フィルム時代、中判や大判のレンズを35oフィルムで撮るのと同じことです。
ライカは135判(今で言うフルサイズ)という「小さなフォーマット」用に、中判用とは
段違いに高精細なレンズを用意したので大成功しました)。
それでも、ハイレゾショットという複数枚合成を行なうことに伴う、ノイズ低減とか
ダイナミックレンジが広くなったように感じられることなどの効果は、レンズがどうであれ
得られるはずです。
ご参考になれば幸いです。
書込番号:25228563
10点
>quagetoraさん
影響するのはフォーマットサイズではなく、
画素ピッチですね。
ですからここに限らず、
ハイレゾでのシャキッとした高解像で低ノイズな撮影結果はお目にかかったことはありません。
書込番号:25228618 スマートフォンサイトからの書き込み
8点
>mochmatchさん
OM-1のレビューにも制限は書かれて無く、他の方も書かれてますし、たぶん深度合成とかプロキャプチャーみたいにレンズ情報と合わせて撮影する機能では無さそうですので使えると思います。
たまたま見つけたレビューだとレンズよりカメラの性能だと思いますね
https://www.toshiboo.com/entry/g9highres01
書込番号:25228634
7点
>mochmatchさん
「FAX」の用紙をスキャンしたことはありますでしょうか?
レンズ解像度の制約が コピー元のFAXの印刷物みたいな感じになりますので、
単にハイレゾにすれば万々歳にはならないと思います。
購入前に試用させてもらうかレンタルして確認するほうが良いかと。
書込番号:25228676 スマートフォンサイトからの書き込み
3点
#quagetoraさん
WIND2さんがお書きになっているようにフォーマットサイズの問題ではないですよ。
センサーの画素ピッチに対してレンズの解像力が十分かどうかです。
>より高級なレンズの中心部だけ使うから高性能という誤解がありますが
誤解ではなく真実です。
センサーサイズに対してイメージサークルが大きい方がレンズの周辺部分を使わなくて済むので画像周辺までの解像力が上がります。
仮にレンズの焦点距離と解像力が同じとして電子補正無しで素のまま比較した場合、ただの単焦点よりイメージサークルが大きいシフトレンズの方が周辺までの解像力は上です。
ただ、その分でかく重くなりますけど。
フルサイズ用のレンズをAPSにつけても原理的には同じです。
>ライカは135判(今で言うフルサイズ)という「小さなフォーマット」用に、中判用とは段違いに高精細なレンズを用意したので大成功しました
それはレンズ自体の解像力を上げたからであってフォーマットサイズは関係ないです。
書込番号:25228933
4点
>mochmatchさん
ハイレゾショットやPENTAXのリアルレゾリューションは、センサーシフト手ぶれ補正を応用した技術なので、レンズは基本的に何でもOKです。しかしレンズボディの協調手ぶれ補正や深度合成技術は電気信号のやり取りが必要で、同じメーカー同士でないと働かない場合があります。
書込番号:25229153 スマートフォンサイトからの書き込み
5点
>ステアケイスさん
(フルサイズ用レンズをAPS-Cで使うとき)
>センサーサイズに対してイメージサークルが大きい方がレンズの周辺部分を使わなくて済むので画像周辺までの解像力が上がります。
この説明は正しくありません。「フルサイズ用レンズをAPS-Cで使うとき、イメージサークルの周辺部分を使わなくて済む」です。
(画面中央部の像でも、レンズ周辺部を使っています)
このときに画像の解像が上がるかどうかはレンズと画像の画素数しだいですが、35mm判用レンズをAPS-Cで使ってもレンズ自体の解像力は変わりません。
(ライカは中判用とは段違いに高精細なレンズを用意した)
>それはレンズ自体の解像力を上げたからであってフォーマットサイズは関係ないです。
レンズとフォーマットのサイズは大く関係しますよ。
ライカが解像力を上げたレンズを用意したのは、望んだ写真の精細さに対して、それ以前の大きなフォーマット用のレンズでは解像力が不足するからです。
オリンパスはフィルム35mm判ハーフサイズのpenを作るときに、通常の35mm判用レンズよりも高解像力のレンズを用意しました。
フォーサーズ・マイクロフォーサーズ用レンズも、35mm判用レンズよりも高い解像力で作られています。
最終的に想定される写真のサイズと望む精細さに合わせて、フォーマットに応じてレンズの解像力を対応させる必要があるのです。
デジタルカメラの場合、画素ピッチに合わせてレンズを用意する必要があることは言うまでもないでしょう。
書込番号:25229176
19点
相変わらずズレてる。
書込番号:25229244 スマートフォンサイトからの書き込み
11点
#Tranquilityさん
やっぱりあなたとは話がかみ合わないですね。
フルサイズ用レンズをフルサイズ機に付けていて、APSクロップしたら解像度が上がるなんてことは無いですよ。
また、quagetoraさんが、「シグマやシグマのOEMと思われる100-400mmなどは、より大きなフォーマット用の転用ですから、小さなフォーマットであるフォーサーズで使うと、見る人によっては性能が不足する」、と書いていたので、それは違うと書いたまで。
同じレンズを使用していてフォーマットサイズを小さくすると性能が落ちるなんてことはないです。
同じレンズならフォーマットサイズを変えても解像が変わらないのはあたりまえです。
一方、イメージサークルの大きさの違うレンズ(レンズの解像力が同じと仮定して)を比較した場合、イメージサークルの大きい方が周辺にいくにしたがっての解像で有利です。
APSにフルサイズ用レンズをつけるのと、APS用レンズをつけるのとでは画面全体での解像度に差が出ます。
シフトレンズとただの単焦点でも同じこと。
厳密な比較にはならないが
キャノン TS-E24mm F3.5L IIのMTF
https://cweb.canon.jp/ef/lineup/ts-e/ts-e24-f35lii/spec.html
キャノン EF24mm F1.4L II USMのMTF
https://cweb.canon.jp/ef/lineup/wide/ef24-f14lii/spec.html
TS-E24mm F3.5L IIの場合、24mmの先まで余裕があるから全然違うでしょ。
>ライカが解像力を上げたレンズを用意したのは、望んだ写真の精細さに対して、それ以前の大きなフォーマット用のレンズでは解像力が不足するからです。オリンパスはフィルム35mm判ハーフサイズのpenを作るときに、通常の35mm判用レンズよりも高解像力のレンズを用意しました。フォーサーズ・マイクロフォーサーズ用レンズも、35mm判用レンズよりも高い解像力で作られています。
あのねぇ、これはレンズ自体の性能差であってフォーマットサイズとは関係ない。
あ〜、疲れる。
書込番号:25229775
11点
きっとね、
中心部→中心点から30%までの範囲
周辺部→端部から中心点までの間の端部から80%までの範囲
故に、中心部の像は周辺部を通る
なんて一般的ではない自己作成の前提条件を想定しているんですよ。
レンズの解像力にしても、画素ピッチは無視しているし、マイクロフォーサーズのレンズの解像力は必然性があっての解像力な訳で、
現行フルサイズの画素ピッチであればマイクロフォーサーズレンズほどの解像力が無くても、
撮影結果としての解像具合はハイレゾよりも遥かに少ない画素数でハイレゾよりも解像してますからね。
これは以前に実写結果で示しましたが未だに単に認めたくないだけようです。
まあ、撮影結果の写真を見ているか、単にスペックを見ているかの違いでしょう。
実戦の撮影結果を見ても何も分からないと豪語していたくらいですからご本人の撮影力も頑なに実戦結果を拒み続けている事からも容易に判断出来るってものです。
書込番号:25229837 スマートフォンサイトからの書き込み
8点
>ステアケイスさん
>quagetoraさんが、「シグマやシグマのOEMと思われる100-400mmなどは、より大きなフォーマット用の転用ですから、小さなフォーマットであるフォーサーズで使うと、見る人によっては性能が不足する」、と書いていたので、それは違うと書いたまで。
フォーマットの違う大きさの写真を同じ大きさにして見るとき、小さなフォーマットの方が高解像力のレンズが必要になります。レンズは使用するフォーマットのサイズに合わせて設計するので、大きなフォーマット用のレンズを小さなフォーマットに転用すると、解像力が不足する場合があります。quagetoraさん のコメントは間違っていませんよ。
>あのねぇ、これはレンズ自体の性能差であってフォーマットサイズとは関係ない。
フィルムの写真で同じサイズで写真を見るとき、小さなフォーマットの方が拡大率が大きくなります。だからより高解像のレンズが必要です。
デジタルの写真で同じ解像度で写真を見るとき、小さなフォーマットの方が画素ピッチが小さいです。だからより高解像のレンズが必要です。
小さなフォーマットには高解像力なレンズが必要になるから、フォーマットに合わせた性能で作るのです。
例えば、35mm判のレンズのMTFチャートは「10本/mm・30本/mm」になっています。
一方、対角長が1/2のフォーサーズ・マイクロフォーサーズのレンズは「20本/mm・60本/mm」です。
小さなフォーマットには高解像力なレンズが必要ということです。
機会があったら、オスカー・バルナックさんのライカカメラ開発ストーリー、米谷美久さんのオリンパスpenの開発ストーリーを読んでみてください。
書込番号:25229950
16点
>WIND2さん
>ステアケイスさん
>中心部→中心点から30%までの範囲
>周辺部→端部から中心点までの間の端部から80%までの範囲
>故に、中心部の像は周辺部を通る
>なんて一般的ではない自己作成の前提条件を想定しているんですよ。
いちばんシンプルな凸レンズで考えてみてください。
例えば、焦点距離100mm F2.0というレンズ。
このレンズの有効口径は50mmです。画面中央部に結像するレンズは、レンズの全面を通過した光です。このとき「レンズの中央部だけを使う」ということは、口径を絞ったということになります。センサーサイズに関係ありません。
広角レンズによくあるレトロフォーカスのレンズの場合、イメージサークルの内側に結像する光は、前玉(射出瞳を前方に置くためのレンズです)の内側を通った光になります。ですが、実際の結像に使われる中玉から後玉にかけてはレンズのほぼ全部を通った光です。真ん中だけを使うということにはなりません。
点光源の玉ボケ(口径食のあるレモン型のボケも)の輪郭になる光はレンズの縁を通った光ですから、画面中央部でもレンズの全体を使っていることがわかります。
書込番号:25229953
13点
>ステアケイスさん
追伸。
>キャノン TS-E24mm F3.5L IIのMTF
>.https://cweb.canon.jp/ef/lineup/ts-e/ts-e24-f35lii/spec.html
>キャノン EF24mm F1.4L II USMのMTF
>https://cweb.canon.jp/ef/lineup/wide/ef24-f14lii/spec.html
>TS-E24mm F3.5L IIの場合、24mmの先まで余裕があるから全然違うでしょ。
これらのレンズのMTFの値が違うのは、F3.5とF1.4という明るさの違いが最大の要因ですね。
明るいレンズほど大きく光を曲げるので、高解像力のレンズを作るのは難しいのです。
書込番号:25229954
11点
おっと、推敲不足。
下記、訂正します。
(誤)
例えば、焦点距離100mm F2.0というレンズ。
このレンズの有効口径は50mmです。画面中央部に結像するレンズは、レンズの全面を通過した光です。
↓
(正)
例えば、焦点距離100mm F2.0というレンズ。
このレンズの有効口径は50mmです。画面中央部に結像するのは、レンズの全面を通過した光です。
書込番号:25229957
9点
APS-C機にフルサイズレンズを使った場合、
レンズのイメージサークル内且つ、
APS-Cセンサーの外の像、光はどこ行っちゃうんだろ?
え?もしかしてAPS-C機に着けた途端にイメージサークルの大きさが小さくなる?
そんな事、あるはずがない。
書込番号:25230171 スマートフォンサイトからの書き込み
6点
皆様
貴重なコメント沢山ありがとうございます
ただ、議論が少し遠くに行ってしまった感もありますので、まず一度レンズをOM SYSTEM PLAZAに持ち込んで試してみたいと思います
その結果で納得した上で意思決定します
(若い頃はサクッと衝動買いしましたが、退職後なので些か慎重になりました)
また、結果は共有させてください
コメント下さった皆様心より感謝します
ありがとうございました
書込番号:25230184 スマートフォンサイトからの書き込み
7点
#Tranquilityさん
>小さなフォーマットには高解像力なレンズが必要になるから、フォーマットに合わせた性能で作るのです。
フォーマットサイズに合わせてレンズ自体の性能を変えるのなら、それはレンズの性能差であってフォーマットサイズは無関係。
高解像力でイメージサークルの大きなレンズを作れば画面全体の解像力は上がりますよ。
まだわからないのかな。
本来なら、同じ性能でイメージサークルの大きさの違うレンズで比較しなければならないが、無いので
キャノン TS-E24mm F3.5L IIとキャノン EF24mm F1.4L II USMの比較でF値が違うのはわかっていて書いている。
だから、厳密な比較にはならないが、と但し書をつけてある。
少なくとも同じメーカー、同じ焦点距離、同クラス(Lレンズ)。
EF24mm F1.4L II USMをF3.5に絞ってもTS-E24mmのMTFには届かないでしょうね。
他スレでもそうだったけど、訳わからん理屈で絡まないでくれないかな。
あ〜疲れる。
書込番号:25230219
9点
>mochmatchさん
LEICA D VARIO-ELMAR 14-150のフォーサーズレンズだとレンズ駆動速度の関係でエラーがでる可能性が有りそうですね
持ち込む前にmk2で試されてはと思います
書込番号:25230256
1点
>WIND2さん
>APS-C機にフルサイズレンズを使った場合、レンズのイメージサークル内且つ、APS-Cセンサーの外の像、光はどこ行っちゃうんだろ?
カメラ内部の壁などに当たって熱になり、そこら辺に雲散霧消するだけ。
書込番号:25230830
15点
>ステアケイスさん
>フォーマットサイズに合わせてレンズ自体の性能を変えるのなら、それはレンズの性能差であってフォーマットサイズは無関係。
quagetoraさんの「シグマやシグマのOEMと思われる100-400mmなどは、より大きなフォーマット用の転用ですから、小さなフォーマットであるフォーサーズで使うと、見る人によっては性能が不足する」というのは、レンズ自体の性能(解像力)のことを述べていますよ。
大きなフォーマット用のレンズを小さなフォーマットで使用すると「レンズ自体の性能」が不足する可能性があるのです。35mm判用のレンズをマイクロフォーサーズのハイレゾで使用すると、なおさらに。
quagetoraさん はそれを懸念されたのであって、間違っていません。私はその理由を説明しました。
基本的にカメラレンズは使用フォーマットに合わせて、要求される解像力を想定して設計されるのです。
それが「訳わからん理屈」であるなら、訳がわかるようになれたらいいと思います。
また、2本のレンズのMTFチャートを例示されていましたが、それは「高解像力でイメージサークルの大きなレンズを作れば画面全体の解像力は上がります」の根拠には一つもなっていないです。。。
書込番号:25230835
20点
あれぇ?
APS-C機にフルサイズレンズ使ってもレンズの端まで使ってるというのと矛盾しているなあ。
ヤッパリこの人は間違ってようがなんだろうが何でも有りなんだな。
書込番号:25230908 スマートフォンサイトからの書き込み
8点
ああ、それとあとから言い訳しかねないから
釘刺しておくけど、
誰も「レンズを通っただけの光」
の事なんか話してないからね。
正確に理解出来る人なら当然分かっている事だけど、
スポットを当てているのは、
「センサーで受け止める光」
の事のみですから。
あなたの書き方は閲覧者に対して
明らかに誤解誘導的な書き方が多いからね。
書込番号:25230971 スマートフォンサイトからの書き込み
9点
それと、
何度も言うけど、一番重要な事は
実戦における撮影結果の出来であって、
あなたの好きな理屈でも根拠でも説明でもありませんから。
レンズの解像力もしかり。
だからあなたのお話はいつも中途半端なんですよ。
で、結局のところどんな写真が撮れるのさ?
という最終結果に辿りついてないですからね。
書込番号:25231008 スマートフォンサイトからの書き込み
11点
似たような話題は何度も見かけ、それに目を通していれば何が正しいか分かりそうなものですが...
例えば、以下のコメントはすべて正しいです。
>「フルサイズ用レンズをAPS-Cで使うとき、イメージサークルの周辺部分を使わなくて済む」です。
(画面中央部の像でも、レンズ周辺部を使っています)
このときに画像の解像が上がるかどうかはレンズと画像の画素数しだいですが、35mm判用レンズをAPS-Cで使ってもレンズ自体の解像力は変わりません。
>フォーマットの違う大きさの写真を同じ大きさにして見るとき、小さなフォーマット(=小画素ピッチ)の方が高解像力のレンズが必要になります。レンズは使用するフォーマットのサイズに合わせて設計するので、大きなフォーマット用のレンズを小さなフォーマットに転用すると、解像力が不足する場合があります。quagetoraさん のコメントは間違っていませんよ。
>フィルムの写真で同じサイズで写真を見るとき、小さなフォーマットの方が拡大率が大きくなります。だからより高解像のレンズが必要です。デジタルの写真で同じ解像度で写真を見るとき、小さなフォーマットの方が画素ピッチが小さいです。だからより高解像のレンズが必要です。
上記が間違っていると思われる方は、テクニカルなことが分かっていないか、文章の理解不足です。
見た限り、>WIND2さん は前者、>ステアケイスさん は後者ですかね。
ハイレゾは小さなシステムで少しでも良い結果を残すための方法として良いアイデアだと思いますし、実際フルサイズでも使われるようになってきました。どうしてこの話題でこのような議論(言い争い)になるのか、とても不思議です。
疲れると思うなら来なきゃよいのに、と思うのは自分だけなのかな...
書込番号:25231048
33点
>WIND2さん
>APS-C機にフルサイズレンズ使ってもレンズの端まで使ってるというのと矛盾しているなあ。
矛盾してないですよ。
矛盾と言うあなたは、凸レンズ実像のイメージサークル中央寄りはレンズの真ん中あたりを通った光で、イメージサークル外寄りはレンズの端の方を通った光が作っているとか思ってます?
もしもそうだったら、中学校理科をもう一度おさらいしてください。
>スポットを当てているのは、「センサーで受け止める光」の事のみですから。
イメージセンサーが受け止める光と、イメージセンサーから外れちゃう光に違いはないですよ。
書込番号:25231116
20点
>優柔不断ですがさん
こんばんは。
フォローありがとうございます。
書込番号:25231117
5点
SIGMA 56mm/F1.4 ちょっと太いですけど… |
COSINA 42.5mm/F0.95 ちょっと甘い? |
Schneider 75mm/F5.6 |
CANON 85mm/F1.2 レンズの周辺を使わないとF2.4 |
>mochmatchさん
>ハイレゾショットは他社レンズでも対応しますでしょうか?
Seagullsさん、quagetoraさん、しま89さん、ポポーノキさん、Tranquility さんも書き込まれていますが、撮影は可能です。
ただ、画質に関しては、quagetoraさん、Tranquilityさん、優柔不断ですがさんが指摘されているとおり、レンズ次第という事は否めません。
チャートを撮影しピクセル等倍より更に4倍拡大してチェックすると解像度、各収差、コントラストはレンズによって大違いです。
幸いな事に、APS-Cのイメージサークルもカバー出来るシグマ30mm F1.4 DC DNもm4/3に要求される画質を意識してか、APS-C判の画面周辺の画質低下には目をつぶってm4/3のイメージサークルまではMTFカーブを可能な限り高く維持しているようですから、それほど酷くは感じないと思います。
気になっているのはLEICA D VARIO-ELMAR 14-150mm/F3.5-5.6で、1000万画素程度が基準になっているような甘さがあるように感じています。
>Tranquilityさん
>優柔不断ですがさん
レンズの周辺とイメージサークルの周辺の区別がつかない人がいるのは不思議ですね。
彼らには大昔のシートフィルムを使う大判カメラ用の広角レンズが基準になっているんでしょうかね。
4x5のイメージサークルである152ミリに対して75mm/F5.6という広角レンズだったら、前玉・後玉の巨大な凹レンズの周辺は使わないという事は有りだと思いますけど、85mm/F1.2クラスでレンズの周辺は使わないとなると、単なる暗いレンズになっちゃいますね。
ライカ判サイズ用のレンズはレンズの口径(特に後玉)をケチったのが多く口径食が酷いのが殆どですけど、そういったレンズをm4/3やAPS-Cで使えば周辺減光の悪影響から逃れることは出来ますけど、撮像素子のピッチに見合った解像度がなければ大昔の中判レンズ並になっちゃいそうですね。
書込番号:25231220
5点
まあいいや、機会があったら改めて確認しておきましよ。
でもね、マイクロフォーサーズ用に作られているから解像力があるレンズだからといって、
実際の描写で解像しきっているわけではないのでは?
実際に解像してないし。
まあ、実戦結果を見ても分からない人もいるみたいだけど。
前にも書いたけど、解像力は必然。
ても、マイクロフォーサーズセンサーの画素ピッチを解像しきるまでは解像していないなというのが実際。
フルサイズレンズをAPS-Cに使うにあたっては、高画素数フルサイズと一般的なAPS-Cの画素ピッチはほぼ同一だから全く支障はないどころか有意義に使用してますよ。
ちなみにフルサイズレンズをマイクロフォーサーズに使用云々は否定は全くしてないけどね。
書込番号:25231327 スマートフォンサイトからの書き込み
2点
ヤッパリオカシイ
APS-Cセンサー外且つイメージサークル内の光がAPS-Cセンサー内の光と同一?
という事はフルサイズセンサーの端の像はAPS-Cでも端に写り込むという事になる。
だが実際はAPS-Cではカットされる。
いや、それどころか、
氏の言っている事はレンズのある単位面積一点を通過した像、光はセンサー面全面に写り込むという事になる。
だか、実際はそうではない。
なんだか非常にメチャクチャな事を言っているとしか受け取れない。
書込番号:25231372 スマートフォンサイトからの書き込み
5点
(比較実証可能な方へ)
まずは、
添付画像1枚分をそのまま使った「100万ドット」相当画像を撮影し、解像させてみてください。
この「たった100万ドット」の段階でも、(ご自分のカメラとレンズによる)撮影画像内(特に「端部以外」と端部)の解像具合の差異が、意外に大きいと思われるかもしれません。
(カメラとレンズ、絞り設定による)
kakakuの画像アップの制約で1024ドット角以下になるため、
添付画像は「白黒2値のみ」の 1000ドット角 =「100万ドット」のJPEG画像としています。
※画像アップによる再圧縮などによる劣化が気になる場合は、「白黒2値のみ」に復元するために、
画像処理ソフトなどで「2値化」処理を行ってください(^^;
そして、添付画像4枚分を使った「400万ドット」相当画像を撮影し、解像させてみてください(^^;
その添付画像4枚分を使う「400万ドット」相当画像は、RGGBの単板カラー撮像素子なら 1600万画素相当と仮定すると、昨今のカメラとレンズならば、余裕に思われるかもしれませんが、
「400万ドット」相当画像を解像させることは、結構難しいと思われるでしょう(^^;
↑
解像具合の評価用として、
・無加工の撮影画像
・【等倍】で、画像中央部と画像端部を、各々1024ドット角で保存した画像が必要になると思います。
ついでに、フォーマット別のレンズ解像度との相関について。
(計算上は非現実的な値もあるので注意(^^;
グレー部分が濃くなるほど、非現実的になる「目安」としています)
書込番号:25231386 スマートフォンサイトからの書き込み
1点
(注)
>・【等倍】で、画像中央部と画像端部を、各々1024ドット角で保存した画像
↑
kakakuに画像アップする場合は、各々1024ドット角以下で。
書込番号:25231398 スマートフォンサイトからの書き込み
1点
>WIND2さん
>スポットを当てているのは、「センサーで受け止める光」の事のみですから。
↑
こう書いていました。
『センサーで受け止める光』のみ、に限定する理由は? それは特別な光なんですか?
イメージサークルは円形です。イメージセンサーは長方形です。
横位置でセンサーが受け止める光でも、縦位置にしたらセンサーから外れてしまう光があります。
レンズはそのままで、センサーサイズの違うカメラに付け替えると、同じ光でもセンサーに当たったり外れたり。
そのセンサーから外れた光は、何か違うのですか?
書込番号:25231483
13点
理解力の乏しい私に教えてください。
>フォーマットの違う大きさの写真を同じ大きさにして見るとき、小さなフォーマットの方が高解像力のレンズが必要になります。レンズは使用するフォーマットのサイズに合わせて設計するので、大きなフォーマット用のレンズを小さなフォーマットに転用すると、解像力が不足する場合があります.
>小さなフォーマットには高解像力なレンズが必要になるから、フォーマットに合わせた性能で作るのです。
この「フォーマット」の意味がよくわかりませんが、「イメージセンサーのサイズ」と理解して書かせていただきます。
まず、同じ2000万画素のフルサイズとフォーサーズならば、フルサイズよりフォーサーズのほうが高解像力のレンズが必要になる、というのは理解できます。
しかし、現実には、フルサイズだとソニーが6100万画素、APS-Cだと富士フイルムで4020万画素のカメラが販売されています。
これらはフォーサーズで主流の2000万画素と比べても画素ピッチでいえば、それほど変わらないと思われ、そうであれば、それらのセンサーに対応するレンズはフォーサーズ2000万画素と同程度の解像力が必要だと考えますが違うのでしょうか?
つまり、「フォーマットの大小」ではなく、センサーの「画素ピッチの大小」に合わせた性能でレンズを作る、ってことではないのか?ってのが私の疑問点です。
フォーマットの大小に関わらず同じ2000万画素センサーしか存在しないのであれば、「小フォーマットのほうが高解像が必要」ってのは理解できますが、現実はそうではないのですから、単純に「小フォーマットのほうが高解像が必要」のはちょっと違うのでは?と思いますが、私の理解が足りないのでしょうか?
書込番号:25231596
5点
>あなご箱寿司さん
ちょっと引用が前後しますが、ご容赦を。
>「フォーマットの大小」ではなく、センサーの「画素ピッチの大小」に合わせた性能でレンズを作る、ってことではないのか?ってのが私の疑問点です。
私はこう書いてきました。
『最終的に想定される写真のサイズと望む精細さに合わせて、フォーマットに応じてレンズの解像力を対応させる必要があるのです。デジタルカメラの場合、画素ピッチに合わせてレンズを用意する必要があることは言うまでもないでしょう。』
(書込番号:25229176)
『デジタルの写真で同じ解像度で写真を見るとき、小さなフォーマットの方が画素ピッチが小さいです。だからより高解像のレンズが必要です。』
(書込番号:25229950)
『大きなフォーマット用のレンズを小さなフォーマットで使用すると「レンズ自体の性能」が不足する可能性があるのです。35mm判用のレンズをマイクロフォーサーズのハイレゾで使用すると、なおさらに。』
(書込番号:25230835)
>現実には、フルサイズだとソニーが6100万画素、APS-Cだと富士フイルムで4020万画素のカメラが販売されています。
これらはフォーサーズで主流の2000万画素と比べても画素ピッチでいえば、それほど変わらないと思われ、そうであれば、それらのセンサーに対応するレンズはフォーサーズ2000万画素と同程度の解像力が必要だと考えますが違うのでしょうか?
35mm判カメラでもセンサーシフトの高解像画像を得る仕組みが採用されるようになってきましたよね。
それに対応するレンズは、当然その画素ピッチに応じて高解像力に作られるでしょうし、従来からのレンズでもその解像度を満たす性能があれば有意義に使えると思います。
マイクロフォーサーズのハイレゾショットは、最大で約8000万画素の画像が得られます。この画素ピッチで35mm判にすると、およそ3億2000万画素になります。新しいレンズだと大丈夫かもしれませんが、従来からあるレンズ、特に廉価なレンズでは、この解像度を満たす性能はないかもしれません。
quagetoraさんの「シグマやシグマのOEMと思われる100-400mmなどは、より大きなフォーマット用の転用ですから、小さなフォーマットであるフォーサーズで使うと、見る人によっては性能が不足する」というコメントは、スレ主さんの『ハイレゾショットは他社レンズでも対応しますでしょうか?』という問いに対して、そういう可能性を危惧したものですね。
書込番号:25231678
12点
>あなご箱寿司さん
下記の件、本来?はその通りかと(^^)
>センサーの「画素ピッチの大小」に合わせた性能でレンズを作る、ってことではないのか?
しかしながら、現実の製品ではそうなっておらず、
近い例としてはフジの X-H2用推奨レンズあたり。
>富士フイルムが「X-H2」の4020万画素センサーにフル対応するレンズのリストを公開 投稿日:2022年9月 9日
https://digicame-info.com/2022/09/x-h24020.html
↑
この「X-H2」の有効4020万画素を含めて、
同じ画素サイズで横並びにしたのが添付画像の表です。
「X-H2」の有効4020万画素と同じ画素サイズであれば、
マイクフォーサーズで 2500万弱、
フルサイズで 9500万弱(^^;
なお、光学ローパスフィルターレスの機種がありますが、
その画素数ならば「擬色の問題が出にくいほど解像されていない」状態になりますので、
光学ローパスフィルターレスの機種の画素数から、
実際のレンズ解像度は「思っているほどど、高解像ではない」ということになると思います(^^;
書込番号:25231724 スマートフォンサイトからの書き込み
2点
>Tranquilityさん
今回は自分の為に特別に絡んであげます。
>そのセンサーから外れた光は、何か違うのですか?
同じなんですか?
恐らく、光という言葉が解釈を拡張しているかと思われますので、言葉を「像」で統一します。
同じだとすると、APS−Cセンサー外且つフルサイズセンサーの端で受け止める像でもAPS-Cで受け止め、
写り込むことになってしまいますが?
APS-C外の像はレンズのどこを通ってくる像か?です。
それと、
>要求される解像力を想定して設計されるのです。
事と、実際にリリースされている製品がしっかりと解像力のあるレンズかどうかは別ですよ。
書込番号:25231884
3点
>WIND2さん
>今回は自分の為に特別に絡んであげます。
それはどうも。
今までのは通常の絡みということですか。それは誰のためだったのですか?
>>そのセンサーから外れた光は、何か違うのですか?
>同じなんですか?
私が質問しています。お答えくださいませんんか。
>恐らく、光という言葉が解釈を拡張しているかと思われますので、言葉を「像」で統一します。
「光」と「像」は意味するところがまるで違います。
「光」と書いていたのはあなたですから、私は「光」について書きました。
>同じだとすると、APS−Cセンサー外且つフルサイズセンサーの端で受け止める像でもAPS-Cで受け止め、写り込むことになってしまいますが?
私はそんなこと全く言っていませんが。「光」を「像」と拡大解釈したあなたがそう考えただけでは。
>APS-C外の像はレンズのどこを通ってくる像か?です。
私はすでに書いています。あなたの考えは?
>>要求される解像力を想定して設計されるのです。
>事と、実際にリリースされている製品がしっかりと解像力のあるレンズかどうかは別ですよ。
実際の製品を設計するときに、それぞれに想定(性能の目標)があるでしょう。
その通りになっていないとしたら不良品。
書込番号:25232200
16点
>mochmatchさん
今夕、LEICA D VARIO-ELMAR 14-150を持っている写真友達の家に寄ったらピカピカのOM-1があったので試してもらいました。(MMF-1使用かMMF-3使用だったかは失念)
手持ちハイレゾで撮影することが出来ました。
このレンズの味・趣的に通常撮影で十分だと思うので撮影結果に興味が無く解像度の向上があるかどうかまでは確認していません。
AF速度は、かなりのんびりス〜〜〜〜〜〜〜という感じでした。(屋内)(C-AFはグレーアウトして選択できません)
自分の車から自前OM-1を持ち出すのは面倒だったのですが(すいません^^;)、両方ある環境だったので試してもらいました。
OM-1を見つけたとき(購入したのを知らなかった)パナの8mm(購入したのを知らなかった)が着いていて15oも持っていたと思うのですが、それらはハイレゾショット撮影できるはずなので試していません。
書込番号:25232214
![]()
3点
>Tranquilityさん
案の定、相手の意図を正確に汲み取れないあなたらしいですね。
目の前の文字そのものしか見えてない。
なるほど、
実戦の撮影結果で判断出来ない訳です。
書込番号:25232288 スマートフォンサイトからの書き込み
3点
>Tranquilityさん
>>APS-C機にフルサイズレンズを使った場合、レンズのイメージサークル内且つ、APS-Cセンサーの外の像、光はどこ行っちゃうんだろ?
>カメラ内部の壁などに当たって熱になり、そこら辺に雲散霧消するだけ。
今後、もしAPS-Cのハイエンド機が出てきた時、100-300mm/F4とか400mm/F2.8などを使ったらフレアなどはどうなりますかね。
興味津々です。
SIGMAの100-400mm/F5-6.3とOM SYSTEMの100-400mm/F5-6.3との差ですけど、後群の凹/凹・凸のレンズはそれぞれのイメージサークルに合わせて口径が変えてあるようですね。
当然、鏡胴内にもフレアカッターが用意されているんでしょうけど、フードの長さとかも最適化が必要ですね。
で、30mm/F1.4をチェックしてみましたけど、Eマウントとm4/3マウントでは後玉から最後部までのフレアカットで対応しているようですけど、反射率0%の物質が無い限り厳しいみたいですね。
書込番号:25232393
2点
>WIND2さん
>相手の意図を正確に汲み取れない
『APS-C機にフルサイズレンズを使った場合、レンズのイメージサークル内且つ、APS-Cセンサーの外の像、光はどこ行っちゃうんだろ?』
『スポットを当てているのは、「センサーで受け止める光」の事のみですから。』
この文章の「光」が「像」のことだと読む人はいないですよ。
自分の作文ミスで意図が伝わらなかったことを読む人のせいにしないで下さい。
それに、35mm判用レンズを使った際のAPS-Cセンサー域外の像については、私はもっと前に書いています(↓)。
「フルサイズ用レンズをAPS-Cで使うとき、イメージサークルの周辺部分を使わなくて済む(書込番号:25229176)」
「イメージサークル」とは「像が結ばれる円形の範囲」もしくは「焦点面に結ばれた円形の像」のことです。
その後に、あなたは「光」がレンズのどこを通るかを話題にしていましたね。
それに続くあなたのコメントですから、誰もが「像」のことではなくて「光」のことと読むに決まってます。
書込番号:25232407
18点
>Tranquilityさん
あなた自身の本質の理解力の無さをこちらのせいにしないでいただきたいですね。
像も光ですからそう書いただけですが、
あなたの場合、光という文字だと拡大解釈を言い訳に除外事項まで含めてくる事がミエミエでしたので、像に限定したのですよ。
レンズの解像力にしても、
マイクロフォーサーズレンズは解像力が高く設計製造されている。
マイクロフォーサーズに対応して設計製造されている。
まあ、確かに間違いではありません。
ですがここまでの表現では、あなたの実戦撮影結果を頑なに拒む事と同様、閲覧者に事実誤認を誘導させるがの如く中途半端です。
で、結局、実戦での撮影結果ではどこまで解像するのさ?(当然ながら実験撮影の事ではありません。)
という最終結果がありません。
こちらの認識では、現状のレンズではまだまだ解像力は不足しています。
書込番号:25232444 スマートフォンサイトからの書き込み
4点
ナチス・ドイツの宣伝大臣であったヨーゼフ・ゲッベルスの有名なセリフ?「嘘も百回言えば真実となる」といったデマゴーグが出回るのも問題なので、UPしておきます。
CANONのデータでは判りにくいようですが、ライカとツアイスとペンタックスのレンズで、イメージサークルがライカ判の半分の位置(m4/3相当)に収束する光束を見れば一目瞭然ですよね。
イメージサークルの半分をレンズ口径の半分と言うのは間違いです。
書込番号:25232454
12点
アレと比較されたら、
むしろゲッペルスが不憫にさえ思う(^^;
書込番号:25232463 スマートフォンサイトからの書き込み
2点
>ポロあんどダハさん
解像不足のサンプルばかりアップしているあなたが何を出したところで説得力も納得もまるでありませんよ。
というわけで、期待しましたが結局何も得るものはありませんでしたね。
ま、いつもの事ですが。
書込番号:25232481 スマートフォンサイトからの書き込み
8点
今回もそうだけど、なんでハイレゾが使えるレンズは何の話に解像度の話だとか光束の話が出るのだろう。かき回してる本人はいつものように内容変えてレンズの使用に変えてるし。またく意味無い話だ
書込番号:25232543
19点
デジタル一眼カメラ > OMデジタルソリューションズ > OM SYSTEM OM-1 ボディ
SONY SF-M64T 64GB
https://kakaku.com/item/K0001219403/
最高性能でないカードであることは承知していますが、この機種で高速連写するならやはり力不足でしょうか?
3点
そうですね、V90のSDはあったほうがいいです。
V90のSDカードならSLCNANDのもので、耐久性に優れるものが採用されていることが多いです。
無難どころであればPROGRADE、SUNEAST、Kingstonあたり。
コスパを求めるならSABRENTとかどうでしょうか。
いずれもAmazonのセールで大幅値引きがあるので、セールまでは待ったほうがいいです。
書込番号:25224402 スマートフォンサイトからの書き込み
![]()
3点
>T・B・さん
こまめにPCへバックアップを取る癖をつければ
消耗品であるSDはそれなりでも良いのではないですか?
格安品でもブランド品でもデータ消失はあり得ますから
もしくは、永久保証品の物を購入すればよいのではないですか。
書込番号:25224423
2点
>T・B・さん
こんにちは。
最高スペックのV90仕様はたしかに
このV60のカードより1.5倍高速ですが
値段は2倍以上になりますので、
バッファ開放時間にいらいらしない、
バッファフルにならないよう撮る、
など工夫されれば使えるのでは
ないでしょうか。
消耗品ですし、ひとまず使ってみて
撮影でやっぱりV90!となったら、
V90も購入され、スロット2に予備で
挿しておく、など使えそうです。
書込番号:25224439
4点
>T・B・さま
SLCはほぼ無いので、uhs-ii V90ですと現状 pSLCかと思います。
V90でも最大書込・読込速度は違いますのでメーカーさんごとに差が有ります(本当は最大ではなく最低持続書込速度が大事なんでしょうが)
レビューも数多く上げてらっしゃる、とるなら様がしっかり検証されてらっしゃるので、ご紹介致します。
(最初のh外してます)
ttps://asobinet.com/review-best-for-the-om-system-om-1/
私はOM-1は所有しておらずE-M1Xですが、V60のSDカードもたまに使ってます。
V90が理想では有りますが、主さんが予算の関係でV60を選択されるのであれば、バッファ詰まり、復帰タイミングを理解しながら使用すれば良いのかな?と思いました。
当然動きもの連写が主でしたらV90を最初から選択オススメです。
書込番号:25224441 スマートフォンサイトからの書き込み
11点
こんな参考ページもあります。メモリーカード先生。
https://www.memorikado.jp/-Kamera/OM-System-OM-1
E-M1U・X・OM-1で下記のカードを使っていますが体感的な違いは感じたことがありません。
Sony Tough G 128GB
ProGrade Digital Cobalt 128GB
Thoshiba N501(?) 32GB ※E-M1Uのキャンペーンでもらった
E-M1U・X・Vで蝶や鳥の撮影でプロキャプチャーHを友人達(3人)も、Sony Tough Gをメインで使っています。
60FPSや120FPSの連射をするとバッファフルまで一瞬なので、そういう撮影をするなら最高速クラスのメディアを使うことをお勧めします。
超高速連写を連続して行わないとか、RAW記録10FPSでいつまでも連続撮影したいとかでなければ、Tough Mクラスでも十分だとは思います。
Sony Tough Gは(メモリーカード部門分社化で品薄のため?)価格が高騰してしまっていますが、『Nextorage( ネクストレージ:分社化で設立された会社) 128GB UHS-II V90 SDXCメモリーカード F2PROシリーズ pSLC 4K 8K 最大読み出し速度300MB/s 最大書き込み速度299MB/s 』というのが、まんまSony Tough Gだと思われるので、自分は買い足し候補にこれを考えています。
※Tough Mのクラスは仕様が違うみたいなので注意が必要=128GBモデルの書き込み速度が遅い
>『この機種で高速連写するならやはり力不足でしょうか?』
書込番号:25224574
5点
>T・B・さん
動画を全く撮影しない前提なら割り切りですが使えます
書込番号:25224589
2点
>T・B・さん
実際にプロキャプチャーH・SHを多用していてバッファクリア時間の長さを感じるのは、
止まっている被写体(鳥等)を感度低めの画質優先設定で撮るつもりが飛びもの設定のプロキャプチャーH・SHで撮ってしまってバッファクリアまで設定変更を待たなくてはいけなくなった時です。
※バッファ空きができればその分そのままの設定で撮影はできますが、設定の切り替えはバッファがクリアされないとできません。
使用者のミスですが、友人周りでもアルアルな失敗です。
TOUGH SF-M64T [64GB](価格コム最安6731)を購入検討しているなら、
・EXCERIA PRO KSDXU-A064G [64GB](価格コム最安8329) ・・・OM-1公式認定的なカード
・キングストン 64GB Canvas React Plus(Amazon6980) ・・・世界的なメモリー大手企業
・ProGrade Digital COBALT 64GB(Amazon11900:時々値引き販売あり)
あたりの定番V90クラスも候補に入れることをお勧めします。
OM-1で使ってこれらより明らかに快適なカードは今後も登場しないと思うので、もっと速いカードだったら?!という悩みが生じない利点があります。
書込番号:25225000
![]()
5点
>T・B・さん
こんにちは。
OM-1で、名前があがっている「キングストン Canvas React Plus」を使っていますが、
コストパフォーマンスが良いので気に入っています。
(128GBがメイン利用で、64GBは予備で持っています)
私は野鳥が主な被写体ですが、たまに高速連写したい時があるので、
いざという時の備えとして高速度のカードは一枚は持っておいて損ではない気がします。
さて、「キングストン Canvas React Plus」ですが、
少し前からAmazon.co.jpの販売品が在庫切れとなっているので、型番をかえたリニューアル品に変わるかもしれんね。
(Amazonで現状販売されているのは、マーケットプレイスの取り扱いです)
その他諸々、mosyupaさんのご意見に賛同します。
書込番号:25225288
![]()
3点
いつもの如く、主さん不在で主さんの質問と関係ない方向に行くのが価格コムっぽくて良いですね。
最速もしくは上を見れば、実際に体感出来るのかどうか知りませんがSONY傘下で立ち上がったネクストレージ(既に台湾の群聯電子に買収され子会社)が最速ですかね?cfexpress typebはネクストレージさんのProを使ってますが、特に問題ありません。
https://www.nextorage.net/articles/230221/
主さんの予算次第ではないでしょうか?
書込番号:25225341 スマートフォンサイトからの書き込み
7点
私はOM-1とX-H2で、SUN EASTのV90 128GBを使った経験があります。
OM-1で野鳥撮影をしていて、最高速の連写を使ったときにはバッファ全開まで待たされる印象でした。
Write 150MB/sのV60とWrite 290MB/sのV90では結構違うと思いますよ。
X-H2を使い始めてSLCのCF Expressを買ったのですが、ものすごい速度が出ます。
なぜOM-1をCF Expressに対応させなかったのかが甚だ疑問です。
お金はかかりますが、耐久性の高いSLCの物を買っておけば今後も困ることはないと思いますよ。
書込番号:25225392
2点
>SMBTさま
価格コムだけでなく、ググって辿り着いた人が間違った情報を拡散するといけないので再度書いておきますね。
コバルトもネクストレージの新商品もそうですがpSLCです。
SLCでは有りません。
書込番号:25225412 スマートフォンサイトからの書き込み
8点
>タキステルクリカワさん
pSLCのpの意味とか説明しないと
理解して貰えないかも。(^_^;)
https://www.udinfojp.com/
pseudo=疑似
書込番号:25225441 スマートフォンサイトからの書き込み
5点
>よこchinさま
ありがとうございます!
書込番号:25225452 スマートフォンサイトからの書き込み
4点
みなさま、レスありがとうございました。鳥「も」撮るならともかく鳥「を」撮るならV90にするべきだと判断いたしました。
Goodアンサーは実際に鳥を狙っていらっしゃるであろうと思ったかたのご意見を尊重いたしましたが、他のかたのアンサーも十分に参考になりました。ありがとうございます。
M-1では撮れない写真をOM-1では撮れるように祈ります。てか、まず届いているOM-1に電池を入れないといけません。
書込番号:25225679
3点
ProGrade -15%だったので購入しました。でも、OM-1にはまだ電池が入っていません。
書込番号:25235121
1点
デジタル一眼カメラ > OMデジタルソリューションズ > OM SYSTEM OM-1 ボディ
>Kazkun33さん
RAW現像する時は14bitの方が良いのかも知れないけど、最終的にJPEGにするなら12bitでも良いように思います。
最終的にJPEGなら見比べないとわからないように思いますし、ファイル容量も増えますから12bitでも良いように思いますね。
書込番号:25223831 スマートフォンサイトからの書き込み
3点
同画素数で圧縮無しRAWでしたら、
単純計算ならファイルサイズ4倍ですから・・・選択できれば個人次第で(^^;
書込番号:25223877 スマートフォンサイトからの書き込み
4点
情報量が12bitで充分なのか処理速度を優先しているのか気になって聞いてみました。
書込番号:25223942
1点
>Kazkun33さん
仮に14bit RAWとなっても、ノイズが多ければ
画質上もあまり有用ではないかもしれません。
たとえば、同じマイクロ、低画素のGH5Sでは
RAWは14bitですが、容量も多くなるせいか、
連写に制限が出るようですし、SDカード仕様
ですので、バッファクリア待ちも気になるでしょう。
(GH6はCfexpress type B対応)
「AF追従での連写最高速は12bit RAWおよびJPEGではメカシャッター、
電子シャッターともに8コマ/秒(14bit RAW時は7コマ/秒となる)」
・パナソニック【マイクロフォーサーズ機】(2022年冬)
https://dc.watch.impress.co.jp/docs/special/lineup/1467722.html
高感度にやや不利な「積層型」CMOS、
SDカード仕様で、50コマ/秒など超高速連写が
売りのOM-1ですので、RAW連写能力や
バッファクリア待ち時間とか、様々にバランスを
考慮の上でRAW12bitの選択になった
のではないかと想像します。
最終的によく見られる形がJpeg(8bit),
HEIFでも10bitですので、Raw現像の
達人の方は性能を活かせるのかもですが、
12bitでそんなに困るのかなー、とも思います。
書込番号:25224000
9点
>Kazkun33さん
情報量が12bitで充分なのか処理速度を優先しているのか気になって聞いてみました。
そうですね。
処理速度の問題は大きいと思います。
処理速度を考えると12bitになると思いますし、容量が増えて処理速度を上げるにはバッファやメディアの書き込みなどの問題もありますし、映像エンジンの処理速度も重要です。
オリンパスとしてはコストも含めて12bitが良いと判断しての結果だと思います。
ミラーレスになったこと、電子シャッター化で連写枚数は一気に増えました。
同時に処理するためのスピードを得るためにはコストを費やせば良いのでしょうけど、性能とコストのバランスを重視した結果での12bitではと思います。
書込番号:25224028 スマートフォンサイトからの書き込み
6点
>こちらも再読ください
>https://bbs.kakaku.com/bbs/K0001421842/SortID=24721901/
約1年程前ですかな、引用先を見たら当方も書き込みしてました、すっかり失念してましたわ。
そう言えば数か月毎に『家庭用プリンタの印刷画質』について色々自論を展開されていた御仁もいらっしゃいました。最近はご多忙なのか全然この掲示板に自論を展開されてませんが、達成感を持たれたのでしょうな。
何となく既視感を感じたのは、このスレも同じような展開だからです。
・・・ぶっちゃけて言えば、責任不明瞭な匿名掲示板でセンサー性能、RAWに纏わる設計仕様の諸々を訊いたところで本質に辿り着ける訳じゃなし、いっそメーカーさんに直談判して仔細を訊いた方が早いんじゃないかと思います。
機材数台レベルで所有してるんじゃ駄目です。何十台出来れば何百台も所有して、メーカーさんと心中する位の意気込みを見せた上で『仕様教えて』と頼めば道は開ける、かも知れません。
まあお互い暇つぶしでの書き込みでしょうから、『節度を以って』と言う但し書きは付きはしますが・・・
書込番号:25224036
7点
>APS-CのRAWサイズは14bitなのに、OM-1は12bitなのですが?
bit数はセンサーで決まるので、文句があるのならソニーセミコンダクタにどうぞとなります。
カメラ側で14bit化できなくもないですが、意味がありません。 44.1kHZの音源をアップサンプリングしただけのハイレゾ音源と同じだからです。
なお、bit数とADCのフルスケール(Dレンジ)値は直接関係ありません。 14bitは12bitよりDレンジが4倍大きい訳ではありません。
書込番号:25224043
7点
14bitと12bitの違い。それは階調の細かさの違いであって14bitは階調が細かい分データが大きくなるし処理が重たくなる訳です。
なのでセンサーの性能云々とは直接は関係ありません。14bitの方が現像時の調整で無理が効きやすい。
具体的には14bitの方が空の描写のようになだらかにグラデーションしていく絵を調整した時の滑らかさが落ち難いのです。
前置きはこの位にして…
カメラの設計でのコスト配分でセンサー、シャッター、AF性能、連写性能の他に画像処理エンジンのチップなどに
どれだけコストをかけるかと言う問題があります。
予算無制限ならどれも最高の設計をすれば良いのですが、それでは物凄い値段になってしまうので、どこかでバランスを取る必要が出て来ます。
このカメラは連写性能が売りの一つであるので、高速連写機として設計しています。そうすると撮影データも高速で記録しないと追いつきません。
撮影コマ数に記録速度を追いつかせようとした時に14bitよりも12bitの方が設計し易いのです。
勿論販売価格をもっと上げても良いならば14bitにして画像処理エンジンもより高速処理が出来るチップを使い、
記録メディアも高額で高速なCFexpressを採用すれば良いものが出来ますが、
他社品と本品との比較で競争力を考えたときにこの仕様でこの価格でないと競争出来ないと考えたのだと思います。
書込番号:25224056
4点
センサーのアウトプットが12bitなのですから、カメラも12bitというだけの話です。
そこに連写コマ数やデータサイズの事情等は一切関与しません。
もしセンサーが14bit出力なら、必然的にカメラの仕様も14bitになります。
すべてはセンサー次第なのです。
書込番号:25224073
8点
>もしセンサーが14bit出力なら、必然的にカメラの仕様も14bitになります。
これが正解です。M4/3のソニー製のセンサーは12bitです。
GH6は別メーカーなので14bit出力になります。
GH5sも確か14bit出力だったと思います
書込番号:25224118 スマートフォンサイトからの書き込み
3点
初期のソニー機は単写で14bit、連写で12bitと言う仕様がありました。
センサーの出力が14bitだから必ずしも14bitに固定されると言う訳ではありません。
書込番号:25224338
6点
>Kazkun33さん
>センサー性能が上がってきているなら14bitに変更しても良いと思うのですが。
センサーのダイナミックレンジが広くなれば、その通りです。
DXOMARKのセンサースコアのLandscape(ダイナミックレンジ)は次のものです。
α7C(RAW 14ビット) 14.7EV
α6400(RAW 14ビット) 13.6EV
E-M1 MarkU(RAW 12ビット) 12.8EV
OM-1 のスコアはまだ無いのですが、
これを見ますと、OM-1 のダイナミックレンジがE-M1 MarkUから少し良くなっていれば、RAW 14ビットに変えていた、のかもしれません。
また、E-M1 MarkUと同等だとしても、RAW 14ビットに変えても良かった、のかもしれません。
なお次のように、ダイナミックレンジがあまり広くなくても、RAW 14ビットのカメラもあります。
EOS RP(RAW 14ビット) 11.9EV
ご興味ありましたら、次のスレを御覧ください。
『センサーとRAWのダイナミックレンジ』
https://bbs.kakaku.com/bbs/K0001129952/SortID=24245149/
書込番号:25224565
3点
>盛るもっとさん
ソニーの12bit出力制限はセンサーよりエンジンの処理能力だと思います。
>Kazkun33さん
センサーのRAW出力性能はフォーマットサイズで決まってしまいます。M4/3センサーは従来は12bitまでが上限と言われていましたが、エンジンの性能を上げて14bit相当まで上げているのがGH6です。OM-1はそこまで処理能力が上がって無いか14bitまで必要としてないだと思います。
書込番号:25224653
4点
>しま89さん
ソニーのセンサーが12bitだからという意見とは少し視点が狭くありませんか?
もしも14bitが必要であれば他のセンサーを組み込むことも選択肢になるのです。
でも実際にはそうしなかった。
コスト、仕様、競合との競争力を総合的に判断して今の製品になったと言うのが私の言いたいことなんです。
書込番号:25224773
5点
盛るもっとさん
OM-1のセンサーはIMX472と言われていますが、4/3センサーで裏面照射&積層型はこれだけです。
現在パナからのセンサー供給はされていない様なので、これ以外の選択肢は無い訳で。
「他のセンサー」とは具体的に何でしょうか。 もしかするとAPS-Cセンサーでしょうか。 もしそうなら4/3の否定になるのであり得ないでしょう。
***
考え違いをしている方を見受けますが、bit数=ダイナミックレンジではありません。
階段で上の階まで上がるとき、段数がbit数に相当します。 このとき、上の階までの高さは関与しません。
上の階までの高さに相当するのは「フルスケールレンジ」と呼ばれるスペックです。
現実の建築物でも上の階までの高さはまちまちな様に、フルスケールレンジが異なるA/Dコンバーターが存在します。
逆にフルスケールレンジが同じでbit数が異なるA/Dコンバーターも存在します。
ダイナミックレンジの優劣を語るのなら、フルスケールレンジで話をしなければなりません。 bit数で話をしても無意味だという事です。
ではbit数とは何かというと「階調」です。 段数が多くなると、やがて階段は階段でなくなり、ギザギザが無くなって、滑らかな一枚板になります。
書込番号:25225036
8点
>Tech Oneさん
フルスケールレンジが広くなればダイナミックレンジが高くなり、それを伴いデータ量は増えるのではないですか?
OM-1は高感度特性とダイナミックレンジが上がったとうたってますが12bitで充分なのでしょうか?
ハイレゾ、HDR等の複数枚画像を合成する時は14bitとするとより画質が良くなるのと思うのですが。
データ量が4倍になっても処理速度は問題無いと思いますがが素人の浅知恵ですか?
書込番号:25225212
1点
>Kazkun33さん
>OM-1は高感度特性とダイナミックレンジが上がったとうたってますが12bitで充分なのでしょうか?
ISOによってダイナミックレンジは変わります。通常、ダイナミックレンジと言う場合、ダイナミックレンジの最大値のことを話していることが多いです。
高感度では基準感度(OM-1 はISO 200)に比べて、ダイナミックレンジは格段に狭くなります。
ですので、高感度ノイズがある程度減って、それにより高感度のダイナミックレンジがある程度広くなっても、RAW 12ビットあれば十分でしょう。
つまり、ここで大事なのはダイナミックレンジの最大値です。
次の記事によりますと、E-M1 Mark2、Mark3、OM-1のダイナミックレンジ(PDR(Photographic Dynamic Range))の最大値は次のものです。
Photons to Photos
https://www.photonstophotos.net/Charts/PDR.htm
E-M1 Mark2: 9.82(ISO 200)、9.84(ISO 251)
E-M1 Mark3: 9.74(ISO 200)、9.45(ISO 251)
OM-1: 9.54(ISO 200)、9.27(ISO 251)
これを見ますと、OM-1のダイナミックレンジは、E-M1 Mark2、Mark3 とあまり変わりないです。むしろ、少し狭くなっています。
書込番号:25225275
1点
>pmp2008さん
マイクロフォーサーズのLive MOSセンサーの性能向上は難しく、画質を向上するには画像エンジンの向上しかないのですね。
書込番号:25225336
2点
>Kazkun33さん
>マイクロフォーサーズのLive MOSセンサーの性能向上は難しく
これは分からないです。
>画質を向上するには画像エンジンの向上しかないのですね。
画質の項目にもよるのでしょう。
高感度の描写でしたら、最近のノイズ除去のソフトは凄いみたいですので、画像エンジンでなくて、後処理でもよい、のかもしれません。
一方、ISO 200 くらいの作例を見ますと、M43 でも十分綺麗な気もします。
ここで、さらにグラデーションとかを追求するなら、センサーのダイナミックレンジを広げて、RAW14ビットとかへ進むことになるのでしょう。
そこまでこだわる方で、どうしてもM43で撮影したい方は、それを待望んでいるのでしょうけれど、
そうでなければ、M43の性能向上を待たずに、今のフルサイズで撮影する、ような気がします。
そう考えると、M43 でそこまでやっても、おそらく高価格になって、それほど売れないだろう
とメーカーは考えている、のかもしれません。
書込番号:25225404
4点
素敵な写真に見え隠れするのは、
カメラのセンサではなく、
撮影者のセンス。
書込番号:25225547
9点
センスが1番でしょう。
ただ、話の主旨を理解できないのか、他の理由なのか分かりませんがポイントを外したコメントされてもね!
書込番号:25225730
6点
>ソニーのセンサーが12bit
というかM4/3のダイナミックレンジのRAWフォーマットが12bitになっているからソニーのセンサーは12bitになっている、センサー上のダイナミックレンジからRAWbitが12bitから上がらないとみてます。
デジタルでのbit数は確かに色の階調度ですが、RAWのbit数はダイナミックレンジが関係してきます。
フルサイズの14bitを16bitにできるかと同じでbit数上げてダイナミックレンジ増やすのに熱心なのは動画に力入れてるソニーとパナソニックだけだと思います。GH6がOM-1のセンサー使わないのも、像面位相差にできなかったのもここいらへんが絡んでるかなと。
オリンパスに付いてですが、ダイナミックレンジの拡張機能を持たない作りのメーカーですので、あまりRAWのbit数にこだわって無いのかもしれません。その変わりとして強力な手ぶれ補正と高処理のノイズリダクションでダイナミックレンジが狭いのを対処させるとしているのではと思いますが
書込番号:25225965
0点
なんかこの議論、10年くらい前にフルサイズ機(SONY?)の板でよく見た気がする。
てことは10年後には14bitになってるんじゃないですか。
書込番号:25226190
1点
>Kazkun33さん
>フルスケールレンジが広くなればダイナミックレンジが高くなり、それを伴いデータ量は増えるのではないですか?
すみません。 フルスケールレンジ=Dレンジは取り消します。
正しくは http://www.ned-sensor.co.jp/support/about2.html の「感度・飽和露光量・飽和出力電圧」「ダイナミックレンジ」をご覧ください。
もしここの説明がわからなくても、A/Dコンバーターのbit数がどこにも出てこないあたり、Dレンジと関係ないのは何となくわかると思います。 そもそもセンサーは光−電圧変換のアナログ素子ですので、bit数という概念自体ありません。
データ量に関しては、12bitと14bitはどちらも16bitデータ以下なので、中の数字の範囲が異なるだけでカメラのメモリー消費量は変わらないはずです。
ただし、センサーからのデータバス幅が2bit以下だと、通信データの量は違ってきます。 4bit以上であれば切り上げできるので通信データの量は同じになりますが、一般人にはデータシートが入手できない様なのでわかりません。
>OM-1は高感度特性とダイナミックレンジが上がったとうたってますが12bitで充分なのでしょうか?
先にも書いた様に、bit数は階段の「段数」です。 別の階との「高さ」ではありません。
そもそも、RAWレベルではE-M1 mkIIIと同じそうなので、mkIIIで十分だったのならOM-1も十分という事になります。
12bitを14bitにすると階調が4倍滑らかになる訳ですが、JPGに落とす際に8bitに圧縮されるので、最終的に差が出るのかどうかはわかりません。
>ハイレゾ、HDR等の複数枚画像を合成する時は14bitとするとより画質が良くなるのと思うのですが。
センサー出力が12bitなのですから、14bitにしても変わらないと思います。 元が12bitの情報しかないので、4倍するか最上位桁にゼロを2個付けるだけの話です。
前者は下位2ビットをソフトウェアで補間演算してなめらかに繋げる事はできますが、それに意味があるかどうかはわかりません。
頭にゼロを付けるだけの後者は最初から意味がありません。
>データ量が4倍になっても処理速度は問題無いと思いますがが素人の浅知恵ですか?
データ量が増えれば処理負荷は確実に増えます。 しかし、4倍になっても問題ないかどうかはモノ次第かと思います。
たとえばインターネットでどこかのサイトを見るとき、URLを入力して表示されるまでの時間が1msから4msになっても何も変わりませんが、1秒が4秒になれば「遅い」になります。
>ALL
再度書きますが、A/Dコンバーター(以下ADC)のbit数 = ダイナミックレンジではありません。 先の通り階段の段数です。
別の例えをすると、ピザを12(実際は4096)等分するか、14(実際は16384)等分するかの違いで、そこにピザの直径は関与しません。
多くの方が『等分数=ピザの直径』と考え違いをしています。
Dレンジが広くなると階調を滑らかにする目的でbit数を増やす事はあると思いますが、それは結果です。
単体のADCだとフルスケールレンジは同じでbit数が異なるチップは複数あります。 bit数が少ないADCは分解能が荒いが安価、多いADCは高価だが精密という事です。
書込番号:25226780
7点
>Tech Oneさん
>フルスケールレンジ=Dレンジは取り消します。
Dレンジが広くなると階調を滑らかにする目的でbit数を増やす事はあると思いますが、それは結果です。
キヤノンのカメラ用語集によると「ダイナミックレンジとは、デジタルカメラがとらえることができる、明るい部分から暗い部分への再現可能な幅のことをいいます。一般的に、銀塩カメラ(フィルムカメラ)の場合は「ラチチュード」と表現されます。」とされており、最も明るい時と最も暗い時の出力の比を2進法で示した値です。但し、ダイナミックレンジは測定法により値は異なるが傾向は変わらない様です。
ダイナミックレンジがセンサー出力の分解能、RAWの光量の最大情報量を超えている場合は、センサー性能を最大に引き出していないことになるのですね。⇦pmp2008さんの説明であり、私の懸念。
書込番号:25227100
0点
>キヤノンのカメラ用語集によると「ダイナミックレンジとは、デジタルカメラがとらえることができる、明るい部分から暗い部分への再現可能な幅のことをいいます。一般的に、銀塩カメラ(フィルムカメラ)の場合は「ラチチュード」と表現されます。」とされており、最も明るい時と最も暗い時の出力の比を2進法で示した値です。
ホンマですか?
何故、2進法で示す必要があるんでしょうか?
10進法の表現で良いじゃないでしょうか?
キヤノン様の写真用語集を査読しても、何処にも『2進法』でとは書いてませんぜ。
ウィキペディアには次のように書いてまっせ。
『ダイナミックレンジ(英: dynamic range)とは、識別可能な信号の最小値と最大値の比率をいう。信号の情報量を表すアナログ指標のひとつ。』
…単に比率だけに言及しており、何進法で表現すべし、とは書いてません。
デシベルで表現だぁ、とあるので例えば50dbを二進法で110010dBだぜ、なんて面倒臭い表現なんてやってられませんて。
因みにスレ冒頭の次の1文を読むと…
>APS-CのRAWサイズは14bitなのに、OM-1は12bitなのですが?
『RAWサイズ』をファイルサイズと仮定するなら、14ビットで表現できる最大値=2の14乗−1ですから16383バイト…これは可笑しいですな。
『RAWデータ生成のためにイメージセンサー(+諸々の回路)が光の強さ(色の濃さでも良いか)と言うアナログ値を分解するビット数』、と考えるならば、そのセンサーが吐き出すデータを0〜16383までの14ビットに小分け、これならまだ理解できます。
結局のところ、設計者に聴いた方が確実かと思われます。…すんなり教えてくれるとは思いませんがね。
Dレンジ増を期待して14ビットで回路試作したらノイズに埋もれるばかりで12ビット版と大差なくコスト増になったとか、回路設計が大変過ぎたとか、デバイスが手に入らない時期だったとか、推測は色々できるでしょうが、外野がとやかく騒いだところで真実には辿り着けない。
書込番号:25227341
6点
>Kazkun33さん
基本的なところを確認したいと思い、質問しますね。
>センサー性能が上がってきているなら14bitに変更しても良いと思うのですが。
>OM-1は高感度特性とダイナミックレンジが上がったとうたってますが12bitで充分なのでしょうか?
12bitから14bitにすることで何が変わるのでしょう?
Kazkun33さんは、何を期待していらっしゃるのでしょう?
>マイクロフォーサーズのLive MOSセンサーの性能向上は難しく、画質を向上するには画像エンジンの向上しかないのですね。
そうなのですか?
>(ダイナミックレンジとは、)最も明るい時と最も暗い時の出力の比を2進法で示した値です。
そのような説明は初耳ですが。
>ダイナミックレンジがセンサー出力の分解能、RAWの光量の最大情報量を超えている場合は、センサー性能を最大に引き出していないことになるのですね
「ダイナミックレンジがセンサー出力の分解能を超えている」とは?
「ダイナミックレンジがRAWの光量の最大情報量を超えている」とは?
そして、これらのbit数との関係は?
いろいろと論旨が分かりませんので、ご説明をお願いしたいです。
※私は別スレッドでも質問をしていますが、そちらもお答えいただければと思います。
書込番号:25227351
9点
>くらはっさんさん
>Tranquilityさん
>キヤノン様の写真用語集を査読しても、何処にも『2進法』でとは書いてませんぜ。
2進法は違いますね。ダイナミックレンジは出力比を2の累乗で示した値なのでそう表現してしまいました。
間違いをダメ出し、質問返ししないで、反論をあなた方の言われる説明方法で返して下さい。
Tech Oneさんのコメントを読んで頂ければ、質問されていることの答えがわかると思います。
また、議論にならない質問返しに対応してもスレが荒れるだけと判断したコメントには対応しない様にしています。
書込番号:25227478
5点
>Kazkun33さん
>間違いをダメ出し、質問返ししないで、反論をあなた方の言われる説明方法で返して下さい。
質問と反論は違いますので。
お考えがわからないから質問しています。
コメントで、どのようなお考えなのか理解できませんでしたので。
その理解なしに同意も納得も反論もあり得ませんよね。
>Tech Oneさんのコメントを読んで頂ければ、質問されていることの答えがわかると思います。
Tech Oneさん のコメントは読んでいますし、理解できます。
しかし、それは Kazkun33さん のお考えの説明ではないですよね。お二人は別人でしょうし。
Tech Oneさん のコメントに対して「書込番号:25227100」に『私の懸念』とご返信もしています。
私の質問の一つは、その懸念の内容なのですが。
>また、議論にならない質問返しに対応してもスレが荒れるだけと判断したコメントには対応しない様にしています。
質問と反論は違いますよ。
スレッドが荒れるのは、多くの場合、質問や疑問にまっすぐ答えず、質問する者の人格否定に走ることが原因として多いです。また、自分の論が正しいと考えるなら、反論に再反論すればいいだけなんですが、それをせずに相手の人格否定をするということもあります。
また、第三者が横から突然現れて、議論に内容に関係ない荒らすためのコメントをするというのも多いですね。
質問や疑問にまっすぐ答えれば、普通は荒れることは無いですよ。
書込番号:25227693
13点
>Kazkun33さん
>スレが荒れるだけ
いちばん大きな原因は、反証が示されても無視をし、誤認識で(あるいは故意に)特定製品のネガティブコメントを繰り返す人がいることですね。
それと、スレ主さんが参加者の議論をうまくコントロールできないことも理由にあるかもしれません。まぁ、これは「しなくてもいい」という考えもあるとは思いますが。
書込番号:25227748
9点
Kazkun33さん
>ダイナミックレンジがセンサー出力の分解能、RAWの光量の最大情報量を超えている
ダイナミックレンジとセンサー出力の分解能(bit数の事でしょうか)に大小関係はありません。
また、ダイナミックレンジとは明暗差ですので、ダイナミックレンジ < RAWの光量の最大情報量 はあり得ないと思いますが。
>センサー性能を最大に引き出していないことになるのですね。
前提が要領を得ないので何とも。
>⇦pmp2008さんの説明であり、私の懸念。
文字化けしているので何が懸念なのかわかりません。
とにかく、私の主張は「A/Dのbit数はDレンジと関係はあるが、Dレンジそのものではない」です。
私はOMDSでもSONYセミコンの中の人でもないので、センサーの中で何が起きているかを聞かれてもわかりません。
書込番号:25227803
6点
訂正です。
×ダイナミックレンジ < RAWの光量の最大情報量
○ダイナミックレンジ > RAWの光量の最大情報量
書込番号:25227812
1点
>Tech Oneさん
コメントは勉強になります。ですが、ちょっとだけお願いが。
引用部分とご自身のコメントが区別できるように書いていただけると助かります。
続けて書かれているとどこまでが引用か分かりにくくて、文章の理解に手間取りまってしまいますので。
すみません。よろしくお願いします。
書込番号:25227824
5点
>Tech Oneさん
>Tranquilityさん
スレ主さんの質問を、次のように解釈しています。
「OM-1のRAWは12ビットあるが、これが14ビットであるなら(14ビットAD変換とします)、RAWデータ(そしてJPEG画像)はさらに良くなるのか?」
これは難しいですが、一般論としては次のように考えます。
センサー上の元データ(アナログ)をデジタルデータに変換して、RAWデータを作る際に、
・ビット数が少ないと、RAWのグラデーションは滑らかで無い。せっかくの元データを捨てている。
・ビット数が適切であると、RAWのグラデーションは滑らかである。
・ビット数が多すぎると、RAWのグラデーションはもう良くならず、無駄である。
書込番号:25227922
3点
一画素の大きさによって必要なADCの分解能って変わると思うのですが同じフォーマットで低画素機と高画素機で異なるビット数ってこと無いですよね 何故だろ
ちなみに
同じカメラでビット数変えられる(変わっちゃう)カメラもあってDRの変化はこんな感じです
16bitと14bitでDRが変わらない例
https://www.photonstophotos.net/Charts/PDR.htm#FujiFilm%20GFX%20100_14,FujiFilm%20GFX%20100
14bitと12bitでDRが変わる例
https://www.photonstophotos.net/Charts/PDR.htm#Canon%20EOS%20R6%20Mark%20II,Canon%20EOS%20R6%20Mark%20II(ES)
書込番号:25228089 スマートフォンサイトからの書き込み
2点
pmp2008さん
>「OM-1のRAWは12ビットあるが、これが14ビットであるなら(14ビットAD変換とします)、RAWデータ(そしてJPEG画像)はさらに良くなるのか?」
階調は2bit分滑らかになるのは確実でしょう。
しかし、JPEG、モニター共に8bitですので、人が見る事ができる画像になった時点で差が出るかどうかはわかりません。
A/Dのビット数を変えられる、またはビット数以外は同一スペックのカメラが存在するのであれば検証できると思いますが、多分ないですよね。
ほoちさん
外していたらすみませんが、EOS R6 MarkII のグラフはメカシャッターと電子シャッターの比較ではないでしょうか。
書込番号:25228175
5点
>pmp2008さん
一般論は重々承知しています。
ここでは質問の形態を取ってはいますが、スレ主さんの各所コメントを拝読するに、OM-1は12bitだからAPS-Cの14bitに比べて劣ると主張したいようです。
それで、12bitだと具体的にどのように画質に支障が生じるのか、12bitに比べて14bitのRAWにスレ主さんはどのようなことを期待しているのかをお聞きしたいのです。Tech Oneさん のおっしゃる通り、最終的な鑑賞環境は8bitというなかで。
なんだか「高画素ほどエライ」という感覚と似ているように思えるのです。
質問や疑問への説明を拒否するところも、よくある根拠なきネガコメントみたいに思えます。
書込番号:25228197
11点
>Kazkun33さん
>センサー性能が上がってきているなら14bitに変更しても良いと思うのですが。
ユーザーの高齢化による眼の老化を考えると、12bitでも十分過ぎるという設計かも。
書込番号:25228206
0点
>Tech Oneさん
引用文と本文の分離ご配慮ありがとうございます。
すんなり読めます。
書込番号:25228231
6点
>Tech Oneさん
>階調は2bit分滑らかになるのは確実でしょう。
そこですが、
元データ(アナログ)のダイナミックレンジが狭かったら、それを12ビット変換したRAWと14ビット変換したRAW、ここからそれぞれ画像にして、それを目で見ても違いは識別できない、ように思います。
結局のところ、どのくらい良くなるのかは、分からないですね。
>しかし、JPEG、モニター共に8bitですので、人が見る事ができる画像になった時点で差が出るかどうかはわかりません。
そこは、RAW現像で露出(トーンカーブ)を変えたら確認できる、ような気がしないでもないです。
書込番号:25228236
2点
>Tranquilityさん
そういうことでしたか。
書込番号:25228243
0点
>pmp2008さん
スレ主さんは12bitではなく14bitが良いとおっしゃるので、14bitに何かを期待しているのでしょう。
その違いによる画質への影響の程度をご存知だからか、あるいは何かを望んでいるのだと思うのです。
確か、ご自身は研究職でデータ解析もなさっていたということでしたので、そこを質問しています。
しかし、具体的な説明をなさらず回答を拒否しているので、よくあるネガキャンみたいだなぁ、と(個人的な感想です)。
その違いが確かにあって12bitだと支障があるというのがハッキリわかれば、私も14bit、あるいはそれ以上のカメラを欲しくなるかもしれませんので、説明していただきたいと思っています。
かといって、今のOM-1で不都合はあまり感じてはいないのですが。
書込番号:25228260
9点
pmp2008さん
>元データ(アナログ)のダイナミックレンジが狭かったら、それを12ビット変換したRAWと14ビット変換したRAW、ここからそれぞれ画像にして、それを目で見ても違いは識別できない、ように思います。
私もそう思います。 ただ、人が認知できないだけで2bit分の改善は確実に存在すると思います。
>RAW現像で露出(トーンカーブ)を変えたら確認できる、ような気がしないでもないです。
bit数が変えられる、またはbit数以外は同じスペックのカメラがあれば検証できると思います。
そうでないカメラ同士はbit数以外の要素が邪魔して何を検証しているのかわからないと思います。
スレ主さんへ
直感的に何となくビット数が多い方が高画質だろうと考える気持ちは理解できますし、私もそうかもしれないと思います。
しかし、現状それを確かめる手段がない以上、可能性に過ぎず、誰も事実を答えられないと思います。
それでは駄目ですか?
書込番号:25228262
5点
>Tech Oneさん
>EOS R6 MarkII のグラフはメカシャッターと電子シャッターの比較
>ではないでしょうか。
そうですそうです。R6 mk2は電子シャッターにすると12bitになってしまう仕様のためこんな変化が現れます
ソニーのいくつかの機種も連写時に12bitになったりするのですが ラボサイトでは連写時の絵を使うことないので特性が不明なんですよね そういう意味でR6mk2は貴重です
画素の素子自体のDRは広いが読み出しbit幅が限られることでDRが低下してしまう例でした
書込番号:25228267 スマートフォンサイトからの書き込み
2点
>Tranquilityさん
>一般論は重々承知しています。ここでは質問の形態を取ってはいますが、スレ主さんの各所コメントを拝読するに、OM-1は12bitだからAPS-Cの14bitに比べて劣ると主張したいようです。
なんだか「高画素ほどエライ」という感覚と似ているように思えるのです。
質問や疑問への説明を拒否するところも、よくある根拠なきネガコメントみたいに思えます。
私の疑問を理解して真面目に対応して頂いている方に対して、その様な見方しかできないのですね。
書込番号:25228271
5点
>ほoちさん
理論的には、ノイズの影響が無ければ、RAWの2ビットの違いは、そのままダイナミックレンジに 2EV として現れる、と思います。
R6 mk2 のグラフのISO 100 は、見事に 2EV 差になっています。 そして、ISO が上がれば、RAWの2ビットの違いは、だんだん減って、最後は差はなくなっています。これは、低照度部分がノイズに埋もれるからでしょう。
書込番号:25228326
5点
付け加えると というか大事なこと言ってなかった
もしセンサー素子自体の性能が高い(DRが広い)が 読み出し時や保存時でビット幅が制限されることで性能が制限(DRが低下)されているのだとしたら
上のR6mk2のグラフのように高感度性能は維持したまま 低感度のピーク性能付近だけ制限されるのではないか
つまり om-1のグラフのように素直にリニアな特性を描いているのは ビット数が足りていることを示すのではないか
と思いました
書込番号:25228341 スマートフォンサイトからの書き込み
3点
>Kazkun33さん
私は普通に質問しただけですが。
それについてのあなたの返しがこれ。
↓
>間違いをダメ出し、質問返ししないで、反論をあなた方の言われる説明方法で返して下さい。
>Tech Oneさんのコメントを読んで頂ければ、質問されていることの答えがわかると思います。
>また、議論にならない質問返しに対応してもスレが荒れるだけと判断したコメントには対応しない様にしています。
根拠なきネガコメントを繰り返す人の反応と似ているのです。
もう一度書きますが、質問と反論は違います。
Tech Oneさんのコメントは、あなたのお考えの説明ではないですよね。
質問や疑問にまっすぐ答えれば、普通は荒れることは無いですよ。
私は、ご自身のお書きになったことの内容を確認したいだけです。
議論(できるのなら)を先に進めるために。
なぜ14bitを望むのですか?
書込番号:25228393
10点
>Tranquilityさん
>なぜ14bitを望むのですか?
ユーザーなんですから、マイクロフォーサーズの画質が少しでも良くなることを祈っているからでしょう。
寂しい捉え方しかできないのですね。
書込番号:25228403
4点
>Kazkun33さん
>ユーザーなんですから、マイクロフォーサーズの画質が少しでも良くなることを祈っているからでしょう。
「14bitに変更しても良いと思うのですが。」
「情報量が12bitで充分なのか処理速度を優先しているのか気になって」
「OM-1は高感度特性とダイナミックレンジが上がったとうたってますが12bitで充分なのでしょうか?」
「14bitとするとより画質が良くなるのと思うのですが。」
こうおっしゃって14bitを望んでいるのは Kazkun33さん ご自身ですけど、OM-1のユーザーだったのですか?
>寂しい捉え方しかできないのですね。
質問にお答えいただけないので、捉え方が寂しいも何もありませんが。
12bitだと何か支障があったのですか? それはどのような場合ですか?
14bitだと、画質が向上するのですか? どのように変わるのですか?
書込番号:25228426
12点
>ほoちさん
>R6 mk2は電子シャッターにすると12bitになってしまう仕様のためこんな変化が現れます
>画素の素子自体のDRは広いが読み出しbit幅が限られることでDRが低下してしまう例でした
電子シャッターでダイナミックレンジが狭まるのは、電子シャッターの影響では。
RAWが12bitになるからではなく。
>pmp2008さん
>理論的には、ノイズの影響が無ければ、RAWの2ビットの違いは、そのままダイナミックレンジに 2EV として現れる、と思います。
ノイズの影響がなくなるだけでセンサーのダイナミックレンジは拡大します。
bit数とダイナミックレンジは別ものかと。
書込番号:25228552
8点
>Tranquilityさん
>ノイズの影響がなくなるだけでセンサーのダイナミックレンジは拡大します。
そうです。
>bit数とダイナミックレンジは別ものかと。
ノイズが無ければ、RAWデータが持つ最小値は 1 です。
最大値はRAWのビット数で決まります。2ビット増えれば4倍、すなわちダイナミックレンジは 2EV 増えます。
書込番号:25228619
3点
おはようございます
>Tranquilityさん
>電子シャッターでダイナミックレンジが狭まるのは、電子シャッターの影響では。
>RAWが12bitになるからではなく。
キヤノンの最近のカメラは電子シャッターにするとDRが落ちることは知られてましたがその理由は説明されてませんでした R5のときに海外の公式ではAD変換のbit幅に関する言及があって R6mk2では日本サイトでも12bitになることが明言された という経緯があって(あまりキヤノンの情報は追えてないので経緯間違ってるかも)やっぱりそういうことかと勝手に納得してました
確かに電子シャッター時の他の要因でDRが下がってしまっているという可能性もありますけど
そもそもセンサーに於いてはメカシャッターあるなしに関わらず動作は同じでリセットが走る(電子先幕が下りる)タイミングが違うくらいです
ノイズによってDRが低下してると説明しているサイトもありますが 低ISOのみで発生し2stop分も増えるノイズというのは想像が難しいです
電子シャッター時はローリング歪みを抑えたい意図や連写速度を高めたい意図でbit幅を押さえた高速読み出しモードにすることで結果DRが落ちてしまっていると考えて無理はないはずと 思ってます
書込番号:25228766 スマートフォンサイトからの書き込み
4点
>ほoちさん
>つまり om-1のグラフのように素直にリニアな特性を描いているのは ビット数が足りていることを示すのではないか
なるほど、そうなのでしょう。
>Kazkun33さん
どうやら、結論が出たようです。
書込番号:25228840
3点
もひとつ
>Tranquilityさん
>bit数とダイナミックレンジは別ものかと。
別物ですね でも
>pmp2008さん
>ノイズが無ければ、
ノイズが無いと仮定するとDRを定義しにくなっちゃうのでノイズが輝度によらず一様に含まれていると仮定して
その信号を過不足なく最適にAD変換する設計ができたとするとそのビット幅とDRは"一致します"
ノイズに埋もれないギリギリの信号がちょうど最下位ビットの1となり、飽和を最大値であらわすことになるのでこれはDRの定義そのものです
またビット幅とは2進数で表した場合の桁数でありDRは2を底にしたlog表記するから値もわかりやすく一致しますね
外から計測するラボテストの結果のDRがこれと一致するかはちょっと複雑ですけど
ビット幅が足りないと情報が切り捨てられてDRが下がりますが、量子化ノイズが増大するためDRが悪化するとも言い換えられますね
書込番号:25228858 スマートフォンサイトからの書き込み
2点
RAWbitについていろいろと言われてますが、たしかにbit数上げれは階調は豊かになりますが、イメージセンサーに光を当て数値に変換した結果ですから、センサーが小さければ自ずと限界は出てくるわけでbit数とダイナミックレンジは関係無いとは言い切れ無いと思います
書込番号:25229041 スマートフォンサイトからの書き込み
1点
「光電変換」ですから、
撮像素子サイズというよりも、個々の受光素子サイズになりますね(^^;
書込番号:25229063 スマートフォンサイトからの書き込み
0点
>pmp2008さん
>最大値はRAWのビット数で決まります。2ビット増えれば4倍、すなわちダイナミックレンジは 2EV 増えます。
これは違うのでは。ダイナミックレンジの下限はノイズ、上限は飽和ですよね。考え方が逆だと思います。
ほoちさんが示された「Photons to Photos」のデータでは、例えば FUJIFILM GFX100 のダイナミックレンジは12EVくらいで、16bitでも14bitでもダイナミックレンジに変わりはありません。
また、ご自身の「書込番号:25224565」では、下記のように記しておられました。ダイナミックレンジの「最大値はRAWのビット数で決まります」という説明と合いませんが?
>DXOMARKのセンサースコアのLandscape(ダイナミックレンジ)は次のものです。
>α7C(RAW 14ビット) 14.7EV
>α6400(RAW 14ビット) 13.6EV
>E-M1 MarkU(RAW 12ビット) 12.8EV
>ダイナミックレンジがあまり広くなくても、RAW 14ビットのカメラもあります。
>EOS RP(RAW 14ビット) 11.9EV
つまり、bit数はAD変換で任意に決められるということですよね。ダイナミックレンジが広ければ強力な画像処理にそれだけ耐えられることになり、そこにbit数を大きくすることの意味があるかもしれませんが、よほど特殊な条件でないと効果はわからないのではないでしょうか。
ちなみに「Photons to Photos」のデータによれば、上記機種などのダイナミックレンジの最大値は下記の値です。
α7C(RAW 14ビット) 11.59EV
α6400(RAW 14ビット) 10.51EV
EOS RP(RAW 14ビット) 9.11EV
E-M1 Mk2(RAW 12ビット) 9.84EV
E-M1 Mk3(RAW 12ビット) 9.74EV
OM-1(RAW 12ビット) 9.54EV
ダイナミックレンジの数値は測定方法で大きく変わるようです。
それと、「Photons to Photos」では OM-1のダイナミックレンジはE-M1 Mk2/Mk3に比べて劣るようなデータになっています(測定誤差かも?)が、実機の画像で比べてみると、OM-1の方が、暗部を持ち上げた時の耐性が解像も色再現もノイズもずっと良くなっています。
これは OM-1の方がダイナミックレンジが広いということで、メーカーの説明「暗い方に1/2段、明るい方に1/2段、合わせて1段分ダイナミックレンジが向上した」という説明に矛盾はありません。
書込番号:25229077
11点
>ほoちさん
EOS R6 Mk2の電子シャッターで、低感度側のダイナミックレンジが低下するのは不思議な感じがしますね。
電子シャッターの影響だけでなく、読み出し速度など回路側にも関係がありそうです。ユーザーが理由を知ったところで意味ないことかもしれませんし、知りようもなさそうですが。
電子シャッターで12bitにしているのは、画質だけでなくカメラのパフォーマンスも含めてそれが最適とのメーカーの考えなのでしょう。
>信号を過不足なく最適にAD変換する設計ができたとするとそのビット幅とDRは"一致します"
Tech Oneさん コメントの「階段」や「ピザ」の例えは分かりやすくて良いと思いますが、その『過不足ない最適なAD変換』が「階段の1段の程よい高さ」「ピザの一切れにちょうど良い大きさ」だとして、それをカメラ・センサーによらず一定とするとそういうことになりますね。
ただし、これは後から任意に自由に決めることができちゃうわけです。
書込番号:25229085
9点
>Tranquilityさん
>ダイナミックレンジの下限はノイズ
これが成立する場合はありますが、そうでない場合もあります。
ダイナミックレンジは
Kazkun33さんが、書込番号:25227100で引用した、キヤノンのカメラ用語集の次の説明です。
「ダイナミックレンジとは、デジタルカメラがとらえることができる、明るい部分から暗い部分への再現可能な幅のことをいいます。」
おそらく、Tranquilityさんの考慮が抜けているのは、ノイズが微小で、RAWデータにするとノイズが0(ゼロ)になる時です。
このノイズが0の時のダイナミックレンジについて、お考えになりましたら、
私の投稿をご理解いただける、のかもしれません。
書込番号:25229295
2点
>pmp2008さん
>このノイズが0の時のダイナミックレンジについて
ノイズが「0」というのはありえないと思いますが、仮にあったとしたらダイナミックレンジは無限大になっちゃいます。
イメージセンサのダイナミックレンジは・・・
「飽和光信号と暗時雑音信号の比」
https://www.jstage.jst.go.jp/article/itej/60/3/60_3_299/_pdf
「処理可能な信号の最大値と最小値の比率を表した数値」
https://www.klv.co.jp/corner/what-is-dynamic-range.html
「信号飽和する量(画素の飽和)とノイズの量(暗闇撮影時)の比率」
https://imagesensor-info.com/83/
つまり、ダイナミックレンジの下限は「シグナルがノイズに埋もれて判別できなくなるレベル」、上限は「センサーが飽和してシグナルが判別できなくなるレベル」ということ。
書込番号:25229338
11点
>Tranquilityさん
>ノイズが「0」というのはありえないと思いますが、仮にあったとしたらダイナミックレンジは無限大になっちゃいます。
その通りです。でも、それはアナログに限ったことです。
>つまり、ダイナミックレンジの下限は「シグナルがノイズに埋もれて判別できなくなるレベル」
ノイズがあれば、その通りです。
アナログデータをデジタルデータに変換する時、微少な値は0(ゼロ)になります。そして、どこまでの値が0になるかは、AD変換の分解能(ビット)で決まります。
これで、お分かりいただけますでしょうか?
書込番号:25229371
3点
>pmp2008さん
>どこまでの値が0になるかは、AD変換の分解能(ビット)で決まります。
これは違うかと。
シグナルがノイズに埋もれる下限を「0」に設定するだけで、飽和する上限との間をどれだけ細かく分解するか(何bitでAD変換するか)とは関係ないのでは。
書込番号:25229380
12点
>ノイズが微小で、RAWデータにするとノイズが0(ゼロ)になる時です。
pmp2008さん、「RAWデータにすると」という重要部分をスッ飛ばして(誰それが)曲解しているようなので、補足してあげては?
書込番号:25229449 スマートフォンサイトからの書き込み
5点
>pmp2008さん
DRが無限大のアナログ信号も15stopのアナログ信号も
12bitのAD変換を通すと12stopのデジタルデータにしかならない
ということですよね これは正しいと思います
このときのノイズって、AD変換によって生じる量子化ノイズがアナログ信号のノイズを上回った状態で、このノイズに埋もれない最小の値は最下位ビットの1 ということですね
書込番号:25229463 スマートフォンサイトからの書き込み
5点
>Tranquilityさん
>シグナルがノイズに埋もれる下限を「0」に設定するだけで、
これは違います。
こうなりますと、説明するのも大変なので、質問いたします。
・アナログデータを12ビットでAD変換した時の、デジタル0とデジタル1の境目のアナログデータの値をAとします
・同様に14ビットでAD変換した時の、デジタル0とデジタル1の境目のアナログデータの値をBとします
A と B の関係はどうなりますでしょうか?
これをお考えになりと理解が進む、のかもしれません。
書込番号:25229486
5点
>ありがとう、世界さん
あっ、なるほど。そこがないと、おかしなことになりますね。
書込番号:25229537
3点
>ほoちさん
確かに、「AD変換によって生じる量子化ノイズ」もノイズですね。なので、この「ノイズ0(ゼロ)」の話は紛らわしかったですね。
書込番号:25229548
3点
>Tranquilityさん
このYouTubeを見て下さい。
https://m.youtube.com/watch?v=ckHaCYf3lZE&pp=ygUb44OA44Kk44OK44Of44OD44Kv44Os44Oz44K4
https://m.youtube.com/watch?v=-Apht3BXugQ
書込番号:25229552
1点
>Kazkun33さん
>このYouTubeを見て下さい。
ふつうの内容でした。
書込番号:25229581
2点
あと液晶テレビで見てたので、ショボいグラデーション例しかなくて面白くなかったです。
書込番号:25229599
2点
>Kazkun33さん
機材ばかり見て、実戦の写真を見れないユーザーが多くて要求が無いからでは?
まあ、どんなに御託を並べようが、高性能だろうが、撮影結果に反映させられなければ全く意味ありませんよね?
あ、そういえば、実戦の写真を見ても何も分からないとドヤってたのもいましたね。
こういう人って、自分自身で撮った写真で何の実績も無いんだろうなあ。
書込番号:25229780 スマートフォンサイトからの書き込み
7点
>同画素数で圧縮無しRAWでしたら、
>単純計算ならファイルサイズ4倍ですから
えっと、、、みなさん、勘違いされていますよ。
情報量(分解能/表現の幅 と言った方がいいか)は4倍ですが、データ容量(ファイルサイズ)は14/12倍ですよ。
ありがとう、世界さん ともあろう方が。。。
>データ量に関しては、12bitと14bitはどちらも16bitデータ以下なので、中の数字の範囲が異なるだけでカメラのメモリー消費量は変わらないはずです。
変わりますよ。CPU演算やDSP演算は16bitアラインの場合が多いので12/14bitで変わりない場合が多いですが、メモリ消費量はそのまま効いてきます。普通はメモリ格納時に16bitずつ上詰めや下詰めで置いたりしません(「un-pack」という)。「pack」と言って、詰めて格納します。
というか、メモリバス帯域の制限があるため、メモリアクセス時は圧縮・解凍するのが普通です。
圧縮(0.5〜0.6倍くらい)してメモリにwriteし、演算時にメモリからreadした画像データを解凍して処理しています。なので、元画像データのbit数はもろにメモリ消費量に影響します。
>12bitを14bitにすると階調が4倍滑らかになる訳ですが、JPGに落とす際に8bitに圧縮されるので、最終的に差が出るのかどうかはわかりません。
画質に対する影響という点では、みなさんがおしゃるように、通常のRAW現像では最終JPEGの差は分からないです。少々持ち上げても。
ですが、天体撮影をされる方は、60枚とか重ねて処理するので、12bitだと足りないと言われますね。確かに最終8bitJPEGに納めるとしても、60枚(約6bit)加算するのなら14bitでやっと最終出力に1bitの差分が出る(情報として表現できる)ことになります。私はやったことないので実感は無いですが。
で、スレ主の、
>APS-CのRAWサイズは14bitなのに、OM-1は12bitなのですが?
については、
・OMはソニーセンサー必須
・当時(今も?)のソニー製m4/3センサーは12bitのものしか無かった
が答でしょう。
書込番号:25229871
5点
>うーたろう4さん
もちろん、「イメージ」ですよ(^^;
本当は「単純思考」と書いていたのですが、ちょっとキツイと思って「単純計算」に書き換えました(^^;
具体例を うーたろう4さんが書かれていますが、
そこまで書く必然性が無さそうというか書いても無駄っぽいと思いましたので、手抜きしましたし、
今後も あまり細かい例示をするつもりもありません(^^;
それは、このスレの混沌具合を目の当たりにすると、うーたろう4さんが書かれていることを曲解するヒトも出るでしょうし、
RAW以前の量子化の段階でもトンデモレスで脱力感いっぱいですので(^^;
書込番号:25229892 スマートフォンサイトからの書き込み
1点
>pmp2008さん
>ありがとう、世界さん
>ノイズが微小で、RAWデータにするとノイズが0(ゼロ)になる時
>このノイズが0の時のダイナミックレンジ
>アナログデータをデジタルデータに変換する時、微少な値は0(ゼロ)になります
>どこまでの値が0になるかは、AD変換の分解能(ビット)で決まります。
>「RAWデータにすると」という重要部分をスッ飛ばして(誰それが)曲解している
「ノイズが0の時のダイナミックレンジ」とは何?
「どこまでの値が0になるか」とは?
意味がわかりません。
ここで言う「ダイナミックレンジ」の下限と上限は何ですか?
「RAWデータにすると」何がどう変わるのですか?
>・アナログデータを12ビットでAD変換した時の、デジタル0とデジタル1の境目のアナログデータの値をAとします
>・同様に14ビットでAD変換した時の、デジタル0とデジタル1の境目のアナログデータの値をBとします
>A と B の関係はどうなりますでしょうか?
「デジタル0とデジタル1の境目」とは何ですか?
ダイナミックレンンジの暗部の下限と言う意味でしょうか?
これで何を言いたいのかわかりません。ご説明くださいませ。
書込番号:25229932
12点
>Kazkun33さん
>このYouTubeを見て下さい。
はい、見ましたよ。
ふつうの内容でした。
・・・・・・・・・・・・・・・・・・・・・・・・・・・
ビット数とダイナミックレンジとは何の関係もありません。
ビットはですね、どれだけの分解能でデータを持たせるかだけの話なので、例えばですね、ダイナミックレンジが10EVであろうが12EVであろうが、そのデータ全域を8bitなら256分割する、12bitなら4096分割するというだけなんですね。
ですから、ビット数が多いとダイナミックレンジが広いとかいう風に勘違いされている方がいますけども、それは全くありません。
単にデータを元データを何分割でデータを持たせるかと言うだけの話ですので、ここは間違いないようにしてください。
・・・・・・・・・・・・・・・・・・・・・・・・・・・
それで?
書込番号:25229934
12点
>ありがとう、世界さん
>pmp2008さん
ご自身のお説の説明ができないのでしょうか?
私の書いたことはどこが間違っていますか?
お前は間違っている、理解していない、だけでは、反論になりません。
オレが正しい、お前が理解できないだけだ、では、立証になりません。
今のところ何も説明なさっていませんので、ご説明よろしくお願いします。
書込番号:25229955
14点
>Tranquilityさん
ご質問いただきましたが、Tranquilityさんにご理解いただくには、おそらく、色々と説明することが必要になり、それは大変な作業になりますので、少し厳しいです。
申し訳ありません、私の書込番号:25229486 の質問から始まったやりとりは、打ち切りとさせてください。
書込番号:25229960
6点
>pmp2008さん
>ありがとう、世界さん
>・アナログデータを12ビットでAD変換した時の、デジタル0とデジタル1の境目のアナログデータの値をAとします
>・同様に14ビットでAD変換した時の、デジタル0とデジタル1の境目のアナログデータの値をBとします
>A と B の関係はどうなりますでしょうか?
問いの意味を理解しにくい文章ですが、滑らかに連続するアナログデータをデジタル化したときに、AD変換のビット数の大きい方が0と1の幅は小さい、という意味ですかね。bit数の大きな方が「階段」の一段の高さは低いですからね。
だとして、それがどうして・・・
『ノイズの影響が無ければ、RAWの2ビットの違いは、そのままダイナミックレンジに 2EV として現れる』
『最大値はRAWのビット数で決まります。2ビット増えれば4倍、すなわちダイナミックレンジは 2EV 増えます』
・・・となりますか?
書込番号:25229963
15点
(カメラ部TVさんのYouTube動画から)
> そのデータ全域を8bitなら256分割する12bitなら4096分割するというだけなんですね
間違ってますねこれ 笑
ビット数は階調を表すものでDRとは関係ない、というのはだいたい"普通は"合ってます
なぜかと言うと アナログ信号のDRに対して それ全てを含む充分なビット幅で AD変換され読み出され そしてRAWファイルとして書き出されるという設計が"普通は"されるからですね
10EVや12EVに題して8bitの例を出したら(わかりやすく馴染みのある数字をだしたのでしょうけど)、足りてないビット数ではDRに影響与えちゃいます
今回の議論(のなかの一つのトピック)のように 普通じゃないケースの話 センサーのアナログ性能に対してビット数が足りているかどうか考える場合は もちろんデジタルで表せるDRを考える必要があります
書込番号:25230025 スマートフォンサイトからの書き込み
4点
アナログをデジタルに変換すると、神格化する不思議なスレ。
書込番号:25230107
3点
>データ量に関しては、12bitと14bitはどちらも16bitデータ以下なので、中の数字の範囲が異なるだけでカメラのメモリー消費量は変わらないはずです。
>変わりますよ。CPU演算やDSP演算は16bitアラインの場合が多いので12/14bitで変わりない場合が多いですが、メモリ消費量はそのまま効いてきます。普通はメモリ格納時に16bitずつ上詰めや下詰めで置いたりしません(「un-pack」という)。「pack」と言って、詰めて格納します。
そのデータをシリアル/パラレル転送するのか、保存中か/編集加工中か、PC系システムかビットプロセスシステム(そんなのが現存するかはさておき)なのか、で少々変わってくるのではないですか?
ビットベタ詰データは確かに最高率で保管できます。圧縮プロセスを噛ませたいところですが…ただしそのまんまではPC系システムでの編集加工はぶっ飛ぶ筈です。
逆にビットスカスカ状態で保存された暁にゃ、メモリ資源が幾らあったも足りない。
せめて1次元圧縮位掛けとけよ、みたいな。
PC系画像編集では願わくばバイト単位に素直に並べて置いた方が諸々の演算はし易い筈。
それが14ビットづつ区切って処理せよ、なんて何かたちの悪い冗談かと。
…40年近く前に、8086上でビット可変長FAXデータの圧縮伸長処理を作った際にはぶっ飛びましたぜ。
多分、データをストレージに保存する際には圧縮前提でビットベタ詰保存、PC系システムで演算処理前提の場合は一旦ベタビットパターンに展開して、諸々の作業が終われば再度圧縮前提でビットベタ詰が、まあ普通な処でしょうか。
…と少々スレ本筋から離れた会話になってますが、一番の問題はスレ主さんがこうした会話を全て理解できてるか、でしょうか。
書込番号:25230150
3点
そうですね、スレ主さんの質問スレですから、
スレ主さんを押しやっている誰それの横槍は無視して、
スレ主さん対応に正常化しましょう(^^;
書込番号:25230165 スマートフォンサイトからの書き込み
2点
>Tranquilityさん
>意味がわかりません。
ここで言う「ダイナミックレンジ」の下限と上限は何ですか?
「RAWデータにすると」何がどう変わるのですか?
「デジタル0とデジタル1の境目」とは何ですか?
ダイナミックレンンジの暗部の下限と言う意味でしょうか?
これらの疑問は解けましたか?
これらの答えはYouTube内の中にあったと思いますが!
書込番号:25230220
0点
>Tranquilityさん
>スレッドが荒れるのは、多くの場合、質問や疑問にまっすぐ答えず、質問する者の人格否定に走ることが原因として多いです。
>また、自分の論が正しいと考えるなら、反論に再反論すればいいだけなんですが、それをせずに相手の人格否定をするということもあります。
いつもいつもこの展開ですね。
まっすぐ答えられないのは、主張があやふやだからでしょう。
書込番号:25230365
10点
今一度説明多めで私の考えをまとめますね
ノイズを含むアナログ信号をAD変換したあとのDRについて
下限は
アナログのノイズに埋もれない最小の信号と、最下位ビット1に対応する値のうち大きな方
上限は
アナログ信号の飽和値と、デジタル値の最大値で表される値のうち小さな方
となります
下限 上限のそれぞれの大小関係でAD変換によってDRが維持されるか低下してしまうかが決まるというのがわかると思います
上限を揃えて12bitのAD変換をすると、元の信号が15stopでも14stopでもデジタルデータのDRは12stopとなります、11stopの信号は11stopのままですね
さて
仮に14stop得られる受光素子があったとして14bitで変換した場合、 iso感度ごとのDRは理想的には次のようになりますよね
iso, DR
100, 14
200, 13
400, 12
800, 11
:
これを例えば速度や処理量を鑑みて12bitで利用しようと考えると
iso, DR
100, 12
200, 12
400, 12
800, 11
:
となります
12bitに収まらない所は12stopに制限されて、そもそも収まる高isoのDRは維持されます
ということで
ビット数が足りていない場合は上のリンクで示したR6mk2の12bitのような低isoが抑えられた特性を示す
足りている場合は同じくリンクで示したGFXのようにリニアである
つまり om-1のグラフのように素直にリニアな特性を描いているのは ビット数が足りていることを示すのではないかと
書込番号:25230377 スマートフォンサイトからの書き込み
3点
というか、センサーの仕様上はOM-1も14bitが選択出来る、のだと思いますよ。
E-M1mk2と同じセンサーのGH5は14bitですが、12bitも選択出来ますから。
14bit記録は、理論的に12bit比で4倍の情報量を持っているので、豊富な階調や色彩を記録したい撮影に適しており、12bitは連写速度を優先したい場合などに有効です。
書込番号:25230383 スマートフォンサイトからの書き込み
2点
普通にディスプレイを使ってて表示できるのはせいぜい10bit、12bitデータの色が壊れ始めるのはコントラストを4 倍にする時?
8bitのjpegで壊れ、RAWで壊れなかった経験から多ければ多いほうが良いと私も盲信しているけど、実際には12bitでも充分なのかも。明暗部の破綻はDR限界だろうから、12bitもあれば純粋な色深度の浅さ起因の画像破綻にはなかなか遭遇できない気もします。
逆にKazkun33さんが12ビットのRAWを現像したらこんなふうに破綻したという絵を出してみてはいかがでしょうか。
書込番号:25230432 スマートフォンサイトからの書き込み
6点
そうでしたか。では印刷ですかね。
はたまた心の目w
書込番号:25230540 スマートフォンサイトからの書き込み
7点
>hunayanさん
M4/3で14bitはGH5sだけですよ。GH6が14bit相当、その他は12bitまでです。
書込番号:25230622
2点
「通常の印刷」自体のダイナミックレンジ「相当」は、かなり狭いです(^^;
書込番号:25230630 スマートフォンサイトからの書き込み
4点
ここまでをまとめてみましょう。
・ビット数は階調を表すものである。
・ビット数を大きくしてもダイナミックレンジは広くならない。
・ダイナミックレンジの広さに合わせた滑らかな階調を得る為にビット数を大きくする。
>APS-CのRAWサイズは14bitなのに、OM-1は12bitなのですが?
>センサー性能が上がってきているなら14bitに変更しても良いと思うのですが。
設計者は、12bit仕様とした。その理由は、設計者が知っています。
書込番号:25230704
2点
(スレの「起」・「結」?)
スレ主Kazkun33さん投稿:403件
2023年4月16日 12:43 最初の投稿
>APS-CのRAWサイズは14bitなのに、OM-1は12bitなのですが?
>センサー性能が上がってきているなら14bitに変更しても良いと思うのですが。
【省略】
hirappaさん投稿:5708件Good獲得196件
2023年4月21日 18:48 返信98件目
(略)
>設計者は、12bit仕様とした。その理由は、設計者が知っています。
・・・事実と言えば事実ながら・・・(^^;
書込番号:25230729 スマートフォンサイトからの書き込み
2点
>ほoちさん
>間違ってますねこれ 笑
そうですね。ただ、一般の視聴者向けだと、このように分かりやすくするのが、得策なのでしょう。
そうでない場合もある、などと言い出したら、皆さん困惑して youtube のチャンネル登録などしないでしょう。
書込番号:25230755
3点
>ほoちさん
>今一度説明多めで私の考えをまとめますね
これは分かりやすいです。
ところで、気になるのは、DXOMARKのセンサースコアのLandscape(ダイナミックレンジ)は、次のように、理論値を超えているものがあることです。
α7C(RAW 14ビット) 14.7EV
E-M1 MarkU(RAW 12ビット) 12.8EV
さらに、Tranquilityさんご指摘のように、「Photons to Photos」でのダイナミックレンジは次のようで、DXOMARKより、かなり狭いので
>α7C(RAW 14ビット) 11.59EV
>E-M1 Mk2(RAW 12ビット) 9.84EV
結局のところ、各種レビューでの測定値はよく分からなくて、機種間の比較にしか使えない、のかもしれません。
書込番号:25230773
2点
>Tranquilityさん
>滑らかに連続するアナログデータをデジタル化したときに、AD変換のビット数の大きい方が0と1の幅は小さい、という意味ですかね。
そうです。
>だとして、それがどうして・・・
ここまで来れば、あともう少しです。
ご理解いただけるように説明できなくて、申し訳ないです。
書込番号:25230792
2点
>ほoちさん
>10EVや12EVに題して8bitの例を出したら(略)、足りてないビット数ではDRに影響与えちゃいます
>センサーのアナログ性能に対してビット数が足りているかどうか考える場合は もちろんデジタルで表せるDRを考える必要があります
>アナログ信号をAD変換したあとのDRについて・・・
>下限 上限のそれぞれの大小関係でAD変換によってDRが維持されるか低下してしまうかが決まる
>上限を揃えて12bitのAD変換をすると、元の信号が15stopでも14stopでもデジタルデータのDRは12stopとなります、11stopの信号は11stopのままですね
いろいろと基本的な理解を間違っているようです。
例えば、センサーのダイナミックレンジが15stop(15EV・15段)でも14stop(14EV・14段)でも11stop(11EV・11段)でも、それぞれのアナログデータを12bitでAD変換するのは、それぞれのダイナミックレンジ全体を12bitのデジタルデータにするということです。
AD変換のbit数とEVは無関係です。
「上限をそろえる」とか「デジタルデータのダイナミックレンジ」とか、意味不明です。
そもそもダイナミックレンジとはアナログ情報量の指標ですから。
>pmp2008さん
>ご理解いただけるように説明できなくて、申し訳ないです。
間違った説明を聞いても仕方ありませんので、いいですよ。
書込番号:25230812
11点
>Kazkun33さん
>これらの疑問は解けましたか?
説明なさらないので、何をどう考えているのかわかりません。
説明できないのだと思います。
>これらの答えはYouTube内の中にあったと思いますが!
いいえ、ありませんでした。
で、Kazkun33さん の件ですが・・・
RAWが12bitで何か支障があったのですか? それはどのような場合ですか?
14bitのRAWに何を期待するのですか? どのように変わるのですか?
書込番号:25230817
10点
>pmp2008さん
>ほoちさん
何が間違っているのですか?一般の視聴者にわかる様に教えて頂けませんか?
書込番号:25230828
1点
>Tranquilityさん
>例えば、センサーのダイナミックレンジが15stop(15EV・15段)でも14stop(14EV・14段)でも11stop(11EV・11段)でも、
>それぞれのアナログデータを12bitでAD変換するのは、それぞれのダイナミックレンジ全体を12bitのデジタルデータにするということです。
12bitのデジタルデータに、15EVは入らないです。
Tranquilityさんは、同じところで躓いています。逆に、ここが分かれば、ぼっちさんの投稿と私の投稿、全て理解できます。
書込番号:25230904
3点
>しま89さん
基本的にMFTは 12bitでしか 撮れないんですね。
これでは14bitと比較して漏れなくトーンジャンプするので、
調整する以前の問題が出てきますね。
これは支障がありますね。
書込番号:25230922 スマートフォンサイトからの書き込み
1点
>Kazkun33さん
定量的な具体例のほうが良いでしょうか 長いですがご容赦を
0.5V(ボルト)のノイズを含み4Vで飽和するアナログ信号のDRはわかりますか?
比は8で 段数(2を底とするlog)で表すと3stopです
これを2bitのAD変換で 上限を揃えて(つまり最大値を4Vとして)デジタル信号に変換しますすると
3から4V ---> 3
2から3V ---> 2
1から2V ---> 1
0から1V ---> 0
となります 0から3までの値域をもつデジタル信号になります
このデジタル信号で表すことのできる最小値はデジタル値1の時の1Vですね最大値はデジタル値3の時の4Vです
比は4で 段数(2を底とするlog)で表すと2stopです
DRが1stop低下してしまいました 原因は明らかですね AD変換のビット数が足りていなく1V未満の、信号を切り捨ててしまったからです
つぎに3bitにします
3.5から4.0V ---> 7
3.0から3.5V ---> 6
2.5から3.0V ---> 5
2.0から2.5V ---> 4
1.5から2.0V ---> 3
1.0から1.5V ---> 2
0.5から1.0V ---> 1
0.0から0.5V ---> 0
最小値はデジタル値1の時の0.5Vですね最大値はデジタル値7の時の4Vです
比は8で 段数(2を底とするlog)で表すと3stopです
ぴったり足りています
最後に4bitにします
3.75から4.00V ---> 15
3.50から3.75V ---> 14
:
0.75から1.00V ---> 3
0.50から0.75V ---> 2
0.25から0.50V ---> 1
0.00から0.25V ---> 0
デジタル値1の時0.25Vですけどこれはノイズに埋もれてます、ノイズに埋もれない最小値は元のアナログ時の0.5Vですね最大値はデジタル値15の時の4Vです
比は8で 段数(2を底とするlog)で表すと3stopです
ビット数が足りているのならそれ以上増やしてもDRは上がりません
>何が間違っているのですか?一般の視聴者にわかる様に教えて頂けませんか?
ビット数は階調を表しDRとは関係ない、とよく言われるのはだいたい正しいですが大前提としてビット数が"足りている"必要があります
動画では10や12stopの信号の例に続けて8bitの階調の説明をしたため、足りていないじゃんと重箱の隅をつつく間違いを指摘しました
書込番号:25231024 スマートフォンサイトからの書き込み
5点
>pmp2008さん
> ところで、気になるのは、DXOMARKのセンサースコアの
ここでの説明はあくまで理論値ですし
一画素に注目して、色を考慮せず、非線形の変化が無い範囲で、ノイズは全ての輝度に一様に含まれているとしての 説明になります
ラボテストでは
画面全体の、おそらくグレー基準で、もしかして非線形の変換が含まれたあとの画像で、一様でないノイズの何処かを基準として、計測や換算がされているんじゃないかなと思います
特に、画素一つのDRなのか、ある特定の解像度に換算した画面全体のDRなのかは、区別して考えたほうが良さそうです
書込番号:25231097 スマートフォンサイトからの書き込み
3点
>Kazkun33さん
撮像素子だけでは無く、オーディオでも192kHz/24bitサンプリングのハイレゾ音源の方がCDより音が良いと信じ込まされている人が多いようですが、現実にはノイズだけではなく歪み率も音質に影響を与えているので、ただビット数を増やしサンプリング周波数を上げれば良いという問題ではないようです。
ちなみに理論的には16bitのダイナミックレンジは96dBで歪み率は0.0015%ですけど、実際のCDでこれだけのスペックをクリアしている物は無いばかりではなく、ハイレゾ音源でCDを上回るものがあるかも、アナログ回路の特性を考慮するとかなり疑問が残ります。
ダイナミックレンジの定義はTranquilityさんが書かれているようにノイズレベルと飽和レベルの比という事になりますけど、ノイズレベルを最も暗い輝度と、飽和レベルを最も明るい輝度として、その比率で測定すると「Photons to Photos」のデータに近い数値になると思います。
ノイズの要因になっているのはフォトダイオードの固有のノイズ、アンプのノイズ、AD変換の際の量子化ノイズですけど、AD変換する前のノイズは抵抗の両端で発生する熱雑音が影響しています。
電荷を電圧に変換するために必要な抵抗は半導体で構成されていますが、この部分で発生するノイズは熱雑音が支配的ですから、この付近でのノイズキャンセリングはリニアリティにも影響してきます。
ちなみに超低雑音の抵抗でもノイズを-150dBm以下に抑えるというのは厳しいようです。
https://www.cined.com/labels/lab-test/
のLab Testでもこの辺のデータが公表されていますけど、リニアリティを見る限り、14bitのメリットはあまり感じられないですね。
大昔、大きな画素と小さな画素を組み合わせてダイナミックレンジを広げようとしたCCD撮像素子も存在しましたが、リニアリティが悪く、天体撮影には不向きだったそうです。
オーディオ用にもゲインの異なる2個の16bitのADコンバータを使い18bitのデータを得るフローティング方式というのもありましたけど、ダイナミックレンジは増やせても歪み率は良くなかったです。
書込番号:25231153
7点
>ほoちさん
なんか、すごい不思議なことをしていますね…
書込番号:25231188
9点
ほoちさん
>ビット数は階調を表しDRとは関係ない、とよく言われるのはだいたい正しいですが大前提としてビット数が"足りている"必要があります
その通りですが、件の動画は「製品化されたカメラ」が対象ですので、その前提は満足していると解釈するべきでしょう。
pmp2008さん
>12bitのデジタルデータに、15EVは入らないです。
そこはセンサーの設計次第で、「15EVの光を浴びたときに発生する電圧 ≦ ADCのフルスケール電圧」になる様に設計すれば良い訳です。
また、そこにbit数は関与しない事がわかります。
書込番号:25231222
5点
>Tech Oneさん
>>ビット数は階調を表しDRとは関係ない、とよく言われるのはだいたい正しいですが大前提としてビット数が"足りている"必要があります
>その通りですが、件の動画は「製品化されたカメラ」が対象ですので、その前提は満足していると解釈するべきでしょう。
ほoちさんの書込番号:25228089 にある EOS R6 Mark2 のグラフは、実際に販売されている製品でも、その前提を満足しない場合があることを示しています。
次のα7Cのヘルプガイドには、静止画が12ビットの分解能に制限される場合が書かれています。この場合、おそらく、その前提は満足されないです。
α7C ヘルプガイド
https://helpguide.sony.net/ilc/2020/v1/ja/contents/TP1000154190.html
-------------------------------------------------------------------------------
ファイル形式(静止画)
RAWについて
・本機で撮影したRAW画像は、1ピクセルに対して14ビットの分解能を持っています。
ただし、以下の撮影時は、12ビットの分解能に制限されます。
-[長秒時NR]
-[BULB]
-[RAW記録方式]を[圧縮]に設定して[連続撮影]を行う場合
-------------------------------------------------------------------------------
書込番号:25231307
2点
>Tech Oneさん
>>12bitのデジタルデータに、15EVは入らないです。
>そこはセンサーの設計次第で、「15EVの光を浴びたときに発生する電圧 ≦ ADCのフルスケール電圧」になる様に設計すれば良い訳です。
フルスケール電圧をそのように設計をするのは当然のことです。その上で、問題は、ADCの最小出力値「1」に対する入力値です。
Tech Oneさんも、おそらく、Tranquilityさんと同じ勘違いをされています。
ほoちさんの書込番号:25231024 の説明が秀逸ですので、ご一読ください。
書込番号:25231349
1点
>ポロあんどダハさん
「光ショットノイズ」も忘れないであげてください(^^;
高感度条件になるほど、「光ショットノイズ」の存在を無視できなくなると思います。
(添付画像の下表右半分は、光ショットノイズに関わる簡易計算上の S/N比)
書込番号:25231416 スマートフォンサイトからの書き込み
0点
>ポロあんどダハさん
リンク先を参照すると、APS-CのX-H2Sのダイナミックレンジがフルサイズ並みなのはX-Transセンサーであるからでしょうか?
書込番号:25231477
4点
>pmp2008さん
>12bitのデジタルデータに、15EVは入らないです。
15EVを12bitの分解能でデジタルデータ化するというだけでしょ。
入るも入らないもないでしょうに。
>ほoちさん
>2bitのAD変換で・・・
>3から4V ---> 3
>2から3V ---> 2
>1から2V ---> 1
>0から1V ---> 0
この場合、アナログのダイナミックレンジが0~4の幅である「4」ということですよね。
AD変換なら「2bit→4個のデータ」に変換されますよね。
>原因は明らかですね AD変換のビット数が足りていなく1V未満の、信号を切り捨ててしまったからです
なぜ「0」を切り捨てるのですかね?
>つぎに3bitにします
>3.5から4.0V ---> 7
>3.0から3.5V ---> 6
>2.5から3.0V ---> 5
>2.0から2.5V ---> 4
>1.5から2.0V ---> 3
>1.0から1.5V ---> 2
>0.5から1.0V ---> 1
>0.0から0.5V ---> 0
この場合もアナログのダイナミックレンジが0~4の幅である「4」ということですよね。
AD変換なら「3bit→8個のデータ」に。
>最後に4bitにします
>3.75から4.00V ---> 15
>3.50から3.75V ---> 14
>:
>0.75から1.00V ---> 3
>0.50から0.75V ---> 2
>0.25から0.50V ---> 1
>0.00から0.25V ---> 0
これもアナログのダイナミックレンジが0~4の幅である「4」ということですよね。
AD変換なら「4bit→16個のデータ」に。
>ノイズに埋もれない最小値は元のアナログ時の0.5Vですね最大値はデジタル値15の時の4Vです
であるなら、0.50Vから4.00Vの間がアナログのダイナミックレンジだから、その幅を8bitでAD変換すべきでは。
それでも16個のデータになることに変わりありませんが。
>ビット数が足りているのならそれ以上増やしてもDRは上がりません
意味がわかりません。
ここで言っているダイナミックレンジは何の幅ですか?
ダイナミックレンジは、得られたアナログデータの有効な幅の広さを意味しますよね。
イメージセンサーなら、画素ごとに得られる電荷の値で画像生成に有効な最小と最大の値の比。
AD変換に関係なく、最初から決まっている値でしょ。
ほoちさん の説明は正しいAD変換の考え方ですか?
「滑らかなアナログデータ」を「階段状のアナログデータ」に言い換えているだけのように見えますけど。
「デジタルデータのダイナミックレンジ」などと書いていましたけど、何か根本から間違っているのでは。
書込番号:25231522
9点
>Tranquilityさん
>15EVを12bitの分解能でデジタルデータ化するというだけでしょ。
>入るも入らないもないでしょうに。
12bitの分解能の出力で表せるのは、0EVから12EVまでです。
この文章なら、お分かりいただけますでしょうか?
書込番号:25231544
1点
>om-1のグラフのように素直にリニアな特性を描いているのは ビット数が足りている・・・
いろいろと端折りますが、RAWbitとダイナミックレンジはデジタルとアナロの関係ですから直接は関係無いけど、結果としては関係してるでは。
Kazkun33さんがなぜ14bitにしたいかがあまり見えて無いのですが そもそもでM4/3の12bitセンサーを14bitにできるかでは、相変わらずお得のことしてかき回して迷走させてますが
12bitを14bitにして確かに階調は良くなりますが、RAWbitにおいて12bitが14bitになるということは2段=2EVダイナミックレンジが増えることにはなるけどセンサーの限界もあると思います。
M4/3で14bitのGH5sは撮像素子のセルサイズを大きくし撮像素子1つあたりの受光能力を高めています。現在のM4/3の20Mセンサーのセルサイズはフルサイズで80M相当のセルサイズで画素数を上げてもセルサイズが小さくなるからM4/3は20Mが限界、RAWbitもセルサイズを上げられないから12bitが限界と言われていたと思います
OMDSがGH6のようにソフトアクセレーターまで使って14bitに上げるかは今回センサーサイズをあえて20Mに押さえてきているが回答な気がしますけどね。
書込番号:25231557 スマートフォンサイトからの書き込み
3点
>しま89さん
>RAWbitとダイナミックレンジはデジタルとアナロの関係ですから直接は関係無いけど、結果としては関係してるでは。
概ねそうです。
ただし、RAWbitはデジタルですが、ダイナミックレンジはアナログに限るものではないです。
もしやと思って、Wikipediaを見たら、次の記載です。
Wikipedia
-------------------------------------------------------------------------------------------
ダイナミックレンジ(英: dynamic range)とは、識別可能な信号の最小値と最大値の比率をいう。
信号の情報量を表すアナログ指標のひとつ。
-------------------------------------------------------------------------------------------
これ等で、ダイナミックレンジはアナログデータに限る、と考える方がいましたら、それは間違いです。
書込番号:25231602
2点
「量子化対象の最低値と最高値」に対して、
単なる想定においては自由に bit数を設定可能であっても、
現実的には どうなんでしょう?
例えば、1段毎が標準的であったとして、
それ以外はどうなんでしょう?
※もちろん、カメラ業界の常識的な範囲で。
書込番号:25231619 スマートフォンサイトからの書き込み
0点
pmp2008さん
私はhttp://www.ned-sensor.co.jp/support/about2.htmlで説明されているDレンジしか頭になかったのですが、ADCの量子化雑音と正弦波の最大振幅との比(S/N比)も考えないといけないという事ですね。
イメージセンサー全体としてのDレンジを上げる基本路線は、
(1) 画素の飽和露光量と飽和出力電圧を上げる
(2) ADCのフルスケール電圧を飽和出力電圧に合わせる
(3) ADCの変換ビット数を多く取る
かなと思います。
良くある誤解に対しては、(1)(2)の存在を示した上で、(3)だけやってもDレンジは向上しません、が答えでしょうか。
件の動画もそういう事を言っているのだと思います。
書込番号:25231635
3点
>pmp2008さん
>ダイナミックレンジはアナログデータに限る、と考える方がいましたら、それは間違いです。
それでは、お尋ねします。
「デジタルデータのダイナミックレンジ」とは何ですか? どのように定義されますか?
>Tech Oneさん
>ADCの量子化雑音と正弦波の最大振幅との比(S/N比)
これはデジタルデータの精度に関わるように思いますが、ダイナミックレンジじゃないですよね。
書込番号:25231651
7点
>pmp2008さん
おっと、私宛てのコメントをうっかりすっ飛ばしてしまいました。すみません。
>12bitの分解能の出力で表せるのは、0EVから12EVまでです。
>この文章なら、お分かりいただけますでしょうか?
すみません。文章にあるのは結論だけで、その理由がわかりません。
12bitということは、上記コメントの例だと、0EVから12EVの幅にある連続した電荷情報を4096段階にして出力するということですよね。これが、0EVから15EVの幅だと4096段階にできないということですか? だとしたら、それはなぜですか?
書込番号:25231765
7点
>しま89さん
>RAWbitにおいて12bitが14bitになるということは2段=2EVダイナミックレンジが増えることにはなる
・・・のですか?
このダイナミックレンジとは、何のダイナミックレンジですか?
書込番号:25231773
6点
>pmp2008さん
「0EVから15EVの幅だと4096段階にできないということですか?」
これ、もしかして、逆ですか?
0EVから8EVの幅だと4096段階にできないということですか?
書込番号:25231786
7点
>Tech Oneさん
それで良いと思います。
書込番号:25231805
0点
>Tranquilityさん
>12bitということは、上記コメントの例だと、0EVから12EVの幅にある連続した電荷情報を4096段階にして出力するということですよね。
>これが、0EVから15EVの幅だと4096段階にできないということですか? だとしたら、それはなぜですか?
次の文章ならば、ご理解いただけますでしょうか?
12bitの分解能の出力で表せるのは、12EVの範囲です。具体的な例は、0EVから12EVとか、3EVから15EVです。
書込番号:25231816
2点
>Tranquilityさん
>「デジタルデータのダイナミックレンジ」とは何ですか? どのように定義されますか?
ダイナミックレンジの定義は、対象がアナログデータでもデジタルデータでも、定義自体は変わらないです。
書込番号:25231830
3点
>pmp2008さん
>12bitの分解能の出力で表せるのは、12EVの範囲です。具体的な例は、0EVから12EVとか、3EVから15EVです。
その理由をご説明ください。
0EVから15EVのレンジ(範囲)だと12bit(4096階調)にできない理由を教えてください。
これまでのコメントは「結論」ばかりで、そうなる「理由」がありませんので。
>ダイナミックレンジの定義は、対象がアナログデータでもデジタルデータでも、定義自体は変わらないです。
「デジタルデータのダイナミックレンジ」とは何の「レンジ(範囲)」を示しますか? これはどのように定義されますか?
書込番号:25231868
5点
個人の主観による定義と
科学的・技術的に公または学術団体等による定義が
ごちゃごちゃ(^^;
書込番号:25231871 スマートフォンサイトからの書き込み
3点
>pmp2008さん
圧縮して記録すれば?
と質問されているのだと
思います。
リニアに圧縮なら
画像編集には問題無いですね。
圧縮が嫌なら、
暗部を切って記録という方法を
ニコンがしていたような。
いずれにせよ、
マイクロフォーサーズの
現在のセンサーなら、
12ビットで丁度収まりますので
足りないことはなく、
現状不都合はないです。
あとベイヤーセンサーは
厳密に記録出来ない点を無視した
画像処理の観点が無い
議論になってますね。
レンズも周辺はボケますし、
そもそもMTFは絶対に1(完全)には
なりません。
何か、センサーが完全な世界を
記録出来ているかのような議論で
違和感を感じます。
1ショットで完結しようとする
思考のまま止まっているようですし、
AIの時代の画像処理とも違う、
10年前くらい前の考えのようです。
そもそも、現実のレンズを使うと
階調は完璧には結像しませんので、
机上の空論になってますよ。
オーディオマニアって、
こういう感じなのでしょうね。
実際にはレンズの方が重要。
そもそも現実的な値段と重量が重要。
デジカメはやはり歪んだ世界ですね。
書込番号:25231876 スマートフォンサイトからの書き込み
8点
>Tranquilityさん
>その理由をご説明ください。
ほoちさんの書込番号:25231024 の投稿が詳しいです。私が説明するならば、これを12bitに拡張するだけです。
>「デジタルデータのダイナミックレンジ」とは何の「レンジ(範囲)」を示しますか? これはどのように定義されますか?
「レンジ」という言葉は意味が広いです。
「ダイナミックレンジ」という用語の一部である「レンジ」を切り出して、「ダイナミックレンジ」に沿うように、その意味を考える(定義するの)のは、よく分からないです。
書込番号:25231990
4点
>ほoちさん
これを2bitのAD変換で 上限を揃えて(つまり最大値を4Vとして)デジタル信号に変換すると
3から4V ---> 3・・・・・4.0V
2から3V ---> 2・・・・・2.6V
1から2V ---> 1 ・・・・・1.3V
0から1V ---> 0・・・・・0.0V
で何も問題ない。
書込番号:25232143
1点
>pmp2008さん
>ほoちさんの書込番号:25231024 の投稿が詳しいです。
何度も読んでいますが、一つも説明はありませんよ。
12EVの幅は12bit(4096階調)にできるのに、それより幅の広い15EVがなぜ12bit(4096階調)にできないのですか?
「ビット数が足りていない」とか「足りている」とか書いてありますが、それはどういう意味ですか?
>「ダイナミックレンジ」という用語の一部である「レンジ」を切り出して、「ダイナミックレンジ」に沿うように、その意味を考える(定義するの)のは、よく分からないです。
英語は「dynamic range」ですね。下記、英和辞書にある意味です。
【dynamic】
動力の、動的な、精力的な、ダイナミックな、(動)力学(上)の、動態の、エネルギーを生ずる、機能的な
【range】
範囲、区域、広がり、較差・・・
だから「dynamic range」の意味は「機能的な(使える)範囲」ですかね。
下記、カメラのダイナミックレンジ(dynamic range)について各所WEBサイトにある説明の拾い集め。
・デジタルカメラがとらえることができる、明るい部分から暗い部分への再現可能な幅のこと
・撮像素子(センサー)が感じ取ることのできる最も暗い部分と明るい部分の範囲
・処理可能な信号の最大値と最小値の比率を表した数値
・識別可能な信号の最小値と最大値の比率をいう
・一度の撮影でカメラが識別できる明るさの範囲
・カメラのセンサーが再現できる明るさ(輝度)の領域の事
・センサーや記録媒体などの電子機器が処理し再現できる信号の最大値と最小値の比率やその範囲
・信号の最小値と最大値の比率をいい、情報量を表す指標、物理特性のひとつ
・信号の再現能力を表す値。識別または再現可能な最も強い信号と、最も弱い信号との比
・機器が識別可能な明暗比率の幅広さを表す数値のこと
・そのカメラで一度に写す(記録する)ことができる明るさの範囲を示す言葉
・音響や映像、画像などにおける信号の大きさの範囲を表す指標で、最大値と最小値の比率のこと
・電子機器が再現できる信号の最大値と、最小値との比率のこと
・光や音などを認識(または再現)できる最大値と最小値の幅のこと。またはその幅(差)を比率で表したもの
で、ダイナミックレンジは「最小値・最大値」で定まりますよね。それが「range」の両端になります。
イメージセンサーのダイナミックレンジの両端は、画素で「シグナルがノイズに埋もれるところの電荷の値」と「飽和するところの電荷の値」ですよね。
『デジタルデータのダイナミックレンジ』というものがあるそうですね。それはアナログのダイナミックレンジと『定義自体は変わらない』とおっしゃいました。
だとすると、「ノイズに埋もれるところのデジタルデータ」と「飽和するところのデジタルデータ」が両端? そんなのあるんですか?
それとも違う何かですか? だとしたらそれは何ですか?
書込番号:25232181
9点
>いろいろと基本的な理解を間違っているようです。
量子化ノイズの概念を理解できない人が、正しく理解できているほoちさんやpmp2008さんに向ける言葉…。
オーディオでも映像でも、ダイナミックレンジの概念は「表すことができる最大値と最小値の比」です。
しかし最大値は測定が容易ですが、最小値の方はノイズの中での観測となるので何を持って「表せている」とするか判断が難しくなります。そこで映像のISO規格では「SNR=1となる輝度」をダイナミックレンジの下限として定義しています。
SNR=1とは、信号とノイズの大きさが同じということです。デジタルデータが1step上がらないことには「信号」は観測できないので、デジタルデータの最小ステップも影響します。ほoちさんのおっしゃる通り、合理的な設計ができているものは、最小ステップが過不足なく割り当てられることが多い訳ですが。
そして、精度の悪い測定器がやたら多い桁を出しても意味がなく、しかしいくらセンサーの精度が良くても表示できる桁数が少なければ精度が悪いのと同じです。スレ主さんの最初の疑問である14bitの方がいいんじゃないの?に関しては「12bitが最も費用対効果が高かったからでは?」と思います。
撮影条件や現像の仕方で14bitにすると微妙に良くなるケースがあって、しかしユーザーがそれに遭遇する確率が非常に低いとしたら、bit数が少ないことのメリット(速度/消費電力/連射枚数など)を取るんじゃないですかね。
余談ですが「質問にまっすぐに答えれば荒れない」というのは全く賛同できないですね。この方は「質問(=良いことをしている)に答えない→だから相手が悪い」という価値観で動いていますが、技術の基礎が足りずにいくら説明されても決して納得しない人が次々と繰り出す「疑問」にひたすら答えていたら人は疲弊してしまうのです。
「私が納得できるまで回答し続けない相手が悪い」というのは非常に自己中心的で傲慢なのです。
書込番号:25232201
32点
>「デジタルデータのダイナミックレンジ」などと書いていましたけど、何か根本から間違っているのでは。
> これまでのコメントは「結論」ばかりで、そうなる「理由」がありませんので。
> 何度も読んでいますが、一つも説明はありませんよ。
加えてやっかいなのは、周りの人がいくら懇切丁寧に説明しても、自分が理解できない場合に「説明されていない」となることなんですよね。
同じ現象、同じ結論でも理解の道筋は人それぞれです。メカの人電気の人、ハードの人ソフトの人、それぞれに過去の理解や経験に関連して、理解の幅を広げていくものでしょう。
しかしこの方は、自分が考えている道筋に完全に沿ったもの以外は「質問に対する回答」とは認めません。
他の人がいろいろな角度から一生懸命説明しても、自分の道筋にピタリと一致していなければ「説明されてない」と認識する訳です。
理解できない→疑問をぶつける→説明される→理解できない→相手が間違っていると考える→疑問をぶつける→相手が疲れてしまい説明を断念→「あの人は私の疑問に答えられない。だから私が正しい」 …これがいつもの展開です。
リニアA/D変換の基本が全く分かってないのに、人の説明に歩み寄ろうという意識がゼロの人に何を言っても無駄だと思いますが、一応書いてみます。まず話の前提として、RAWデータは輝度に対してリニア(線形)な重みを持っています。
10進数で一桁の数字は、0から9の10段階を表すことができます。
・"0" は何もない、信号もノイズもゼロ。これは必要だがダイナミックレンジに必要な輝度値を表したことにならない
・"1" は信号として表すことができる、最も小さな数字。リニアA/D変換であれば、最大値から見ると1/9の値
この方の理解は「輝度差が10EVあろうが15EVあろうが、それを10段階に分割するだけだから表せる」というもの。
では「表せる」を「区別できる」に変えてみるとどうでしょう。
リニアな世界で0.1と0.2の区別を表すには、"0." というもう一桁が必要な訳です。
1ステップの重みを0.1として、二桁の数字があれば、0.0以外に0.1〜9.9 まで99段階に信号を表すことができます。
数字が一桁しかなくて、9という数字を表したい。でも0.1と0.2の差分も表現したい。
…これはリニアA/D変換だと物理的にできない訳です。
一方技術的には非線形A/Dというものがあって、例えば最初の1ステップは0.1Vなのだけれども、最後の1ステップは1Vにする、というやり方があります。これならば「ほら、たった10段階で100倍近い差を表現できただろう」と思われるかもしれません。しかし非線形の12bitの変換を行うには、それよりもっとbit数の多いA/Dコンバータと同等な性能が必要であり、わざわざそれを作って、後からリニア値に変換する方が大変なので、A/D変換やRAWデータの基本はリニアなのです。
ちなみにJPEGなどの輝度成分はLogに近い非線形値に変換されて記録されているので、JPEG上で8bitでも、そこに記録されている輝度のダイナミックレンジは10bitだったり14bitだったりする訳です。
…あぁ、無駄な長文を書いてしまった…。
書込番号:25232406
21点
要求:15EVを12bit(4096階調)に分解せよ。
A君:ビットが足りないので出来ません。
B君:精度がイマイチですけど出来ました。
リアルだと、Aはダメかな。
書込番号:25232445
3点
@マイクロフォーサーズの現在のセンサー性能は、丁度12EV程度です。
従いまして、14bitRAWは必要ありませんし、
14bitRAWにするとRAW画像データの容量が無駄に増えますし、連写速度も落ちます。
つまり、意味がありません。(=理由があって12bitRAWにしている、と推察できます)
A @にも関わらず14bitRAWガーという方は、
何をもってガーガー言われているのでしょうか。
意味が分かりません。
少なくとも現在のマイクロフォーサーズ板で行う議論ではありませんね。
Bフルサイズ(例えば特にソニー)には12bit出力出来るデジカメがありますが、
それは一律 12EV なのでしょうか?
こちらお答えください。>pmp2008さん
C Bにおいて 12EV でないのであれば、
ソニーは如何なる処理をして14EVを12bit出力しているのでしょうか。
こちらお答えください。>pmp2008さん
※何年後かにソニーは16bitRAWにしなければならなくなると思いますので、
その際に ソニーはそうやっていると言われていましたよ と記載させていただく(かもしれません)。
なぜこの話題がマイクロフォーサーズ板で行われるのか、理解に苦しみます。
しかも延々と・・・。今日見てびっくりでしたよ。
この手の話題が好きな人は一定数いらっしゃるかとは思いますが、
こり固まると、「そういう写真」ばかり上げる人になるので、注意が必要だと存じます。
つまり つまらない写真 ですね。
RAWも、昔は使う人は一握りでしたし、その頃は活気があったんですけどね。
RAWガーばかりになってきて、スマホユーザーに見向きもされなくなった一眼・・・。
お作法ガーの一眼に、若い人など誰が好き好んで入るものですかね〜。
でわ。
書込番号:25232495
9点
初心者なので頓珍漢な事を言うかもしれません。ご了承ください。
先ず、カメラにおけるダイナミックレンジ(以下DR)とはカメラが捉えられる明るさの幅のことで、その最小値と最大値の比で表される、EVでなら式(1)で表されると理解しています。
DR = log2 (最大の明るさ / 最小の明るさ) ・・・ 式(1)
次に、<DRはセンサのADCに入る前の電圧値でも式(2)で表せられて、ただしAD変換を行うと量子化の関係で1bit目に相当する電圧以下の変化が見えなくなるのでRAWとして保存されるデータのDRは制限される>、というのがデジタル派(でいいのかな)の主張であると認識しています。
DR = log2 (最大の明るさの時の電圧 / 最小の明るさの時の電圧) ・・・ 式(2)
AD変換後の数値は、有意な最小値が[1]で最大値が [2^AD変換のbit数] なので、DRは最大でも式(3)のようになる、という主張ですね。
AD変換後のDRの最大値 = log2 (2^AD変換のbit数 / 1) ・・・ 式(3)
ex)12bit ADCの時
DRmax = log2(2^12 / 1) = 12 (EVで12段分)
グラフにすると、図1の赤矢印の間がカメラが認識できるDRだというわけです。
それでなんですが、以上の主張はセンサの特性が線形である、つまりセンサの出力電圧が入力する明るさに単純比例するという前提があるときのみ成立します。
図2に、センサの出力が線形(単純比例)の時と非線形の時の例を示します。
非線形の例は何でもよかったんですが、今回は一次関数にしてます。
ちょっとオフセットのある出力みたいな感じと思っていただければと思います。
図2中に示した通り、線形の時は横軸の最大値と最小値の比とそれに対応する縦軸の値の比は一致します。
よって電圧値の最大値最小値の比もDRに対応します。
一方で、非線形の時は一致しません。よってこの場合、出力電圧からDRを求めようとすると誤った値を求めることになります。
また、AD変換値も電圧に依存する量なので、ADCのビット数からDRを求める試みもうまくいきません。
また、センサの出力が非線形になる例を考えますと、次のようなことが挙げられます。
・センサの特性が線形になっていないとき(オフセットがあるとか)
・センサの特性が線形になっていない領域を使っている時(DRの上端下端で出力が鈍るときとか。あるのか?)
・センサの出力を非線形化してからAD変換するとき(logアンプを使ったHDR技術等があるらしい)
他にもあるかもしれません。
とりあえず、以上からセンサが非線形な特性を持つとき、ADCのビット数はDRの段数と一致しなくなります。
さて、ではRAW撮影のDRがどうなっているかを考えてみることにします。
まず、RAW撮影なのでデータはADCが読み取った値がそのまま保存されます。
何人かの方が述べられているように、ADCには分解能やS/N比等があって、これらがADCのダイナミックレンジと言われることがあるようです。ただし、ADCのDRとカメラのDRは必ずしも一致しないことがあるのは先に述べました。ここで重要なのは、ADCにも読める範囲(ダイナミックレンジ)があり、これが実際の物理量(光の強さ)に対応しているということです。
次に、ADCのDRの上限下限は光の強さに直すとどこになるか考えます。図3のように、縦軸の値から横軸の値を求める格好です。すると、カメラが認識できる光の強さの上限下限が分かります。この2値の比から、RAWデータの表すDRが分かります。
これを実際の作業に直すと、いろんな明るさの被写体を用意して、撮影したデータが白とび・黒潰れしていないか確認して、判別できる上限下限の明るさを調べて。。。。。。どこかで見たことありますね。
以上、私見でした。
ここまで長文書いといて間違ってたらどうしよう。
あと、質問者さんの質問の答えには一切なっていません。すいません。
書込番号:25232519
5点
あー、文章練っている間に非線形について書いてくれている方がいましたね。
被っちゃいました。
>cbr_600fさん
一つだけ気になる点が。
rawは輝度に対してリニアだとのことでしたが、そうとは限らないのではないでしょうか。
リニアな特性の受光素子からの出力を非線形変換をしてからADCに入力する例
https://www.jstage.jst.go.jp/article/oubutsu/81/2/81_97/_pdf
RAW現像について(6.1 RAWデータ整形処理 に、RAWが非線形の場合にソフトで線形化を行うとある)
https://www.jstage.jst.go.jp/article/itej/65/3/65_293/_pdf
ADC自体がリニアなものが使われているというのは理解しているつもりです。
ただ、ADCの前で非線形変換が行われるとADCの生出力であるrawデータも非線形を持ち得ると思います。
もちろん、rawが輝度に対してリニアなカメラもあると思います。
前の投稿も含めまして私が指摘したいのは、線形・非線形両方あるシステムを線形のみを前提にして語ってもいいのかという点です。
書込番号:25232520
4点
>Tranquilityさん
>12EVの幅は12bit(4096階調)にできるのに、それより幅の広い15EVがなぜ12bit(4096階調)にできないのですか?
できますけれど、その結果、
輝度差15EVあった元データ、その低輝度部分0EVから2EVは全て失われ、出力されるのは、3EVから15EVの輝度差12EVのデータです。
>「ビット数が足りていない」とか「足りている」とか書いてありますが、それはどういう意味ですか?
輝度差15EVある元データを、失わないように、デジタルに変換するには、15ビット以上でAD変換する必要があります。
前述のように、12ビットAD変換では、データが失われます。
このことです。
書込番号:25232693
5点
>cbr_600fさん
おひさです。
cbr_600fさんの説明で今までの疑問がスッキリしました。
12bitと14ビットからのJPEGでなんでこんなに違うんだろう?と
まあ、めんどくさくて突き詰めて調べなかったというのもありますが。
それに比べ、他スレでは単に揚げ足取り拡大解釈での突っ込みしか出来ない、御託を並べるだけで、説明しました、立証しましたという説明になってない、立証の意味も知らない人もいますから。
>あぁ、無駄な長文を書いてしまった…。
いえ、そんな事はありません。
分かっている人は分かってます。
ありがとうございました。
書込番号:25233112 スマートフォンサイトからの書き込み
3点
>Tranquilityさん
>ダイナミックレンジは「最小値・最大値」で定まりますよね
そうです。
>イメージセンサーのダイナミックレンジの両端は、画素で「シグナルがノイズに埋もれるところの電荷の値」と「飽和するところの電荷の値」ですよね。
そうです。
>「ノイズに埋もれるところのデジタルデータ」と「飽和するところのデジタルデータ」が両端? そんなのあるんですか?
まず、アナログからデジタルの変換は、データをある有限桁で丸める、ようなもの、というイメージでどうでしょうか?
つまり、データの意味は何も変わらないです。
そして、先の「シグナルがノイズに埋もれるところの電荷の値」と「飽和するところの電荷の値」それぞれをある有限桁で丸めて、
それらを最小値、最大値として、ダイナミックレンジを再度計算する
『デジタルデータのダイナミックレンジ』をこんなイメージで捉えられたらいかがでしょうか?
書込番号:25233494
7点
すいません。
先の線形非線形に関する投稿に誤解がありました。
対数圧縮による高DR化技術や対数変換型CMOSイメージセンサーというものがあったので、センサの出力が線形非線形両方の製品が一般的であると思い込んでいました。
しかし非線形の物は研究段階の物や産業用が多く、一眼レフに使われた例が見つかりませんでした。
また「RAWが非線形の場合にソフトで線形化を行う」と書かれていた資料には「RAWデータは線形性が高い」とも書かれていまして混乱していたのですが、他の資料を当るとほとんどの物がRAWデータを線形として扱っています。
どうもRAWデータは輝度に対して線形性を持つと考えて良いようです。
お騒がせしてすいませんでした。
さて、線形のみ扱っていいなら受光素子のダイナミックレンジとADCのダイナミックレンジの話も簡単になります。
>Tranquilityさん
5EVのダイナミックレンジを持つ受光素子の出力と、それを3bitADCで読んだ時の値のグラフを例として添付しときます。
青線が素子の出力、赤線がADCの出力になります。
横軸には素子のダイナミックレンジの最小値を1単位とする目盛を打っておきました。
5EVのダイナミックレンジとして、32目盛あります。
また、1EVごとに大きい目盛を打っています。
解説なのですが、内容はダイナミックレンジの幅とbit数が違うだけでpmp2008さんの書込番号:25232693と同じになります。
グラフを見れば分かる通り、受光素子のダイナミックレンジの内、ADCのダイナミックレンジより低い2EV分の情報が失われ、高いほう3EVの情報が3bitで階調化されています。
書込番号:25233709
2点
WIND2さん
ご丁寧にどうもです。
400kcal(80g当たり)さん
途中まで説明を書きかけてましたが、いろいろ気づかれたようで良かったです。
「非線形の補正」って実際にはオフセット調整による原点ズレの補正ぐらいしかできないと思います。
Tranquilityさんの書き込みがまだなのは、多分自分の考えの方が正しいという根拠になる情報を一生懸命探しているのではないかと思いますが…。
Tranquilityさんとhirappaさんの勘違いは、
・15EV離れた暗さだろうが、そこに "0"が当たっていればよい
・あとは最大値と0の2点間をbit数に応じた数で分割するだけ
と思われたことでしょう。
ダイナミックレンジの意味は、「ある明るさが白飛びしないように写したとき、どれだけ暗いところの絵柄が見えるか?」なんですよね。
なので-15EVの暗さでゼロが出ただけではダメで、そこから僅かに明るくなったときに、それに応じた細かい数字が出てこなければいけない、という観点が抜けています。暗いところの情報量を失わないようにするには、例えば最大値を正規化して1としたとき、小数点以下何桁目まで数字が読めるか…といった器としての桁数が必要だということが…。
実際には各種のノイズがあるのでbit数だけでは決まらないとか、逆にノイズのおかげで平均化すると1LSBより小さい情報が出てくるとか細かい話はいろいろありますが、ともあれ技術の話は積み上げなので、どこかで曲解して積み上げてしまった認識を改めるのは容易ではありません。間違った認識に視点は固定され、真実は見えなくなってしまいます。
書込番号:25233961
14点
こんなくだらない言い争いしてる暇があるなら、写真撮りに行った方が遥かに有意義じゃないですかね。
書込番号:25234180 スマートフォンサイトからの書き込み
13点
色々屁理屈こいたところで、
12bit保存しかできないんだから一緒。
どうやったって14bitと12bitを選べる機種と
比べれば機能的に落ちるという事実は何も
変わらない。
書込番号:25234350 スマートフォンサイトからの書き込み
6点
>cbr_600fさん
長文ご説明いただきましたが、私の疑問である「センサーのダイナミックレンジ15EVが12bitでAD変換する場合、bitが足りなくて12EV分のデータになってしまう」というお説の説明ではないように思います。
>-15EVの暗さでゼロが出ただけではダメで、そこから僅かに明るくなったときに、それに応じた細かい数字が出てこなければいけない、
>暗いところの情報量を失わないようにするには、例えば最大値を正規化して1としたとき、小数点以下何桁目まで数字が読めるか…といった器としての桁数が必要だということが…。
暗いところの情報の質はセンサーのダイナミックレンジ次第なので、このおっしゃるところ「(わずかな明るさに)応じた細かい数字」「小数点以下何桁目まで数字が読めるか」は、単に何bitで出力されているか(=AD変換の分解能)によることだと思いますけど。
この部分はセンサーのダイナミックレンジの下限付近のことで、その位置はAD変換が12bitだろうが14bitだろうが、リニアだろうが非線形だろうが、同じですよね。
センサーのダイナミックレンジが広い方が大きな明暗差を、bit数が大きな方が滑らかな階調で表現できる(これが「器としての桁数が必要」ですよね)というだけのことで。
ちなみに、私は年がら年中掲示板をのぞいているわけじゃありませんよ。コメントするのはコメントする時間がある時だけです。
書込番号:25234624
9点
>400kcal(80g当たり)さん
丁寧なグラフでご説明ありがとうございます。
ただ、いくつか腑に落ちないところが。
>5EVのダイナミックレンジを持つ受光素子の出力と、それを3bitADCで読んだ時の値のグラフを例として添付しときます。青線が素子の出力、赤線がADCの出力になります。
>解説なのですが、内容はダイナミックレンジの幅とbit数が違うだけでpmp2008さんの書込番号:25232693と同じになります。
>グラフを見れば分かる通り、受光素子のダイナミックレンジの内、ADCのダイナミックレンジより低い2EV分の情報が失われ、高いほう3EVの情報が3bitで階調化されています。
まず、グラフの基点「0」に接した小さな四角はノイズ部分ということですよね。低輝度側でダイナミックレンジ5EVの範囲外ですから。
そして、グラフの右側の青線が水平になる部分と赤線の右端が一致しているので、カメラで言えば、ダイナミックレンジの上限で白トビしないギリギリ露出になっているわけですね。
で、グラフには、「ダイナミックレンジ5EV」の左の方に「失われる」という「ダイナミックレンジより低い2EV」という幅が短い緑線で書いてあります。これは「ダイナミックレンジ5EV」の中の範囲ですから、「ダイナミックレンジより低い2EV」という説明はおかしいです。
さらに、グラフ左側に「3bitADC」の数字があって「0」部分が「失われる2EV」とのこと。しかし、デジタルの階調「0」は「情報が無い」ではなくて、その2EVの範囲が「0」のレベルという情報ですよね。「0」は「情報が得られない」ということでは無いです。それで、0から7の8段階の3bitのデータが出来上がるわけでしょう。
結局、グラフの赤い線は、ダイナミックレンジ5EVの範囲が3bitでAD変換されて8段階のデータになっているということだと思いますけど。レベル「0」部分は暗いのでノイズが含まれていますけれど、まぁ、実際のカメラもそうなっています。
【コメントの訂正】
私は前のコメントで「それぞれのアナログデータを12bitでAD変換するのは、それぞれのダイナミックレンジ全体を12bitのデジタルデータにするということ」と書きましたが、これは「ダイナミックレンジ全体」ではなくて「センサーの出力全体」でした。訂正します。
実際の画像は、デジタル画像の暗部はノイズに埋もれているところも白トビもそのままデジタル画像になっていますもんね。露出オーバーも露出不足も関係なく、センサーのアナログ出力全体をデジタル化しているわけで。
でもまぁ、このことは「15EV分を12bitでAD変換すると12EV分しか出力されない」という話に関係は無いところではあります。
書込番号:25234630
9点
>pmp2008さん
>被写体の明暗差(EV値)がセンサーが保持できる明暗差(ダイナミックレンジ、EV値)より大きい場合、写真にすると被写体の明暗差の一部は失われます。
(書込番号:24245765『センサーとRAWのダイナミックレンジ』スレッド pmp2008さん)
>センサーが保持できる明暗差(ダイナミックレンジ、EV値)よりも、RAWデータのbit数(階調)が大きい場合、RAWデータにするとセンサーが保持できる明暗差の一部は失われます。
(書込番号:24245770・書込番号:24245838『センサーとRAWのダイナミックレンジ』スレッド pmp2008さん)
>R6 mk2は電子シャッターにすると12bitになってしまう
>画素の素子自体のDRは広いが読み出しbit幅が限られることでDRが低下してしまう
(書込番号:25228267 ほoちさん)
>ビット幅が足りないと情報が切り捨てられてDRが下がります
(書込番号:25228858 ほoちさん)
>アナログ信号のDRに対して それ全てを含む充分なビット幅で AD変換され読み出され そしてRAWファイルとして書き出されるという設計が"普通は"される
>10EVや12EVに題して8bitの例を出したら(中略)足りてないビット数ではDRに影響与えちゃいます
(書込番号:25230025 ほoちさん)
>12bitのデジタルデータに、15EVは入らないです。
(書込番号:25230904 pmp2008さん)
>DRが1stop低下してしまいました 原因は明らかですね AD変換のビット数が足りていなく1V未満の、信号を切り捨ててしまったからです
(書込番号:25231024 ほoちさん)
>12bitの分解能の出力で表せるのは、0EVから12EVまでです。
(書込番号:25231544 pmp2008さん)
・・・というようなご意見がありました。
上記コメントを読み、腑に落ちないところがあったので、下記のように質問しました。
『12EVの幅は12bit(4096階調)にできるのに、それより幅の広い15EVがなぜ12bit(4096階調)にできないのですか?』
ご返信ありがとうございました。
>できますけれど、
15EVの範囲も12bitでAD変換できるのですね?
>その結果、輝度差15EVあった元データ、その低輝度部分0EVから2EVは全て失われ、出力されるのは、3EVから15EVの輝度差12EVのデータです。
出力されるのが12EV分とすると失われるのは低輝度の3EV分になると思いますが、やっぱり切り捨てられてしまうのですか? ということは、やっぱりできない? ほoちさん も「ビットが足りないからできない」「ビットに入らないデータは切り捨てられる」というようなことを書いていましたが。。。
>輝度差15EVある元データを、失わないように、デジタルに変換するには、15ビット以上でAD変換する必要があります。
前述のように、12ビットAD変換では、データが失われます。
12bitと15bitで、元アナログデータのデジタル化される範囲が変わるというのはヘンじゃないですか?
どちらも元データ全体をデジタル化するものだと思いますが。実際、どんなカメラも、暗部ノイズや白トビもそのまま記録されていますよね。
続いて、『デジタルデータのダイナミックレンジ』というものについて。
>アナログからデジタルの変換は、データをある有限桁で丸める、ようなもの、というイメージ
>「シグナルがノイズに埋もれるところの電荷の値」と「飽和するところの電荷の値」それぞれをある有限桁で丸めて、それらを最小値、最大値として、ダイナミックレンジを再度計算する
ダイナミックレンジは、連続したデータの中で有効に使える部分ですよね。その外側には使えないところがつながっているわけです。写真だと暗部ノイズとか、飽和の白トビですね。
つまり、ダイナミックレンジは、連続したアナログ出力の中の「機能的な(使える)範囲(=range)」という部分です。
デジタル化した画像データだとすると、例えば、8bitは256階調(0~255)、12bitは4096階調(0~4095)で黒と白の間の明るさを表現するわけですよね。ここで、デジタルデータの「0から最大値まで」の全てが画像化に使われます。ですから、デジタルでは全体の中から使える範囲を示す「ダイナミックレンジ」という概念はそぐわないと思うのです。
そして、デジタル化のbit数がいくつでも、0は画像の一番黒いところ、最大値は一番白いところを意味するだけです。それで、画像の実際の黒さ・白さは表示媒体に依存です。
そこでbit数の違いは、0の黒と最大値の白の間の粗さ滑らかさの違いとして見られるわけで、bit数が大きな方がより黒く、あるいはより白く表現できるということはないですよね。
つまり、デジタルデータは全体を使う、bit数に関わらず最低値と最高値の示すところは同じ、というところから、「デジタルデータのダイナミックレンジ」という言葉はおかしいと思うのですよ。
書込番号:25234646
10点
>400kcal(80g当たり)さん
すみません、訂正です。
誤)結局、グラフの赤い線は、ダイナミックレンジ5EVの範囲が3bitでAD変換されて8段階のデータになっているということだと思いますけど。
正)結局、グラフの赤い線は、アナログデータ全体が3bitでAD変換されて8段階のデータになっているということだと思いますけど。
書込番号:25234716
7点
>出力されるのが12EV分とすると失われるのは低輝度の3EV分になると思いますが、やっぱり切り捨てられてしまうのですか?
切り捨てられます。
>12bitと15bitで、元アナログデータのデジタル化される範囲が変わるというのはヘンじゃないですか?
「元アナログデータのデジタル化される範囲」は、AD変換の入力ですので、12bitと15bitで変わらないです。
>どちらも元データ全体をデジタル化するものだと思いますが。
そうです、全体をデジタル化します。その際にデータが失われることがあります。
>実際、どんなカメラも、暗部ノイズや白トビもそのまま記録されていますよね。
α7Cで撮影した一例ですが、
輝度差の大きい被写体をISO 100で適正露出で撮影して、RAW現像でシャドウの露出を+3くらい上げて、等倍で見るとノイズが見えます。
でも、ノイズに埋もれてはいませんので、ここは元のアナログのダイナミックレンジの下限ではないです。
つまり、さらに輝度の低い部分は切り捨てられていて、画像データには入っていない、という可能性があります。
書込番号:25234757
9点
>pmp2008さん
>切り捨てられます。
↑
続くコメントと矛盾していませんか?
↓
>「元アナログデータのデジタル化される範囲」は、AD変換の入力ですので、12bitと15bitで変わらないです。
>そうです、全体をデジタル化します。
下記のようなご説明でした。
『センサーが保持できる明暗差(ダイナミックレンジ、EV値)よりも、RAWデータのbit数(階調)が大きい場合、RAWデータにするとセンサーが保持できる明暗差の一部は失われます。』
『ビット幅が足りないと情報が切り捨てられてDRが下がります』
『12bitのデジタルデータに、15EVは入らないです。』
『12bitの分解能の出力で表せるのは、0EVから12EVまでです。』
『輝度差15EVあった元データ、その低輝度部分0EVから2EVは全て失われ、出力されるのは、3EVから15EVの輝度差12EVのデータです。』
「失われる」「切り捨てられる」「入らない」「出力されない」
これは「全体をデジタル化します」と内容が合いませんけど。。。
>輝度差の大きい被写体をISO 100で適正露出で撮影して、RAW現像でシャドウの露出を+3くらい上げて、等倍で見るとノイズが見えます。
でも、ノイズに埋もれてはいませんので、ここは元のアナログのダイナミックレンジの下限ではないです。
どのカメラも同じようになりますよね。
アナログ信号の全体をデジタル化していると思うので。
>つまり、さらに輝度の低い部分は切り捨てられていて、画像データには入っていない、という可能性があります。
「アナログ信号の全体をデジタル化します」と直前コメントに書いていらっしゃいます。
「全体」ですから「切り捨ては無い」というふうに読めますが。。。
書込番号:25235201
10点
>pmp2008さん
こんばんは
ひとつ質問良いですか?
>さらに輝度の低い部分は切り捨てられていて、画像データには入っていない、という可能性があります。
これは、輝度の高い部分も同様ですか?
同様であれば12bitの表現に合点がいくんですけど。
書込番号:25235210 スマートフォンサイトからの書き込み
1点
>こんなくだらない言い争いしてる暇があるなら、写真撮りに行った方が遥かに有意義じゃないですかね。
はい、それは全くもってミタラシさん(?)のおっしゃる通りです。
すいません、写真の感動などの話とはおよそ関係ない話ですが、正しく理解されている方々が「根本から間違っている」呼ばわりされたのがちょっとカチンと来てしまいまして…。
pmp2008さん
Bigなお世話とは思いますが、諦めた方が良いのではないかと…。前述の通り間違った理解を積み上げてしまった人は、意識がそこに固着してしまって、どんな説明も頭に入っていかないのです。どれほど掘り下げて丁寧に書いたところで、回答したと認識されることはないため、
「私の疑問に答えられない」→「正しければ(私の認識通りに)答えられるはず」→「答えられないのは正しくないから」
という論法で「疑問に答えられない人」のレッテルを貼られてストレスが溜まるだけです。言葉尻が丁寧なだけで、態度の暴力を振るっていることに気づかないのです。
さてさて、ご本人はもう理解困難として、同じ勘違いをされている他の方のためにもうちょっと補足を。
あるグレーチャートを室内と屋外の両方に置いて、1カットでその両方がどれだけ撮れているか?というケース。
ノイズは非常に少なくて、A/Dが10bitと12bitの場合の差が出やすい条件での簡易的なイメージです。
bit数が多いというのは単に階調が滑らかなだけではなく「持ち上げて現像したときに暗部のエッジ(絵柄)が見えるか?」という差になって現れます。ノイズは低いのにbit数が足りないという場合、コントラストの低い絵柄が見えなくなる訳です。
それにしても勘違いの内容も同じだなんて、Tranquilityさんとhirappaさんはホントに仲がいいんですね。
書込番号:25235231
12点
>cbr_600fさん
3ビットで綺麗に階調表現出来ていますね。
書込番号:25235277
2点
>cbr_600fさん
おはようございます。
要するに大雑把に言うと、
データは全て記録されるけど、
0EVから2EVは3EVに変換されてしまうから
(変換される0EVから2EVは表現されず切り捨てられている事と同意)
階調が無くなってしまうという解釈でよろしいですかね?
これはハイライト側も同様であると。
この解釈が合っているとすると、夜景撮りでのハイライトの階調が出ないなあに合致するんですよね。
JPEGの8Bit階調も非線形であるが故に、
255個の間隔は等間隔ではないという事ですかね?
書込番号:25235380 スマートフォンサイトからの書き込み
2点
はは、スレ主殿そっちのけで、A/D変換、その量子化ビット数の諸々を『テキストベース』で講釈垂れられたところで、そんなもん所詮素人の説明だから他人様それも電子回路やロジックの素人さんが容易に理解できる訳がない。
…と思いまっせ、幾ら説明が正しかろうがダラダラ書かれては。まあ当方含め皆さん暇つぶし参加でしょうから問題はないか。
諸々の講釈はCQ出版やら技術評論社やら誠文堂さんやらから出版されている電子工学の基礎テキストか、アナログデバイセズ社、マイクロチップ社さん等のデバイス屋さんから無料で出されているドキュメント類を読み漁れば、それなりには理解できる筈です。…電子回路に興味があれば、ですが。
そもそもデジカメのEV値やダイナミックレンジに端を発した『ビット』のお話しが、ここまで複雑怪奇になるのは、例えるなら、
『オートマ車に乗るにあたり、エンジン制御のためのCPU理論を学ばにゃなるまい』
見たいに壮絶な心配しているようなもので、そんなもん
『安全運転を心がけときましょう、トラブッたらJAFのお世話になりましょう』
でええやん。
書込番号:25235382
3点
>cbr_600fさん
>A/Dが10bitと12bitの場合の差
そういう話はしていないです。
『12bitのデジタルデータに、15EVは入らないです。』
これはおかしくないですか?という話です。
書込番号:25235483
6点
>Tranquilityさん
>続くコメントと矛盾していませんか?
私の文章に矛盾はないですが、曖昧さはあります。この曖昧さゆえに、読み手が、私の文章の意味を取り違えることはありえます。
Tranquilityさんの考え違いの根本原因は、数値0(ゼロ)近辺での誤解にある、と推測しています。
ここで、確認ですが、
EV0 が意味するのは「0」ではなくて「1」です。これは認識されているでしょうか?
>どのカメラも同じようになりますよね。
ならないです。
>アナログ信号の全体をデジタル化していると思うので。
アナログ信号の全体をデジタル化しても、デジタル化の仕方で、結果が異なります。
書込番号:25235496
5点
>くらはっさんさん
ずっとここを拝見していましたが 日頃こういった事に関心の無い
人に対していくら書いても無理というものでしょう。
CQ出版社は当初アマチュア無線の雑誌社でしたが
今はもっと裾野が広い内容を扱っているように思います。
かなり視点として公平でメーカー側に対する忖度の少ない
ものが多く AV業界の忖度の酷さの中で清涼剤のようです。
ユーザーの視点で口を開くと 攻撃されるのと違います。
ここで量子化による誤差を問題にしている人がいますが
あまり1画素面積の大きくない製品ではそんなことより
その面積からくるダイナミックレンジや感度の問題はどうする
のかという事が気になります。
小さいビデオカメラはその問題はとても大きく、A/D変換の
bit数が問題になる事はほぼありません 8bitで対数記録を
すると感じますが
ここを拝見していてこれを思い出しました
https://bbs.kakaku.com/bbs/-/SortID=17074484/
書込番号:25235498
3点
>アマチュアカメラマンしんさんさん
ご質問いただきましたが、ちょっと分からないです。
>WIND2さん
ご質問いただきましたが、ちょっと分からないです。
>cbr_600fさん
>Bigなお世話とは思いますが、・・・気づかないのです。
なるほど、鋭い分析ですね。
書込番号:25235502
3点
アップ画像は、画像処理・映像機器の会社「フォトロン」の解説より。
『デジタルカメラの階調とダイナミックレンジ』
https://www.photron.co.jp/support/imaging/knowledge/n02.html
ダイナミックレンジが広い12bitセンサーは、暗い部分と明るい部分を同時に撮像できますが、広い範囲を4,096階調で表現するので1階調がカバーする範囲も広くなります。
ダイナミックレンジが狭い12bitセンサーは、暗い部分と明るい部分を同時に撮像できませんが、狭い範囲を4,096階調で表現するので1階調がカバーする範囲も狭く(細かく)なるため、より微妙な変化を捉えることができるといえます。
書込番号:25235562
6点
>pmp2008さん
「12bitセンサーが再現できる明暗差は12EVまで」
「15EVの明暗差を再現するには15bit以上が必要」
これが事実なら、デジタルカメラにとって非常に重要な情報なはず。
しかし、そのような記述をした信頼できる記事(企業や研究機関などの解説)は見つかりません。
どこでそのような情報を知ったのでしょうか?
書込番号:25235574
6点
>そのような記述をした信頼できる記事(企業や研究機関などの解説)は見つかりません。
↑
「個人の調査能力の限界程度で、
【無いことの証明】は出来ない。」
書込番号:25235584 スマートフォンサイトからの書き込み
1点
>WIND2さん
明るい側は有効桁数が多いので、RAWデータが10bitであっても暗い側のような精度不足は起きないです。
もし同じ露出で撮っているのに調整時に階調が乏しいと感じたら、それは白飛びが早めに起こっているか、標準トーンカーブの違いかもしれません。
CIPAが定める感度の規定があるので、同じ露出で撮ればどこの製品でも中間輝度は同じくらいに写るのですが、ピークがどこまで飛ばずに写るかは、製品ごとに違います。
小さいセンサーのカメラは明るめに露光させてSNを優先し、大きなセンサーのカメラはRAWデータ上では暗めに写し、現像で中間輝度が明るくなるようなトーンカーブを使うことが多いです。このためハイライトが粘るとか、ハイライト優先でトーンカーブを設定すれば照明周りの絵柄がよく見える、ということはあると思います。
書込番号:25235596 スマートフォンサイトからの書き込み
5点
>ありがとう、世界さん
>「個人の調査能力の限界程度で、【無いことの証明】は出来ない。」
もちろんそうですよ。それで?
pmp2008さん たちが「間違いだ」とおっしゃる「センサーのダイナミックレンジと画像のbit数は関係ない」という記述はいくつも見つかるのですが。
書込番号:25235608
7点
ここまでをまとめてみましょう。
・ビット数は階調を表すものである。
・ビット数を大きくしてもダイナミックレンジは広くならない。
・ダイナミックレンジの広さに合わせた滑らかな階調を得る為にビット数を大きくする。
>APS-CのRAWサイズは14bitなのに、OM-1は12bitなのですが?
>センサー性能が上がってきているなら14bitに変更しても良いと思うのですが。
RAWが12bitだから、ADCも12bitとは限りません。
技術は積み重ねが大切なのではなく、それを応用できることが大切です。
書込番号:25235616
2点
>cbr_600fさん
了解です。
ありがとうございました。
書込番号:25235619 スマートフォンサイトからの書き込み
1点
天狗になるな、よく言われる言葉です。
天狗は目先の技術に自惚れ、そこから先にある技術に考えが及ばなくなる。
しかし、私が教えるのは、
天狗になれ、そして天狗を超えよ。
天狗にも至っていない天狗さんはcbr_600fさんでしょうか。
もっと応用力を身につけましょう。
書込番号:25235632
2点
話が2つに分かれていますね。
●14EVを12bitで保存した時の2つの仕様
@暗部2EV切り捨て方式
・暗部を2EV切って、12EVを、12bitで保存している。
・ただしこれはメーカー(ソニー)に確認したわけではない。(=推測)
こちらでよろしいですか。お答えください >pmp2008さん
A14EVの全体を12bitで保存する方式
・諧調比較
「14EVを保存する際」は、
14bitの諧調の方が再現度が高い ⇔ 12bitの諧調の方が再現度が低い
・しかし誰もどちらが良いとか悪いとかは書いていない(=Tranquilityさんは出来るかどうかを聞いている)
・この方式はどのメーカーが採用しているかは不明。
・しかもマイクロフォーサーズには現状関係が無い。
こちらでよろしいですか。お答えください >cbr_600fさん
-----------------------------------------
@の切り捨て方式は、フルサイズとAPS−Cで行っている方式です。
Aの全体保存方式では、14EVを12bitで保存すれば諧調は荒くなるのは当たり前ですが、
そもそも「12EVを12bitで保存」するマイクロフォーサーズとは関係ありません。
@もAも、マイクロフォーサーズとは現状関係ありません。
勘違いする、この手の話が理解出来ないアンチが涌いてきたので、
別スレッドでやってもらえますか。
-----------------------------------------
あと、
差が出ないとは言いませんが、
@切り捨て であれば、明〜中間調の諧調は変わりません。
暗部をどんだけ持ち上げるんですか、という話です。
@切り捨て A全体を圧縮 どちらにしても、
そもそも出力媒体が最高10bitでしかないですし、
そもそもJPEG自体8bitです。
繰り返しますが、
差が出ないとは言いませんが、
「ユーザー側がそこまで気にする話ではありません」
(この手の話が好きな人が一定数居るとは理解していますけどね)
話は総体として見られないと。
そもそも画素数が上がり過ぎて、良いレンズをフルサイズで作ろうとすると
現実的なシロモノにならない現状を見て、
そちらの方が問題だと思わないのだろうか
書込番号:25235640
3点
>Tranquilityさん
書込番号:25235562 は正しいです。でも、これを、今の話題と混ぜて考えると、おそらくTranquilityさんは、ますます分からなくなってしまいます。
ここは考え違いしやすいところなのです。
>これが事実なら、デジタルカメラにとって非常に重要な情報なはず。
そうではなくて、専門家にとっては取るに足らない情報、と思います。
>どこでそのような情報を知ったのでしょうか?
私の考えであって、入手した情報ではないです。
もう本スレも書き込みできなくなりますが、この話題にご興味を持ち続けられるのでしたら、
失礼を承知で申し上げますと、
今後は、このように、掲示板でやりとりする前に、
まずは、AD変換の入門書を何か一冊読まれることをお勧めします。
書込番号:25235670
9点
Tranquilityさん
>「15EVの明暗差を再現するには15bit以上が必要」
の答えは
https://article.photo-cafeteria.com/EVDB.html の「5. EV値からデシベル」
https://www.jstage.jst.go.jp/article/sicejl1962/45/4/45_4_335/_pdf の「3.量子化」
にあります。 これらを読めば、数々の疑問も解消するのではないでしょうか。
>「センサーのダイナミックレンジと画像のbit数は関係ない」
変換精度(品質)をどう見るかで答えは変わると思います。
ただ、「EV15を15bit変換しなければならない」というルールは無い以上、EV15の12bit変換は「できるが、ベストではない」が答えでしょう。
書込番号:25235672
4点
どうもみなさん
>Tranquilityさん
25235562
わかりました!
こちらの図、間違ってると言いませんが
勘違いポイントはそこですね
このスレではAD変換の話をしているため線形の変換になります 原点は揃えないと
この図は、logグラフと真数グラフを混同しているためかおかしな図になってますね
ダイナミックレンジはラチチュードと同等と考えて ラチチュードをイメージするときにやったようにコントラストの変化を伴う非線形の変換をイメージしてしまっているのでは
なので原点ズレててもおかしく思わないのです
そこを念頭にもういちどこのスレ上の方から読み返してみてはいかがでしょうか
書込番号:25235707 スマートフォンサイトからの書き込み
2点
ま、何はともあれ、
14Bitが必要な人、12Bitで不満な人は14Bit機を使えばいいし、
12Bitで満足出来る人は12Bit機を使えばいいんじゃないですかね?
書込番号:25235709 スマートフォンサイトからの書き込み
2点
>アマチュアカメラマンしんさんさん
>@暗部2EV切り捨て方式
>・暗部を2EV切って、12EVを、12bitで保存している。
>@の切り捨て方式は、フルサイズとAPS−Cで行っている方式です。
実際に行われているかは別にして、もしも「ノイズが多い暗部を黒く塗りつぶす」という処理がされているのであれば、このようなことだと思います。
しかし、「15bitだと切り捨てる必要がなく、12bitだと切り捨てられる」という pmp2008さん のお考えの説明にはならないでしょう。オリジナルの元データに含まれるノイズはAD変換の前からあるもので、AD変換のbit数で変わることはないでしょうから。
>Tech Oneさん
「15EVの明暗差を再現するには15bit以上が必要」
これだけだと文章が曖昧でしたか。
「センサーの持つダイナミックレンジ15EVの明暗差を余すことなく再現するには15bit以上のAD変換が必要で、12bitの変換だとダイナミックレンジ内の3EV分が切り捨てられるので12EVの明暗差しか再現できない」という pmp2008さん らのご主張のことです。
私は、このご主張に疑問があります。
>これらを読めば、数々の疑問も解消するのではないでしょうか。
情報ありがとうございます。
読みましたが、上記ご主張を裏付ける内容はありませんでした。
>「EV15を15bit変換しなければならない」というルールは無い以上、EV15の12bit変換は「できるが、ベストではない」が答えでしょう。
「12bitより15bitの方が明暗差の再現がきめ細かく、階調を滑らかにできるので、15bitの方がベターである」ということであれば同意です。
書込番号:25235725
8点
>pmp2008さん
>私の考えであって、入手した情報ではないです。
そうですか。
ご主張の裏付けとなる情報はあるのですか?
>まずは、AD変換の入門書を何か一冊読まれることをお勧めします。
ご自身ではどんな本をお読みになって、ご主張のような考えに至ったのでしょうか?
>ほoちさん
>そこを念頭にもういちどこのスレ上の方から読み返してみてはいかがでしょうか
何度か読み返していますが、ご主張は腑に落ちません。
コメントで疑問に思うところはいくつも書きましたが、それぞれに返答は無く、「上から読み返せ」だけでは。。。
>この図は、logグラフと真数グラフを混同しているためかおかしな図になってますね
>原点ズレててもおかしく思わないのです
アップしたのは概念図ですね。
狭いダイナミックレンジのカメラで12bit、広いダイナミックレンジのカメラで8bitが例示されています。
ほoちさん や pmp2008さん のご主張では、このようなことは不可能になるはずですよね。
「原点を揃えた正しい図」だとどうなりますか? 正しい図をお示しいただけませんか。
書込番号:25235753
7点
>Tranquilityさん
>ほoちさん や pmp2008さん のご主張では、
>このようなことは不可能になるはずですよね。
そうです AD 変換でそれは不可能です
出来るはずと考えられている方はその想定の何処かに非線形の変換が入ってしまってます きっと
日陰を0 日向を1と表せば たった1bitの二値画像で15EVのダイナミックレンジを表せられる、という主張と同じですね
>「原点を揃えた正しい図」だとどうなりますか?
>正しい図をお示しいただけませんか。
そうですね図で示せればたくさんのこと伝えられるかな
明日辺りには
書込番号:25235775 スマートフォンサイトからの書き込み
3点
憑かれて術中におちてしまっているような・・・(^^;
書込番号:25235776 スマートフォンサイトからの書き込み
1点
>ほoちさん
>そうです AD 変換でそれは不可能です
「狭いダイナミックレンジのカメラで12bit、広いダイナミックレンジのカメラで8bitのAD変換は不可能」というご意見ですね。
この会社(株式会社フォトロン)は不可能なことを製品の説明に使っていると。
>日陰を0 日向を1と表せば たった1bitの二値画像で15EVのダイナミックレンジを表せられる
ダイナミックレンジなりの階調を表せられるかどうかという話はしていません。
ほoちさん のご意見に沿って「AD変換ができる(可能)か、できない(不可能)か」という話です。
15EV分のグラデーションを1bitで変換すれば2階調になりますよね。2bitなら4階調、3bitなら8階調に。いずれもグラデーションの上端や下端を切り捨てること無く。これ、なぜできないのですか?
書込番号:25235802
7点
>Tranquilityさん
まあ、誰も
実際のところは知らない
から答えられないのですよ。
センサーメーカーからしたら、
14EVを12bitに圧縮的なことまでして出力するのが
単に要望として無い
からやらないだけかも知れません。
つまり、
連写速度を上げるために12bit出力したいカメラメーカーにとって、
圧縮的な動作をかます要望は無い
だからセンサーメーカーも機能として付けない
というのかもしれませんね。
メーカー関係者でもないユーザーが
実際のことを分かるはずもありません。
ユーザーがA/D変換の本を読む必要なんてありませんね。
そういう事を言う人は、まず
写真の本を読んで勉強すべきです。
A/D変換の本?
笑わせてくれる。
書込番号:25235854
3点
>アマチュアカメラマンしんさんさん
>まあ、誰も実際のところは知らないから答えられないのですよ。
カメラのダイナミックレンジとAD変換bit数との関係は、解説記事がたくさん見つかります。どれも同じ内容です。
先に紹介したメーカーの解説もその一つですし、Tech Oneさん の「階段」や「ピザ」の例えもわかりやすいと思います。
これが「間違っている」という人がおられますが、その方々の言うような解説は目にしたことがありません。
それとは別に、メーカーが暗部ノイズの処理をどうしているかは画像エンジンの話で、AD変換のbit数とは別のことでしょう。こちらは、外部の一般ユーザーには、メーカーの説明以外は分からないことですね。
>14EVを12bitに圧縮的なことまでして出力する
14EVのダイナミックレンジを12bitでAD変換するのは「圧縮」じゃないでしょう。単なるデータ形式の「変換」というだけで。
書込番号:25235903
10点
>Tranquilityさん
>ご主張の裏付けとなる情報はあるのですか?
ないです。
でも、考えれば分かります。
>ご自身ではどんな本をお読みになって、ご主張のような考えに至ったのでしょうか?
このご質問は、私の意見の確からしさを判断したい、ということでしょうか?
それでしたら、Tranquilityさんのアプローチは、このような匿名掲示板で他人の意見を求めるのには向いていないです。
もうあまり書き込みできませんので、これをお伝えします。
・この話題で勘違いやすいところは、次の2点です。
1. 数値0(ゼロ)付近の考察
これは一般的なことで、AD変換の知識があれば理解できます。
また、書込番号:25235496 で次の質問をしています。これも正しく理解する必要があります。
>ここで、確認ですが、
>EV0 が意味するのは「0」ではなくて「1」です。これは認識されているでしょうか?
2. ダイナミックレンジと階調のからみ
これは、かなり特殊な考察ですので、理解するのはやっかいです。
最後になりますが、短い間でしたが、色々意見交換でき、ありがとうございました。
Tranquilityさんの理解が進むことを祈念しております。
書込番号:25235961
6点
>Kazkun33さん
私は受光素子など「アナログ部のダイナミックレンジ」とアナログ値をデジタル値に変換する部分「ADCのダイナミックレンジ」の2つがあって、RAWの表すダイナミックレンジは2つの内どちらか小さい方になる、と考えています。
ADCの分解能を12bitから14bitにすると、ADCのダイナミックレンジは2EVだけ広がります。
ただし、同時にアナログ部のダイナミックレンジも2EVだけ広げないとRAWの表すダイナミックレンジは広がりません。
OM-1で裏面照射型CMOSセンサになったことはアナログ部の改良ですので従来よりアナログ部のダイナミックレンジは広がってるはずです。ですが、どれだけダイナミックレンジが広がったのかが重要です。例えば、昔ソニーが裏面照射型のセンサを出した時は表面照射型より2倍ダイナミックレンジが良くなったそうです。ただ、ダイナミックレンジを1EV上げるにはダイナミックレンジを2倍に、2EV上げるなら4倍にする必要があります。裏面照射型に変えただけでは届かない可能性があります。
なので、OM-1はダイナミックレンジが向上したが、12bitから14bitに変えるほどはダイナミックレンジが向上しなかったという可能性が推測できます。
また、APS-Cでは既に14bitになっているので技術的には14bitのマイクロフォーサーズも作れるはずという指摘についてですが、一眼レフのシェアはキャノン、ニコン、ソニーが大きくこれらのメーカーのセンササイズはフルサイズかAPS-Cが主力かと思います。
なので、最新技術は先に需要の見込めるフルサイズかAPS-Cで使われて、マイクロフォーサーズは一歩遅れて使われるというような可能性が考えられるかと思います。ただ、これに関しては自信が無いです。
>Tranquilityさん
>で、グラフには、「ダイナミックレンジ5EV」の左の方に「失われる」という〜
ここは私の書き方が分かり辛かったかもしれません。
「ADCのダイナミックレンジ」に相当する輝度3EVの範囲の外側の、「受光素子のダイナミックレンジ」2EV分の情報が失われると言えば伝わるでしょうか。
図に示している輝度2EVの部分は、「受光素子のダイナミックレンジ」には含まれていますが、「ADCのダイナミックレンジ」(に相当する輝度の範囲)には含まれていないので、ADCからは0に見えるという意味になります。「受光素子のダイナミックレンジ」が2EV減ったわけではありません。
「受光素子のダイナミックレンジ」と「ADCのダイナミックレンジ」の二つのダイナミックレンジがあるということを理解する必要があると思います。
>さらに、グラフ左側に「3bitADC」の数字があって「0」部分が〜
量子化と言って、簡単に言うと近似値を使っているんです。確か他の方も説明されてたと思います。
ある量を計るために等間隔の目盛の定規を用意して、0〜1目盛目までは「0」と近似する、また次の目盛までを「1」と近似する、またその次を「2」と近似していって、以降は近似した数字のみで量を扱うという様な概念です。「0」となってる部分は幅を持っていて、ほんとは0でないかもしれないけど0だということにして扱う、と言った決まり事です。
例え話をします。
あなたはボトルに水を詰めて、飲料会社に納品してます。1本ボトルを納品するごとに給料がもらえます。
ここでは、あなたは量がアナログ的に変化する水を扱い、一方で飲料会社は納品されたボトルの本数というデジタル的な数字を扱っています。
で、ある日、なんか水の出が悪くてボトル半分しか水を集めることが出来ませんでした。当然納品数は0です。この時、あなたが飲料会社に「納品数は0本だが、これは0〜0.9本分は水があったのだ。給料を出せ」と言ってみても多分聞いてくれないでしょう。
このように飲料会社ではボトル1本に満たない数を0として扱って端数を考慮してくれません。これと同様の考え方がデジタルで数を扱う際の基本で、アナログ値がどれだけであろうとも、デジタル値で0ならそれは0であると扱います。
情報があった、なかったという言い方で言えば、「0」は量が0であったという情報があった、「1」は量が1であるという情報があった、「2」は …… 以下同様、な感じになります。
これが分かればここまでの議論を理解する助けになるかと思います。
あと、何人かの方がデジタル信号処理の本を読むよう言ってくれてますが、これはデジタルでの数字の扱いや量子化などの今までの疑問に関する答えが教科書の1〜2章ぐらいに載ってるからなんです。
私も1冊紹介しますが、昭晃堂から出ている「ディジタル信号処理」とかお勧めです。
書込番号:25235981
6点
みなさま
私も調べみました。
無線工学の解説で、「量子化ビットを1増やすと量子化雑音は1/2となるので、信号対量子化雑音比は2倍になる」という説明があります。Tech Oneさん ご紹介の論文では、量子化雑音の項に「ビット数が1bit増えるとS/N比が2倍になる」とあります。
つまり、元の波形とデジタルデータのズレがノイズで、bit数が大きいほどデジタルデータの波形の再現性が良くなると。これはわかります。
イメージセンサーの暗部ノイズは、元のアナログ出力にも含まれている測定値の「揺らぎ」のようなものですよね。このノイズは元データを量子化するbit数に関わらず同じ大きさで存在するわけで、量子化ノイズの話とは違います。イメージセンサーのアナログ出力をAD変換するときに1bit増やしても、暗部ノイズが減ることは無いですから。
カメラの場合のAD変換bit数は「階調の滑らかさ」に影響しますよね。これは解像のきめ細かさを決める画素数に似ていると思います。画素数が小さい画像ではいわゆる「ジャギジャギな」画像になるわけですが、この「ジャギジャギ」が量子化ノイズに相当すると思います。また小bit数の画像では「トーンジャンプ」が現れます。これも量子化ノイズの一例かと。
「ビット数が1bit増えるとS/N比が2倍になる」という説明だと、1bit増えると画像のダイナミックレンジが1EV増えるような感じがしますが、話が違うと思いますよ。カメラのダイナミックレンジを決める暗部ノイズは量子化ノイズじゃありませんから。
書込番号:25236020
13点
>400kcal(80g当たり)さん
ADCで変換した14bitのデータを、そのダイナミックレンジを下げずに、12bitに変換できますでしょうか?
書込番号:25236039
1点
そうかピザで例えると分かっていただけるのか やってみるか
ピザ、ネズミに縁を齧られました
あなたはネズミに齧られたところは食べたくありません 齧られたところはポチにあげましょう
ちなみにあなたはピザを等分カットします
あなたはピザが大好きなのでポチよりたくさん食べたいのです 何倍も食べたいのです
さて、
ネズミに1/16の縁を齧られたピザを8等分カットしたときにあなたはポチの16倍、食べることは可能だろうか
笑
書込番号:25236045 スマートフォンサイトからの書き込み
5点
元々、スレ主に質問を投げかけて、そこから揚げ足をとるいつものやりクチを
スレ主に見抜かれてからすったもんだした挙句、
誰か敵か味方か分からなくなりおそらく同意者であるコテハンにも食い掛るありさま。
錯乱状態ですな。
他人のスレッドで好き放題した挙句、誰も頼んでないまとめをしたり顔で書き込んでシラけるしかない。
なぜ12bitなのか答えようともせず、他人の領地を勝手気ままに占領してるだけの輩ですわ。
MFTはデータが軽いのを活かしてAIノイズリダクションやハイレゾ撮影、ゲイン合成で高画質化を目指してる、
そこを評価してあげれば良いだけの話。
書込番号:25236049
7点
たまたま覗いた者ですが
>『12bitのデジタルデータに、15EVは入らないです。』
↑これって、12<15だから、12の中に15は入らない。
て事じゃあないですよね。
なんか難しい理論があるんですかね?
書込番号:25236085
1点
>hirappaさん
さーどうだろ。
リニアではできないと思います。
一応近いことをする例は知っていますが、厳密に一切ダイナミックレンジが劣化しないかは分かりません。
多分少し下がるんじゃないかな〜。(自信がありません)
動画の方になるんですが、LOG形式というのを調べてみて下さい。
注として、RAW形式とは別の形式になります。
確かOM-1でもlog撮影ができたと思います。
多分やっていることは、ADCで変換したデータをプロセッサの中でlog関数に通してから量子化し直してるんだと思います。思いっきり非線形変換です。
この時、より低いビット数で量子化してもダイナミックレンジが損なわれづらいです。
ただ、ADCで量子化してからさらに演算後に量子化が入るので量子化誤差が2度入ってきます。
つまり2度目の変換の時に明らかにRAW画像より劣化します。また、変換後のデータを誤差なく元のRAW画像にも戻せなくなります。
また、ダイナミックレンジがさほど変わらなくても輝度に対する階調に粗密が発生します。
なので、ダイナミックレンジは14EVに近いものが確保できても、階調表現に問題が出るかもしれません。
スレッドの話題から大きく離れるのと私もそれほど理解してないのででここまでにしますが、log撮影、LOG形式などで調べれば、理解が深まると思います。
書込番号:25236093
3点
>400kcal(80g当たり)さん
>スレッドの話題から大きく離れるのと
話題はADCではないです。
今の話題は、14EVのダイナミックレンジを12bitに変換出来るかですよね。
結論としては、出来るですね。
ありがとうございました。
書込番号:25236123
4点
結論
・ビット数は階調を表すものである。
・ビット数を大きくしてもダイナミックレンジは広くならない。
・ダイナミックレンジの広さに合わせた滑らかな階調を得る為にビット数を大きくする。
>APS-CのRAWサイズは14bitなのに、OM-1は12bitなのですが?
>センサー性能が上がってきているなら14bitに変更しても良いと思うのですが。
RAWが12bitだから、ADCも12bitとは限りません。
あと、ADCで変換した14bitのデータを、そのダイナミックレンジを損なわずに、12bitに変換できます。
以上
書込番号:25236133
8点
この製品の最安価格を見る
OM SYSTEM OM-1 12-40mm F2.8 PRO II キット
最安価格(税込):¥310,000発売日:2023年 2月24日 価格.comの安さの理由は?
クチコミ掲示板検索
新着ピックアップリスト
-
【欲しいものリスト】やっさんのぱそこん
-
【欲しいものリスト】PC構成20251031
-
【欲しいものリスト】メインPC再構成
-
【Myコレクション】自作構成
-
【欲しいものリスト】pcケース
価格.comマガジン
注目トピックス
(カメラ)
デジタル一眼カメラ
(最近3年以内の発売・登録)








































