はいどうもこんばんわ。みなさん3連休は日々の勤労に感謝しながら楽しく過ごせたでしょうか。週5で働いてるので勤労感謝の日も毎週5日間はほしい、そんな東京の夜です。

 

私ごとにつき大変恐縮ではあるんですが、来ました、へへ、あれです。

タイトル読んでると思うんでわかると思うけどね、これ。

 

 

 

Hi there.

 

うっすら見えていますけどね、これね。

 

 

 

 

センキューGoogle!!!!Hoo!!!!

 

Pixel 3 XLを手に入れた、毎日が彩られ鮮やかになった。

 

絶対に元を取るぞ、という貧乏思考で持ち歩くこと約1週間。

 

ということで早速アクティベートして使ってたりはするんだけど、みんなが口を合わせて言う「Pixel 3 のカメラが本当にやばい」というやつ。

 

いやいや待て待て、と。さすがにもうスマートフォンの「カメラがすごい」みたいなのには騙されんよ、と。飽きたわ、飽きた。

要するにポートレートが今までよりすんげー「ふわっと」してたり、あとは何?後加工ができますとか、そういうのでしょ??ボケるんでしょ??はいはい

 

と思って適当に、カメラ歴0年、スマホ以外のカメラ使ったことない自分がその辺の景色を歩きながら撮影してみるわけですよ。

 

以下のツイートが初めて撮ったそれです。

 

エグい。

 

うちの近所ってこんなにいい感じだったっけ・・・?

あと、適当に撮ったにしては街の明かりと月のバランスが取れすぎでは・・・?

 

 

アイスコーヒー(美味しい)

氷の感じとかこんなにバキバキに撮れたっけ・・・?

 

 

うむ。エグい。(2回目)

 

 

Pixel 3のカメラは、もはや本当に「カメラではない」

結論から言うと、Pixel3のカメラの与える違和感はかなり強い。

出て来た画像に対して「過度に修正が効きすぎててキモい」とかではなく、明らかに撮影者のスキルや技術、センスを自動で(勝手に)底上げしてくるという部分に対する違和感だ。

「こんな簡単にこんなにいい写真が撮れるわけがない」という違和感を叩きつけてくる。特に夜間など光の少ないところでの撮影を可能にした”Night Sight”などのもたらす違和感は強烈。

 

それもそのはずで、Pixel3のカメラは仕組みから見ていくと「現実というよりはCGを映し出している」のだそうだ。つまり、カメラではない。やっぱりね。

 

 

Twitterの方でも一連の内容をささっと書いたのですが、おそらくPixelがやっていることは、これまでフォトグラファーが時間をかけてやっていたプロセスそのもののようです(詳しくはTHE GUILDのGo Andoさんの一連のツイートが参考になります!)。

三脚を立てて、違う露出の写真を何枚か(何十枚か)ブラケットで撮影し、それをPhotoshop上でならべてレイヤー化し、レイヤーマスクをそれぞれの不要な部分にかけながら、露出の美味しいところだけを合成するという、あの一連の露出合成の流れです。

それは一眼レフとパソコンとPhotoshopでやれることそのものです。

「じゃあ一眼でできるじゃん?」

そのとおりです。

でも、あのでかい一眼レフで、でかい三脚に載せ、何十枚か撮影したデータをパソコンに取り込んで、それをPhotoshopで展開し、レイヤー合成をして一枚の写真に仕上げるのにかかる手間は、少なく見積もっても数時間。それが約3秒程度で終わります

 

Googleの新スマートフォンPixel 3の「夜景モード」が問いかけるもの(あるいはAIとはなんなのかという実感について)

https://note.mu/takahirobessho/n/n6dd8735ad968

 

つまりは、Pixelのカメラは「カメラを構えて」「シャッターを押して」「パシャっとシャッターがおりて」「出来上がったものが出てくる」というカメラという旧態の画像記憶装置のインターフェースの皮を被った、大量の画像抽出&合成&編集マシンだったわけ。

Pixel3のカメラが吐き出すのは、「実際にそう見えた」ではなく、「事実そこにそれがあり、こういう風に見えたらいいわけでしょ?」という、ある意味「絵」なのかもしれない。

 

 

 

Googleは大量の機械学習と最適化で、ハードウェアの優位性を殴り倒す。

スマートフォンのカメラの進化でいうと、iphoneもすごいんだけど、伸び幅という観点でみると実はHuawei製のスマートフォンのそれがわかりやすい。

なんせ、背面カメラのレンズの数が徐々に増えていき、1年前は2つだ3つだと騒がれていたレンズの数は、ここ最近のモデルではついに4眼になった。やったね、シンプル。

 

一方で、GoogleのPixel3に搭載されている背面のカメラレンズは単眼である。1つ。

単純に数で比べるものではないにせよ、Googleはここ最近の加熱の終わらないスマートフォンの背面カメラ市場に対し、ハードウェアスペックを伸ばすのではなく「ミドルレベルのハード+ソフトウェアによる最適化処理」という形で勝負して来た。

 

そしてその成果が巷で叫ばれる「Pixel3のカメラはヤバい」なのである。

改めて、ヤバい。

 

遂に来た一般普及しそうなシンギュラリティ。

2045年に技術的特異点を迎え、自己学習により人間の教師学習の手を離れた人工知能が、人間から様々なものを上位互換として代替していく、そんな話もあるけれど、いままではどうも「局所に対する最適化」だったり、「予測精度の補完」という形で応用されていた機械学習というイメージが強く、どうしても「シンギュラリティ」の実感はなかった。

 

ただ、このカメラ、正確には旧態のカメラとは異なる処理を行なっているためあえて言えば「画像記憶の技術」に関して、そのままを写すのではなく、「ユーザーが見たいものを映す」というユーザー体験を提げて、Pixel3というスマートフォンは次の時代への種火を切ったと言って過言ではないと思う。

今回の技術的革新は「良い写真を撮りたい」という多くのユーザーのニーズに応え、この技術としても自己学習を進めながらユーザーの行動をも十分に変えうると感じた。

実際にこのスマホで写真を撮ることはとても楽しいし、自分の毎日が綺麗に残せることに非常に幸せに感じているので、ユーザーとしては大の大大満足である。

 

一方で、「いよいよ来ちゃったかあ」という気持ちもある。

これだけ技術的にソフトウェアに大量なデータを食わせ、過去のプロセスを自動化&高速化することでユーザー体験の満足度が上がってしまうと、ここからが早いだろうなと思った次第。

次は一体なにが自動化されたり、一瞬で(かついい意味で)なかったことにされてしまうのだろうか。

 

 

とにかく、触ってみて感じたことを書いた。

おれのお仕事も早くAIに奪われてくれねえかな。とか言いつつ毎日がんばっていきましょう。

 

なんつって。

 

参考:カメラについてのGoogleの文献あれこれ。

See Better and Further with Super Res Zoom on the Pixel 3

https://ai.googleblog.com/2018/10/see-better-and-further-with-super-res.html?m=1

 

Mass Muder of Apps

https://rebuild.fm/219/