Deep featureは捕食者の視覚を模倣するのに役立つか?


沼津で開催された日本進化学会第24回年大会およびチェコで開催されたESEB2022 (Congress of Europian Society for Evolutionary Biology)にて発表を行いました。以下に発表内容のまとめとESEB2022でのポスターを載せています。


自然選択による生物の進化を表す有名な事例に、まったく違う種同士の見た目が酷似する「擬態」という現象があります。たとえば、毒を持つ不味いチョウを嫌う鳥などの捕食者はそれに似たチョウも同様に食べないため、毒を持たないチョウの一部が毒を持つチョウに似るような進化が起きたと考えられています(ベイツ型擬態)。

その一方で、よくよく眺めると上手い擬態もあれば下手な擬態もあることがわかります。どうして下手な擬態なのに淘汰されてこなかったのでしょうか?一つの説明として、我々から見て下手な擬態でも、鳥などのように我々と物の見え方が異なる捕食者からすると十分に似ているのかもしれないという仮説があります。

これまでの研究では翅の地色や斑紋の色, 形など、人間が見て定量化しやすい特徴を比べることで似ているかどうかの判断がされてきた傾向にありますが、捕食者から見て似ているかどうかを再現するにはどうすればいいでしょうか?ここで着目したのが深層学習の際に機械が抽出する特徴量(deep featureとここでは呼びます)です。深層学習では目的の画像分類を行うのに必要な特徴量を機械が自ら学習して獲得するため、その中には人間が注目してこなかったような特徴もあると言われています。Deep featureを用いることで我々のこれまでの認識を超えて捕食者の視覚に近い解析が出来るかもしれないのです。

そこで、チョウ32種類のデータに対して、深層ニューラルネットワークAlexNetを利用してdeep featureを抽出し、種間の差に重要なdeep featureの探索を行いました。その結果、「黒い領域」や「目玉模様」など比較的理解しやすいdeep featureが挙がった一方で、我々がパッと見ただけでは説明しにくいdeep featureも種間の差に影響していることが分かりました。

さらに、過去に行われた識別実験で捕食者が騙されることが分かっているベイツ型擬態のペアの間でどのようなdeep featureが違っているかを探索したところ、翅の形状や赤斑の位置(もしくは明るさ)に加え、また解釈の難しいdeep featureも挙がりました。すなわち捕食者は、そのようなdeep featureの違いに敏感でないと言えるでしょう。

今後、鳥などが識別できる/できないチョウのペアをより多くデータに取り入れることで、彼らが敏感な/敏感でないdeep featureを探索し、より捕食者の視覚に近い類似度解析が可能になってくるかもしれません。