Computer Vision 面接対策で差がつく答え方を解説。CNN、YOLO、Faster R-CNN、ViT、評価指標まで、追加質問に強くなる実践ポイントをまとめました。
CVの面接対策をする候補者の多くは、幅を広げることに偏りすぎていて、深さで足をすくわれます。ノートにはComputer Visionの面接質問が一通り書いてあり、アーキテクチャ名も言えるし、IoUの略も知っている。ところが面接官から「このレイテンシ予算なら、なぜYOLOをFaster R-CNNより選ぶのですか?」と聞かれると、返ってくる答えは判断というよりWikipediaの要約のように聞こえてしまいます。
その不安は、決して不合理ではありません。CVは本当に守備範囲が広いです。古典的な画像処理、深層学習アーキテクチャ、検出とセグメンテーション、評価指標、デプロイ制約、そして今ではVision Transformerまであります。対策すべき面は膨大です。ただし面接で見られているのは「どれだけ知っているか」ではありません。選択肢をどう考え、追加質問の中でどう دفاعし、どこで破綻するかを理解しているかです。これは別のスキルであり、たいていの対策資料はそこを教えてくれません。
このガイドは、そのギャップを埋めるために構成しています。各セクションでトピックを扱い、面接官が実際に何を測っているのかを説明し、平坦な答えと強い答えの違いを示します。そうすることで、追加質問が来ても本当に答えられるようになります。
Computer Visionの面接は実際どう採点されるのか
面接官にとって、強いCVの答えとはどんなものですか?
強い答えは、トレードオフを明示し、デプロイやデータセットの文脈に落とし込み、選択理由を説明します。たとえば「畳み込みニューラルネットワークとは何ですか?」という質問に対して、次の2つの答えを比べてみてください。
平坦な答え: 「CNNは畳み込み層を使って画像から特徴を抽出します。入力全体にフィルタを適用して、エッジや形状のようなパターンを検出します。」
強い答え: 「CNNは局所的な空間構造を活かしています。フィルタは小さな領域で特徴を検出し、深くなるにつれてそれらの特徴がより高次の表現として積み上がっていきます。画像に対して全結合ネットワークよりCNNが優れている理由は魔法ではなく、パラメータ共有と平行移動不変性です。採用文脈でもっと面白いのは、どんな場合にこれを置き換えるかで、そこでViTが登場します。」
平坦な答えは、候補者が何かを読んだことを示すだけです。強い答えは、考えたことを示します。構造化面接を行う面接官は、Harvard Business Review でも仕事の成果をかなり高い精度で予測すると示されていますが、そうした面接では定義ではなく推論の流れを見ています。
なぜ最初の答えより、追加質問のほうが重要なのですか?
最初の答えは、勉強していない候補者をふるい落とします。追加質問は、暗記しただけで理解していない候補者をふるい落とします。採用プロセスに関わったことがあれば、よくある流れに覚えがあるはずです。YOLOの単段検出についてきれいな説明をした人が、「低レイテンシのモバイルアプリなら、なぜYOLOをFaster R-CNNより使うのですか?」と聞かれた途端、「YOLOのほうが速いからです」で崩れてしまう。確かにそれは事実ですが、役に立つ答えではありません。なぜ速いのか、何を精度と引き換えにしているのか、物体が密集していると何が起こるのかが分かりません。
面接官が追加質問をするのは、記憶ではなく推論を見たいからです。きれいな一問目の答えを準備するのは最低限です。自分の答えに対する次の質問まで準備しておくことが、候補者を分ける本当の要素です。
ジュニア、ミドル、シニアでCV面接はどう変わりますか?
ジュニアには、概念を識別し定義することが求められます。畳み込みとは何か、dropoutは何をするのか、precisionとrecallの違いは何か、といった具合です。ミドルには、その概念をパイプラインに結び付けることが求められます。新しいデータセットに対してtransfer learningをどう組むか、クラス不均衡な検出タスクではどの指標を使うか、なぜその指標なのか、という問いです。シニアには、トレードオフを擁護し、失敗モードを説明し、プロダクション上の意思決定を下すことが期待されます。たとえば、エッジデプロイ向けにこのモデルを圧縮したとき何が壊れるか、エラー分析で体系的なラベルノイズが見えたらアノテーションパイプラインをどう再設計するか、といった質問です。
深さの差は本物です。そしてそれは単に知識量が増えるという話ではなく、同じ質問に対してどの粒度で考えるかが変わるという話です。
話題を半分しか知らないとき、どうすれば曖昧に聞こえずに済みますか?
不安になると、つい抽象化したくなります。ですが、それはまさに逆効果です。抽象的な答えは、技術的には正しくても言い逃れに聞こえます。より安全なのは、答えを次の4つの具体要素に結びつけることです。データ、モデル、指標、制約です。「正確なアーキテクチャの詳細までは自信がありませんが、データが少ない状況ならまず事前学習済みのバックボーンを使い、ホールドアウトセットでvalidation lossを監視し、レイテンシは最初からハード制約として扱います」──これは、穴を隠す人ではなく、システムとして考えるエンジニアの答えに聞こえます。
CVの面接質問はレベルごとに何が出るのか?
ジュニア向けのCV面接質問は、最初に何を見ていますか?
ジュニア向けのCV面接質問は、雑学ではなく基礎を見るものです。面接官は、画像が数値としてどう表現されるか、畳み込みが実際に何を計算しているか、なぜpoolingで空間次元が縮むのか、学習曲線で過学習はどう見えるのか、そして汎化を助けつつタスクを歪めないデータ拡張は何か、を理解しているかを見ています。これはひっかけ問題ではありません。土台があるかを確認しているのです。ジュニア候補者がやりがちな失敗は、これらを簡単な質問だと思って説明を省き、max poolingではなくaverage poolingを選ぶ理由や、このデータセットではhorizontal flipを使うのに別のデータセットでは使わない理由を聞かれて点を落とすことです。
ミドルレベルのComputer Vision面接質問では、何が変わりますか?
ミドルレベルのCV面接質問は、「これは何か」から「いつ使うのか、なぜ使うのか」へ移ります。transfer learningは判断の問題になります。ターゲットドメインはImageNetとどれくらい違うのか、ラベル付きデータはどれくらいあるのか、バックボーン全体をfine-tuneするのが妥当なのか、それともheadだけで十分なのか。アノテーション品質も議論に入ってきます。指標の選択は定義問題ではなく設計判断になります。ミドル候補者には、単に部品を列挙するのではなく、実際に機能するパイプラインを説明することが期待されます。
シニアらしいCVの答えとは、どんなものですか?
シニアらしい答えは、モデルをより大きなシステムの一部として扱います。データ品質、ラベル付けの一貫性、クラスバランス、サービングのレイテンシ、メモリ使用量、デプロイレベルでのエラー分析──こうしたものは後回しではなく、今まさに効いてくる論点です。「この検出モデルをどう評価しますか?」と聞かれたシニア候補者は、mAPだけを答えるのではなく、デプロイの文脈は何か、小さい物体が対象に入るのか、クラス分布はどうなっているのか、評価セットは本番分布と一致しているのかを確認します。
候補者が最も戸惑う質問パターンはどれですか?
最も引っかかりやすいのは、「比較して、そのうえで選べ」というパターンです。面接官が2つの選択肢を挙げて、特定のシナリオでどちらを選ぶかを聞いてきます。バランスよく両方を説明することが目的ではありません。制約に基づく選択理由を示し、その選択がどこで破綻するかを正直に認めることが求められます。「場合によります」と言って対称的に両方を説明するのは、このパターンでは失敗です。正しい答えは、決める、説明する、境界条件を述べる、です。
CNN、transfer learning、augmentationはどう組み合わさるのか?
なぜ面接官は今でもCNNから質問を始めるのですか?
CNNはComputer Visionの土台となる概念です。候補者が局所的な特徴抽出の重要性を理解しているかが分かるからです。平坦化した画像に対してdense layerを使うと、各ピクセルを独立に扱うことになり、画像らしさを生む空間構造を活かせません。畳み込みは位置間で重みを共有するため、同じエッジ検出器を画像のどこでも再学習なしで使えます。深さに伴ってreceptive fieldが広がることで、エッジからテクスチャ、物体の部位へと表現が発展していきます。面接官がCNNについて聞くのは、アーキテクチャ名を知っているかではなく、inductive biasを理解しているかを知りたいからです。
transfer learningは、いつスクラッチ学習より有利ですか?
ほぼ常に有利です。ただし、巨大なラベル付きデータセットがあり、しかも事前学習モデルが見たことのないドメインである場合は別です。実務上の答えは3つの要素で決まります。データセットサイズ、ドメインの類似度、学習時間です。ラベル付き例が数千件未満なら、ImageNetで事前学習したモデルを使ってheadだけfine-tuneするほうが、スクラッチ学習よりほぼ確実に有利です。面接官が判断力を試すためによく使う追加質問は、「ターゲット画像がImageNetとまったく違って見えたらどうしますか?」です。正しい答えは、ドメインシフトによって事前学習済み特徴の有効性が下がるので、バックボーンのより深い層までfine-tuneするか、もしあればドメイン特化の事前学習モデルを使う、というものです。
データ拡張が、見せかけの科学にならないためにはどう説明すればよいですか?
データ拡張は、学習データにはないが現実には起こりうる変化にモデルをさらすことで、汎化を助けます。難しいのは、「起こりうる変化」の定義が完全にドメイン依存だという点です。horizontal flipは多くの自然画像タスクでは安全ですが、向き自体に意味があるタスクでは不適切です。たとえば、ナンバープレートの読み取りでは使えません。医用画像では、強い色の揺らぎや幾何学的変形が、保持したい診断信号を壊してしまうことがあります。拡張の本当の規律は、「この変換はラベルを保つか?」を問うことです。腫瘍を検出しているのに、組織のテクスチャ特徴を変える変換をかけたら、それは信号ではなくノイズを足したことになります。
ここでよいエンドツーエンドのパイプライン回答とは、どんな流れですか?
答えは動くシステムのように流れるべきです。生データセット → 品質フィルタリングとアノテーションレビュー → 前処理(resize、normalize、augmentation戦略)→ 事前学習済みバックボーンの選定 → fine-tuning戦略(凍結層か全面fine-tuningか)→ 本番分布に合うホールドアウト分割での検証 → 適切な指標での評価 → 失敗タイプ別のエラー分析 → レイテンシとメモリ制約を踏まえたデプロイ、という流れです。面接官が聞いているのは、その各ステップが次へつながっているか、それとも孤立した用語を暗記しただけに聞こえるかです。
面接でどの物体検出モデルを選ぶべきですか?
YOLOとSSDをすっきり比較するにはどうすればよいですか?
どちらもsingle-stage detectorです。つまり、region proposalの段階を省き、1回のforward passでボックスとクラスを予測します。ここから速度が生まれます。YOLOは検出をグリッド上の回帰問題として扱い、SSDはマルチスケールの特徴マップと事前定義されたanchor boxを使います。実務では、レイテンシがハード制約のリアルタイム物体検出では、YOLOのほうがより素直な選択であることが多いです。アーキテクチャが比較的シンプルで、最適化とデプロイがしやすいからです。SSDはマルチスケールanchorによって、設定によっては小さい物体に強みがあります。面接官が待っている追加質問は、「物体がとても小さい場合はどうですか?」です。ここでsingle-stage detectorは苦しくなり始めます。そこを正面から認めるのが正解です。
Faster R CNNは、どんなときにより適していますか?
生のスループットより、精度とproposalの品質が重要なときです。Faster R-CNNは2段階構成、つまりregion proposal networkの後に領域ごとの分類を行うため、複雑なシーンでの位置合わせ精度が高くなります。製造部品のオフライン検査、医療画像の解析、あるいは見逃しや雑なbboxに実コストがあるタスクなら、レイテンシのペナルティを払う価値があります。この質問をする面接官は、「最良のモデル」は常に制約に対して相対的であり、絶対的な主張ではないことを理解しているかを見ています。
Mask R CNNが「あると便利」から「正解」になるのはいつですか?
タスクがbounding boxではなく、ピクセルレベルの物体境界を必要とするときです。instance segmentationは、重なり合う物体を区別したい、物体の面積を正確に測りたい、位置だけでなく形状を使って処理したい場合に重要です。最も分かりやすいのは医療画像です。病変の境界をセグメントするのは、そこに箱を描くのとは別のタスクです。製造業でのピクセル精度の欠陥検出も同様です。追加質問はたいてい「mask headはどれくらいのオーバーヘッドを増やしますか?」です。答えは、RoI特徴に並列分岐を追加するため計算量は増えるが、バックボーンは共有する、というものです。
「結局YOLOをどこでも使えばいいのでは?」という追加質問にはどう答えますか?
その前提に反論し、仮定を壊すタスク制約を挙げます。YOLOは、リアルタイム物体検出が必要で、物体サイズが比較的適切で、デプロイ先がレイテンシ制約を受けるときに非常に優秀です。一方で、密な小物体シーン、instance segmentationが必要なタスク、proposalの品質が下流の判断に影響するシナリオには弱いです。面接官はYOLOの擁護を聞きたいのではありません。ツールが失敗する境界条件を見極められるかを試しています。それがシニアらしさのサインです。
前処理を、曖昧に聞こえずに説明するにはどうすればよいですか?
フィルタリング、平滑化、エッジ検出は、実際には何をしているのですか?
それぞれの変換には、画像前処理における明確な役割があります。たとえばGaussian blurのような平滑化フィルタは、ピクセル近傍を平均することで高周波ノイズを減らします。代わりにエッジもぼやけるので、境界の精度よりノイズのほうが大きな問題のときに使います。SobelやCannyのようなエッジ検出器は、輝度が急激に変化する領域、つまり物体と背景の境界を見つけます。面接での実践的な言い方はこうです。これらの操作は飾りではありません。モデルが見るものを変える前処理上の意思決定であり、正しい選択はモデルに何を見分けさせたいかで決まります。
morphologyは、CVパイプラインのどこで本当に効きますか?
morphological operations──erosion、dilation、opening、closing──が特に効くのは、二値マスクを扱い、出力に構造的ノイズがあるときです。セグメンテーションモデルが、物体内部に小さな穴のあるマスクや、物体外側に斑点状のノイズを出すなら、closingは穴を埋め、openingは斑点を取り除きます。これは、セグメンテーションマスクが下流の測定ステップに渡る製造検査パイプラインでよく出ます。穴のあるマスクでは面積計算がずれます。医用画像でも、予測された病変マスクに、実際にはつながるべき断片化した領域があるときに重要です。
ヒストグラム均等化を、学術的にならずに説明するにはどうすればよいですか?
ヒストグラム均等化は、ピクセルの輝度値を再分配して、コントラスト範囲全体を使うようにする手法です。平たく言うと、画像が暗く、輝度範囲が狭い場合、モデルは弱いコントラストしか見えておらず、本来あるのに見えないディテールを取りこぼしています。均等化はヒストグラムを広げ、ディテールを見えるようにします。ただし正直な注意点もあります。これは悪いデータを直すものではありません。画像が本当に情報不足なら、露出不足、モーションブラー、遮蔽のような問題があるなら、均等化では撮れていない情報は復元できません。コントラストの問題には効きますが、情報がそもそもない場合には効きません。
CVの面接官が本当に気にする指標はどれですか?
なぜ検出にaccuracyは不適切なのですか?
分類のaccuracyは、すべてを1つの数値に潰してしまい、空間的な品質をまったく考慮しません。正しいクラスを予測していても位置がずれている検出器は、accuracyでは高得点でも、実際のタスクでは失敗です。検出とセグメンテーションの評価指標は、位置合わせの品質、クラスの正しさ、そしてすべてを拾うことと自信のあるものだけを拾うことのトレードオフを捉える必要があります。だからaccuracyは出発点として不適切なのです。
precision、recall、mAPを、分かっているように話すにはどうすればよいですか?
Precisionは、検出したもののうち正解だった割合です。Recallは、真の物体のうち見つけられた割合です。このトレードオフはconfidence thresholdで調整されます。下げればより多くの物体を見つけられますが、false positiveも増えます。Mean Average Precision(mAP)は、閾値をまたいだprecision-recall curveをクラスごとにまとめたものなので、検出では単一閾値の指標よりずっと誠実な要約になります。面接官がよく使う追加質問は、「非常にレアなクラスがあると、mAPはどうなりますか?」です。答えは、レアクラスが平均を下げ、頻出クラスでの強い性能を覆い隠すことがある、です。
IoU、Dice、セグメンテーション品質については何を言うべきですか?
Intersection over Unionは、予測領域と正解領域の重なりを、intersectionをunionで割った比として測ります。検出が正しいと見なされるかを判定する標準的な閾値です。Dice係数は 2 × intersection /(両領域の和)で、重なりをより強く重視します。正解領域が小さく、高いIoU閾値だと厳しすぎる医療セグメンテーションでよく使われます。追加質問はたいてい小さい物体に関するものです。IoUは、小さな位置ずれでもIoUが大きく下がるため、小物体検出に厳しく効きます。そこを理解していること、さらに一部のベンチマークがそれに対応するため複数のIoU閾値を使っていることを知っていると、シニアっぽく聞こえます。
出してみると良さそうに見えるのに、本番で崩れるモデルをどうデバッグしますか?
「過学習」を、単に「学習しすぎ」と言わずに説明するには?
過学習は、学習時間の問題ではなく、データとモデルの適合の問題です。モデルが訓練セットを学びすぎたのは、訓練データの変化が少なすぎたからです。augmentationが足りない、あるいは正則化が弱くて汎化を強制できなかった、ということです。兆候は、training lossとvalidation lossの差が広がっていくことです。CVモデルがこのパターンを示したとき、最初に確認すべきなのは、訓練データが本番で遭遇する変化を本当に代表しているかです。実際はそうでないことが多く、学習を続けるほど過学習が悪化します。
validationは弱いのに、trainingだけは良いときはどうしますか?
まずモデルを責める前に、データパイプラインを確認します。CVでtrain-validation gapが出る最も一般的な原因は、データリーク(同じシーンの動画フレームが両方のsplitに入っている)、分布の不一致(訓練はスタジオ画像、validationは現場画像)、validationセットのアノテーションノイズ、あるいは訓練指標では隠れているクラス不均衡です。具体例を挙げると、動画フレームをランダムにsplitすると、同じ秒のフレームがtrainにもvalidationにも入ってしまいます。モデルは物体ではなくシーンを暗記します。clip単位やscene単位でsplitし直すと、モデルの問題に見えていたギャップが埋まることがあります。
推測ではなく、どうやってエラー分析しますか?
強い候補者は、失敗を単に数えるのではなく、タイプ別にまとめます。クラス別のfalse positive、物体サイズ別のfalse negative、特定クラス対間の混同、低照度や遮蔽条件での性能低下──こうした分類が、何を直すべきかを教えてくれます。面接官の追加質問はたいてい「最初にどこを見ますか?」です。正解は失敗モードによりますが、無難な出発点は、エラーが特定のクラス、特定の画像条件、特定の物体サイズに集中しているかを見ることです。そうすると、「モデルが間違っている」から「この特定の条件で、この特定の理由で間違っている」へと診断が絞れます。
汎化をどう改善したか聞かれたら、どう答えますか?
具体的な失敗モードから始める、という改善ストーリーとして話します。より良いデータは、より多くの変化をカバーします。より賢いaugmentationは、元データに欠けていた現実的な変化を加えます。クラスバランシングやweighted lossは、少数クラス性能を抑えていた不均衡に対処します。dropout、weight decay、early stoppingのような正則化は、モデルが暗記する能力を抑えます。モデルがデータサイズに対して大きすぎるなら、より単純なアーキテクチャのほうが正解になることもあります。面接官が見ている重要なサインは、修正策を選ぶ前に失敗モードを診断しているかどうかです。順番が逆ではありません。
pruning、quantization、エッジデプロイで答えはどう変わりますか?
レイテンシが現実になると、なぜ圧縮の重要性が増すのですか?
ベンチマーク精度は高いのに、1フレーム500msかかるモデルは、リアルタイムシステムではありません。研究から本番へ移ると、特にモバイル、組み込み、エッジハードウェアでは、モデルの計算コストが第一級の制約になります。pruning、quantization、distillationは、モデルができることと、デプロイ先が支えられることのギャップを埋めるための手段です。
pruning、quantization、distillationを1つの答えでどう比較しますか?
pruningは、出力への寄与が小さい重みやニューロン全体を削除し、パラメータ数を減らします。quantizationは、数値精度を下げます。通常は32-bit floatから8-bit integerに下げ、モデルサイズを縮小し、整数演算に対応したハードウェアでは推論を高速化します。knowledge distillationは、大きな「teacher」モデルの振る舞いを小さな「student」モデルに学習させ、表現を直接圧縮するのではなく、学習済みの挙動を移します。精度低下についての追加質問は予想できます。3つとも効率と引き換えにある程度の精度を失います。正しい選択は、どれだけ精度を犠牲にできるか、どのハードウェアを狙っているかで決まります。
面接官がエッジのトレードオフについて聞くとき、何を意味していますか?
モデル精度だけでなく、メモリ、消費電力、熱制約、ハードウェア固有の最適化まで考えているかを聞いています。クラウドGPUでは問題なく動くモデルでも、組み込みデバイスのRAMには大きすぎるかもしれませんし、利用可能な推論エンジンでは遅すぎるかもしれませんし、バッテリー制約のあるプラットフォームには電力を食いすぎるかもしれません。具体例を挙げると、NVIDIA Jetsonモジュール上で動く製造ラインのオンデバイス検査では、厳しいメモリ上限、固定された推論エンジン(TensorRT)、そしてライン速度に結び付いたレイテンシ要件があります。こうした制約が現実なら、モデル選択、入力解像度、quantization戦略はすべて変わります。
リアルタイムのサービング制約を、ありきたりに聞こえず説明するには?
数値を具体的に言ってください。要件がエンドツーエンドで50ms未満なら、その予算には前処理、モデルのforward pass、後処理が含まれます。その制約では入力解像度にもモデル深さにも上限があり、batch sizeは1になる可能性が高いです。おそらくINT8へquantizeし、場合によってはバックボーンをpruneします。「レイテンシを最適化します」と言うのは抽象的です。「このハードウェアでINT8 quantizationを使って50msに収めるなら、バックボーンの深さが制約条件になります」と言えると、それはエンジニアの答えです。
面接ではVision Transformerで何が変わりますか?
なぜ今、CV面接にVision Transformerが出てくるのですか?
Vision Transformerは、Google BrainのViT論文で本格的にComputer Visionのベンチマークに入ってきました。この論文では、畳み込みを使わない純粋なTransformerアーキテクチャが、大規模条件下で画像分類においてCNNと同等かそれ以上になり得ることが示されました。この結果は、visionには局所的な畳み込み構造が必要だという前提に挑戦しました。面接官がViTを聞くのは、候補者が分野の進展を追えているかを見たいからであり、CNNとViTのトレードオフは本当に考えがいがあるからです。
ViTをCNNより選ぶのは、どんなときですか?
十分なデータ、十分な計算資源、そしてグローバルな文脈が効くタスクがあるときです。ViTは画像内のすべてのpatch同士の関係を同時にモデル化します。このglobal attentionは、必要な情報が局所に集中しておらず、画像全体に分散しているときに有効です。トレードオフとして、ViTにはCNNのようなinductive bias(局所性、平行移動等価性)がないため、そうした性質をゼロから学ぶにはより多くのデータが必要です。小さなデータセットでは、事前学習済みCNNバックボーンのほうが、スクラッチ学習のViTより通常は優れます。
ViTの浅い理解を暴く追加質問は何ですか?
「十分なデータがなかったらどうなりますか?」です。浅い答えは「ViTにはもっとデータが必要です」です。深い答えは、ImageNet-21kやJFTのような大規模データセットで事前学習したViTをfine-tuneすれば、小さなターゲットデータセットでもうまく動くことがある、というものです。つまり、重要なのは事前学習の規模であって、克服できないアーキテクチャ上の制約ではないのかを面接官は見ています。
候補者が実際に受けるリアルな面接質問は何ですか?
生画像からデプロイまで、CVパイプラインを説明してもらえますか?
これは統合力を見る質問で、要素をつないで動くシステムにできるかを見ています。答えは次の流れで進むべきです。データ収集と品質フィルタリング → アノテーション戦略とラベルレビュー → 前処理(normalize、resize、augmentation方針)→ タスク種別と制約に基づくモデル選定 → 学習設定(loss function、optimizer、learning rate schedule)→ 本番分布に合うホールドアウトセットでの検証 → タスクに応じた指標での評価 → 失敗タイプ別のエラー分析 → レイテンシとメモリ制約を考慮したデプロイ。面接官が聞いているのは、各ステップが次につながっているか、それとも個別に覚えた用語の羅列に聞こえるかです。
このプロダクトでYOLOをFaster R CNNより選ぶ理由は何ですか?
答えは常に制約です。たとえば、プロダクトがカメラフィードでのリアルタイム推論を必要としていて、30fpsで顧客数をカウントする小売分析システムだとします。その場合、YOLOのsingle-stageアーキテクチャは、スループット向けに作られているので出発点として正しいです。Faster R-CNNの2段階構成は、ライブフィードが吸収しきれないレイテンシを追加します。面接官が見ているのはYOLOへの忠誠心ではありません。タスク適合を見極められるかです。つまり、レイテンシ予算、物体密度、許容できる精度の下限、デプロイ先です。もし「速度より精度が大事なら?」と聞かれたら、制約が変わればモデル選択も変わる、と答えます。
小さい物体を見逃し続けるモデルを、どう改善しますか?
この質問は、小物体検出の知識というより、デバッグの進め方を見ています。正しい答えは診断から始まります。小さい物体が訓練セットに十分含まれているか、入力解像度が低すぎて必要な細部が失われていないか、検出器のanchor設定が物体サイズに対して粗すぎないか、評価指標のIoU閾値が小物体には厳しすぎないか。これらはそれぞれ別の修正につながります。小物体の例を増やす、入力解像度を上げる、小さいanchorやfeature pyramid networkを使う、評価閾値を調整する、などです。強い答えは、修正策を挙げる前に失敗モードを名指しし、エラー分析でどの失敗モードが出たかによって介入策が変わると認めます。
Verve AIは、Computer Visionの面接対策をどう助けてくれるのか
このガイドがここまで示してきた構造的な問題は、答えを知っていることと、実際の会話で追加質問を受けながら答えを出せることは同じではない、という点です。上の各セクションをすべて読んでも、面接官が「mAPを説明してください」から「新しいデプロイ環境に移したら、なぜmAPが落ちたのですか?」へ話を切り替えた瞬間に言葉が出なくなることがあります。その差、つまり知識と実戦の差は、実際に自分が言ったことに反応してくれる練習でしか埋まりません。決まりきったプロンプトに対する練習では埋まりません。
Verve AI Interview Copilotは、まさにそのギャップのために作られています。あなたの答えをリアルタイムで聞き取り、言い落とした部分、予想していなかった追加質問、説明しきれていないトレードオフに反応してくれます。しかもそれをしている間も見えないので、実際の面接にかなり近い環境で練習できます。特にComputer Vision対策では、Verve AI Interview Copilotがモデル選択の理由にツッコミを入れ、指標の選択を掘り下げ、ミドルレベル候補者とシニア候補者を分けるために採用担当者が実際に使う追加質問を提示します。CV候補者にとって計算を変える機能は、答えの途中で「この追加質問に備えていなかった」と気づいた瞬間に、Verve AI Interview Copilotがライブで答えを提案してくれることです。多くの候補者がそこで点を落とします。
まとめ
このセクションを通してやるべきことは、25個の答えを暗記することではありません。追加質問が来ても振り回されないだけの思考の骨組みを作ることです。2段階検出器ではなく1段階検出器を選ぶ理由を聞かれた面接官は、答えを知っているかを試しているのではありません。見たことのない制約をどう推論するかを試しているのです。
そのスキルを本当に身につける練習は、答えを声に出して言い、どこで曖昧になるかを聞き、自分自身に追加質問をしてみることです。面接官より先に、自分で詰めるのです。上の各セクションから1問ずつ選んで、声に出して答えてみてください。次に、自分にこう聞きます。「その選択に反論されたら、私はどうするか?」その追加質問に明確に答えられるなら、準備はできています。答えられないなら、そこが埋めるべきギャップです。そしてそれは、見た目ほど大きなギャップではありません。
Verve AI
コンテンツ
