📦 Datasets Datasets データセット

MMDOD - Multi-Modal and Multi-View Object Detection Dataset MMDOD - Multi-Modal and Multi-View Object Detection Dataset MMDOD - マルチモーダル・マルチビュー物体検出データセット

📅 Date de publication : 📅 Release Date: 📅 公開日: Février 2026 February 2026 2026年2月

📊 Taille : 📊 Size: 📊 サイズ: 10 000+ images 10,000+ images 10,000枚以上の画像

🎯 Modalités : 🎯 Modalities: 🎯 モダリティ: Visible, NIR, Faible Contraste, Décalage de Polarisation Visible, NIR, Low-Contrast, Polarization Shift 可視光、NIR、低コントラスト、偏光シフト

📷 Points de vue : 📷 Viewpoints: 📷 視点: 6 points de vue 6 viewpoints 6つの視点

The integration of multi-modal and multi-view information has become increasingly important for robust visual inspection, particularly in scenarios involving complex optical media such as glass. While recent advances in image fusion and detection models have shown promising results, progress remains limited by the scarcity of comprehensive datasets that combine multiple imaging modalities and viewpoints with consistent object annotations. In this work, we introduce a novel dataset designed to address this gap by providing multi-modal (Visible, Near-Infrared, Polarization Shift, and Low-Contrast) and multi-view (6 viewpoints per container) image sequences of transparent glass containers under controlled but varied defect scenarios. The dataset features both non-destructive objects (e.g., stickers, filters, elastic bands) and destructive structural anomalies (e.g., scratches), as well as visual artifacts such as mold seams, optical reflections, and shadows, which must be implicitly learned as background. By systematically varying object types, configurations, and orientations, we create a rich benchmark that supports task-driven image fusion for object detection. We also highlight key challenges such as optical distortions due to curvature, object occlusion across views, and modality-specific visibility. This dataset is designed to support the development and evaluation of unified fusion architectures capable of learning from heterogeneous visual inputs, addressing an unmet need in both academic and industrial inspection contexts. The integration of multi-modal and multi-view information has become increasingly important for robust visual inspection, particularly in scenarios involving complex optical media such as glass. While recent advances in image fusion and detection models have shown promising results, progress remains limited by the scarcity of comprehensive datasets that combine multiple imaging modalities and viewpoints with consistent object annotations. In this work, we introduce a novel dataset designed to address this gap by providing multi-modal (Visible, Near-Infrared, Polarization Shift, and Low-Contrast) and multi-view (6 viewpoints per container) image sequences of transparent glass containers under controlled but varied defect scenarios. The dataset features both non-destructive objects (e.g., stickers, filters, elastic bands) and destructive structural anomalies (e.g., scratches), as well as visual artifacts such as mold seams, optical reflections, and shadows, which must be implicitly learned as background. By systematically varying object types, configurations, and orientations, we create a rich benchmark that supports task-driven image fusion for object detection. We also highlight key challenges such as optical distortions due to curvature, object occlusion across views, and modality-specific visibility. This dataset is designed to support the development and evaluation of unified fusion architectures capable of learning from heterogeneous visual inputs, addressing an unmet need in both academic and industrial inspection contexts. マルチモーダルおよびマルチビュー情報の統合は、特にガラスなどの複雑な光学媒体を含むシナリオにおいて、堅牢な視覚検査にとってますます重要になっています。 画像融合と検出モデルの最近の進歩は有望な結果を示していますが、複数の撮像モダリティと視点を一貫したオブジェクトアノテーションと組み合わせた包括的なデータセットの不足により、進歩は依然として制限されています。 この研究では、制御されているが多様な欠陥シナリオの下で、透明なガラス容器のマルチモーダル(可視光、近赤外線、偏光シフト、低コントラスト)およびマルチビュー(容器あたり6つの視点)画像シーケンスを提供することにより、 このギャップに対処するように設計された新しいデータセットを紹介します。データセットには、非破壊的オブジェクト(ステッカー、フィルター、ゴムバンドなど)と破壊的構造異常(傷など)の両方、 および背景として暗黙的に学習する必要がある金型継ぎ目、光学反射、影などの視覚的アーティファクトが含まれています。オブジェクトタイプ、構成、方向を体系的に変化させることにより、 物体検出のためのタスク駆動型画像融合をサポートする豊富なベンチマークを作成します。また、曲率による光学歪み、ビュー間のオブジェクトオクルージョン、モダリティ固有の可視性などの主要な課題も強調しています。 このデータセットは、異種視覚入力から学習できる統一融合アーキテクチャの開発と評価をサポートするように設計されており、学術および産業検査コンテキストの両方で満たされていないニーズに対処します。

📄 Publication associée : 📄 Associated Publication: 📄 関連出版物:

"End-To-End Multi-View Multi-Modal Detection-Driven Image Fusion: One Method to Fuse them all"
Bernardi, G., Brisebarre, G., Roman, S., Ardabilian, M., & Dellendrea, E. (2026). ⟨hal-05493938⟩

MVEP - Multi-View Partial Erasure Pattern Dataset MVEP - Multi-View Partial Erasure Pattern Dataset MVEP - マルチビュー部分消去パターンデータセット

📅 Date de publication : 📅 Release Date: 📅 公開日: Février 2026 February 2026 2026年2月

📊 Taille : 📊 Size: 📊 サイズ: 16 400+ images 16,400+ images 16,400枚以上の画像

🎯 Application : 🎯 Application: 🎯 アプリケーション: Inspection industrielle de marque d'usure sur des conteneurs en verre Industrial inspection of wear marks on glass containers ガラス容器の摩耗マークの産業検査

📷 Points de vue : 📷 Viewpoints: 📷 視点: 12 points de vue 12 viewpoints 12の視点

Robust multi-view inspection of transparent objects remains a challenging problem due to strong view-dependent optical effects, partial visibility of surface defects, and annotation ambiguity. Despite its relevance for industrial quality control, publicly available datasets capturing these constraints are scarce, mainly due to confidentiality and intellectual property restrictions. We introduce MVEP, a Multi-View Partial Erasure Pattern dataset designed for the study of multi-view defect detection and wear-level assessment on transparent glass containers. The dataset consists of synchronized multi-view image sequences acquired from a controlled industrial-like setup with twelve calibrated viewpoints per object. To enable public release while preserving realistic inspection conditions, synthetic erasure patterns emulating industrial abrasion are applied to unbranded glass containers and annotated with ordinal wear-severity labels. MVEP comprises 16,400 images organized into multi-view scenes, capturing challenging phenomena such as partial defect visibility, transparency-induced superposition, and view-dependent appearance variability. The dataset supports tasks including multi-view object detection, cross-view consistency learning, and ordinal severity estimation. Robust multi-view inspection of transparent objects remains a challenging problem due to strong view-dependent optical effects, partial visibility of surface defects, and annotation ambiguity. Despite its relevance for industrial quality control, publicly available datasets capturing these constraints are scarce, mainly due to confidentiality and intellectual property restrictions. We introduce MVEP, a Multi-View Partial Erasure Pattern dataset designed for the study of multi-view defect detection and wear-level assessment on transparent glass containers. The dataset consists of synchronized multi-view image sequences acquired from a controlled industrial-like setup with twelve calibrated viewpoints per object. To enable public release while preserving realistic inspection conditions, synthetic erasure patterns emulating industrial abrasion are applied to unbranded glass containers and annotated with ordinal wear-severity labels. MVEP comprises 16,400 images organized into multi-view scenes, capturing challenging phenomena such as partial defect visibility, transparency-induced superposition, and view-dependent appearance variability. The dataset supports tasks including multi-view object detection, cross-view consistency learning, and ordinal severity estimation. 透明物体の堅牢なマルチビュー検査は、強い視点依存の光学効果、表面欠陥の部分的な可視性、およびアノテーションの曖昧さのため、依然として困難な問題です。 産業品質管理における関連性にもかかわらず、これらの制約を捉えた公開データセットは、主に機密性と知的財産権の制限により不足しています。 MVEPは、透明ガラス容器のマルチビュー欠陥検出と摩耗レベル評価の研究のために設計されたマルチビュー部分消去パターンデータセットです。 データセットは、オブジェクトあたり12の校正された視点を持つ制御された産業的なセットアップから取得された同期マルチビュー画像シーケンスで構成されています。現実的な検査条件を維持しながら公開リリースを可能にするために、産業摩耗をエミュレートする合成消去パターンがブランドのないガラス容器に適用され、順序摩耗重症度ラベルでアノテーションされています。 MVEPは、部分的な欠陥の可視性、透明性による重ね合わせ、視点依存の外観変動などの困難な現象を捉えた、マルチビューシーンに編成された16,400枚の画像で構成されています。 データセットは、マルチビュー物体検出、クロスビュー一貫性学習、順序重症度推定などのタスクをサポートします。

📄 Publication associée : 📄 Associated Publication: 📄 関連出版物:

"Compact Mamba Multi-View for Object Detection"
Bernardi, G., Brisebarre, G., Roman, S., Ardabilian, M., & Dellandrea, E. (2026). ⟨hal-05494004⟩

📝 Comment citer ces datasets How to cite these datasets これらのデータセットの引用方法

Si vous utilisez ces datasets dans vos travaux de recherche, veuillez citer les publications associées. Les datasets sont mis à disposition sous licence Creative Commons pour faciliter la recherche académique. If you use these datasets in your research work, please cite the associated publications. The datasets are made available under Creative Commons license to facilitate academic research. 研究活動でこれらのデータセットを使用する場合は、関連する出版物を引用してください。 データセットは学術研究を促進するためにクリエイティブ・コモンズライセンスの下で提供されています。