-
Notifications
You must be signed in to change notification settings - Fork 0
hybrid_fusion_api
Status: ✅ Implementiert (v1) – Text+Vector Fusion mit RRF und Weighted Modes
Die Hybrid Fusion Search kombiniert Fulltext-Suche (BM25) und Vektor-Suche (HNSW/Brute-Force) in einer einheitlichen Ergebnisliste. Zwei Fusion-Modi werden unterstützt: RRF (Reciprocal Rank Fusion) und Weighted (gewichtete Score-Fusion).
POST /search/fusion
Formel: score = Σ 1/(k_rrf + rank)
Eigenschaften:
- Rank-basiert (keine Score-Normalisierung erforderlich)
- Robust gegen unterschiedliche Score-Skalen
- Bevorzugt Dokumente, die in beiden Listen hoch ranken
- Standard
k_rrf = 60(empfohlen für Balance)
Vorteile:
- ✅ Keine Annahmen über Score-Verteilungen
- ✅ Einfach zu parametrisieren
- ✅ Bewährt in Information Retrieval (TREC)
Nachteile:
- ❌ Ignoriert absolute Score-Unterschiede
- ❌ Kann relevante Dokumente mit hohem Score in nur einer Modalität benachteiligen
Formel: score = α × normalize(BM25) + (1-α) × normalize(VectorSim)
Normalisierung: Min-Max per Modalität
- Text:
(score - min_text) / (max_text - min_text) - Vector:
1 - (distance - min_dist) / (max_dist - min_dist)(Distance → Similarity)
Eigenschaften:
- Score-basiert mit konfigurierbarer Gewichtung
-
α = weight_text(0.0 bis 1.0, default: 0.5) - Berücksichtigt Score-Magnitudes innerhalb jeder Modalität
Vorteile:
- ✅ Flexibles Tuning der Modalitäts-Gewichte
- ✅ Nutzt Score-Informationen für feinere Diskriminierung
Nachteile:
- ❌ Sensibel gegenüber Score-Verteilungen
- ❌ Erfordert Tuning von
αfür optimale Ergebnisse
POST /search/fusion
{
"table": "articles",
"text_query": "machine learning optimization",
"text_column": "content",
"vector_query": [0.123, 0.456, 0.789, ...],
"fusion_mode": "rrf",
"k_rrf": 60,
"k": 10,
"text_limit": 1000,
"vector_limit": 1000
}POST /search/fusion
{
"table": "docs",
"text_query": "neural network architectures",
"text_column": "description",
"vector_query": [0.3, 0.1, ...],
"fusion_mode": "weighted",
"weight_text": 0.7,
"k": 20
}POST /search/fusion
{
"table": "papers",
"text_query": "deep learning survey",
"text_column": "abstract",
"fusion_mode": "weighted",
"weight_text": 1.0,
"k": 50
}POST /search/fusion
{
"table": "images",
"vector_query": [0.5, 0.2, ...],
"fusion_mode": "weighted",
"weight_text": 0.0,
"k": 100
}| Parameter | Typ | Required | Default | Beschreibung |
|---|---|---|---|---|
table |
string | ✅ | - | Tabellenname |
text_query |
string | - | Fulltext-Query (mind. 1 Query erforderlich) | |
text_column |
string | - | Spalte mit Fulltext-Index | |
vector_query |
float[] | - | Query-Vektor (mind. 1 Query erforderlich) | |
fusion_mode |
string | ❌ | "rrf" |
Fusion-Modus: "rrf" oder "weighted"
|
k |
int | ❌ | 10 |
Top-k Ergebnisse nach Fusion |
k_rrf |
int | ❌ | 60 |
RRF-Parameter (nur bei fusion_mode="rrf") |
weight_text |
float | ❌ | 0.5 |
Text-Gewicht 0.0-1.0 (nur bei fusion_mode="weighted") |
text_limit |
int | ❌ | 1000 |
Kandidaten-Limit für Text-Suche |
vector_limit |
int | ❌ | 1000 |
Kandidaten-Limit für Vektor-Suche |
text_query+text_column ODER vector_query
{
"count": 10,
"fusion_mode": "rrf",
"table": "articles",
"text_count": 42,
"vector_count": 87,
"results": [
{
"pk": "art_123",
"score": 0.0547
},
{
"pk": "art_456",
"score": 0.0423
}
]
}Response-Felder:
-
count: Anzahl fusionierter Ergebnisse -
fusion_mode: Verwendeter Modus ("rrf"oder"weighted") -
table: Tabelle -
text_count: Anzahl Text-Kandidaten (falls Text-Query vorhanden) -
vector_count: Anzahl Vektor-Kandidaten (falls Vector-Query vorhanden) -
results: Top-k Ergebnisse sortiert nach Fusion-Score (absteigend)
Szenario: Vektor-basierte Ähnlichkeit mit Keyword-Filter
{
"fusion_mode": "weighted",
"weight_text": 0.3,
"text_query": "machine learning",
"vector_query": [...],
"k": 20
}Szenario: Gleichgewichtige Kombination ohne Score-Tuning
{
"fusion_mode": "rrf",
"k_rrf": 60,
"text_query": "optimization algorithms",
"vector_query": [...],
"k": 50
}Szenario: Primär BM25, Vektor als Secondary Signal
{
"fusion_mode": "weighted",
"weight_text": 0.8,
"text_query": "exact technical term",
"vector_query": [...],
"k": 10
}Szenario: Nur Vektor-Suche (konsistente API)
{
"fusion_mode": "weighted",
"weight_text": 0.0,
"vector_query": [...],
"k": 100
}-
Kandidaten-Limits:
text_limitundvector_limitkontrollieren Pre-Fusion-Kandidaten- Höhere Werte: bessere Recall, langsamere Fusion
- Empfehlung: 10-100× des finalen
k
-
Fusion-Komplexität:
- RRF: O(|text_results| + |vector_results|) für Hash-Map + Sort
- Weighted: gleiche Komplexität, zusätzlich Min-Max Normalisierung
-
Index-Optimierung:
- Fulltext: Nutze
limitinscanFulltextWithScores(bereits implementiert) - Vector: HNSW
efSearchParameter für Speed/Quality Trade-off
- Fulltext: Nutze
- k_rrf = 10-30: Starke Bevorzugung hoher Ranks (streng)
- k_rrf = 60: Balanced (Standardwert, TREC-empfohlen)
- k_rrf = 100+: Smoothere Fusion, weniger Rank-Penalisierung
- 0.0-0.2: Vector-dominiert (semantische Suche)
- 0.3-0.5: Balanced (Standard: 0.5)
- 0.6-0.8: Text-dominiert (Keyword-Suche mit semantischem Boost)
- 0.9-1.0: Primär BM25, minimaler Vektor-Einfluss
Tuning-Strategie:
- Starte mit RRF (robust, keine Parameter)
- Falls Modalität dominieren soll: wechsle zu Weighted mit
α-Tuning - Evaluiere auf Representative Queries mit Relevance Judgments
- ❌ Keine Post-Fusion Reranking
- ❌ Keine Query-Zeit Feature-Weights (nur globales
α) - ❌ Keine Custom Similarity Functions
- ❌ Keine Cross-Encoder Integration
- 🔲 Learned Fusion: ML-basierte Score-Kombination
- 🔲 Query-dependent Weights:
αbasierend auf Query-Typ - 🔲 Multi-Stage Retrieval: Fusion → Rerank Pipeline
- 🔲 Distribution-Aware Normalization (z.B. Z-Score statt Min-Max)
- 🔲 AQL Integration:
SEARCH FUSION ... USING TEXT ... VECTOR ...
| Ansatz | Pros | Cons | Use Case |
|---|---|---|---|
| RRF | Robust, keine Tuning, rank-based | Ignoriert Score-Magnitudes | Default für Multi-Modal |
| Weighted | Flexibles Tuning, score-aware | Sensibel, braucht Normalisierung | Wenn Modalität dominieren soll |
| CombSUM | Einfach | Keine Normalisierung, skalenanfällig | ❌ Nicht empfohlen |
| CombMNZ | Bevorzugt Multi-Modal Matches | Komplex, wenig robust | ❌ Nicht implementiert |
# 1. Indizes erstellen
POST /index/create {"table": "papers", "column": "abstract", "type": "fulltext"}
POST /vector/index/config {"table": "papers", "dimension": 768, "metric": "COSINE"}
# 2. Dokumente einfügen mit Text + Vector
PUT /entities/papers/p1 {
"abstract": "Deep learning for computer vision",
"embedding": [0.1, 0.2, ..., 0.768]
}
PUT /entities/papers/p2 {
"abstract": "Neural network optimization techniques",
"embedding": [0.3, 0.4, ..., 0.768]
}
# 3. Hybrid Suche mit RRF
POST /search/fusion {
"table": "papers",
"text_query": "deep learning vision",
"text_column": "abstract",
"vector_query": [0.15, 0.25, ..., 0.768],
"fusion_mode": "rrf",
"k": 10
}
# Ergebnis: Dokumente die SOWOHL semantisch als auch keyword-basiert matchen ranken hoch- RRF: Cormack, Clarke, Büttcher. "Reciprocal Rank Fusion outperforms Condorcet and individual Rank Learning Methods." SIGIR 2009
- Score Normalization: Lee. "Analyses of Multiple Evidence Combination." SIGIR 1997
- Hybrid Retrieval: Ma et al. "A Hybrid Ranking Approach to E-Commerce Search." KDD 2019
- AQL Overview
- AQL Syntax Reference
- EXPLAIN and PROFILE
- Hybrid Queries
- Pattern Matching
- Subquery Implementation
- Subquery Quick Reference
- Fulltext Release Notes
- Hybrid Search Design
- Fulltext Search API
- Content Search
- Pagination Benchmarks
- Stemming
- Hybrid Fusion API
- Performance Tuning
- Migration Guide
- Storage Overview
- RocksDB Layout
- Geo Schema
- Index Types
- Index Statistics
- Index Backup
- HNSW Persistence
- Vector Index
- Graph Index
- Secondary Index
- Security Overview
- RBAC and Authorization
- TLS Setup
- Certificate Pinning
- Encryption Strategy
- Column Encryption
- Key Management
- Key Rotation
- HSM Integration
- PKI Integration
- eIDAS Signatures
- PII Detection
- PII API
- Threat Model
- Hardening Guide
- Incident Response
- SBOM
- Enterprise Overview
- Scalability Features
- Scalability Strategy
- HTTP Client Pool
- Enterprise Build Guide
- Enterprise Ingestion
- Benchmarks Overview
- Compression Benchmarks
- Compression Strategy
- Memory Tuning
- Hardware Acceleration
- GPU Acceleration Plan
- CUDA Backend
- Vulkan Backend
- Multi-CPU Support
- TBB Integration
- Time Series
- Vector Operations
- Graph Features
- Temporal Graphs
- Path Constraints
- Recursive Queries
- Audit Logging
- Change Data Capture
- Transactions
- Semantic Cache
- Cursor Pagination
- Compliance Features
- GNN Embeddings
- Geo Overview
- Geo Architecture
- 3D Game Acceleration
- Geo Feature Tiering
- G3 Phase 2 Status
- G5 Implementation
- Integration Guide
- Content Architecture
- Content Pipeline
- Content Manager
- JSON Ingestion
- Content Ingestion
- Filesystem API
- Image Processor
- Geo Processor
- Policy Implementation
- Developer Guide
- Implementation Status
- Development Roadmap
- Build Strategy
- Build Acceleration
- Code Quality Guide
- AQL LET Implementation
- Audit API Implementation
- SAGA API Implementation
- PKI eIDAS
- WAL Archiving
- Architecture Overview
- Strategic Overview
- Ecosystem
- MVCC Design
- Base Entity
- Caching Strategy
- Caching Data Structures
- Docker Build
- Docker Status
- Multi-Arch CI/CD
- ARM Build Guide
- ARM Packages
- Raspberry Pi Tuning
- Packaging Guide
- Package Maintainers
- Roadmap
- Changelog
- Database Capabilities
- Implementation Summary
- Sachstandsbericht 2025
- Enterprise Final Report
- Test Report
- Build Success Report
- Integration Analysis
- Source Overview
- API Implementation
- Query Engine
- Storage Layer
- Security Implementation
- CDC Implementation
- Time Series
- Utils and Helpers
Updated: 2025-11-30