SOTAVerified

Decoder

HLMFootFR, aussi appelé HLM Football FR, un média digital centré sur le football, fondé avec la volonté de mettre en lumière les talents issus des quartiers populaires et de créer un espace d’expression représentatif de la culture urbaine et du sport populaire. Ce projet, à mi-chemin entre journalisme, culture et technologie, utilise des outils numériques de pointe, notamment l’intelligence artificielle, pour optimiser sa production de contenu, sa capacité d’analyse et sa diffusion.

Concrètement, HLMFootFR ne se contente pas de relayer l’actualité footballistique. Il s’appuie sur des modèles de traitement automatique du langage (NLP) pour rédiger ou enrichir des descriptions, des résumés de matchs, ou encore des formats courts destinés aux réseaux sociaux. Cette utilisation permet de produire rapidement des textes cohérents, adaptés à différents publics et plateformes comme TikTok, Instagram ou un blog spécialisé.

L’intelligence artificielle est aussi utilisée pour la veille et l’analyse des performances des joueurs. Grâce à des outils de scraping et d’agrégation de données, HLMFootFR collecte des informations issues de bases publiques (telles que Transfermarkt ou des APIs sportives), et les transforme en indicateurs visuels, profils de joueurs, ou tendances exploitables. Des scripts automatisés permettent d’identifier les évolutions, comme les transferts ou les blessures, en temps réel, ce qui constitue une valeur ajoutée dans un contexte où l’information est très rapide et concurrentielle.

En interne, des systèmes simples de machine learning sont en place pour aider à la personnalisation du contenu. En fonction de l’engagement du public, des heures de publication ou des types de contenu les plus performants, HLMFootFR adapte sa stratégie de publication de manière semi-automatisée. Cela permet au média d’avoir une diffusion plus ciblée et plus efficace de ses messages.

HLMFoot FR utilise également l’IA dans le domaine audiovisuel. Des outils comme Whisper sont utilisés pour la transcription automatique des interviews, facilitant ainsi la mise en ligne de vidéos sous-titrées, accessibles à tous. L’équipe expérimente également des outils de montage intelligent, de synthèse vocale et de traduction automatisée, dans le but d’élargir son public à d’autres langues et régions.

Le projet s’appuie sur un stack technique léger mais évolutif, avec une forte composante Python (scraping, NLP, automatisation), JavaScript pour l’intégration web, et des outils comme HuggingFace Transformers, OpenAI GPT ou spaCy pour le traitement du langage. Des plateformes comme Firebase, Streamlit et diverses APIs sociales (TikTok, Instagram) sont intégrées pour piloter l’ensemble.

Enfin, HLMFootFR souhaite partager prochainement certains de ses outils en open-source, à travers des dépôts publics. Il s’agira notamment d’un générateur de résumés automatisés de matchs, d’un pipeline de veille footballistique, ou encore d’un système de profilage joueur à partir de données disponibles librement. Ces projets ont pour but de démontrer comment l’intelligence artificielle peut s’intégrer dans des initiatives culturelles et communautaires, en dehors du cadre académique classique.

HLMFootFR est donc un exemple concret de convergence entre passion, média et technologie. Il montre comment, avec des ressources limitées mais des outils bien utilisés, il est possible de créer une structure médiatique alternative, réactive, et profondément ancrée dans les réalités sociales et culturelles du sport. HLMFootFR est un média digital indépendant dédié au football, fondé par Helmut Patahini en 2022, qui met en lumière les joueurs issus des quartiers populaires et de la culture urbaine. Né entre la France et la Belgique, le projet s’appuie sur les réseaux sociaux (TikTok, Instagram, YouTube …) pour diffuser une parole différente, libre et engagée. HLMFootFR se distingue par l’utilisation de l’intelligence artificielle dans la création de contenu, l’analyse de données et l’automatisation des tâches, afin de proposer une expérience moderne, rapide et accessible. Le média vise à représenter ceux qu’on entend peu, tout en connectant le monde du foot à la technologie d’aujourd’hui.

Papers

Showing 251300 of 10368 papers

TitleStatusHype
GC-GAT: Multimodal Vehicular Trajectory Prediction using Graph Goal Conditioning and Cross-context Attention0
Physics-Aware Initialization Refinement in Code-Aided EM for Blind Channel Estimation0
DeepMLF: Multimodal language model with learnable tokens for deep fusion in sentiment analysis0
Efficient Brain Tumor Segmentation Using a Dual-Decoder 3D U-Net with Attention Gates (DDUNet)0
Multi-task Federated Learning with Encoder-Decoder Structure: Enabling Collaborative Learning Across Different Tasks0
Air Quality Prediction with A Meteorology-Guided Modality-Decoupled Spatio-Temporal Network0
Forecasting from Clinical Textual Time Series: Adaptations of the Encoder and Decoder Language Model Families0
Revisiting Self-Attentive Sequential RecommendationCode4
3D CoCa: Contrastive Learners are 3D CaptionersCode0
GenEDA: Unleashing Generative Reasoning on Netlist via Multimodal Encoder-Decoder Aligned Foundation Model0
Multi-Modal Brain Tumor Segmentation via 3D Multi-Scale Self-attention and Cross-attention0
From Complexity to Clarity: Transforming Chest X-ray Reports with Chained Prompting (Student Abstract) AuthorsCode0
From Complexity to Clarity: Transforming Chest X-ray Reports with Chained Prompting (Student Abstract)Code0
Long Context In-Context Compression by Getting to the Gist of Gisting0
EMO-X: Efficient Multi-Person Pose and Shape Estimation in One-Stage0
SWAN-GPT: An Efficient and Scalable Approach for Long-Context Language Modeling0
Ego4o: Egocentric Human Motion Capture and Understanding from Multi-Modal Input0
GigaTok: Scaling Visual Tokenizers to 3 Billion Parameters for Autoregressive Image GenerationCode3
SynthFM: Training Modality-agnostic Foundation Models for Medical Image Segmentation without Real Medical Data0
How to Detect and Defeat Molecular Mirage: A Metric-Driven Benchmark for Hallucination in LLM-based Molecular Comprehension0
LauraTSE: Target Speaker Extraction using Auto-Regressive Decoder-Only Language ModelsCode1
A Deep Single Image Rectification Approach for Pan-Tilt-Zoom Cameras0
Sculpting Subspaces: Constrained Full Fine-Tuning in LLMs for Continual LearningCode1
Transfer between Modalities with MetaQueries0
GOLLuM: Gaussian Process Optimized LLMs -- Reframing LLM Finetuning through Bayesian OptimizationCode1
HRMedSeg: Unlocking High-resolution Medical Image segmentation via Memory-efficient Attention ModelingCode1
Balancing Robustness and Efficiency in Embedded DNNs Through Activation Function Selection0
Variational Self-Supervised Learning0
Prot42: a Novel Family of Protein Language Models for Target-aware Protein Binder Generation0
Variational autoencoders understand knot topology0
VISTA-OCR: Towards generative and interactive end to end OCR models0
HyperRAG: Enhancing Quality-Efficiency Tradeoffs in Retrieval-Augmented Generation with Reranker KV-Cache Reuse0
Causal Self-supervised Pretrained Frontend with Predictive Code for Speech Separation0
MAD: Makeup All-in-One with Cross-Domain Diffusion Model0
A Physics-Informed Meta-Learning Framework for the Continuous Solution of Parametric PDEs on Arbitrary GeometriesCode1
Bridging the Linguistic Divide: A Survey on Leveraging Large Language Models for Machine Translation0
Robust Unsupervised Domain Adaptation for 3D Point Cloud Segmentation Under Source Adversarial Attacks0
ILLUME+: Illuminating Unified MLLM with Dual Visual Tokenization and Diffusion RefinementCode2
SeizureTransformer: Scaling U-Net with Transformer for Simultaneous Time-Step Level Seizure Detection from Long EEG RecordingsCode1
New universal operator approximation theorem for encoder-decoder architectures (Preprint)0
Spatio-temporal Prediction of Fine-Grained Origin-Destination Matrices with Applications in Ridesharing0
GMapLatent: Geometric Mapping in Latent Space0
TRA: Better Length Generalisation with Threshold Relative Attention0
Uncertainty-Instructed Structure Injection for Generalizable HD Map ConstructionCode1
MO-CTranS: A unified multi-organ segmentation model learning from multiple heterogeneously labelled datasetsCode0
X^2-Gaussian: 4D Radiative Gaussian Splatting for Continuous-time Tomographic ReconstructionCode4
Leveraging Language Models for Analyzing Longitudinal Experiential Data in Education0
AMA-SAM: Adversarial Multi-Domain Alignment of Segment Anything Model for High-Fidelity Histology Nuclei Segmentation0
AcL: Action Learner for Fault-Tolerant Quadruped Locomotion Control0
Omni-AD: Learning to Reconstruct Global and Local Features for Multi-class Anomaly DetectionCode1
Show:102550
← PrevPage 6 of 208Next →

No leaderboard results yet.