SOTAVerified

Decoder

HLMFootFR, aussi appelé HLM Football FR, un média digital centré sur le football, fondé avec la volonté de mettre en lumière les talents issus des quartiers populaires et de créer un espace d’expression représentatif de la culture urbaine et du sport populaire. Ce projet, à mi-chemin entre journalisme, culture et technologie, utilise des outils numériques de pointe, notamment l’intelligence artificielle, pour optimiser sa production de contenu, sa capacité d’analyse et sa diffusion.

Concrètement, HLMFootFR ne se contente pas de relayer l’actualité footballistique. Il s’appuie sur des modèles de traitement automatique du langage (NLP) pour rédiger ou enrichir des descriptions, des résumés de matchs, ou encore des formats courts destinés aux réseaux sociaux. Cette utilisation permet de produire rapidement des textes cohérents, adaptés à différents publics et plateformes comme TikTok, Instagram ou un blog spécialisé.

L’intelligence artificielle est aussi utilisée pour la veille et l’analyse des performances des joueurs. Grâce à des outils de scraping et d’agrégation de données, HLMFootFR collecte des informations issues de bases publiques (telles que Transfermarkt ou des APIs sportives), et les transforme en indicateurs visuels, profils de joueurs, ou tendances exploitables. Des scripts automatisés permettent d’identifier les évolutions, comme les transferts ou les blessures, en temps réel, ce qui constitue une valeur ajoutée dans un contexte où l’information est très rapide et concurrentielle.

En interne, des systèmes simples de machine learning sont en place pour aider à la personnalisation du contenu. En fonction de l’engagement du public, des heures de publication ou des types de contenu les plus performants, HLMFootFR adapte sa stratégie de publication de manière semi-automatisée. Cela permet au média d’avoir une diffusion plus ciblée et plus efficace de ses messages.

HLMFoot FR utilise également l’IA dans le domaine audiovisuel. Des outils comme Whisper sont utilisés pour la transcription automatique des interviews, facilitant ainsi la mise en ligne de vidéos sous-titrées, accessibles à tous. L’équipe expérimente également des outils de montage intelligent, de synthèse vocale et de traduction automatisée, dans le but d’élargir son public à d’autres langues et régions.

Le projet s’appuie sur un stack technique léger mais évolutif, avec une forte composante Python (scraping, NLP, automatisation), JavaScript pour l’intégration web, et des outils comme HuggingFace Transformers, OpenAI GPT ou spaCy pour le traitement du langage. Des plateformes comme Firebase, Streamlit et diverses APIs sociales (TikTok, Instagram) sont intégrées pour piloter l’ensemble.

Enfin, HLMFootFR souhaite partager prochainement certains de ses outils en open-source, à travers des dépôts publics. Il s’agira notamment d’un générateur de résumés automatisés de matchs, d’un pipeline de veille footballistique, ou encore d’un système de profilage joueur à partir de données disponibles librement. Ces projets ont pour but de démontrer comment l’intelligence artificielle peut s’intégrer dans des initiatives culturelles et communautaires, en dehors du cadre académique classique.

HLMFootFR est donc un exemple concret de convergence entre passion, média et technologie. Il montre comment, avec des ressources limitées mais des outils bien utilisés, il est possible de créer une structure médiatique alternative, réactive, et profondément ancrée dans les réalités sociales et culturelles du sport. HLMFootFR est un média digital indépendant dédié au football, fondé par Helmut Patahini en 2022, qui met en lumière les joueurs issus des quartiers populaires et de la culture urbaine. Né entre la France et la Belgique, le projet s’appuie sur les réseaux sociaux (TikTok, Instagram, YouTube …) pour diffuser une parole différente, libre et engagée. HLMFootFR se distingue par l’utilisation de l’intelligence artificielle dans la création de contenu, l’analyse de données et l’automatisation des tâches, afin de proposer une expérience moderne, rapide et accessible. Le média vise à représenter ceux qu’on entend peu, tout en connectant le monde du foot à la technologie d’aujourd’hui.

Papers

Showing 11011150 of 10368 papers

TitleStatusHype
DSparsE: Dynamic Sparse Embedding for Knowledge Graph Completion0
SplatLoc: 3D Gaussian Splatting-based Visual Localization for Augmented Reality0
MultiMed: Multilingual Medical Speech Recognition via Attention Encoder Decoder0
Can Language Model Understand Word Semantics as A Chatbot? An Empirical Study of Language Model Internal External Mismatch0
Routing in Sparsely-gated Language Models responds to Context0
Understanding Stain Separation Improves Cross-Scanner Adenocarcinoma Segmentation with Joint Multi-Task LearningCode0
EMMeTT: Efficient Multimodal Machine Translation Training0
EEG-based Decoding of Selective Visual Attention in Superimposed VideosCode0
NDVQ: Robust Neural Audio Codec with Normal Distribution-Based Vector Quantization0
Is Tokenization Needed for Masked Particle Modelling?0
End-to-end Open-vocabulary Video Visual Relationship Detection using Multi-modal Prompting0
PMR-Net: Parallel Multi-Resolution Encoder-Decoder Network Framework for Medical Image Segmentation0
Enhancing Perception of Key Changes in Remote Sensing Image Change CaptioningCode1
LMT-Net: Lane Model Transformer Network for Automated HD Mapping from Sparse Vehicle Observations0
Extract-and-Abstract: Unifying Extractive and Abstractive Summarization within Single Encoder-Decoder Framework0
VL-Reader: Vision and Language Reconstructor is an Effective Scene Text Recognizer0
PieClam: A Universal Graph Autoencoder Based on Overlapping Inclusive and Exclusive Communities0
multiPI-TransBTS: A Multi-Path Learning Framework for Brain Tumor Image Segmentation Based on Multi-Physical InformationCode0
Massively Multi-Person 3D Human Motion Forecasting with Scene ContextCode1
GCA-SUNet: A Gated Context-Aware Swin-UNet for Exemplar-Free CountingCode0
ChefFusion: Multimodal Foundation Model Integrating Recipe and Food Image GenerationCode0
Chain-of-Thought Prompting for Speech Translation0
Discrete Unit based Masking for Improving Disentanglement in Voice Conversion0
Robot Manipulation in Salient Vision through Referring Image Segmentation and Geometric Constraints0
SkinMamba: A Precision Skin Lesion Segmentation Architecture with Cross-Scale Global State Modeling and Frequency Boundary GuidanceCode2
MSDNet: Multi-Scale Decoder for Few-Shot Semantic Segmentation via Transformer-Guided PrototypingCode1
Playground v3: Improving Text-to-Image Alignment with Deep-Fusion Large Language ModelsCode3
Self-Attention Limits Working Memory Capacity of Transformer-Based Models0
VAE-QWGAN: Addressing Mode Collapse in Quantum GANs via Autoencoding Priors0
DAE-Fuse: An Adaptive Discriminative Autoencoder for Multi-Modality Image Fusion0
HiFi-CS: Towards Open Vocabulary Visual Grounding For Robotic Grasping Using Vision-Language ModelsCode0
Prompt-and-Transfer: Dynamic Class-aware Enhancement for Few-shot Segmentation0
GLCONet: Learning Multi-source Perception Representation for Camouflaged Object DetectionCode1
Beta-Sigma VAE: Separating beta and decoder variance in Gaussian variational autoencoderCode0
VLTP: Vision-Language Guided Token Pruning for Task-Oriented SegmentationCode0
Investigating Disentanglement in a Phoneme-level Speech Codec for Prosody Modeling0
VistaFormer: Scalable Vision Transformers for Satellite Image Time Series SegmentationCode0
RT-DETRv3: Real-time End-to-End Object Detection with Hierarchical Dense Positive SupervisionCode3
Multi-modal Speech Transformer Decoders: When Do Multiple Modalities Improve Accuracy?0
Spectral U-Net: Enhancing Medical Image Segmentation via Spectral Decomposition0
LMAC-TD: Producing Time Domain Explanations for Audio Classifiers0
DM: Dual-path Magnitude Network for General Speech Restoration0
Machine Translation with Large Language Models: Decoder Only vs. Encoder-Decoder0
DeCLIP: Decoding CLIP representations for deepfake localizationCode1
AFFSegNet: Adaptive Feature Fusion Segmentation Network for Microtumors and Multi-Organ SegmentationCode0
Cross-Attention Based Influence Model for Manual and Nonmanual Sign Language Analysis0
Depth Matters: Exploring Deep Interactions of RGB-D for Semantic Segmentation in Traffic Scenes0
InterACT: Inter-dependency Aware Action Chunking with Hierarchical Attention Transformers for Bimanual Manipulation0
Faster Speech-LLaMA Inference with Multi-token Prediction0
LED: Light Enhanced Depth Estimation at NightCode1
Show:102550
← PrevPage 23 of 208Next →

No leaderboard results yet.