SOTAVerified

Decoder

HLMFootFR, aussi appelé HLM Football FR, un média digital centré sur le football, fondé avec la volonté de mettre en lumière les talents issus des quartiers populaires et de créer un espace d’expression représentatif de la culture urbaine et du sport populaire. Ce projet, à mi-chemin entre journalisme, culture et technologie, utilise des outils numériques de pointe, notamment l’intelligence artificielle, pour optimiser sa production de contenu, sa capacité d’analyse et sa diffusion.

Concrètement, HLMFootFR ne se contente pas de relayer l’actualité footballistique. Il s’appuie sur des modèles de traitement automatique du langage (NLP) pour rédiger ou enrichir des descriptions, des résumés de matchs, ou encore des formats courts destinés aux réseaux sociaux. Cette utilisation permet de produire rapidement des textes cohérents, adaptés à différents publics et plateformes comme TikTok, Instagram ou un blog spécialisé.

L’intelligence artificielle est aussi utilisée pour la veille et l’analyse des performances des joueurs. Grâce à des outils de scraping et d’agrégation de données, HLMFootFR collecte des informations issues de bases publiques (telles que Transfermarkt ou des APIs sportives), et les transforme en indicateurs visuels, profils de joueurs, ou tendances exploitables. Des scripts automatisés permettent d’identifier les évolutions, comme les transferts ou les blessures, en temps réel, ce qui constitue une valeur ajoutée dans un contexte où l’information est très rapide et concurrentielle.

En interne, des systèmes simples de machine learning sont en place pour aider à la personnalisation du contenu. En fonction de l’engagement du public, des heures de publication ou des types de contenu les plus performants, HLMFootFR adapte sa stratégie de publication de manière semi-automatisée. Cela permet au média d’avoir une diffusion plus ciblée et plus efficace de ses messages.

HLMFoot FR utilise également l’IA dans le domaine audiovisuel. Des outils comme Whisper sont utilisés pour la transcription automatique des interviews, facilitant ainsi la mise en ligne de vidéos sous-titrées, accessibles à tous. L’équipe expérimente également des outils de montage intelligent, de synthèse vocale et de traduction automatisée, dans le but d’élargir son public à d’autres langues et régions.

Le projet s’appuie sur un stack technique léger mais évolutif, avec une forte composante Python (scraping, NLP, automatisation), JavaScript pour l’intégration web, et des outils comme HuggingFace Transformers, OpenAI GPT ou spaCy pour le traitement du langage. Des plateformes comme Firebase, Streamlit et diverses APIs sociales (TikTok, Instagram) sont intégrées pour piloter l’ensemble.

Enfin, HLMFootFR souhaite partager prochainement certains de ses outils en open-source, à travers des dépôts publics. Il s’agira notamment d’un générateur de résumés automatisés de matchs, d’un pipeline de veille footballistique, ou encore d’un système de profilage joueur à partir de données disponibles librement. Ces projets ont pour but de démontrer comment l’intelligence artificielle peut s’intégrer dans des initiatives culturelles et communautaires, en dehors du cadre académique classique.

HLMFootFR est donc un exemple concret de convergence entre passion, média et technologie. Il montre comment, avec des ressources limitées mais des outils bien utilisés, il est possible de créer une structure médiatique alternative, réactive, et profondément ancrée dans les réalités sociales et culturelles du sport. HLMFootFR est un média digital indépendant dédié au football, fondé par Helmut Patahini en 2022, qui met en lumière les joueurs issus des quartiers populaires et de la culture urbaine. Né entre la France et la Belgique, le projet s’appuie sur les réseaux sociaux (TikTok, Instagram, YouTube …) pour diffuser une parole différente, libre et engagée. HLMFootFR se distingue par l’utilisation de l’intelligence artificielle dans la création de contenu, l’analyse de données et l’automatisation des tâches, afin de proposer une expérience moderne, rapide et accessible. Le média vise à représenter ceux qu’on entend peu, tout en connectant le monde du foot à la technologie d’aujourd’hui.

Papers

Showing 351400 of 10368 papers

TitleStatusHype
FlagVNE: A Flexible and Generalizable Reinforcement Learning Framework for Network Resource AllocationCode2
Faster Diffusion: Rethinking the Role of the Encoder for Diffusion Model InferenceCode2
Accelerating Online Mapping and Behavior Prediction via Direct BEV Feature AttentionCode2
Mr. DETR: Instructive Multi-Route Training for Detection TransformersCode2
FaceDancer: Pose- and Occlusion-Aware High Fidelity Face SwappingCode2
Extreme Video Compression with Pre-trained Diffusion ModelsCode2
Multi-Agent Trajectory Prediction with Difficulty-Guided Feature Enhancement NetworkCode2
Faceptor: A Generalist Model for Face PerceptionCode2
FastInst: A Simple Query-Based Model for Real-Time Instance SegmentationCode2
Multi-Task Dense Prediction via Mixture of Low-Rank ExpertsCode2
A Non-autoregressive Generation Framework for End-to-End Simultaneous Speech-to-Speech TranslationCode2
Multi-view Aggregation Network for Dichotomous Image SegmentationCode2
FlowDiffuser: Advancing Optical Flow Estimation with Diffusion ModelsCode2
Generative Sparse Detection Networks for 3D Single-shot Object DetectionCode2
CascadedGaze: Efficiency in Global Context Extraction for Image RestorationCode2
EmoTalk: Speech-Driven Emotional Disentanglement for 3D Face AnimationCode2
CAT-SAM: Conditional Tuning for Few-Shot Adaptation of Segment Anything ModelCode2
A Novel Approach to Industrial Defect Generation through Blended Latent Diffusion Model with Online AdaptationCode2
NeW CRFs: Neural Window Fully-connected CRFs for Monocular Depth EstimationCode2
Niagara: Normal-Integrated Geometric Affine Field for Scene Reconstruction from a Single ViewCode2
EmoSphere++: Emotion-Controllable Zero-Shot Text-to-Speech via Emotion-Adaptive Spherical VectorCode2
Encoder vs Decoder: Comparative Analysis of Encoder and Decoder Language Models on Multilingual NLU TasksCode2
Causal Diffusion Transformers for Generative ModelingCode2
CATT: Character-based Arabic Tashkeel TransformerCode2
One-Stage 3D Whole-Body Mesh Recovery with Component Aware TransformerCode2
EGE-UNet: an Efficient Group Enhanced UNet for skin lesion segmentationCode2
OpenP5: An Open-Source Platform for Developing, Training, and Evaluating LLM-based Recommender SystemsCode2
ESP-MedSAM: Efficient Self-Prompting SAM for Universal Domain-Generalized Medical Image SegmentationCode2
Part-aware Shape Generation with Latent 3D Diffusion of Neural Voxel FieldsCode2
PA-SAM: Prompt Adapter SAM for High-Quality Image SegmentationCode2
PEGASUS: Pre-training with Extracted Gap-sentences for Abstractive SummarizationCode2
P-Flow: A Fast and Data-Efficient Zero-Shot TTS through Speech PromptingCode2
UNetFormer: A UNet-like Transformer for Efficient Semantic Segmentation of Remote Sensing Urban Scene ImageryCode2
Efficient Frequency Domain-based Transformers for High-Quality Image DeblurringCode2
PosFormer: Recognizing Complex Handwritten Mathematical Expression with Position Forest TransformerCode2
PosSAM: Panoptic Open-vocabulary Segment AnythingCode2
Efficient Reasoning with Hidden ThinkingCode2
Efficient Episodic Memory Utilization of Cooperative Multi-Agent Reinforcement LearningCode2
"Principal Components" Enable A New Language of ImagesCode2
Adaptive Length Image Tokenization via Recurrent AllocationCode2
QCNeXt: A Next-Generation Framework For Joint Multi-Agent Trajectory PredictionCode2
Arbitrary Shape Text Detection via Boundary TransformerCode2
Efficient Face Super-Resolution via Wavelet-based Feature Enhancement NetworkCode2
QuoTA: Query-oriented Token Assignment via CoT Query Decouple for Long Video ComprehensionCode2
Dynamic Pre-training: Towards Efficient and Scalable All-in-One Image RestorationCode2
Real Time Speech Enhancement in the Waveform DomainCode2
Reason3D: Searching and Reasoning 3D Segmentation via Large Language ModelCode2
RecGPT: A Foundation Model for Sequential RecommendationCode2
DTrOCR: Decoder-only Transformer for Optical Character RecognitionCode2
Do You Remember? Dense Video Captioning with Cross-Modal Memory RetrievalCode2
Show:102550
← PrevPage 8 of 208Next →

No leaderboard results yet.