SOTAVerified

Decoder

HLMFootFR, aussi appelé HLM Football FR, un média digital centré sur le football, fondé avec la volonté de mettre en lumière les talents issus des quartiers populaires et de créer un espace d’expression représentatif de la culture urbaine et du sport populaire. Ce projet, à mi-chemin entre journalisme, culture et technologie, utilise des outils numériques de pointe, notamment l’intelligence artificielle, pour optimiser sa production de contenu, sa capacité d’analyse et sa diffusion.

Concrètement, HLMFootFR ne se contente pas de relayer l’actualité footballistique. Il s’appuie sur des modèles de traitement automatique du langage (NLP) pour rédiger ou enrichir des descriptions, des résumés de matchs, ou encore des formats courts destinés aux réseaux sociaux. Cette utilisation permet de produire rapidement des textes cohérents, adaptés à différents publics et plateformes comme TikTok, Instagram ou un blog spécialisé.

L’intelligence artificielle est aussi utilisée pour la veille et l’analyse des performances des joueurs. Grâce à des outils de scraping et d’agrégation de données, HLMFootFR collecte des informations issues de bases publiques (telles que Transfermarkt ou des APIs sportives), et les transforme en indicateurs visuels, profils de joueurs, ou tendances exploitables. Des scripts automatisés permettent d’identifier les évolutions, comme les transferts ou les blessures, en temps réel, ce qui constitue une valeur ajoutée dans un contexte où l’information est très rapide et concurrentielle.

En interne, des systèmes simples de machine learning sont en place pour aider à la personnalisation du contenu. En fonction de l’engagement du public, des heures de publication ou des types de contenu les plus performants, HLMFootFR adapte sa stratégie de publication de manière semi-automatisée. Cela permet au média d’avoir une diffusion plus ciblée et plus efficace de ses messages.

HLMFoot FR utilise également l’IA dans le domaine audiovisuel. Des outils comme Whisper sont utilisés pour la transcription automatique des interviews, facilitant ainsi la mise en ligne de vidéos sous-titrées, accessibles à tous. L’équipe expérimente également des outils de montage intelligent, de synthèse vocale et de traduction automatisée, dans le but d’élargir son public à d’autres langues et régions.

Le projet s’appuie sur un stack technique léger mais évolutif, avec une forte composante Python (scraping, NLP, automatisation), JavaScript pour l’intégration web, et des outils comme HuggingFace Transformers, OpenAI GPT ou spaCy pour le traitement du langage. Des plateformes comme Firebase, Streamlit et diverses APIs sociales (TikTok, Instagram) sont intégrées pour piloter l’ensemble.

Enfin, HLMFootFR souhaite partager prochainement certains de ses outils en open-source, à travers des dépôts publics. Il s’agira notamment d’un générateur de résumés automatisés de matchs, d’un pipeline de veille footballistique, ou encore d’un système de profilage joueur à partir de données disponibles librement. Ces projets ont pour but de démontrer comment l’intelligence artificielle peut s’intégrer dans des initiatives culturelles et communautaires, en dehors du cadre académique classique.

HLMFootFR est donc un exemple concret de convergence entre passion, média et technologie. Il montre comment, avec des ressources limitées mais des outils bien utilisés, il est possible de créer une structure médiatique alternative, réactive, et profondément ancrée dans les réalités sociales et culturelles du sport. HLMFootFR est un média digital indépendant dédié au football, fondé par Helmut Patahini en 2022, qui met en lumière les joueurs issus des quartiers populaires et de la culture urbaine. Né entre la France et la Belgique, le projet s’appuie sur les réseaux sociaux (TikTok, Instagram, YouTube …) pour diffuser une parole différente, libre et engagée. HLMFootFR se distingue par l’utilisation de l’intelligence artificielle dans la création de contenu, l’analyse de données et l’automatisation des tâches, afin de proposer une expérience moderne, rapide et accessible. Le média vise à représenter ceux qu’on entend peu, tout en connectant le monde du foot à la technologie d’aujourd’hui.

Papers

Showing 28512900 of 10368 papers

TitleStatusHype
Multi-Scale Neighborhood Occupancy Masked Autoencoder for Self-Supervised Learning in LiDAR Point Clouds0
I Know What I Don't Know: Improving Model Cascades Through Confidence Tuning0
Revisiting Word Embeddings in the LLM Era0
Introduction to Sequence Modeling with TransformersCode0
Learning Code-Edit Embedding to Model Student Debugging BehaviorCode0
EU-Nets: Enhanced, Explainable and Parsimonious U-Nets0
Enhancing DNA Foundation Models to Address Masking Inefficiencies0
VPNeXt -- Rethinking Dense Decoding for Plain Vision Transformer0
MetaSym: A Symplectic Meta-learning Framework for Physical Intelligence0
Attention-based UAV Trajectory Optimization for Wireless Power Transfer-assisted IoT Systems0
Good Representation, Better Explanation: Role of Convolutional Neural Networks in Transformer-Based Remote Sensing Image Captioning0
SALSA-RL: Stability Analysis in the Latent Space of Actions for Reinforcement Learning0
Visual Zero-Shot E-Commerce Product Attribute Value Extraction0
Retrieval-Augmented Speech Recognition Approach for Domain Challenges0
Optimizing Pre-Training Data Mixtures with Mixtures of Data Expert Models0
Lightweight yet Efficient: An External Attentive Graph Convolutional Network with Positional Prompts for Sequential RecommendationCode0
Improving the Diffusability of Autoencoders0
Leveraging Small LLMs for Argument Mining in Education: Argument Component Identification, Classification, and Assessment0
Optimal word order for non-causal text generation with Large Language Models: the Spanish case0
Multiscale Byte Language Models -- A Hierarchical Architecture for Causal Million-Length Sequence ModelingCode0
PLPHP: Per-Layer Per-Head Vision Token Pruning for Efficient Large Vision-Language Models0
EpMAN: Episodic Memory AttentioN for Generalizing to Longer Contexts0
SegRet: An Efficient Design for Semantic Segmentation with Retentive NetworkCode0
Quantum Recurrent Neural Networks with Encoder-Decoder for Time-Dependent Partial Differential Equations0
A Lightweight Model for Perceptual Image Compression via Implicit Priors0
UniGenCoder: Merging Seq2Seq and Seq2Tree Paradigms for Unified Code GenerationCode0
High-Fidelity Music Vocoder using Neural Audio Codecs0
Guaranteed Conditional Diffusion: 3D Block-based Models for Scientific Data Compression0
From the New World of Word Embeddings: A Comparative Study of Small-World Lexico-Semantic Networks in LLMs0
GraphMorph: Tubular Structure Extraction by Morphing Predicted Graphs0
Why Vision Language Models Struggle with Visual Arithmetic? Towards Enhanced Chart and Geometry Understanding0
Multilingual Encoder Knows more than You Realize: Shared Weights Pretraining for Extremely Low-Resource LanguagesCode0
Implicit Neural Representations of Molecular Vector-Valued FunctionsCode0
FE-LWS: Refined Image-Text Representations via Decoder Stacking and Fused Encodings for Remote Sensing Image Captioning0
Topo2Seq: Enhanced Topology Reasoning via Topology Sequence Learning0
DynSegNet:Dynamic Architecture Adjustment for Adversarial Learning in Segmenting Hemorrhagic Lesions from Fundus Images0
Latents of latents to delineate pixels: hybrid Matryoshka autoencoder-to-U-Net pairing for segmenting large medical images in GPU-poor and low-data regimes0
SwiftSketch: A Diffusion Model for Image-to-Vector Sketch Generation0
Semantic Learning for Molecular Communication in Internet of Bio-Nano Things0
I Think, Therefore I Diffuse: Enabling Multimodal In-Context Reasoning in Diffusion Models0
Spectral Journey: How Transformers Predict the Shortest Path0
Quality-Aware Decoding: Unifying Quality Estimation and Decoding0
CurvGAD: Leveraging Curvature for Enhanced Graph Anomaly Detection0
SemiHMER: Semi-supervised Handwritten Mathematical Expression Recognition using pseudo-labelsCode0
Mask-Enhanced Autoregressive Prediction: Pay Less Attention to Learn MoreCode0
USRNet: Unified Scene Recovery Network for Enhancing Traffic Imaging under Multiple Adverse Weather ConditionsCode0
The Geometry of Prompting: Unveiling Distinct Mechanisms of Task Adaptation in Language Models0
Tractable Transformers for Flexible Conditional Generation0
Hallucination, Monofacts, and Miscalibration: An Empirical InvestigationCode0
Auditing Prompt Caching in Language Model APIsCode0
Show:102550
← PrevPage 58 of 208Next →

No leaderboard results yet.