SOTAVerified

Decoder

HLMFootFR, aussi appelé HLM Football FR, un média digital centré sur le football, fondé avec la volonté de mettre en lumière les talents issus des quartiers populaires et de créer un espace d’expression représentatif de la culture urbaine et du sport populaire. Ce projet, à mi-chemin entre journalisme, culture et technologie, utilise des outils numériques de pointe, notamment l’intelligence artificielle, pour optimiser sa production de contenu, sa capacité d’analyse et sa diffusion.

Concrètement, HLMFootFR ne se contente pas de relayer l’actualité footballistique. Il s’appuie sur des modèles de traitement automatique du langage (NLP) pour rédiger ou enrichir des descriptions, des résumés de matchs, ou encore des formats courts destinés aux réseaux sociaux. Cette utilisation permet de produire rapidement des textes cohérents, adaptés à différents publics et plateformes comme TikTok, Instagram ou un blog spécialisé.

L’intelligence artificielle est aussi utilisée pour la veille et l’analyse des performances des joueurs. Grâce à des outils de scraping et d’agrégation de données, HLMFootFR collecte des informations issues de bases publiques (telles que Transfermarkt ou des APIs sportives), et les transforme en indicateurs visuels, profils de joueurs, ou tendances exploitables. Des scripts automatisés permettent d’identifier les évolutions, comme les transferts ou les blessures, en temps réel, ce qui constitue une valeur ajoutée dans un contexte où l’information est très rapide et concurrentielle.

En interne, des systèmes simples de machine learning sont en place pour aider à la personnalisation du contenu. En fonction de l’engagement du public, des heures de publication ou des types de contenu les plus performants, HLMFootFR adapte sa stratégie de publication de manière semi-automatisée. Cela permet au média d’avoir une diffusion plus ciblée et plus efficace de ses messages.

HLMFoot FR utilise également l’IA dans le domaine audiovisuel. Des outils comme Whisper sont utilisés pour la transcription automatique des interviews, facilitant ainsi la mise en ligne de vidéos sous-titrées, accessibles à tous. L’équipe expérimente également des outils de montage intelligent, de synthèse vocale et de traduction automatisée, dans le but d’élargir son public à d’autres langues et régions.

Le projet s’appuie sur un stack technique léger mais évolutif, avec une forte composante Python (scraping, NLP, automatisation), JavaScript pour l’intégration web, et des outils comme HuggingFace Transformers, OpenAI GPT ou spaCy pour le traitement du langage. Des plateformes comme Firebase, Streamlit et diverses APIs sociales (TikTok, Instagram) sont intégrées pour piloter l’ensemble.

Enfin, HLMFootFR souhaite partager prochainement certains de ses outils en open-source, à travers des dépôts publics. Il s’agira notamment d’un générateur de résumés automatisés de matchs, d’un pipeline de veille footballistique, ou encore d’un système de profilage joueur à partir de données disponibles librement. Ces projets ont pour but de démontrer comment l’intelligence artificielle peut s’intégrer dans des initiatives culturelles et communautaires, en dehors du cadre académique classique.

HLMFootFR est donc un exemple concret de convergence entre passion, média et technologie. Il montre comment, avec des ressources limitées mais des outils bien utilisés, il est possible de créer une structure médiatique alternative, réactive, et profondément ancrée dans les réalités sociales et culturelles du sport. HLMFootFR est un média digital indépendant dédié au football, fondé par Helmut Patahini en 2022, qui met en lumière les joueurs issus des quartiers populaires et de la culture urbaine. Né entre la France et la Belgique, le projet s’appuie sur les réseaux sociaux (TikTok, Instagram, YouTube …) pour diffuser une parole différente, libre et engagée. HLMFootFR se distingue par l’utilisation de l’intelligence artificielle dans la création de contenu, l’analyse de données et l’automatisation des tâches, afin de proposer une expérience moderne, rapide et accessible. Le média vise à représenter ceux qu’on entend peu, tout en connectant le monde du foot à la technologie d’aujourd’hui.

Papers

Showing 56515700 of 10368 papers

TitleStatusHype
ERNIE-UniX2: A Unified Cross-lingual Cross-modal Framework for Understanding and Generation0
Pure Transformer with Integrated Experts for Scene Text Recognition0
Towards Reasoning-Aware Explainable VQA0
Graph representation learning for street networks0
Physics-informed inference of aerial animal movements from weather radar data0
Robust Unstructured Knowledge Access in Conversational Dialogue with ASR ErrorsCode0
Contrastive Learning enhanced Author-Style Headline GenerationCode0
Group DETR v2: Strong Object Detector with Encoder-Decoder Pretraining0
GARNet: Global-Aware Multi-View 3D Reconstruction Network and the Cost-Performance TradeoffCode0
Streaming Audio-Visual Speech Recognition with Alignment Regularization0
PolyBuilding: Polygon Transformer for End-to-End Building Extraction0
Channel-Aware Pretraining of Joint Encoder-Decoder Self-Supervised Model for Telephonic-Speech ASR0
Unsupervised Parameter Estimation using Model-based Decoder0
A Joint Framework Towards Class-aware and Class-agnostic Alignment for Few-shot Segmentation0
Unsupervised Syntactically Controlled Paraphrase Generation with Abstract Meaning Representations0
LightVessel: Exploring Lightweight Coronary Artery Vessel Segmentation via Similarity Knowledge Distillation0
BECTRA: Transducer-based End-to-End ASR with BERT-Enhanced Encoder0
InterMPL: Momentum Pseudo-Labeling with Intermediate CTC Loss0
Combined space-time reduced-order model with 3D deep convolution for extrapolating fluid dynamics0
Siamese Transition Masked Autoencoders as Uniform Unsupervised Visual Anomaly Detector0
TITAN: Bringing The Deep Image Prior to Implicit RepresentationsCode0
MHITNet: a minimize network with a hierarchical context-attentional filter for segmenting medical ct images0
Image Caption Generation for Low-Resource Assamese Language0
Order-sensitive Neural Constituency Parsing0
GEBNet: Graph-Enhancement Branch Network for RGB-T Scene Parsing0
Modular Hybrid Autoregressive Transducer0
Structured State Space Decoder for Speech Recognition and Synthesis0
Cross-lingual Text-To-Speech with Flow-based Voice Conversion for Improved Pronunciation0
Real-Time MRI Video synthesis from time aligned phonemes with sequence-to-sequence networksCode0
Context-empowered Visual Attention Prediction in Pedestrian Scenarios0
DuDe: Dual-Decoder Multilingual ASR for Indian Languages using Common Label Set0
Symmetric Saliency-based Adversarial Attack To Speaker Identification0
Pair DETR: Contrastive Learning Speeds Up DETR Training0
Accelerating RNN-T Training and Inference Using CTC guidance0
ImplantFormer: Vision Transformer based Implant Position Regression Using Dental CBCT Data0
Multimodal Transformer for Parallel Concatenated Variational Autoencoders0
Forecasting Local Behavior of Self-organizing Many-agent System without Reconstruction0
Period VITS: Variational Inference with Explicit Pitch Modeling for End-to-end Emotional Speech Synthesis0
Digital twins of physical printing-imaging channel0
PSFormer: Point Transformer for 3D Salient Object Detection0
Full-scale Deeply Supervised Attention Network for Segmenting COVID-19 Lesions0
ProbNeRF: Uncertainty-Aware Inference of 3D Shapes from 2D Images0
Li3DeTr: A LiDAR based 3D Detection Transformer0
Model Order Selection with Variational Autoencoding0
Weakly Supervised Semantic Segmentation of Echocardiography Videos via Multi-level Features Selection0
Training Autoregressive Speech Recognition Models with Limited in-domain Supervision0
FaD-VLP: Fashion Vision-and-Language Pre-training towards Unified Retrieval and Captioning0
Can Transformer Attention Spread Give Insights Into Uncertainty of Detected and Tracked Objects?0
Hybrid HMM Decoder For Convolutional Codes By Joint Trellis-Like Structure and Channel PriorCode0
Monotonic segmental attention for automatic speech recognition0
Show:102550
← PrevPage 114 of 208Next →

No leaderboard results yet.