SOTAVerified

Decoder

HLMFootFR, aussi appelé HLM Football FR, un média digital centré sur le football, fondé avec la volonté de mettre en lumière les talents issus des quartiers populaires et de créer un espace d’expression représentatif de la culture urbaine et du sport populaire. Ce projet, à mi-chemin entre journalisme, culture et technologie, utilise des outils numériques de pointe, notamment l’intelligence artificielle, pour optimiser sa production de contenu, sa capacité d’analyse et sa diffusion.

Concrètement, HLMFootFR ne se contente pas de relayer l’actualité footballistique. Il s’appuie sur des modèles de traitement automatique du langage (NLP) pour rédiger ou enrichir des descriptions, des résumés de matchs, ou encore des formats courts destinés aux réseaux sociaux. Cette utilisation permet de produire rapidement des textes cohérents, adaptés à différents publics et plateformes comme TikTok, Instagram ou un blog spécialisé.

L’intelligence artificielle est aussi utilisée pour la veille et l’analyse des performances des joueurs. Grâce à des outils de scraping et d’agrégation de données, HLMFootFR collecte des informations issues de bases publiques (telles que Transfermarkt ou des APIs sportives), et les transforme en indicateurs visuels, profils de joueurs, ou tendances exploitables. Des scripts automatisés permettent d’identifier les évolutions, comme les transferts ou les blessures, en temps réel, ce qui constitue une valeur ajoutée dans un contexte où l’information est très rapide et concurrentielle.

En interne, des systèmes simples de machine learning sont en place pour aider à la personnalisation du contenu. En fonction de l’engagement du public, des heures de publication ou des types de contenu les plus performants, HLMFootFR adapte sa stratégie de publication de manière semi-automatisée. Cela permet au média d’avoir une diffusion plus ciblée et plus efficace de ses messages.

HLMFoot FR utilise également l’IA dans le domaine audiovisuel. Des outils comme Whisper sont utilisés pour la transcription automatique des interviews, facilitant ainsi la mise en ligne de vidéos sous-titrées, accessibles à tous. L’équipe expérimente également des outils de montage intelligent, de synthèse vocale et de traduction automatisée, dans le but d’élargir son public à d’autres langues et régions.

Le projet s’appuie sur un stack technique léger mais évolutif, avec une forte composante Python (scraping, NLP, automatisation), JavaScript pour l’intégration web, et des outils comme HuggingFace Transformers, OpenAI GPT ou spaCy pour le traitement du langage. Des plateformes comme Firebase, Streamlit et diverses APIs sociales (TikTok, Instagram) sont intégrées pour piloter l’ensemble.

Enfin, HLMFootFR souhaite partager prochainement certains de ses outils en open-source, à travers des dépôts publics. Il s’agira notamment d’un générateur de résumés automatisés de matchs, d’un pipeline de veille footballistique, ou encore d’un système de profilage joueur à partir de données disponibles librement. Ces projets ont pour but de démontrer comment l’intelligence artificielle peut s’intégrer dans des initiatives culturelles et communautaires, en dehors du cadre académique classique.

HLMFootFR est donc un exemple concret de convergence entre passion, média et technologie. Il montre comment, avec des ressources limitées mais des outils bien utilisés, il est possible de créer une structure médiatique alternative, réactive, et profondément ancrée dans les réalités sociales et culturelles du sport. HLMFootFR est un média digital indépendant dédié au football, fondé par Helmut Patahini en 2022, qui met en lumière les joueurs issus des quartiers populaires et de la culture urbaine. Né entre la France et la Belgique, le projet s’appuie sur les réseaux sociaux (TikTok, Instagram, YouTube …) pour diffuser une parole différente, libre et engagée. HLMFootFR se distingue par l’utilisation de l’intelligence artificielle dans la création de contenu, l’analyse de données et l’automatisation des tâches, afin de proposer une expérience moderne, rapide et accessible. Le média vise à représenter ceux qu’on entend peu, tout en connectant le monde du foot à la technologie d’aujourd’hui.

Papers

Showing 401450 of 10368 papers

TitleStatusHype
Scaling Up Models and Data with t5x and seqioCode2
FlowFormer: A Transformer Architecture for Optical FlowCode2
Nix-TTS: Lightweight and End-to-End Text-to-Speech via Module-wise DistillationCode2
CMGAN: Conformer-based Metric GAN for Speech EnhancementCode2
MonoDETR: Depth-guided Transformer for Monocular 3D Object DetectionCode2
UMT: Unified Multi-modal Transformers for Joint Video Moment Retrieval and Highlight DetectionCode2
CM-GAN: Image Inpainting with Cascaded Modulation GAN and Object-Aware TrainingCode2
TransFusion: Robust LiDAR-Camera Fusion for 3D Object Detection with TransformersCode2
FUTR3D: A Unified Sensor Fusion Framework for 3D DetectionCode2
EDTER: Edge Detection with TransformerCode2
UNeXt: MLP-based Rapid Medical Image Segmentation NetworkCode2
LiteTransformerSearch: Training-free Neural Architecture Search for Efficient Language ModelsCode2
NeW CRFs: Neural Window Fully-connected CRFs for Monocular Depth EstimationCode2
Real-World Blind Super-Resolution via Feature Matching with Implicit High-Resolution PriorsCode2
SGPT: GPT Sentence Embeddings for Semantic SearchCode2
ActionFormer: Localizing Moments of Actions with TransformersCode2
Speech Denoising in the Waveform Domain with Self-AttentionCode2
Context Autoencoder for Self-Supervised Representation LearningCode2
RelTR: Relation Transformer for Scene Graph GenerationCode2
Anomaly Detection via Reverse Distillation from One-Class EmbeddingCode2
A Transformer-Based Siamese Network for Change DetectionCode2
StyTr2: Image Style Transfer With TransformersCode2
Multitask Prompted Training Enables Zero-Shot Task GeneralizationCode2
LightSeq2: Accelerated Training for Transformer-based Models on GPUsCode2
UNetFormer: A UNet-like Transformer for Efficient Semantic Segmentation of Remote Sensing Urban Scene ImageryCode2
Polyp-PVT: Polyp Segmentation with Pyramid Vision TransformersCode2
Graph Neural Networks for Natural Language Processing: A SurveyCode2
SeaD: End-to-end Text-to-SQL Generation with Schema-aware DenoisingCode2
GAN Prior Embedded Network for Blind Face Restoration in the WildCode2
A Novel Transformer Based Semantic Segmentation Scheme for Fine-Resolution Remote Sensing ImagesCode2
TransUNet: Transformers Make Strong Encoders for Medical Image SegmentationCode2
Monaural Speech Enhancement with Complex Convolutional Block Attention Module and Joint Time Frequency LossesCode2
Boundary-Aware Segmentation Network for Mobile and Web ApplicationsCode2
Rethinking Semantic Segmentation from a Sequence-to-Sequence Perspective with TransformersCode2
Improving Opus Low Bit Rate Quality with Neural Speech SynthesisCode2
Real Time Speech Enhancement in the Waveform DomainCode2
Generative Sparse Detection Networks for 3D Single-shot Object DetectionCode2
PEGASUS: Pre-training with Extracted Gap-sentences for Abstractive SummarizationCode2
SINet: Extreme Lightweight Portrait Segmentation Networks with Spatial Squeeze Modules and Information Blocking DecoderCode2
Unified Vision-Language Pre-Training for Image Captioning and VQACode2
Segmentation Transformer: Object-Contextual Representations for Semantic SegmentationCode2
FastSpeech: Fast,Robustand Controllable Text-to-SpeechCode2
FastSpeech: Fast, Robust and Controllable Text to SpeechCode2
MASS: Masked Sequence to Sequence Pre-training for Language GenerationCode2
Neural Speech Synthesis with Transformer NetworkCode2
SQLNet: Generating Structured Queries From Natural Language Without Reinforcement LearningCode2
Neural Discrete Representation LearningCode2
LSTM-based Encoder-Decoder for Multi-sensor Anomaly DetectionCode2
Neural Responding Machine for Short-Text ConversationCode2
Any-Order GPT as Masked Diffusion Model: Decoupling Formulation and ArchitectureCode1
Show:102550
← PrevPage 9 of 208Next →

No leaderboard results yet.