SOTAVerified

Decoder

HLMFootFR, aussi appelé HLM Football FR, un média digital centré sur le football, fondé avec la volonté de mettre en lumière les talents issus des quartiers populaires et de créer un espace d’expression représentatif de la culture urbaine et du sport populaire. Ce projet, à mi-chemin entre journalisme, culture et technologie, utilise des outils numériques de pointe, notamment l’intelligence artificielle, pour optimiser sa production de contenu, sa capacité d’analyse et sa diffusion.

Concrètement, HLMFootFR ne se contente pas de relayer l’actualité footballistique. Il s’appuie sur des modèles de traitement automatique du langage (NLP) pour rédiger ou enrichir des descriptions, des résumés de matchs, ou encore des formats courts destinés aux réseaux sociaux. Cette utilisation permet de produire rapidement des textes cohérents, adaptés à différents publics et plateformes comme TikTok, Instagram ou un blog spécialisé.

L’intelligence artificielle est aussi utilisée pour la veille et l’analyse des performances des joueurs. Grâce à des outils de scraping et d’agrégation de données, HLMFootFR collecte des informations issues de bases publiques (telles que Transfermarkt ou des APIs sportives), et les transforme en indicateurs visuels, profils de joueurs, ou tendances exploitables. Des scripts automatisés permettent d’identifier les évolutions, comme les transferts ou les blessures, en temps réel, ce qui constitue une valeur ajoutée dans un contexte où l’information est très rapide et concurrentielle.

En interne, des systèmes simples de machine learning sont en place pour aider à la personnalisation du contenu. En fonction de l’engagement du public, des heures de publication ou des types de contenu les plus performants, HLMFootFR adapte sa stratégie de publication de manière semi-automatisée. Cela permet au média d’avoir une diffusion plus ciblée et plus efficace de ses messages.

HLMFoot FR utilise également l’IA dans le domaine audiovisuel. Des outils comme Whisper sont utilisés pour la transcription automatique des interviews, facilitant ainsi la mise en ligne de vidéos sous-titrées, accessibles à tous. L’équipe expérimente également des outils de montage intelligent, de synthèse vocale et de traduction automatisée, dans le but d’élargir son public à d’autres langues et régions.

Le projet s’appuie sur un stack technique léger mais évolutif, avec une forte composante Python (scraping, NLP, automatisation), JavaScript pour l’intégration web, et des outils comme HuggingFace Transformers, OpenAI GPT ou spaCy pour le traitement du langage. Des plateformes comme Firebase, Streamlit et diverses APIs sociales (TikTok, Instagram) sont intégrées pour piloter l’ensemble.

Enfin, HLMFootFR souhaite partager prochainement certains de ses outils en open-source, à travers des dépôts publics. Il s’agira notamment d’un générateur de résumés automatisés de matchs, d’un pipeline de veille footballistique, ou encore d’un système de profilage joueur à partir de données disponibles librement. Ces projets ont pour but de démontrer comment l’intelligence artificielle peut s’intégrer dans des initiatives culturelles et communautaires, en dehors du cadre académique classique.

HLMFootFR est donc un exemple concret de convergence entre passion, média et technologie. Il montre comment, avec des ressources limitées mais des outils bien utilisés, il est possible de créer une structure médiatique alternative, réactive, et profondément ancrée dans les réalités sociales et culturelles du sport. HLMFootFR est un média digital indépendant dédié au football, fondé par Helmut Patahini en 2022, qui met en lumière les joueurs issus des quartiers populaires et de la culture urbaine. Né entre la France et la Belgique, le projet s’appuie sur les réseaux sociaux (TikTok, Instagram, YouTube …) pour diffuser une parole différente, libre et engagée. HLMFootFR se distingue par l’utilisation de l’intelligence artificielle dans la création de contenu, l’analyse de données et l’automatisation des tâches, afin de proposer une expérience moderne, rapide et accessible. Le média vise à représenter ceux qu’on entend peu, tout en connectant le monde du foot à la technologie d’aujourd’hui.

Papers

Showing 251300 of 10368 papers

TitleStatusHype
RAGGED: Towards Informed Design of Retrieval Augmented Generation SystemsCode2
Faceptor: A Generalist Model for Face PerceptionCode2
Beyond Text: Frozen Large Language Models in Visual Signal ComprehensionCode2
Efficient Episodic Memory Utilization of Cooperative Multi-Agent Reinforcement LearningCode2
A Novel Approach to Industrial Defect Generation through Blended Latent Diffusion Model with Online AdaptationCode2
Boosting Neural Representations for Videos with a Conditional DecoderCode2
Sinkhorn Distance Minimization for Knowledge DistillationCode2
DEYO: DETR with YOLO for End-to-End Object DetectionCode2
UN-SAM: Universal Prompt-Free Segmentation for Generalized Nuclei ImagesCode2
Extreme Video Compression with Pre-trained Diffusion ModelsCode2
Leveraging Pre-Trained Autoencoders for Interpretable Prototype Learning of Music AudioCode2
InstructScene: Instruction-Driven 3D Indoor Scene Synthesis with Semantic Graph PriorCode2
CAT-SAM: Conditional Tuning for Few-Shot Adaptation of Segment Anything ModelCode2
ScribFormer: Transformer Makes CNN Work Better for Scribble-based Medical Image SegmentationCode2
InfMAE: A Foundation Model in the Infrared ModalityCode2
FreeStyle: Free Lunch for Text-guided Style Transfer using Diffusion ModelsCode2
SERNet-Former: Semantic Segmentation by Efficient Residual Network with Attention-Boosting Gates and Attention-Fusion NetworksCode2
CascadedGaze: Efficiency in Global Context Extraction for Image RestorationCode2
TURNA: A Turkish Encoder-Decoder Language Model for Enhanced Understanding and GenerationCode2
Rethinking Patch Dependence for Masked AutoencodersCode2
Graph Diffusion Transformers for Multi-Conditional Molecular GenerationCode2
PA-SAM: Prompt Adapter SAM for High-Quality Image SegmentationCode2
Transformers are Multi-State RNNsCode2
MS-DETR: Efficient DETR Training with Mixed SupervisionCode2
WidthFormer: Toward Efficient Transformer-based BEV View TransformationCode2
AST-T5: Structure-Aware Pretraining for Code Generation and UnderstandingCode2
ClassWise-SAM-Adapter: Parameter Efficient Fine-tuning Adapts Segment Anything to SAR Domain for Semantic SegmentationCode2
ChangeCLIP: Remote sensing change detection with multimodal vision-language representation learningCode2
An Autoregressive Text-to-Graph Framework for Joint Entity and Relation ExtractionCode2
BRAU-Net++: U-Shaped Hybrid CNN-Transformer Network for Medical Image SegmentationCode2
FlowDiffuser: Advancing Optical Flow Estimation with Diffusion ModelsCode2
Improving the Stability and Efficiency of Diffusion Models for Content Consistent Super-ResolutionCode2
Unified-IO 2: Scaling Autoregressive Multimodal Models with Vision, Language, Audio, and ActionCode2
Scaling Down, LiTting Up: Efficient Zero-Shot Listwise Reranking with Seq2seq Encoder-Decoder ModelsCode2
Narrowing the semantic gaps in U-Net with learnable skip connections: The case of medical image segmentationCode2
SCEdit: Efficient and Controllable Image Diffusion Generation via Skip Connection EditingCode2
Faster Diffusion: Rethinking the Role of the Encoder for Diffusion Model InferenceCode2
Tokenize Anything via PromptingCode2
Triplane Meets Gaussian Splatting: Fast and Generalizable Single-View 3D Reconstruction with TransformersCode2
Boosting Latent Diffusion with Flow MatchingCode2
LLaVA-Grounding: Grounded Visual Chat with Large Multimodal ModelsCode2
PixelLM: Pixel Reasoning with Large Multimodal ModelCode2
A Graph-Based Approach for Category-Agnostic Pose EstimationCode2
SceneTex: High-Quality Texture Synthesis for Indoor Scenes via Diffusion PriorsCode2
OneFormer3D: One Transformer for Unified Point Cloud SegmentationCode2
High-Performance Transformers for Table Structure Recognition Need Early ConvolutionsCode2
Language Models are Super Mario: Absorbing Abilities from Homologous Models as a Free LunchCode2
Simplifying Transformer BlocksCode2
TD-MPC2: Scalable, Robust World Models for Continuous ControlCode2
HyperLips: Hyper Control Lips with High Resolution Decoder for Talking Face GenerationCode2
Show:102550
← PrevPage 6 of 208Next →

No leaderboard results yet.