<100 subscribers

Farcaster facilite les échanges inter-chaînes vers la BSC
Farcaster intègre nativement le réseau BSC à la demande de ses utilisateurs. De quoi permettre d’effectuer un transfert inter-chaînes, d’échanger des tokens ou suivre les tendances sur BSC.

L’âge d’or des stablecoins
De Wall Street à Marunouchi, les stablecoins attisent l’intérêt des acteurs de la finance traditionnelle. Ces tokens indexés sur des monnaies fiduciaires marquent-ils une nouvelle ère pour l’infrastructure de paiements mondiaux ?

A 6.5% yield: are stablecoins about to shake up the savings market?
Aave App is making a bold entrance with a savings solution advertising returns of up to 6.5%. In short, decentralized finance yields are now being placed directly in the hands of everyday users.



Farcaster facilite les échanges inter-chaînes vers la BSC
Farcaster intègre nativement le réseau BSC à la demande de ses utilisateurs. De quoi permettre d’effectuer un transfert inter-chaînes, d’échanger des tokens ou suivre les tendances sur BSC.

L’âge d’or des stablecoins
De Wall Street à Marunouchi, les stablecoins attisent l’intérêt des acteurs de la finance traditionnelle. Ces tokens indexés sur des monnaies fiduciaires marquent-ils une nouvelle ère pour l’infrastructure de paiements mondiaux ?

A 6.5% yield: are stablecoins about to shake up the savings market?
Aave App is making a bold entrance with a savings solution advertising returns of up to 6.5%. In short, decentralized finance yields are now being placed directly in the hands of everyday users.
Capable d’ingérer une quantité phénoménale de données et à l’épreuve des émotions comme l’euphorie, la peur ou la colère, l’IA semble bien armée pour devenir un trader efficace. Vraiment ?
Pour le savoir, rien de tel qu’une compétition de trading opposant 6 des LLM les plus populaires du moment.
Baptisé Alpha Arena, l’événement organisé par Nof1 a vu s’affronter Claude 4.5 Sonnet, DeepSeek V3.1 Chat, Gemini 2.5 Pro, GPT 5, Grok 4, Qwen 3 Max.
Et pour optimiser la collecte de données, le marché crypto ouvert 24/7 apparaît comme le parfait bac à sable en plus d’offrir une totale transparence. Chaque modèle s’est donc vu octroyer un capital de 10 000$ sur un wallet connecté à la plateforme d’échange de contrats à terme perpétuel (Perps) Hyperliquid.
Les LLM ont été lâchés dans l’Alpha Arena où ils allaient devoir trader des cryptomonnaies sans aucune intervention humaine. Seuls BTC, ETH, SOL, BNB, DOGE et XRP figuraient parmi les actifs échangeables par les participants.
Maximiser leur profit, voilà le seul objectif poursuivi par ces grands modèles linguistiques.
Pour ce premier essai, aucun modèle n’a eu accès à l’actualité ni aux tendances dominantes du marché crypto. Il fallait donc parvenir à performer avec des données quantitatives (prix, volume et historique de marché, indicateurs techniques) comme seule boussole pour avancer.
A l’issue de 16 jours de compétition, c’est finalement Qwen 3, le modèle linguistique d’Alibaba Group, qui s’est hissé en haut du podium avec un retour sur investissement de 0,97%. Il s’agit du seul modèle ayant terminé la compétition en enregistrant des gains. Le montant des pertes s’élève à 6 264$ pour GPT-5, arrivé en bas du classement.

Bien qu’elle prépare une offre d’outils dédié au trading, l’équipe de Nof1 se défend de vouloir identifier le modèle le plus performant pour faire du trading systématique.
Elle voit dans cette expérimentation l’opportunité d’identifier des comportements et des biais de la part des LLM. Il s’agit également de faire évoluer la recherche en IA via des benchmarks mené dans des environnements réalistes et avec des conséquences réelles.
L’expérimentation a ainsi permis d’identifier des différences comportementales entre les modèles.
Grok 4 a tenu ses positions plus longtemps que ses adversaires, Qwen 3 s’est montré le plus confiant en adoptant les positions les plus grosses, GPT-5, Gemini 2.5 et Grok 4 ont le plus souvent shorté le marché contrairement à Claude Sonnet 4.5 qui a favorisé des positions longues la plupart du temps.
Malgré des données et des prompts identiques, chaque modèle a interprété différemment des variations mineures des consignes, ce qui souligne l’importance d’un cadre robuste.
L’équipe explique également avoir dû changer les prompts car les modèles, trop actifs au départ de la compétition, voyaient leur performance impacter les frais de trading.
Un ensemble d’éléments qui doit permettre d’affiner les prompts en vue d’une nouvelle compétition prévue prochainement. Car si ce premier jet fournit des données précieuses pour faire évoluer les prompts, il ne permet pas pour l’instant d’élire le LLM doté des meilleures prédispositions au trading.
Capable d’ingérer une quantité phénoménale de données et à l’épreuve des émotions comme l’euphorie, la peur ou la colère, l’IA semble bien armée pour devenir un trader efficace. Vraiment ?
Pour le savoir, rien de tel qu’une compétition de trading opposant 6 des LLM les plus populaires du moment.
Baptisé Alpha Arena, l’événement organisé par Nof1 a vu s’affronter Claude 4.5 Sonnet, DeepSeek V3.1 Chat, Gemini 2.5 Pro, GPT 5, Grok 4, Qwen 3 Max.
Et pour optimiser la collecte de données, le marché crypto ouvert 24/7 apparaît comme le parfait bac à sable en plus d’offrir une totale transparence. Chaque modèle s’est donc vu octroyer un capital de 10 000$ sur un wallet connecté à la plateforme d’échange de contrats à terme perpétuel (Perps) Hyperliquid.
Les LLM ont été lâchés dans l’Alpha Arena où ils allaient devoir trader des cryptomonnaies sans aucune intervention humaine. Seuls BTC, ETH, SOL, BNB, DOGE et XRP figuraient parmi les actifs échangeables par les participants.
Maximiser leur profit, voilà le seul objectif poursuivi par ces grands modèles linguistiques.
Pour ce premier essai, aucun modèle n’a eu accès à l’actualité ni aux tendances dominantes du marché crypto. Il fallait donc parvenir à performer avec des données quantitatives (prix, volume et historique de marché, indicateurs techniques) comme seule boussole pour avancer.
A l’issue de 16 jours de compétition, c’est finalement Qwen 3, le modèle linguistique d’Alibaba Group, qui s’est hissé en haut du podium avec un retour sur investissement de 0,97%. Il s’agit du seul modèle ayant terminé la compétition en enregistrant des gains. Le montant des pertes s’élève à 6 264$ pour GPT-5, arrivé en bas du classement.

Bien qu’elle prépare une offre d’outils dédié au trading, l’équipe de Nof1 se défend de vouloir identifier le modèle le plus performant pour faire du trading systématique.
Elle voit dans cette expérimentation l’opportunité d’identifier des comportements et des biais de la part des LLM. Il s’agit également de faire évoluer la recherche en IA via des benchmarks mené dans des environnements réalistes et avec des conséquences réelles.
L’expérimentation a ainsi permis d’identifier des différences comportementales entre les modèles.
Grok 4 a tenu ses positions plus longtemps que ses adversaires, Qwen 3 s’est montré le plus confiant en adoptant les positions les plus grosses, GPT-5, Gemini 2.5 et Grok 4 ont le plus souvent shorté le marché contrairement à Claude Sonnet 4.5 qui a favorisé des positions longues la plupart du temps.
Malgré des données et des prompts identiques, chaque modèle a interprété différemment des variations mineures des consignes, ce qui souligne l’importance d’un cadre robuste.
L’équipe explique également avoir dû changer les prompts car les modèles, trop actifs au départ de la compétition, voyaient leur performance impacter les frais de trading.
Un ensemble d’éléments qui doit permettre d’affiner les prompts en vue d’une nouvelle compétition prévue prochainement. Car si ce premier jet fournit des données précieuses pour faire évoluer les prompts, il ne permet pas pour l’instant d’élire le LLM doté des meilleures prédispositions au trading.
Share Dialog
Share Dialog
No comments yet