Les dernières mises à jour de BigQuery apportent une bouffée d’air frais dans le monde des données, comme une brise parfumée de sarcasme entourant les prédictions. Les nouveauté telles que le modèle de prévision TimesFM et les nouvelles fonctions de génération de données structurées laissent entrevoir un avenir radieux, où la machine travaille avec vos données au lieu de contre elles. Quels mystères ces innovations peuvent-elles résoudre chez votre entreprise? Plongeons dans le vif du sujet.
Modèle de prévision TimesFM
Ah, le modèle de prévision TimesFM dans BigQuery ! Un vrai bijou de technologie, comme un croissant aux amandes : il a du potentiel, mais il faut bien le manipuler pour éviter que ça ne devienne un amas pâteux. TimesFM, c’est un peu le chef étoilé de la prévision temporelle, capable d’apprendre à danser sur les rythmes des données historiques, comme un participant malheureux à Danse avec les Stars qui aurait réussi un coup de maître sous les yeux ébahis du jury.
Pourquoi utiliser ce modèle ? Dès que l’on se retrouve avec des séries temporelles, que ce soit pour prévoir la vente de petits pains au chocolat ou l’évolution des tendances Bitcoin, TimesFM se transforme en oracle. Vous n’avez plus à jongler avec les incertitudes des modèles classiques qui, rappelons-le, n’ont jamais eu la légèreté d’un ballet de flamants roses. Non, avec TimesFM, vous avez une approche élégante et rigoureuse, qui sait s’affranchir de la lourdeur des algorithmes complexes tout en conservant une efficacité digne d’un comptable possédant une calculatrice solaire.
🚀 Maîtrisez SQL pour exploiter pleinement vos données BigQuery !
Découvrez nos formations BigQuery adaptées à tous les niveaux, du débutant à l’expert. Apprenez à interroger, analyser et optimiser vos données avec SQL dans BigQuery, et exploitez toute la puissance du cloud pour des analyses avancées. Du niveau 1, où vous explorerez et visualiserez vos données avec BigQuery et Looker Studio, au niveau 2, qui vous permettra de maîtriser les requêtes SQL pour trier, filtrer et structurer efficacement vos données, jusqu’au niveau 3, dédié aux techniques avancées d’optimisation et d’automatisation. Que vous soyez analyste, data scientist ou développeur, ces formations vous permettront de gagner en autonomie et en efficacité dans le traitement de vos données.🔍📊
Utiliser TimesFM, c’est comme ouvrir une boîte de chocolat : c’est simple comme bonjour et, mieux encore, ça ne nécessite pas d’être un data scientist diplômé de la NASA. Prenez ce petit exemple de code SQL, juste pour prouver qu’écrire des prévisions peut être aussi facile que de s’effondrer sur son canapé après une longue journée :
CREATE OR REPLACE MODEL `votre_projet.votre_dataset.votre_modele`
OPTIONS(model_type='timeseries_forecast', time_series_timestamp_col='date', time_series_data_col='valeur', data_schema='valeur FLOAT64')
AS
SELECT date, valeur
FROM `votre_projet.votre_dataset.votre_table`
WHERE date < DATE('2023-01-01');
Voilà, c'est tout ! Comme un bon café, tout est dans la simplicité, et le modèle s’occupe du reste. Et le meilleur dans tout ça ? Vous gagnez un temps fou dans vos prévisions, ce qui vous laisse plus de temps pour dévorer vos séries préférées sur la plateforme de streaming de votre choix. Qui a dit que les données n'étaient pas amusantes ? Pour plonger encore plus profond dans l'univers captivant de la prévision temporelle, jetez un œil à cet article. Vous ne le regretterez pas, à condition d'aimer les chiffres, les modèles et le plaisir de prévoir l'avenir, sinon, passez votre chemin : je ne suis pas là pour déranger les amateurs de couchers de soleil !
Extraction et génération de données structurées avec LLMs
Si vous avez déjà passé des heures à trier des données non structurées, vous savez à quel point cette tâche peut être aussi réjouissante qu’une visite chez le dentiste. Pourtant, avec la magie du Machine Learning, et plus spécifiquement grâce à AI.GENERATE_TABLE dans BigQuery, il est possible d'extraire l'or de la vase numérisée sans se péter un neurone.
Pour ceux qui n'ont jamais eu le plaisir de croiser ce type de fonction, laissez-moi vous expliquer comment elle transforme vos vagues de données non structurées en rivières de données bien agencées. Imaginez que vous êtes un alchimiste des temps modernes, armé de lignes de code plutôt que de chaudrons fumants. AI.GENERATE_TABLE, c’est un peu la baguette magique de Merlin pour votre entrepôt de données. À partir de votre masse informe d'informations, cette fonction va statuer ce qui mérite d'être examiné et ce qui peut rejoindre la décharge des bits perdus.
Pour illustrer ce propos, prenons un exemple concret. Supposons que vous ayez un ensemble de commentaires clients de diverses plateformes, à la syntaxe aussi chaotique qu’un marché de fleurs au printemps. Avec un simple appel à AI.GENERATE_TABLE
, vous pouvez extraire les éléments significatifs. Voici un aperçu de la syntaxe à utiliser :
SELECT * FROM AI.GENERATE_TABLE(
'VotreTableDeCommentaires',
STRUCT('nom' AS 'client_name', 'titre' AS 'titre_du_post', 'texte' AS 'contenu'),
OPTIONS(
model='nom_du_modele'
)
)
Dans cet exemple, la fonction va écumer chaque commentaire à la recherche d'informations pertinentes, tel un chat épluchant une boîte de conserve dans l'espoir de trouver une sardine. Le résultat ? Une table propre et structurée qui fait plaisir à voir, sans avoir à se plonger dans l’absurde labyrinthique du traitement de texte traditionnel.
Alors, pourquoi s'en priver ? Embrassez la technologie avec le même entrain que vous auriez eu à embrasser un vieux pote dans un bar. Pour approfondir les fonctionnalités, n’hésitez pas à consulter les détails disponibles ici. Chaque clic vous rapproche un peu plus de la maîtrise de cet art délicat qu'est l'analyse des données.
Fonctions LLM scalaires et choix de modèles
Ah, les fonctions LLM scalaires sur BigQuery! Imaginez un monde où les modèles d'intelligence artificielle ne sont pas uniquement réservés aux heures de pointe, mais sont aussi flexibles qu'un gymnaste russe sous stéroïdes. Ces nouvelles fonctions permettent aux utilisateurs de manipuler leurs données avec la grâce d'un chat en équilibre sur le rebord d'une fenêtre : si ça ne tombe pas, c’est que ça se maîtrise. La promesse? Une flexibilité à faire pâlir un acrobate de cirque, sans avoir besoin de jongler avec des pipelines de données complexes.
Avec les LLM scalaires, fini le temps où l'on s'en s'encombrait de modèles rigides et contraignants. Ici, vous pouvez choisir le modèle qui vous convient le mieux, même si cela équivaut à choisir entre un homard et un canapé-lit pour un match de bowls. BigQuery ne limite plus l'utilisateur à un unique petit modèle de machine learning : oh non, c'est bien plus enthousiasmant. On vous offre des options! Que diriez-vous d'intégrer des modèles open source tels que ceux de Hugging Face, qui sont plus variés qu'une carte des vins en Provence? À moins que vous ne préfériez les solutions tiers pour une expérience encore plus savoureuse.
Prenons un exemple pour faire trembler un peu votre foi dans l'idiotie ambiante. Supposons que vous souhaitiez examiner des tendances de sentiments dans des critiques de cinéma. Plutôt que de forcer un modèle archaïque à parler de l'œuvre de Tarantino, vous pourriez essayer un modèle récent spécifiquement optimisé pour le langage, comme BERT, et observer comment il s'engage dans une danse bien rythmée avec vos données. Grâce à l'intégration de ces modèles, vous serez en mesure de pousser les limites de BigQuery, pour des analyses qui feront tourner la tête à même un mannequin en vitrine.
Et pour ceux qui aiment jouer avec les petits lutins de code, pourquoi ne pas consulter ce ressource? Vous y trouverez des suggestions pratiques pour plonger dans les merveilles des LLM scalaires. Après tout, pourquoi ne pas optimiser votre expérience d'analyse de données avec un brin de folie et une grande dose d'absurde?
En somme, les LLM scalaires rendent vos interactions avec les données aussi fluides que du miel sur une tartine. Il est temps de dire adieu aux modèles qui vous tirent vers le bas comme un sac de pierres et de laisser vos données s'épanouir dans la douce lumière de l’intelligence artificielle.
Analyse de contribution
Ah, l'analyse de contribution dans BigQuery AI et ML. Si vous pensiez que le café noir était l'unique boisson qui vous tiendrait éveillé la nuit à vous demander pourquoi vos KPI s'effondrent sans crier gare, détrompez-vous. Cette fonctionnalité est comme le génie de la lampe d'Aladdin, mais au lieu d'exaucer des vœux, elle traque les raisons pour lesquelles vos revenus ne se comportent pas comme prévu. Grâce à elle, les entreprises peuvent disséquer les variations clés de leurs métriques – un peu comme un pathologiste examine les résultats d'une biopsie, mais avec moins de gants en latex et sans le stress d'une salle d'attente. En effet, l'analyse de contribution permet d’identifier les facteurs qui influencent vos performances, offrant la possibilité de mieux piloter la stratégie de l’entreprise.
Au lieu de naviguer à l’aveugle dans l’océan des données, vous disposez là d’une bouée de sauvetage flottante ; avec un peu de chance, celle-ci ne sera pas percée. Imaginez : vous lancez une campagne marketing, vous traitez les résultats, et soudain - boum - un éclair de lucidité ! Vous réalisez que vos ventes ont explosé grâce à un influenceur qui a mentionné votre produit un mardi pluvieux. En quelques lignes de code SQL, vous pourriez non seulement comprendre ce qui a bien fonctionné, mais aussi éviter de reproduire les mêmes erreurs à l'avenir – à moins que vous ne preniez un malin plaisir à jeter l'argent par les fenêtres. Et pour cela, voici un petit exemple de code qui pourrait vous sauver la mise :
SELECT
feature,
contribution,
importance
FROM
`your_project.your_dataset.your_table`
WHERE
model_type = 'ANALYSE_DE_CONTRIBUTION'
ORDER BY
importance DESC
LIMIT 10;
Avec cette requête, vous allez pouvoir dénicher les caractéristiques qui pèsent le plus dans la balance de vos résultats. L'importance est ici la clé; elle vous dit qui, parmi vos features, est le coupable, l'héros, ou simplement le figurant de ce drame économique. En somme, l'analyse de contribution est l'analyste comportemental des chiffres, scrutant leurs failles avec la même passion que Sherlock Holmes dans les sombres ruelles de Londres. Si vous vous intéressez à la prise de décisions éclairées, vous ne pouvez pas ignorer cet outil. Et pour ceux qui veulent aller encore plus loin, vous pouvez consulter cette vidéo sur les mystères de l'analyse de contribution. Préparez-vous à être le Sherlock de vos propres données !
Conclusion
En somme, BigQuery continue de repousser les limites de l'analyse des données avec des capacités d'IA impressionnantes. Les outils tels que TimesFM, l'extraction de données avec des LLMs et l'analyse de contribution vous permettent non seulement de traiter vos chiffres, mais aussi de les interpréter avec finesse. Alors, n'attendez plus : plongez dans ces nouvelles fonctionnalités et donnez un coup de fouet à votre business en exploitant la puissance des données, sans perdre le sens de l'humour.
FAQ
Qu'est-ce que le modèle TimesFM?
Le modèle TimesFM est un modèle de prévision de séries temporelles intégré dans BigQuery, permettant des prévisions précises sans nécessiter d'entraînement sur les données spécifiques.
Comment utiliser AI.GENERATE_TABLE?
AI.GENERATE_TABLE permet d'extraire et de générer des données structurées à partir de données non structurées, avec un schéma de sortie défini par l'utilisateur, par exemple, pour créer des tables à partir de transcriptions médicales.
Quelles sont les nouvelles fonctions LLM scalaires?
Les fonctions LLM scalaires permettent d'effectuer une inférence ligne par ligne, rendant les modèles plus flexibles et adaptables à différents usages dans vos requêtes SQL.
Quelle est l'importance de l'analyse de contribution?
L'analyse de contribution aide à identifier des facteurs clés qui influencent les variations de métriques, essentielle pour prendre des décisions éclairées dans le business.
Comment commencer avec les crédits gratuits sur Google Cloud?
Les nouveaux clients peuvent bénéficier de 300 $ de crédits gratuits sur Google Cloud pour explorer les outils d'analyse de données, y compris BigQuery, et commencer à bâtir des applications intelligentes.
Sources
Google Cloud - What’s new with BigQuery AI and ML?
https://cloud.google.com/blog/products/data-analytics/bigquery-adds-new-ai-capabilities