|
Comment tirer vraiment parti de vos données ?
Les organisations font face à une double réalité : une opportunité stratégique énorme… mais aussi un véritable défi : explosion des volumes, diversité des formats, multiplication des sources (cloud, fichiers, applications métier…) : la Data est partout. Le vrai enjeu ? Accéder aux bonnes données, les comprendre, les utiliser à tous les niveaux de l’organisation… tout en restant conforme aux réglementations. En clair : comment transformer cette masse d’informations en leviers concrets pour vos résultats ? Avec Qlik, la Data devient un atout concret. Sa plateforme unifie toute la chaîne : circulation fluide, données fiables, accès simple, exploration intuitive, passage à l’action. Résultat : vous prenez des décisions plus rapides, plus efficaces, avec la bonne donnée, au bon moment, au bon endroit. Pour en savoir plus, n’hésitez pas à nous contacter.
|
|
Prêt à passer à Qlik Cloud, sans stress ?
Avec EASYNEO, la migration vers Qlik Cloud devient simple et maîtrisée. Avant de franchir le pas, EASYNEO vous guide avec un accompagnement en 5 étapes simples et concrètes :
|
|
Prise en charge de propriétés de connexion ODBC et JDBC supplémentaires dans le connecteur cible Snowflake
Le connecteur Snowflake cible pour la réplication de données et les pipelines prend désormais en charge des propriétés de connexion avancées supplémentaires, offrant un contrôle fin des définitions de connexion au-delà des paramètres standard et permettant l'ajout de propriétés telles que le Rôle et le Rôle secondaire. Cette version introduit le support pour le connecteur Snowflake cible, et d'autres connecteurs sont prévus. Nécessite le Data Movement Gateway 2024.5.54 ou une version ultérieure. Changer le propriétaire d'un projet de données Il est possible de changer le propriétaire d'un projet de données pour transférer les tâches et les ensembles de données associés à un autre utilisateur, utile lorsque le propriétaire a été supprimé. Vertical Divider
|
Pipelines inter-projets
Pour simplifier la gestion des pipelines et la collaboration entre équipes, Qlik Talend Cloud permet désormais que les pipelines soient constitués de plusieurs projets. Cela offre plus de flexibilité dans la conception et permet de décomposer un pipeline complexe d’ingestion et de transformation en projets distincts. Les références inter-projets peuvent être utilisées pour ségréger un pipeline par domaine de données, facilitant les principes du Data Mesh. Pour commencer, lors de la création d’un nouveau projet, sélectionnez l’option Utiliser les données d’un projet existant. |
|
Support OAuth pour le connecteur cible Databricks
Les clients peuvent désormais se connecter au connecteur cible Databricks via l’authentification OAuth, méthode recommandée par Databricks pour l’authentification des comptes. L’authentification par jeton d’accès personnel (PAT) restera disponible pour des raisons de compatibilité pour le moment, mais elle est considérée comme moins sécurisée qu’OAuth. Pour les clients utilisant la passerelle Data Movement, la version 2024.11.30 ou ultérieure est requise. Créer des pull requests dans les pipelines Qlik Talend Cloud Avec cette nouvelle version, nous améliorons notre intégration du contrôle de version avec GitHub. Après avoir validé et poussé leurs modifications, les utilisateurs peuvent désormais créer des pull requests directement dans leur projet de pipeline. Auparavant, les pull requests devaient être initiées sur GitHub. Avec cette mise à jour, les utilisateurs peuvent générer des pull requests dans Qlik Talend Cloud et les ouvrir sur GitHub pour révision et fusion, ce qui rationalise le flux de travail et fait gagner du temps. Relations recommandées par l'IA dans les modèles de données Qlik Talend Cloud L'IA peut désormais recommander des relations lors de la création du modèle de données dans Qlik Talend Cloud. Cette fonctionnalité analyse des métadonnées pour détecter des relations potentielles manquantes, notamment via les noms et descriptions des jeux de données, les noms de colonnes, les types et tailles, les colonnes clé primaire et les relations entre jeux de données. Pour plus d'informations, consultez la documentation sur la création d'un modèle de données et sur l'assistant IA génératif dans l'intégration des données. Prise en charge de Snowpipe Streaming Autrefois, le chargement en bloc était la seule méthode pour charger des données dans Snowflake. Désormais, le chargement en bloc ou Snowpipe Streaming peut être utilisé pour intégrer ou répliquer les données dans Snowflake. Avantages de Snowpipe Streaming par rapport au chargement en bloc : coût moindre (pas d'utilisation d'un entrepôt Snowflake) et latence réduite (les données sont transmises directement aux tables cibles sans passer par le staging). Remarque : si vous utilisez la Data Movement Gateway, la version 2024.11.45 ou ultérieure est requise. Pages associées : Landing settings et Replication settings. Accès sécurisé aux sources de données via un tunnel SSH Les clients qui n'utilisent pas la passerelle Data Movement peuvent se connecter à des sources de données prises en charge via un tunnel SSH. Ce tunnel permet d'accéder en sécurité à des sources situées derrière un pare-feu et chiffre toutes les données transitant par le tunnel. Connecteurs pris en charge : MySQL, PostgreSQL et Microsoft SQL Server (basé sur CDC). |
Nouveau format d'importation et nouvelle interface utilisateur dans Qlik Talend Cloud Pipelines
L'importation de projets via l'interface utilisant un fichier ZIP bénéficie d'une nouvelle interface qui permet de définir des paramètres tels que la connexion à la base de données pour chaque tâche, les connexions cibles, les projets source pour les pipelines inter-projets et le volume et le catalogue Iceberg. Le format d'export est passé d'un fichier JSON unique à une archive ZIP contenant plusieurs fichiers JSON. L'ancien format JSON est pris en charge pour l'import jusqu'au 30 janvier 2026; pour passer au nouveau format, importez les fichiers JSON, puis exportez-les au format ZIP. Les projets au format JSON ancien ne peuvent pas être importés via l'API. Il est recommandé d'exporter vos projets existants pour profiter du nouveau format d'ici le 30 janvier 2026. Rotation et purge des fichiers journaux de réplication Une politique de rotation et purge des journaux de réplication a été mise en place sur la passerelle. La rotation empêche les journaux de devenir trop volumineux et d'impacter les performances et l'analyse, tandis que la purge évite leur accumulation et l'utilisation excessive de l'espace disque. Exige la passerelle Data Movement version 2024.11.67 ou ultérieure. Pour plus d'informations, voir la politique de rétention et de rotation des journaux. Aperçu des données inclut désormais les types de données des colonnes Lors de l'aperçu d'une transformation SQL, les résultats affichent désormais les types de données des colonnes. Si vous utilisez la passerelle Data Movement pour accéder à votre source de données, cette fonctionnalité nécessite la version 2024.11.70 ou ultérieure. Contrôler le déclenchement de la politique de gestion des erreurs de table Un nouveau paramètre « Nombre de tentatives avant de renvoyer une erreur de table » a été ajouté dans les paramètres de gestion des erreurs de table pour les tâches de réplication et d’atterrissage (landing). Auparavant, une erreur de table entraînait la suspension de la table ou l’arrêt de la tâche selon l’action choisie, ce qui pouvait interrompre les tables lors des fenêtres de maintenance SaaS. Désormais, il est possible de définir combien de tentatives sont effectuées avant que la politique d’erreur de table ne soit déclenchée, ce qui permet de contourner les déclenchements pendant les maintenances (valeur par défaut : 3). Cette option est disponible uniquement pour les tâches utilisant le connecteur SaaS Lite ou Standard; si vous utilisez la passerelle Data Movement, la version requise est 2024.11.70 ou ultérieure. Support du mappage des colonnes JSON vers JSON Une nouvelle option, « Mapper les colonnes JSON compatibles de la source vers des colonnes JSON sur la cible », a été ajoutée dans l’onglet Métadonnées des paramètres de tâche. Pour les nouvelles tâches, cette option est sélectionnée par défaut lorsqu’il existe des types de données JSON source compatibles pris en charge par la cible. Pour les tâches existantes, elle est désactivée par défaut car les processus en aval (par exemple les transformations) attendent que les données cibles soient au format STRING . Vous pouvez soit laisser cette option désactivée, soit modifier les processus en aval pour être compatibles avec le JSON et activer ensuite l’option. Cette option n’est prise en charge que pour les tâches configurées pour utiliser le connecteur Preview SaaS. Si vous utilisez la passerelle Data Movement pour accéder à votre source de données, cette option nécessite la version 2024.11.70 ou ultérieure. |
|
Une manière plus simple de documenter les descriptions de jeux de données
Qlik Talend Cloud permet d'accélérer les tâches de documentation en utilisant l'IA générative pour décrire un jeu de données. En se basant sur le nom du jeu de données et des colonnes, la description est générée par l'IA et peut être acceptée, rejetée ou modifiée. Cette fonctionnalité est disponible uniquement pour Qlik Talend Cloud Enterprise. Pour l’instant, l’anglais est la seule langue prise en charge. Indicateur de fraîcheur disponible Avec la dernière mise à jour de Qlik Talend Cloud, les utilisateurs peuvent suivre la fraîcheur des données en temps réel à partir des sources de données grâce au nouvel Indicateur de fraîcheur. Pour un fichier, la fraîcheur correspond à la dernière mise à jour; pour un pipeline, elle correspond à la dernière mise à jour du jeu de données par un pipeline. Cette fonctionnalité aide à évaluer rapidement l’actualité et la fiabilité des jeux de données. L’indicateur est accessible depuis l’aperçu de l’ensemble de données via Qlik Cloud Data Catalog ou Data Products Marketplace. Présentation du Qlik Trust Score™ pour mesurer la fiabilité des jeux de données Qlik Cloud lance le Qlik Trust Score™, un indicateur qui mesure la fiabilité des jeux de données afin d’évaluer rapidement la qualité des actifs de données dans l’organisation. Basé sur une échelle de 0 à 5, le score agrège plusieurs dimensions et peut être ajusté par pondération selon les cas d’usage. Ses principaux avantages : personnalisable en activant/désactivant des dimensions et en ajustant leurs poids; insights exploitables couvrant des domaines tels que la validité, la complétude, la découvrabilité et l’utilisation; meilleure transparence grâce au suivi de la fraîcheur et de l’utilisation des jeux de données. Disponible avec Qlik Talend Cloud Enterprise. La qualité des données désormais disponible en mode pullup pour les ensembles MongoDB Les utilisateurs peuvent désormais calculer la qualité des données en mode pullup pour les ensembles MongoDB. Caractéristiques clés : prise en charge du mode pullup pour MongoDB, calcul de la qualité directement dans le moteur Qlik Cloud sans traitement externe, et personnalisation de la taille de l’échantillon pour l’évaluation. Consulter la liste complète des sources compatibles. Personnaliser l'affichage du Qlik Trust Score™ Avec la dernière mise à jour, les utilisateurs peuvent désormais choisir la manière dont l'affichage du Qlik Trust Score™ s'affiche dans l'aperçu du jeu de données au niveau du locataire. Cette fonctionnalité renforce notre engagement à aider les organisations à construire des évaluations de qualité adaptées à leurs standards métier. Les fonctionnalités clés permettent de configurer l'affichage du Qlik Trust Score™ au niveau du locataire avec les options suivantes : pourcentage (%) ou note sur 5. Cette configuration nécessite une autorisation spécifique et est disponible pour Qlik Talend Cloud Enterprise. Créer des types sémantiques personnalisés pour une classification et une validation des données améliorées Dernière mise à jour : possibilité de créer des types sémantiques personnalisés pour améliorer la classification et la validité des données. La fonctionnalité offre de la flexibilité via des dictionnaires, des motifs basés sur des expressions régulières et des configurations de types composites. Le calcul de qualité en pushdown est désormais disponible pour Databricks Unity Cette mise à jour de Qlik Cloud ajoute le calcul de qualité des données en pushdown pour les ensembles de données sur Databricks Unity. Il permet d'exploiter la puissance de traitement de Databricks tout en optimisant l'utilisation des ressources et en conservant la flexibilité des contrôles de qualité des données. Caractéristiques clés : taille d'échantillon configurable (nombre de lignes ou pourcentage du jeu de données) et modes de traitement : pushdown (exécution dans Databricks) ou pullup (utilisant le moteur Qlik Cloud). Règles de validation de la qualité des données Les règles de validation de la qualité des données permettent de créer des exigences métier réutilisables qui détectent automatiquement les anomalies. Vous pouvez définir les critères que vos données doivent respecter via des règles de validation personnalisables applicables à l’ensemble de vos jeux de données, garantissant des standards de qualité cohérents. Historisation du Qlik Trust Score™ Découvrez les tendances de qualité et obtenez des insights exploitables grâce aux données historiques du Qlik Trust Score™. Surveillez la qualité dans le temps et comprenez les événements spécifiques qui impactent les dimensions du Qlik Trust Score™, ce qui permet une gouvernance proactive et une amélioration continue. Caractéristiques clés :
|
Qlik Trust Score™ pour l’IA
La mise à jour de Qlik Cloud étend le Qlik Trust Score™ pour mieux évaluer la préparation et la fiabilité des ensembles de données destinés à l’intelligence artificielle, offrant une meilleure visibilité sur la qualité des données et favorisant des résultats d’IA plus fiables tout en réduisant les biais. Caractéristiques clés :
Entrée de menu dédiée à la gestion des produits de données La gestion des produits de données est désormais accessible via une entrée de menu dédiée, distincte du Data marketplace. Cela prépare des améliorations futures de l’expérience des gestionnaires de produits de données et améliore la clarté et l’utilisabilité. Documentation du produit de données pour consultation ou téléchargement Avant, pour afficher la documentation d’un produit de données, il fallait parcourir plusieurs jeux de données et onglets pour voir les descriptions de la qualité, du profil, du produit de données, des jeux de données et des champs, ainsi que la lignée et les détails de consommation. Désormais, on peut consulter un seul document complet, de style Wikipédia, sur le produit de données. Ce document peut être consulté directement dans le Data Marketplace ou exporté au format PDF, ce qui facilite la revue des informations par les utilisateurs. Utiliser les règles Qlik Talend Cloud dans Talend Studio Les utilisateurs de Talend Studio peuvent exploiter directement dans Talend Studio les règles de validation et les types sémantiques définis dans Qlik Talend Cloud. Un nouveau composant permet d’utiliser ces règles centralisées sans couture, ce qui assure cohérence, réutilisabilité et productivité accrue. Avantages clés : appliquer les règles définies par Qlik Talend Cloud sans les redéfinir dans Talend Studio; faire respecter la même logique de validation sur les deux plateformes; gagner du temps en s’appuyant sur les règles centralisées du dépôt commun de Qlik Talend Cloud. Changement du filtre du catalogue : Données vers jeux de données Le menu de filtrage du catalogue fera désormais référence à des jeux de données plutôt qu'à des données, afin d'être plus clair sur le type de contenu que le filtre récupère. Améliorations des règles de validation Dans cette mise à jour, Qlik Talend Cloud améliore les opérations des règles de validation en ajoutant le support du type d'opérateur booléen. Les utilisateurs peuvent désormais vérifier si le contenu d'un champ est égal à celui d'un autre champ ou différent, et évaluer des conditions vraies ou fausses. Méthode plus simple pour documenter les produits de données Qlik Talend Cloud permet d'accélérer la documentation des produits de données en utilisant une IA générative pour décrire le produit. Basée sur les ensembles de données, les colonnes et les descriptions incluses, la description générée peut être acceptée, rejetée ou modifiée. Cette fonctionnalité est disponible uniquement pour Qlik Talend Cloud Enterprise et l'anglais est actuellement la seule langue prise en charge. Les produits de données conservent le modèle lorsqu'ils sont ouverts dans Qlik Cloud Analytics Lorsqu'un utilisateur crée une application Qlik Cloud Analytics à partir d'un produit de données, le modèle de données provenant de la tâche Qlik Talend Cloud est transmis à l'application Analytics, évitant de recréer le modèle dans Analytics. Le modèle peut être consulté via le visualiseur de données dans Qlik Cloud Analytics. Limitations : le modèle n'est pas défini selon les noms de colonnes; seul le modèle du projet Qlik Talend Cloud est reflété. Le problème de noms en double a été résolu, les recommandations de modèle d'Analytics peuvent être appliquées plus facilement. Le modèle ne peut pas être affiché dans le produit de données; il est visible dans le projet Talend Cloud ou dans l'application Analytics. Le modèle de données d'un produit de données ne peut pas être exporté. Référence: article sur la création d'une application d'analyse à partir des jeux de données générés dans Data Integration. Ouvrir des jeux de données Databricks dans Databricks Conscient que Qlik Cloud Analytics n’est pas la seule interface pour ouvrir des données, Qlik permet désormais d’ouvrir directement un jeu de données Databricks dans Databricks lui‑même, première intégration non-Qlik des jeux de données, avec d’autres à venir. Enrichissement des règles de validation Qlik Talend Cloud prend désormais en charge l'opérateur is of type dans les définitions des règles de validation. Cela permet de vérifier si le contenu d'un champ correspond à un type sémantique spécifique. Les types sémantiques disponibles dépendent des types intégrés et définis par l'utilisateur, configurés dans l'onglet Gestion des types sémantiques, dans la section Qualité des données du centre d'activité Data Integration. |
|
Processeur d'IA pour Snowflake
Le processeur d'IA dans les flux de transformation prend désormais en charge les fonctions Cortex AI de Snowflake. L'implémentation Snowflake du processeur d'IA comprend quatre fonctions d'IA générative de pointe : analyse des sentiments, classification des données, résumé de texte et traduction. Prise en charge des vues sécurisées Snowflake Qlik Talend Cloud Pipelines prend désormais en charge les vues sécurisées de Snowflake pour renforcer la confidentialité des données. Vous pouvez configurer le stockage, les transformations et les data marts afin de générer des vues sécurisées et masquer les détails structurels des vues pour les consommateurs de données. Les assistants IA sont désormais pris en charge dans deux régions supplémentaires de Qlik Cloud Les assistants IA SQL et IA pour les relations du modèle de données sont désormais pris en charge dans les régions Tokyo (Asie-Pacifique Nord-Est 1) et Singapour (Asie-Pacifique Sud-Est 1) de Qlik Cloud. |
Auto-complétion et mise en forme automatique pour accroître la productivité des développeurs
Qlik Talend Cloud Pipelines introduit des capacités d’auto-complétion et de mise en forme pour faciliter l’écriture des transformations SQL. L’auto-complétion SQL suggère les noms de tables et de colonnes ainsi que les mots-clés SQL pendant la saisie. Cette expérience améliorée d’édition SQL est disponible pour tous les clients — il suffit de commencer à taper. |
|
Clé primaire : création automatique de clés primaires avec mot-clé RELY pour optimiser les requêtes.
Prérequis :
|
Support Iceberg (UniForm) : nouvelle option permettant de créer des tables lisibles par les consommateurs Iceberg.
Prérequis :
|
Liquid Clustering : nouvelle méthode de clustering basée sur les clés primaires pour remplacer le partitionnement et améliorer la performance.
Prérequis :
|
|
IBM DB2 iSeries (source) : support des types BINARY-DECIMAL et ZONED-DECIMAL.
|
Databricks Delta (cible) : le type BYTES est désormais mappé à VARCHAR au lieu de STRING.
|
JSON :
|
|
Nouveaux supports et connectivités
Améliorations SAP HANA (source)
Nouveaux endpoints
|
Versions supportées
Améliorations côté serveur
Vertical Divider
|
|
Autorisation sur les Notes
Les administrateurs peuvent désormais créer un rôle permettant de contrôler l'accès des utilisateurs à la fonction Notes. |
Rôle Développeur et bascule Clé API dépréciés
Le rôle Développeur dans Administration > Gérer les utilisateurs > Autorisations est déprécié et sera supprimé avant la fin de l'année 2025. Pour éviter toute perturbation, migrez les utilisateurs et groupes affectés vers un rôle personnalisé comprenant l'autorisation Gérer les clés API ou activez cette autorisation dans les Valeurs utilisateur par défaut. La bascule Activer les clés API dans Administration > Paramètres est également dépréciée et sera supprimée avant la fin de l'année 2025. Après la suppression, la création de clés API sera contrôlée exclusivement par l'autorisation Gérer les clés API. Les utilisateurs ayant cette autorisation peuvent créer des clés API depuis Paramètres du profil > Clés API. |
|
Groupes personnalisés
Une nouveauté très attendue sur Qlik Cloud : la création de groupes d’utilisateurs personnalisés ! De quoi offrir aux administrateurs une meilleure gestion des accès et plus de flexibilité ! Ces groupes permettent de gérer les accès et droits aux différents espaces gérés et partagés, de manière plus simple et efficace qu'une gestion utilisateur par utilisateur. 💡 À noter : dans les cas où un utilisateur a des rôles différents attribués individuellement et par un groupe au sein d'un même espace, le niveau d'autorisation le plus élevé est prioritaire. |
|
Cas d'utilisation
Vertical Divider
|
Fonctions disponibles
Vertical Divider
|
Exemples :
1. Extraction de nombres dans un texte avec unités (€, $, %)👉 Difficulté en Qlik : Trouver des montants d’argent dans des phrases comme "Prix : 1 299 €" ou "Cost: $150.50". 🔹 Regex possible : regexCopierModifier(?:\€|\$)?\s?(\d{1,3}(?:[.,]\d{3})*(?:[.,]\d{2})?) 🔹 En Qlik natif : Obligation d'utiliser PurgeChar(), Replace() et SubField() pour nettoyer et extraire. 2. Extraction d’identifiants complexes 👉 Difficulté en Qlik : Identifier des codes spécifiques dans du texte (ex: INV-2024-ABC123 ou USER_99-XYZ). 🔹 Regex possible : rCopierModifier(INV-\d{4}-[A-Z0-9]+)|(USER_\d{2}-[A-Z]+) 🔹 En Qlik natif : Nécessite plusieurs WildMatch() ou SubField(), difficilement scalable. |
|
Paramètres d’application
|
|
Straight Table devient le Tableau Simple
Le Straight Table devient l’objet principal sous le nom de « Tableau Simple » devenant l’objet à utiliser à la place de l’objet « Table » qui sera dépréciée dans quelques temps. Les options suivantes ont été ajoutées :
|
|
Nouveau mode dans le graphique en barres : Papillon
Lorsqu’un graphique est composé d’une dimension et de deux mesures, il est désormais possible de paramétrer l’affichage en papillon. Cela permet de créer plus facilement par exemple des pyramides des âges. Raccourci pour le téléchargement :
Le téléchargement des visualisations est désormais encore plus rapide. L'option Télécharger figure désormais dans le menu contextuel des visualisations. Org Chart (Bundle) L'Organigramme propose désormais de nouveaux paramètres de style, notamment une option permettant d'inclure une image via une URL dans la carte, ce qui s'avère idéal pour donner un aspect encore plus impressionnant aux graphiques hiérarchiques. Vertical Divider
|
Points et lignes manuels dans le graphique en courbes
Le graphique en courbes est doté de nouvelles options permettant d'intégrer des points et des lignes pour ajouter de la perspective, par exemple, pour mettre en évidence des valeurs spécifiques ou afficher des tendances en reliant des points par des lignes. L'ajout de contexte à un graphique est un excellent moyen d'améliorer la facilité d'utilisation et la compréhension des données. Améliorations Carte
Alertes en cas de rechargement La configuration de la planification des alertes "Lors de l'actualisation des données" s'appelle désormais "Lors des changements de données". Les alertes qui utilisent cette configuration ne s'exécuteront désormais qu'en cas de modification des données au sein de l'application. Améliorations Texte (bundle) Les fonctionnalités suivantes ont été ajoutées à l’objet :
|
|
Connecteur Fichier (via la passerelle Direct Access) : restriction de l'accès au système de fichiers à des espaces spécifiques
Lorsque vous utilisez le connecteur Fichier (via la passerelle Direct Access), vous pouvez désormais restreindre l'accès au système de fichiers ou au lecteur réseau à des espaces spécifiques. En associant chaque chemin d'accès à des espaces au sein de votre tenant Qlik Cloud, seuls les membres de l'espace disposant du rôle « Peut consommer des données » ou d'un rôle supérieur pourront accéder au chemin d'accès spécifié. Si aucun espace n'est configuré, les chemins d'accès spécifiés seront accessibles à tous les espaces. La nouvelle configuration peut être effectuée via l'API publique ou directement dans le fichier de configuration sur le serveur de passerelle. Prise en charge de l'application des modifications sans redémarrage de la passerelle À partir de la version 1.7.6, lorsque vous mettez à jour les chemins/URL autorisés pour les connecteurs Fichier (via la passerelle Direct Access) et REST (via la passerelle Direct Access), vous n'avez plus besoin de redémarrer le service de passerelle Direct Access pour appliquer les modifications. Cela vaut également lorsque vous modifiez les propriétés ODBC (via la passerelle Direct Access) suivantes :
Connecteur Oracle (via la passerelle Direct Access) : Prise en charge de la méthode de connexion Oracle TNS Names Cette version ajoute la prise en charge de l'accès à Oracle à l'aide de TNS Names. |
Connecteur File (via la passerelle Direct Access) : isolation des processus activée par défaut.
Lors d'une installation propre de la passerelle Direct Access, l'isolation des processus est désormais activée par défaut, avec le nombre de processus de rechargement simultanés défini sur 10. Autorisation des connexions à localhost à l'aide du connecteur REST (via la passerelle Direct Access) Vous pouvez désormais autoriser le connecteur REST (via la passerelle Direct Access) à se connecter à localhost. Cela facilite l'utilisation des points de terminaison REST locaux (au serveur de passerelle), tels que l'utilisation du point de terminaison connector-agent/status pour déterminer le nombre actif de charges sur un agent. Cette fonctionnalité est également configurable à l'aide de l'API publique, lors de l'ajout d'URL locales (http://localhost:5050/status par exemple) au fichier restconnector_allowed_urls.txt. Prise en charge de l'utilisation de l'API publique pour effectuer des requêtes « load data » de manière asynchrone L'exécution asynchrone de la requête Load Data sur l'agent réduit considérablement le temps que le service cloud doit attendre les réponses de l'agent. Cette fonctionnalité, introduite dans Direct Access Gateway 1.7.5, est désormais disponible via l'API publique à l'aide du paramètre OPTIONAL_CAPABILITIES. Vertical Divider
|
Vertical Divider
|
|
|
Qlik Application Automation a été renommé en Qlik Automate.
Connecteur Qlik Predict Le connecteur Qlik Predict a été enrichi avec de nouveaux blocs permettant de générer des prédictions et analyser les fonctions clés qui influencent le résultat prédit. Automatisations dans les espaces partagés Les automatisations peuvent désormais être placés dans des espaces partages permettant ainsi de :
Améliorations de l’interface d’édition Plusieurs éléments ont été ajoutés ou modifiés :
|
« Delete File » dans le connecteur GitHub Un bloc « Delete File » a été ajouté au connecteur GitHub afin d’encore mieux interagir avec GitHub. Nom personnalisé dans « Get Image Chart » Il est désormais possible de nommer les images générées avec le bloc « Get Image Chart ». Cela est pratique lorsque plusieurs images sont envoyées dans un seul mail. Connecteur Qlik Answer Ce connecteur supporte de nouveaux cas d'utilisation performants tels que l'indexation de nouvelles données « à la volée » et la montée de vos automatisations orientées vers l'action au niveau supérieur en y incluant des informations analytiques non structurées. Ajout des groupes personnalisés dans le connecteur « Qlik Cloud Services » Le connecteur Qlik Cloud Services de Qlik Automate supporte désormais les groupes personnalisés dans tous les blocs liés aux groupes. Vertical Divider
|
|
Vérification d’un assistant
La vue revisitée de la page Vérification d'un assistant permet de mieux visualiser les questions et les réponses de l'assistant. Il est désormais possible de trier ou filtrer les colonnes pour passer en revue les conversations les plus prioritaires. |
Téléchargement des avis :
Il est désormais possible de télécharger les avis d’Examen des assistants Qlik Answers sous forme de fichier CSV. Extension du support sur d’autres régions : Qlik Answers est désormais supporté dans les régions suivantes :
Vertical Divider
|
|
Cas d'utilisation
Vertical Divider
|
Fonctions disponibles
Vertical Divider
|
Exemples :
1. Extraction de nombres dans un texte avec unités (€, $, %)👉 Difficulté en Qlik : Trouver des montants d’argent dans des phrases comme "Prix : 1 299 €" ou "Cost: $150.50". 🔹 Regex possible : regexCopierModifier(?:\€|\$)?\s?(\d{1,3}(?:[.,]\d{3})*(?:[.,]\d{2})?) 🔹 En Qlik natif : Obligation d'utiliser PurgeChar(), Replace() et SubField() pour nettoyer et extraire. 2. Extraction d’identifiants complexes 👉 Difficulté en Qlik : Identifier des codes spécifiques dans du texte (ex: INV-2024-ABC123 ou USER_99-XYZ). 🔹 Regex possible : rCopierModifier(INV-\d{4}-[A-Z0-9]+)|(USER_\d{2}-[A-Z]+) 🔹 En Qlik natif : Nécessite plusieurs WildMatch() ou SubField(), difficilement scalable. |
|
Refonte de l’interface d’une application :
|
|
Nouveau mode dans le graphique en barres : Papillon
Lorsqu’un graphique est composé d’une dimension et de deux mesures, il est désormais possible de paramétrer l’affichage en papillon. Cela permet de créer plus facilement par exemple des pyramides des âges. (image9) Raccourci pour le téléchargement :
Le téléchargement des visualisations est désormais encore plus rapide. L'option Télécharger figure désormais dans le menu contextuel des visualisations. Org Chart (Bundle) L'Organigramme propose désormais de nouveaux paramètres de style, notamment une option permettant d'inclure une image via une URL dans la carte, ce qui s'avère idéal pour donner un aspect encore plus impressionnant aux graphiques hiérarchiques. Vertical Divider
|
Points et lignes manuels dans le graphique en courbes
Le graphique en courbes est doté de nouvelles options permettant d'intégrer des points et des lignes pour ajouter de la perspective, par exemple, pour mettre en évidence des valeurs spécifiques ou afficher des tendances en reliant des points par des lignes. L'ajout de contexte à un graphique est un excellent moyen d'améliorer la facilité d'utilisation et la compréhension des données. |
|
QARRÉS 2025 : PARIS, STRASBOURG & GENÈVE
Trois villes, une même énergie En juin, nous avons eu le plaisir de retrouver nos clients et partenaires lors des Qarrés EASYNEO. Ces rendez-vous ont été l’occasion de partager des expériences concrètes, d’échanger autour de vos enjeux Data & BI et de nourrir des discussions riches de perspectives.
Un immense merci à toutes celles et ceux qui ont participé et fait de ces rencontres un moment de dialogue et d’inspiration collective ! |
|
REWARD INSIGHT SOFTWARE
Une reconnaissance qui s'inscrit dans la durée En mai dernier, EASYNEO participait au Partner Interface EMEA organisé par Insight Software.
Au-delà de la richesse des échanges avec l’écosystème, nous avons eu l’honneur d’être distingués comme "Partner Year-over-Year Growth 2024". Cette reconnaissance est avant tout le reflet de la confiance de nos clients et de la qualité des relations construites avec nos partenaires. Un grand merci à toutes celles et ceux qui rendent cette croissance possible, année après année. |
|
UNE RECONNAISSANCE QUI A DU SENS : CUSTOMER SUCCESS CHAMPION
15 ans d'engagement récompensés EASYNEO a été distinguée par Qlik du prix "Customer Success Champion" pour la zone EMEA en 2024.
Cette récompense repose sur des critères exigeants : un engagement fort dans les initiatives Customer Success, un taux de rétention exceptionnel et un excellent Net Promoter Score. Elle illustre 15 ans d’expertise, de fidélité et de confiance mutuelle avec nos clients. |
|
INNOVATION RECONNUE AU QLIK PARTNER SUBMIT 2025
L'innovation, quand elle se transforme en résultats Lors du Qlik Partner Summit 2025, EASYNEO a reçu le Prix Innovation, qui distingue les initiatives concrètes pour faciliter l’adoption de Qlik.
Ce prix reflète notre conviction : l’innovation n’a de valeur que lorsqu’elle se traduit par des résultats tangibles pour nos clients. |
|
Tutoriel : navigation dans les applications Qlik
|
Qlik Transformation Flow
|
Communiquer avec Qlik Sense directement sur Microsoft Teams
|
PROCHAINES DATES DE FORMATIONS
|
|
Qlik Sense Create Visualization
30 sept et 1er octobre à Strasbourg 3 et 4 novembre à distance 13 et 14 novembre à Strasbourg |
Qlik Sense Data Modeling
8 au 10 septembre à distance 14 au 16 octobre à Paris 17 au 19 novembre à distance 2 au 4 décembre à Strasbourg Qlik Sense Admin 8 et 9 octobre à Strasbourg |
|
|
|
LES DESSOUS DE LA DATA
Bonnes pratiques des organisations data-driven Dans le cadre de sa série "Les dessous de la Data" la rédaction d’IT for Business vous propose ce webinaire pour aller au-delà des discours et explorer les coulisses des organisations data-driven. Nous analyserons les bonnes pratiques, les leviers de performance et les conditions de succès d’une stratégie data bien menée.
|
|
QARRÉ 2025
Innovation et Stratégie Data PARIS ● STRASBOURG ● GENEVE Venez (re)-découvrir les contenus de notre événement Data "Qarré 2025" consacré aux solutions Qlik et Talend, qui comprend :
|
|
Qlik Partner Elite Solution Provider |
EXPERT EN SOLUTIONS DATA & DÉCISIONNELLES
|