Bonnes pratiques pour la connexion à HDFS 3.x et Hive 2.1.1 - spectrum_platform - 23 - 23.1
Guide Spectrum Enterprise Data Integration
- Product type
- Logiciels
- Portfolio
- Integrate
- Product family
- Spectrum
- Product
- Spectrum > Data Integration
- Version
- 23.1
- Language
- Français
- Product name
- Spectrum Data Integration
- Title
- Guide Spectrum Enterprise Data Integration
- First publish date
- 2005
- Last updated
- 2023-10-12
- Published on
- 2023-10-12T08:41:57.873791
- Lors de la création de tables et de la définition du schéma, utilisez des minuscules. Exemple : Créer table de démonstration (id int, nom string, salaire int).
- Utilisez des noms de champ complets lors de l'utilisation de la connexion Hive JDBC avec le stage Read From DB. Sinon, pour lire à partir de la base de données et y écrire, créez une connexion Model Store.
- Emplacement du fichier Keytab pour spécifier les slash / lors de la connexion à partir de Windows.
- Évitez les espaces dans les noms de fichiers, de tables et de champs Hive.
- Utilisez la grille de propriétés pour créer la connexion HDFS
- Création de la connexion HDFS
- Si votre cluster est sécurisé, ou en d'autres termes, s'il est HA Enabled ou SSL Enabled, assurez-vous que : la valeur de property = fs.defaultFS est swebhdfs://<nom du nameservice>, où swebhdfs signifie webhdfs sécurisé.
- Si le cluster n'est pas sécurisé, vous pouvez utiliser webhdfs. En outre, nameservice doit être spécifié car il est utilisé pour d'autres propriétés.
- L'entrée suivante doit être ajoutée au fichier Wrapper.conf : wrapper.java.additional.7=-Djavax.net.ssl.trustStore=<chemin du fichier truststore>/<nom du fichier truststore>