Este paso permite que la cuenta de servicio utilizada por ArgoCD genere los objetos dentro del cluster.
oc adm policy add-role-to-user admin
system:serviceaccount:openshift-gitops:openshift-gitops-argocd-application-controller
-n
1 - Descargar de AMQ Streams el link de Red Hat AMQ Streams 2.6.0
oc extract secret/<kafka-cluster-name>-cluster-ca-cert --keys=ca.crt --to=- > ca.crt
keytool -keystore client.truststore.jks -alias CARoot -import -file ca.crt
5 - Confiar en el certificado a agregar (ca.crt extraído del cluster de OpenShift del cluster de AMQ Streams)
verificar que kafka.listeners.name[tls]. esté en true y el tipo sea ruta para generar una URL al tópico que sea accesible por fuera del cluster de OpenShift
oc get routes <kafka-cluster-name>-kafka-tls-bootstrap -o=jsonpath='{.status.ingress[0].host}{"\n"}'
bin/kafka-console-producer.sh --broker-list <cluster-kafka-domain>:443 --producer-property security.protocol=SSL --producer-property ssl.truststore.password=<pwd-trustore> --producer-property ssl.truststore.location=./client.truststore.jks --topic <topic-name>
bin/kafka-console-consumer.sh --bootstrap-server <cluster-kafka-domain>:443 --consumer-property security.protocol=SSL --consumer-property ssl.truststore.password=<pwd-trustore> --consumer-property ssl.truststore.location=./client.truststore.jks --topic <topic-name> --from-beginning
oc run kafka-producer -ti
--image=registry.redhat.io/amq-streams/kafka-36-rhel8:2.6.0
--rm=true
--restart=Never
-- bin/kafka-console-producer.sh
--bootstrap-server my-cluster-kafka-bootstrap:9092
--topic my-topic
oc run kafka-consumer -ti
--image=registry.redhat.io/amq-streams/kafka-36-rhel8:2.6.0
--rm=true
--restart=Never
-- bin/kafka-console-consumer.sh
--bootstrap-server my-cluster-kafka-bootstrap:9092
--topic my-topic
--from-beginning